Noticias
Confluencia para 3.2.2025 – por CRA
Published
2 meses agoon

Bienvenido a Confluence. Ha estado muy ocupado en el mundo de la IA generativa, con nuevos modelos sustantivos de Operai, Anthrope y XAI en las últimas semanas. Tenemos mucho de qué hablar, más de lo que podemos llegar a todos a la vez. Dicho esto, esto es lo que tiene nuestra atención esta semana en la intersección de la IA generativa y la comunicación corporativa:
-
Chatgpt Deep Investigación ahora disponible para usuarios más
-
Amazon anuncia Alexa+, impulsado por Claude
-
Cómo un INSIDER AI usa LLMS
-
Nuestra pila de modelos actual
La frontera continúa siendo más barata y más accesible.
Hace menos de un mes, escribimos sobre la investigación profunda de Chatgpt. Nos sorprendió. Sentimos que habíamos cruzado otro umbral en las capacidades generativas de IA, ya que ahora teníamos “un agente que [we] Puede asignar a la investigación e informar sobre un tema, dejar por un tiempo y volver a tener un trabajo que sea igual o superior a la mayoría de los estándares humanos “. La única investigación para una investigación profunda fue que solo estaba disponible para los usuarios de ChatGPT Pro que pagaron $ 200 por mes.
Este ya no es el caso. Esta semana, Openai hizo una investigación profunda a disposición de todos los usuarios de ChatGpt Plus, Team, Enterprise y EDU. Los usuarios de estos niveles reciben 10 consultas por usuario por mes, lo cual es suficiente para tener una idea de cuán poderosa puede ser esta herramienta. Lo pensamos de esta manera: por $ 20 por mes, puede obtener 10 informes de investigación personalizados que están en o superiores al nivel que muchos humanos producirían, y solo tomará aproximadamente 10 minutos generar cada uno. Aún mejor, puede solicitar estos informes cuando lo desee, sobre cualquier tema que atraiga su interés, sin alejar a nadie de su otro trabajo. Hace que sea mucho más fácil y menos costoso, en términos de tiempo, energía y atención, explorar los temas que elija, incluso si es un interés pasajero.
Si es escéptico sobre exactamente cuán inteligente es la investigación profunda, Timothy Lee realizó un experimento que vale la pena su tiempo para leer. Le pidió a 19 de sus lectores, que trabajan como maestros, abogados, ingenieros y más, que usen investigaciones profundas y evalúen su producción. De estos 19 profesionales, 17 creía que la producción se comparaba favorablemente con al menos Los trabajadores de nivel de entrada en su campo con siete lo comparan favorablemente con el trabajo de profesionales experimentados. Y produce estas salidas en minutos, en lugar de horas o días.
Hacemos nuestro mejor esfuerzo en Confluencia para señalarlo a los desarrollos en IA generativa que tienen nuestra atención (y creemos que deberían tener el suyo). Si aún no ha utilizado investigaciones profundas, sugerimos probarlo ahora. Creemos que estarás atónito, como hemos estado.
Una nueva oportunidad para la adopción masiva de IA generativa.
Esta semana, Amazon dio a conocer Alexa+, su asistente virtual de próxima generación impulsado por IA generativo a través de una asociación con antrópico y basado en el modelo de lenguaje grande Claude muy poderoso de Anthrope (el modelo que usamos más día a día). Amazon pronostica que el nuevo Alexa participará en conversaciones “expansivas y naturales”, y que será más capaz de ayudar a los usuarios a realizar tareas diarias. Amazon planea desplegar Alexa+ en los Estados Unidos en las próximas semanas durante un período de acceso temprano (Puede solicitar ser considerado para el acceso temprano aquí), priorizando a los propietarios de dispositivos Alexa más sofisticados. El servicio será gratuito para todos los miembros de Amazon Prime, y costará a los no miembros $ 19.99/mes. El despliegue planificado potencialmente traerá capacidades de IA avanzadas a millones de hogares en un futuro muy cercano.
Esta integración podría fomentar un nuevo nivel de comprensión pública del valor práctico de la IA. Cuando Amazon lanzó Alexa por primera vez en 2014, creó una nueva categoría de productos que rápidamente ingresó a millones de casas. Hoy, más de 600 millones de dispositivos Alexa operan en todo el mundo, con muchos usuarios que los incorporan a las rutinas diarias: verificar el clima, tocar música, controlar otros dispositivos inteligentes en todo el hogar. La presencia establecida y la familiaridad de Alexa proporcionan una plataforma única para la adopción de IA que requiere un cambio de comportamiento mínimo o el aprendizaje de interfaz de los usuarios. Si Anthrope y Amazon se ejecutan bien, esta asociación podría demostrar las capacidades de IA de una manera accesible que resuena más allá de la multitud experta en tecnología.
Pero ese es un considerable “si”. Escribimos el año pasado con optimismo Sobre la inteligencia de Apple de Apple poniendo el poder de la IA en los bolsillos en todo el mundo, pero la tecnología se ha decepcionado. Una búsqueda rápida de Google para “¿Por qué la inteligencia de Apple es tan mala?“Produce páginas de explicadores tratando de responder esa pregunta.
No asumimos que Alexa+ revolucionará inmediatamente la adopción generativa de IA. Dicho esto, el desarrollo merece atención. Amazon afirma haber creado avances técnicos, incluidos “expertos” (sistemas, capacidades e instrucciones para tareas específicas) y “capacidades de agente”, permitiendo que Alexa naveguen de Internet de forma independiente para completar las tareas. La verdadera prueba para Alexa+ no se encuentra en la ambiciosa presentación de Amazon, sino en si ofrece utilidad genuina en salas de estar cuando el centro de atención de marketing se desvanece. Estaremos mirando con interés.
El nuevo video fundador de Operai, Andrej Karpathy, proporciona una valiosa descripción general del estado actual de herramientas y capacidades.
Primero señalamos Confluencia lectores de uno de Andrej Karpathyvideos en Noviembre de 2023. El video en ese caso fue su charla de “Introducción a modelos de idiomas grandes”, que mostró la capacidad de Karpathy para traducir su profunda experiencia en explicaciones accesibles para los no tecnólogos. En las últimas semanas, ha publicado dos nuevos videos, nuevamente dirigidos a una audiencia general no técnica. Esta semana vimos a uno de ellos “Cómo uso LLM”y recomiende que cualquier persona que quiera ponerse al día o profundice en el estado actual de las herramientas y capacidades de LLM hagan lo mismo. Es largo, a poco más de dos horas, pero si lo divides en trozos (como lo hicimos), es manejable.
Quizás la mayor fuerza del video es su enfoque práctico. Es “un tutorial práctico y impulsado por el ejemplo de modelos de idiomas grandes y su creciente lista de características relacionadas”. Al igual que lo hacemos en nuestros seminarios y en sesiones con clientes, Karpathy gasta casi todo el video demostrando estas herramientas y capacidades en lugar de explicarlas. Igualmente valioso es la cobertura de Karpathy de una amplia gama de herramientas, incluidos ChatGPT, Claude, Gemini, Grok, Perpleity, NotebookLM y Cursor. Muchos videos de descripción general como este se centran en una herramienta específica, por lo que ver la karpathy trabajar a través de todos estos y demostrar sus similitudes y diferencias en tiempo real es particularmente valioso.
Para proporcionar una sensación de cuánto cubre, en términos de herramientas y características, esta es la lista de segmentos con estampado de tiempo en el video:
Los “capítulos” que se muestran arriba se mueven de más simples a más complejos y sofisticados a medida que avanza el video, que es otra fuerza del enfoque de Karpathy. En el transcurso del video, Karpathy construye una visualización del estado actual de LLMS, lo que finalmente resulta en la imagen a continuación. Al principio, el lienzo está en blanco. En cada capítulo, Karpathy agrega una nueva pieza a esto, proporcionando descripciones y demostraciones accesibles de cada uno como él.
Para cualquiera que quiera ponerse al día, no solo en las últimas herramientas y capacidades, sino en cómo funcionan y cómo se comparan entre sí, el video de Karpathy sería dos horas bien gastadas. Este video seguramente tendrá una vida útil limitada; de hecho, Claude 3.7 fue lanzado mientras Karpathy estaba filmando el videoy GPT-4.5 fue lanzado el día después de su publicación. Por ahora, sin embargo, podría decirse que es la descripción general más completa y accesible del panorama actual que conocemos. Y hablando de lo rápido que se mueven las cosas …
Las cosas están cambiando rápidamente, pero esto es lo que estamos usando y para lo que, en los principales modelos generativos de IA generativos de hoy.
En las últimas semanas, parece que los poderosos nuevos modelos de IA generativos han estado volando de los estantes como … lo que sea que salga de los estantes en su parte del mundo. Incluso tenemos dificultades para mantenernos al día, y tenemos mucho trabajo por hacer para descubrir dónde sobresale cada modelo. Dicho esto, aquí está la pila actual de modelos que usamos diariamente para fines particulares, en caso de que sea de ayuda. Su uso puede variar.
-
Nuestro controlador diario: Claude Sonnet 3.7 (antrópico). Esta es nuestra opción. Lo usamos para análisis, escritura, asociación de pensamiento, codificación, casi todo lo que no sean los casos de uso específicos a continuación. Hemos preferido a Claude durante más de un año, y Sonnet 3.7 sigue siendo nuestra mejor opción para la mayor parte de nuestro trabajo. Encender su opción de “pensamiento” trae razonamiento a sus respuestas, lo que las hace aún más poderosas. Sonnet 3.7 es increíble.
-
Informes de investigación: Investigación profunda de Openai. Esta herramienta crea largos documentos informativos o informes de investigación (de cinco a 20 páginas o más, a menudo con más de 100 citas) en temas específicos. Todavía no es realmente confiable en la revisión de la literatura académica, ya que gran parte de la literatura permanece detrás de los paredes de pago, y a veces puede superar sobre algunas fuentes, pero si desea ser razonablemente inteligente sobre algo en poco tiempo, esta herramienta es increíble. Asegúrese de verificar cualquier hecho que pueda causar un riesgo de reputación si están equivocados, y solicite a otro modelo que critique el resultado para asegurarse de tener una perspectiva equilibrada. Consulta de ejemplo:
Research the concept of resilience. Consider what the published academic literature has to say about resilience in organizations, teams, communities, and individuals. Apply those findings to a leadership context, extrapolating reasonable conclusions that leaders should draw about fostering resilience in the people they lead in organizations and professional settings. Avoid cliches, tropes, and consultant mythology. Ground your search in what the literature has to say about the best ways to foster resilience in organizations, teams, and people. Pay particular attention to specific behaviors, routines, and actions that leaders can incorporate into their daily practice to foster resilience in others.
-
Pensamiento profundo de un colega brillante: OpenAi O1. Usamos este modelo cuando queremos un pensamiento muy profundo y particular sobre un tema. ¿Por qué “en particular”? ” Hemos llegado a la opinión de que los modelos de idiomas grandes son una forma de inteligencia alienígena. No estamos diciendo que sean sensibles, pero claramente piensan de manera diferente a lo que hacemos (de hecho, nadie sabe realmente cómo piensan), y son claramente inteligentes. O1 es “muy” en ambas dimensiones. Así que lo consideramos como un colega brillante que ve las cosas de manera diferente a lo que hacemos. No le damos muchas consultas, pero cuando tenemos un problema sobre el cual nos gustaría una perspectiva inteligente y diferente con mucho razonamiento detrás de esto, O1 es nuestra opción. Consultas de ejemplo:
Research the time management practice of time boxing or time blocking. Consider how Cal Newport and Oliver Burkeman use this strategy. Offer specific strategies for how to apply it in my life, knowing that my calendar is often pre-planned in advance by my Executive Assistant. Consider the effects of the planning fallacy. Consider how I could best implement this knowing that my primary planning tools are Outlook Calendar and a remarkable 2 digital notebook. Make your thinking practical. As context, note that I lack deep work time, and I sense that I don't focus as much as I should on priorities and big rocks day-to-day. Ideal outcome is better throughput of priority items at work and home. I have blocks of time I can protect. I use the remarkable for notes and reflection, but can also use it for planning. Tasks are kept in a set of next action categories in a to-do app (for now at least).
Write your best case study to create a conversation about judgement among a group of mid-career strategic communication consultants in our firm. Don’t be beholden to popular forms like that of Harvard B School. Use your own intellect to create the content and design however you see fit with the goal of fostering a credible dialogue in which our consultants develop their professional judgment.
-
Generación de imágenes: Midjourney. Hay otras herramientas de generación de imágenes, pero para nosotros, MidJourney sigue siendo la mejor herramienta. Lo usamos para crear las imágenes de encabezado en Confluenciay ahora que puede usarlo como sitio web y no a través de Discord, no hay razón para no usar MidJourney. Al igual que cualquier herramienta de IA generativa, lo que obtienes depende mucho de cómo se indique, por lo que es útil pasar un tiempo para aprender sus entresijos. Incluso hemos creado un proyecto de Claude que hemos hecho una lluvia de ideas de ideas e indicaciones para nosotros. Ejemplo de indica (y la salida):
Mark Rothko-inspired abstract expressionist painting, horizontal rectangular color fields transitioning from earth browns at bottom to vibrant reds and oranges at top, subtle digital texture embedded in the color transitions, corporate silhouettes at bottom edge, 4:3 aspect ratio, oil painting texture --ar 4:3 --v 6
-
Actualizaciones sobre eventos actuales: Grok 3. No mucha gente está hablando de eso, pero Grok 3 es un modelo sorprendentemente bueno, y es sorprendente si consideras que X lo desarrolló en meses. Definitivamente es diferente de los otros modelos, en parte porque casi cualquier cosa sucede en Grok. Puede ser divertido, extraño, crudo … y muy efectivo, especialmente para resumir los eventos actuales, ya que es un modelo de razonamiento que busca tanto la web como X. Nuevamente, verifique cualquier hecho que planifique citar. Consulta de ejemplo (y en este caso, salida, ya que no hemos escrito mucho sobre Grok; al crear su respuesta, Grok pensó durante 18 segundos y leí 11 x publicaciones y 15 páginas web):
Us: The NASCAR race at COTA is today. Bring me up to speed on what's new with it over the past 24 hours. Grok: The NASCAR Cup Series race at the Circuit of the Americas (COTA) is happening today, Sunday, March 2, 2025, at 3:30 p.m. ET. Here’s a rundown of what’s new and noteworthy over the past 24 hours as you get ready for the event. New Track Layout and Race Format This year, NASCAR has switched to a shorter version of the COTA circuit, dubbed the "National" circuit. It’s 2.4 miles long with 20 turns, a big shift from the full 3.4-mile layout used in previous years. The new design eliminates the long straightaways and introduces a sharp, acute left-hander at Turn 6A, which should open up more passing zones—and potentially lead to some on-track chaos. To adjust for the shorter track, the race has been extended to 95 laps, up from 68 laps in prior years. This means more racing action for fans and a fresh strategic challenge for teams. Key Driver and Team Updates William Byron, last year’s winner, is chasing consecutive victories at COTA but will start from 15th today. Tyler Reddick, the 2023 COTA winner, grabbed pole position and looks like a top contender. Shane van Gisbergen, a road course ace and three-time Supercars champion, has been fast in practice and is pegged as a favorite. Connor Zilisch, an 18-year-old phenom, is making his NASCAR Cup Series debut. He’s already won big races like the Rolex 24 at Daytona and the 12 Hours of Sebring, so all eyes are on him. On the team front, 23XI Racing dominated qualifying, locking out the front row, while Trackhouse Racing has three cars in the top 10, promising a fierce fight up front. Technical Changes to Watch Repaved Track Surface: Sections of the track, particularly Turns 2-8, have been freshly paved. This could shake up grip levels and tire wear, making adaptability key. New Goodyear Tires: A new tire compound is in play this year, adding another layer of intrigue to race strategy. Teams will likely lean toward a three-stop strategy, though some might risk a two-stop gamble with the longer race. Fan Experience and Weather NASCAR’s keeping fans entertained with extras like dance troops from America’s Got Talent and pig races. Weather’s looking ideal: sunny skies, 70s temperatures, and just a 5% chance of rain. Future Uncertainty There’s a question mark hanging over COTA’s NASCAR future. The rental deal between Speedway Motorsports and COTA expires this year, and while a 2026 return is anticipated, nothing’s locked in yet. With a revamped track, a longer race, and a stacked field of veterans and rising stars, today’s event is gearing up to be a wild one. Enjoy the show!
Hay otros modelos que son buenos en la generación de videos (VEO 2 de Google) y la música (Suno AI), pero no los usamos mucho día a día. No sabemos mucho sobre a dónde va todo esto, pero sí lo sabemos: nuestra lista será diferente en seis meses. Así que continuaremos publicando esta lista de vez en cuando.
Te dejaremos con algo genial: más allá de los puntos de referencia técnicos, hay algunos en Anthrope que miden las capacidades de Claude de una manera diferente … ¿Qué tan lejos puede llegar a jugar Pokémon Red?. Incluso puedes ver una transmisión en vivo de Claude jugando el juego en Twitch.
Compartir
AI Disclosure: We used generative AI in creating imagery for this post. We also used it selectively as a creator and summarizer of content and as an editor and proofreader.
You may like
Noticias
El ex ejecutivo de Operai se une a la IA, el sector público y los líderes de ciberseguridad que encabezan Info-Tech Live 2025 en Las Vegas
Published
4 horas agoon
15 mayo, 2025
A medida que Momentum continúa construyendo en las semanas previas a la muy esperada conferencia anual de la industria para CIO y líderes de TI, Info-Tech Research Group ha anunciado tres nuevos oradores destacados para Info-Tech Live 2025 en Las Vegas en junio. Los altavoces recién revelados incluyen Zack Kassex jefe del mercado de ir al mercado en Openai; Bob LeeCIO para Condado de Clark, Nevada; y David TyburskiVicepresidente de Seguridad de la Información y CISO en Wynn Resorts – Voces líderes en IA, innovación del sector público y ciberseguridad. Sus notas clave Ofrezca claridad, estrategia y ideas prácticas sobre los desafíos de TI más urgentes de hoy al proporcionar diversas perspectivas sobre cómo la tecnología está remodelando las industrias, las instituciones y el liderazgo en sí.
Toronto, 14 de mayo de 2025 / PRNewswire/-Info-Tech Research Group, una firma líder mundial de investigación y asesoramiento de TI, ha anunciado tres oradores destacados adicionales para su próximo Info-Tech Live 2025 en Las Vegas Conferencia de TI. Los altavoces son Zack Kassex jefe del mercado de ir al mercado en Openai; Bob LeeCIO para Condado de Clark, Nevada; y David TyburskiVicepresidente de Seguridad de la Información y CISO en Wynn Resorts. Estos oradores compartirán su experiencia en innovación de IA, liderazgo del sector público y ciberseguridad empresarial en el escenario principal del evento insignia de la firma, que tiene lugar. 10-12 de junio, 2025en Bellagio en Las Vegas.
Info-Tech Live 2025 reunirá a miles de CIO, CDO, CISO y líderes de TI durante tres días de notas clave, Insights de analistas y compromiso entre pares. La urgencia y la oportunidad que enfrentan los líderes tecnológicos hoy mientras navegan por la interrupción y la innovación se refleja en el tema de este año “Transformarlo. Transformar todo”.
“Estos altavoces destacados para Info-Tech Live 2025 en Las Vegas Refleja las prioridades y presiones en evolución que enfrentan los líderes de TI hoy, en todas las industrias y mercados “, dice el director de investigación del grupo de investigación de información de información, Gord Harrison. “Desde redefinir cómo las organizaciones se involucran con la IA, hasta la transformación de la prestación de servicios públicos, hasta la defensa de la infraestructura digital en las industrias de alto riesgo, estos líderes aportan información crítica del futuro. Juntos, sus perspectivas ayudarán a los asistentes a ir más allá de la conciencia y tomar una acción estratégica y confidencial”.
Recientemente anunciados oradores destacados para información-tech en vivo 2025 en Las Vegas:
Las últimas incorporaciones a la lista de oradores 2025 de Info-Tech ofrecen a los asistentes una gran cantidad de experiencia en décadas de liderazgo práctico, consultoría e innovación. Sus sesiones proporcionarán nuevas perspectivas sobre los desafíos empresariales actuales, desde la navegación de tecnologías emergentes y las demandas de cumplimiento hasta las estrategias de transformación de escala y alinear las inversiones de TI con el crecimiento empresarial. Los oradores recién anunciados incluyen:
- Zack Kass, Asesor global de IA, ex jefe de Go To-Mercado, OpenAI
Zack Kass es un asesor futurista y global que ayuda a Fortune 1000 empresas y gobiernos a adaptarse al panorama de IA que cambia rápidamente. Como ex jefe del mercado de ir a OpenAI, ayudó a construir y liderar a los equipos responsables de traducir la investigación en aplicaciones del mundo real. Kass ahora trabaja para desmitificar la IA y dar forma a un futuro donde la tecnología sirve a las personas y la sociedad.
- Bob LeeCIO para Condado de Clark, Nevada
Bob Lee sirve como CIO para Condado de Clark, Nevadaapoyando a más de 2.4 millones de residentes, 90,000 empresas y más de 50 millones de visitantes anualmente. Con más de 25 años de experiencia en los sectores público y privado, Leek se centra en el cambio transformador, el liderazgo inclusivo y el uso de la tecnología para mejorar los resultados para las comunidades a las que sirve.
- David TyburskiVP de seguridad de la información y director de seguridad de la información para Wynn Resorts
David Tyburski Lidera la estrategia global de ciberseguridad de Wynn Resorts, supervisando la identidad y el acceso, la gestión de riesgos y la respuesta a los incidentes. Con más de 30 años en TI y seguridad, Tyburski también asesora sobre múltiples juntas de la industria y sirve en la Junta Asesora de Tecnología de la Información del Estado de Nevada.
Info-tech en vivo 2025 en Las Vegas Proporcionará estrategias procesables e información de investigación en profundidad a los líderes y ejecutivos de TI en todas las industrias. Los asistentes tendrán la oportunidad de interactuar con los analistas expertos de Info-Tech, participar en sesiones interactivas y mesas redondas, y obtener un conocimiento crítico sobre el panorama de TI en rápida evolución. La conferencia también contará con una impresionante línea de oradores principales, talleres y eventos de redes diseñados para equipar a los asistentes con las herramientas para impulsar la transformación de TI exponencial. Se publicarán anuncios adicionales en las semanas previas a la conferencia.
Para obtener los últimos detalles, visite el Info-Tech Live 2025 en Las Vegas página, y siga el grupo de investigación de información de información sobre LinkedIn y incógnita.
Media pasa por información-Tech Live 2025 en Las Vegas
Los profesionales de los medios, incluidos periodistas, podcasters e influencers, están invitados a asistir a Info-Tech Live 2025 para obtener acceso exclusivo a la investigación, el contenido y las entrevistas con los líderes de la industria. Para aquellos que no pueden asistir en persona, Info-Tech ofrece una opción de pase digital, proporcionando acceso a notas clave en vivo, sesiones seleccionadas y entrevistas virtuales exclusivas con oradores y analistas.
Los profesionales de los medios que buscan solicitar pases en persona o digitales pueden contactar pr@infotech.com Para asegurar su lugar y cubrir los últimos avances en él para su público.
Oportunidades de expositor
Los expositores también están invitados a formar parte de Info-Tech Live y mostrar sus productos y servicios a un público altamente comprometido de tomadores de decisiones de TI. Para obtener más información sobre cómo convertirse en un expositor de información en vivo, comuníquese con events@infotech.com.
Acerca del grupo de investigación de tecnología de información
Info-Tech Research Group es una de las principales empresas de investigación y asesoramiento del mundo, que atiende con orgullo a más de 30,000 profesionales. La compañía produce una investigación imparcial y altamente relevante y brinda servicios de asesoramiento para ayudar a los líderes a tomar decisiones estratégicas, oportunas y bien informadas. Durante casi 30 años, Info-Tech se ha asociado estrechamente con los equipos para proporcionarles todo lo que necesitan, desde herramientas procesables hasta orientación de analistas, asegurando que brinden resultados medibles para sus organizaciones.
Para obtener más información sobre las divisiones de Info-Tech, visite McLean & Company para obtener servicios de investigación y asesoramiento de recursos humanos y SoftWarReviews para obtener información sobre la compra de software.
Los profesionales de los medios pueden registrarse para un acceso sin restricciones a la investigación a través de TI, recursos humanos y software y cientos de analistas de la industria a través del Programa de Insiders de Medios de la empresa. Para obtener acceso, contactar pr@infotech.com.
Grupo de investigación de tecnología de información de origen
Noticias
Operai trae GPT-4.1 y 4.1 mini a Chatgpt-Lo que las empresas deben saber
Published
9 horas agoon
14 mayo, 2025
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Operai está implementando GPT-4.1, su nuevo modelo de lenguaje grande (LLM) no inicial que equilibra el alto rendimiento con menor costo, para los usuarios de ChatGPT. La compañía está comenzando con sus suscriptores que pagan en ChatGPT Plus, Pro y Equipo, con el acceso a los usuarios de la empresa y la educación esperada en las próximas semanas.
También está agregando GPT-4.1 Mini, que reemplaza a GPT-4O Mini como el valor predeterminado para todos los usuarios de ChatGPT, incluidos los de nivel gratuito. La versión “Mini” proporciona un parámetro a menor escala y, por lo tanto, una versión menos potente con estándares de seguridad similares.
Ambos modelos están disponibles a través de la selección desplegable “Más modelos” en la esquina superior de la ventana de chat dentro de ChatGPT, dando a los usuarios flexibilidad para elegir entre modelos GPT-4.1, GPT-4.1 mini y razonamiento como O3, O4-Mini y O4-Mini-High.
Inicialmente destinado a usar solo por el software de terceros y los desarrolladores de IA a través de la interfaz de programación de aplicaciones (API) de OpenAI, se agregó GPT-4.1 a ChatGPT siguiendo fuertes comentarios de los usuarios.
El líder de investigación de la capacitación posterior de Operai, Michelle Pokrass, confirmó en X, el cambio fue impulsado por la demanda, escribiendo: “Inicialmente estábamos planeando mantener esta API de modelo solo, pero todos lo querían en Chatgpt ¡feliz codificación!”
El director de productos de Operai, Kevin Weil, publicó en X diciendo: “Lo construimos para los desarrolladores, por lo que es muy bueno para la codificación e instrucciones siguientes, ¡hágalo un intento!”
Un modelo centrado en la empresa
GPT-4.1 fue diseñado desde cero para la practicidad de grado empresarial.
Lanzado en abril de 2025 junto con GPT-4.1 Mini y Nano, esta familia modelo priorizó las necesidades de los desarrolladores y los casos de uso de producción.
GPT-4.1 ofrece una mejora de 21.4 puntos sobre GPT-4O en el punto de referencia de ingeniería de software verificado SWE-Bench, y una ganancia de 10.5 puntos en tareas de seguimiento de instrucciones en el punto de referencia MultiChallenge de Scale. También reduce la verbosidad en un 50% en comparación con otros modelos, un rasgo de los usuarios de la empresa elogió durante las pruebas tempranas.
Contexto, velocidad y acceso al modelo
GPT-4.1 admite el contexto estándar Windows para ChatGPT: 8,000 tokens para usuarios gratuitos, 32,000 tokens para usuarios más y 128,000 tokens para usuarios de Pro.
Según el desarrollador Angel Bogado Publicing en X, estos límites coinciden con los utilizados por los modelos de CHATGPT anteriores, aunque los planes están en marcha para aumentar aún más el tamaño del contexto.
Si bien las versiones API de GPT-4.1 pueden procesar hasta un millón de tokens, esta capacidad ampliada aún no está disponible en ChatGPT, aunque el soporte futuro se ha insinuado.
Esta capacidad de contexto extendida permite a los usuarios de la API alimentar las bases de código enteras o grandes documentos legales y financieros en el modelo, útil para revisar contratos de documentos múltiples o analizar grandes archivos de registro.
Operai ha reconocido cierta degradación del rendimiento con entradas extremadamente grandes, pero los casos de prueba empresarial sugieren un rendimiento sólido de hasta varios cientos de miles de tokens.
Evaluaciones y seguridad
Operai también ha lanzado un sitio web de Safety Evaluations Hub para brindar a los usuarios acceso a métricas clave de rendimiento en todos los modelos.
GPT-4.1 muestra resultados sólidos en estas evaluaciones. En las pruebas de precisión de hecho, obtuvo 0.40 en el punto de referencia SimpleQA y 0.63 en Personqa, superando a varios predecesores.
También obtuvo 0.99 en la medida “no insegura” de OpenAI en las pruebas de rechazo estándar, y 0.86 en indicaciones más desafiantes.
Sin embargo, en la prueba de jailbreak Strongject, un punto de referencia académico para la seguridad en condiciones adversas, GPT-4.1 obtuvo 0.23, detrás de modelos como GPT-4O-Mini y O3.
Dicho esto, obtuvo un fuerte 0.96 en indicaciones de jailbreak de origen humano, lo que indica una seguridad más robusta del mundo real bajo el uso típico.
En la adhesión de instrucciones, GPT-4.1 sigue la jerarquía definida de OpenAI (sistema sobre desarrollador, desarrollador sobre mensajes de usuario) con una puntuación de 0.71 para resolver conflictos de mensajes del sistema frente a usuario. También funciona bien para proteger frases protegidas y evitar regalos de soluciones en escenarios de tutoría.
Contextualización de GPT-4.1 contra predecesores
El lanzamiento de GPT-4.1 se produce después del escrutinio alrededor de GPT-4.5, que debutó en febrero de 2025 como una vista previa de investigación. Ese modelo enfatizó un mejor aprendizaje sin supervisión, una base de conocimiento más rica y alucinaciones reducidas, que caían del 61.8% en GPT-4O al 37.1%. También mostró mejoras en los matices emocionales y la escritura de forma larga, pero muchos usuarios encontraron las mejoras sutiles.
A pesar de estas ganancias, GPT-4.5 generó críticas por su alto precio, hasta $ 180 por millón de tokens de producción a través de API, y por un rendimiento decepcionante en matemáticas y puntos de referencia de codificación en relación con los modelos O-Series O de OpenAi. Las cifras de la industria señalaron que si bien GPT-4.5 era más fuerte en la conversación general y la generación de contenido, tuvo un rendimiento inferior en aplicaciones específicas del desarrollador.
Por el contrario, GPT-4.1 se pretende como una alternativa más rápida y más enfocada. Si bien carece de la amplitud de conocimiento de GPT-4.5 y un modelado emocional extenso, está mejor sintonizado para la asistencia de codificación práctica y se adhiere de manera más confiable a las instrucciones del usuario.
En la API de OpenAI, GPT-4.1 tiene un precio de $ 2.00 por millón de tokens de entrada, $ 0.50 por millón de tokens de entrada en caché y tokens de salida de $ 8.00 por millón.
Para aquellos que buscan un saldo entre velocidad e inteligencia a un costo más bajo, GPT-4.1 Mini está disponible en $ 0.40 por millón de tokens de entrada, $ 0.10 por millón de tokens de entrada en caché y tokens de salida de $ 1.60 por millón.
Los modelos Flash-Lite y Flash de Google están disponibles a partir de $ 0.075– $ 0.10 por millón de tokens de entrada y $ 0.30– $ 0.40 por millón de tokens de salida, menos de una décima parte del costo de las tasas base de GPT-4.1.
Pero si bien GPT-4.1 tiene un precio más alto, ofrece puntos de referencia de ingeniería de software más fuertes y una instrucción más precisa después, lo que puede ser crítico para los escenarios de implementación empresarial que requieren confiabilidad sobre el costo. En última instancia, el GPT-4.1 de OpenAI ofrece una experiencia premium para el rendimiento de precisión y desarrollo, mientras que los modelos Gemini de Google atraen a empresas conscientes de costos que necesitan niveles de modelos flexibles y capacidades multimodales.
Lo que significa para los tomadores de decisiones empresariales
La introducción de GPT-4.1 aporta beneficios específicos a los equipos empresariales que administran la implementación de LLM, la orquestación y las operaciones de datos:
- Ingenieros de IA Supervisando la implementación de LLM puede esperar una velocidad mejorada e instrucción de adherencia. Para los equipos que administran el ciclo de vida LLM completo, desde el modelo de ajuste hasta la resolución de problemas, GPT-4.1 ofrece un conjunto de herramientas más receptivo y eficiente. Es particularmente adecuado para equipos Lean bajo presión para enviar modelos de alto rendimiento rápidamente sin comprometer la seguridad o el cumplimiento.
- La orquestación de IA conduce Centrado en el diseño de tuberías escalable apreciará la robustez de GPT-4.1 contra la mayoría de las fallas inducidas por el usuario y su fuerte rendimiento en las pruebas de jerarquía de mensajes. Esto facilita la integración en los sistemas de orquestación que priorizan la consistencia, la validación del modelo y la confiabilidad operativa.
- Ingenieros de datos Responsable de mantener una alta calidad de datos e integrar nuevas herramientas se beneficiará de la tasa de alucinación más baja de GPT-4.1 y una mayor precisión objetiva. Su comportamiento de salida más predecible ayuda a construir flujos de trabajo de datos confiables, incluso cuando los recursos del equipo están limitados.
- Profesionales de seguridad de TI La tarea de integrar la seguridad en las tuberías de DevOps puede encontrar valor en la resistencia de GPT-4.1 a jailbreaks comunes y su comportamiento de salida controlado. Si bien su puntaje académico de resistencia de jailbreak deja espacio para mejorar, el alto rendimiento del modelo contra las exploits de origen humano ayuda a apoyar la integración segura en herramientas internas.
En estos roles, el posicionamiento de GPT-4.1 como un modelo optimizado para mayor claridad, cumplimiento y eficiencia de implementación lo convierte en una opción convincente para empresas medianas que buscan equilibrar el rendimiento con las demandas operativas.
Un nuevo paso adelante
Mientras que GPT-4.5 representaba un hito de escala en el desarrollo del modelo, GPT-4.1 se centra en la utilidad. No es el más caro o el más multimodal, pero ofrece ganancias significativas en áreas que importan para las empresas: precisión, eficiencia de implementación y costo.
Este reposicionamiento refleja una tendencia de la industria más amplia, alejada de la construcción de los modelos más grandes a cualquier costo y hacia los modelos capaces más accesibles y adaptables. GPT-4.1 cumple con esa necesidad, ofreciendo una herramienta flexible y lista para la producción para equipos que intentan integrar la IA más profundamente en sus operaciones comerciales.
A medida que OpenAI continúa evolucionando sus ofertas de modelos, GPT-4.1 representa un paso adelante en la democratización de IA avanzada para entornos empresariales. Para la capacidad de equilibrio de los tomadores de decisiones con el ROI, ofrece un camino más claro hacia el despliegue sin sacrificar el rendimiento o la seguridad.
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.

Noticias
¿Qué es chatgpt? Todo lo que necesitas saber sobre el chatbot de la IA
Published
14 horas agoon
14 mayo, 2025
ChatGPT es el chatbot de inteligencia artificial que comenzó toda la revolución generativa de IA. Es una herramienta multimodal que puede realizar una variedad de funciones, desde responder preguntas complejas, y simplificar las respuestas para usted, como si tenga 5 años, hasta codificar el software, crear imágenes y videos e incluso participar en conversaciones casuales.
Lanzado en noviembre de 2022 por OpenAI, la compañía cofundada por Sam Altman, ChatGPT rápidamente se convirtió en la aplicación de IA más popular jamás lanzada, y la que todos intentaron emular y One-Up. Desde entonces, todos los grandes jugadores tecnológicos se han unido a la carrera generativa de IA. Perplexity, Meta AI, Géminis de Google, Copilot de Microsoft y Claude de Anthrope pueden hacer cosas similares. Pero la popularidad de ChatGPT, las capacidades abiertas y el comienzo temprano le dieron una fuerte ventaja.
ChatGPT se convirtió en una de las aplicaciones de más rápido crecimiento en la historia, acumulando cientos de millones de usuarios. ChatGPT a menudo se destaca debido a su versatilidad y facilidad de uso, pero principalmente desde la gran escala de su base de usuarios.
Vamos a profundizar en cómo funciona ChatGPT, cómo usarlo y por qué se ha convertido en la charla de la ciudad en los últimos años, y algunos de sus puntos más controvertidos.
¿Cómo funciona el chatgpt?
ChatGPT se basa en una arquitectura de transformador, específicamente la familia de modelos GPT (transformador generativo previamente provocado), el nombre del nombre chatgpt. Fue capacitado en grandes cantidades de datos de libros e Internet: sitios web, wikipedia, hilos de reddit, sitios de noticias y mucho, mucho más.
(Divulgación: Ziff Davis, la empresa matriz de CNET, en abril presentó una demanda contra OpenAi, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).
Al igual que otros chatbots de IA, utiliza algoritmos de aprendizaje profundo para comprender el contexto y predice la siguiente palabra más probable en una oración basada en patrones que se ha visto antes. Esa es una razón por la cual a veces “alucina” o genera información segura pero incorrecta.
ChatGPT se basa en modelos de idiomas grandes (LLM), lo que permite comprender sus preguntas y proporcionar respuestas similares a los humanos. A veces lo hace de manera tan convincente y natural, podrías olvidar que es no realmente pensando. Y este límite se está empujando más todo el tiempo. Su último modelo, GPT-4.5, actualmente disponible para niveles más y superiores en una vista previa de investigación, muestra una mayor inteligencia emocional y supuestamente alucina menos.

A partes iguales impresionantes e inquietantes, varios LLM han pasado recientemente la prueba de Turing, donde un evaluador humano habla con una máquina y un humano, y si el evaluador no puede distinguir entre ellos, la máquina pasa. GPT-4.5 fue considerado como el humano el 73% del tiempo.
Sin embargo, Afraz Jaffri, analista director senior de Gartner, argumenta que estos resultados no importan tanto.
“Puedes crear sistemas que puedan engañar a las personas para que piensen que esto con lo que estás hablando es humano”, le dice Jaffri a CNET. “Entiende lo que están diciendo, pero en realidad no entiende lo que está diciendo. Por lo tanto, es realmente una prueba de credulidad humana en lugar de una prueba de inteligencia”.
Cuando le pregunté a Jaffri qué cree que es el mayor defecto de Chatgpt, dijo: “Simplemente no son confiables. Entonces, incluso si pregunto algo y obtengo una respuesta, todavía quiero verificar que eso es realmente cierto, lo que derrota el punto de que lo obtengamos en primer lugar”.
Sin embargo, OpenAI se ha apresurado a actuar sobre los comentarios de los usuarios. Hace solo unos días, anunció en X una nueva característica que mejora las citas al resaltar el texto relevante y mostrar a qué parte se refiere cada cita.

También volvió a GPT-4O a su versión anterior después de que los usuarios de X se quejaron de que su elogio “Sycophantic” se sintió inquietante y angustiante. Sycophancy es la falsa adulación de alguien en el poder, a menudo se usa para obtener algo de ellos. Operai dice que está trabajando en un enfoque más equilibrado en el futuro.
Accesibilidad e integraciones
Puede acceder fácilmente a ChatGPT a través de un navegador web o a través de sus aplicaciones en los dispositivos Android e iOS.
También se ha integrado en aplicaciones educativas, bots de servicio al cliente e incluso productos de Apple a través de Apple Intelligence y Siri.
Además, OpenAI introdujo la capacidad de interactuar a través de llamadas telefónicas a través del servicio 1-800-CHATGPT, simplificando el uso para aquellos que prefieren la interacción de voz sobre la escritura.
¿Qué puedes hacer con chatgpt?
Hay muchos casos de uso para ChatGPT: por nombrar algunos, puede planificar sus vacaciones, practicar preguntas de entrevista de trabajo con usted, ayudarlo con su presupuesto, escribir su currículum, hacer su planificación de comidas, recordar correos electrónicos, resumir documentos largos, crear estrategias comerciales, o simplemente conversar con usted. Aprenderá de sus consultas y solicitudes, y se adaptará a lo que cree que le gusta.
Si no desea que le recuerde, también puede usar un chat temporal seleccionándolo en la esquina superior derecha. No aparecerá en la historia, actualizará su memoria ni se utilizará para entrenar modelos, aunque se puede mantener hasta 30 días para la seguridad.
El lienzo ChatGPT puede ayudarlo a escribir y codificar, y con la función de tareas, puede configurar recordatorios y programar tareas. Puede redactar copias de marketing e incluso ayudarlo con el autodiagnóstico, aunque siempre debe tener cuidado con los resultados y consultar a su médico.
También es uno de los chatbots más personalizables. Puede crear su propio GPT adaptado a tareas o personalidades específicas, o seleccionar entre los miles de los creados por los usuarios. Se organizan en categorías como educación, productividad, tendencias y programación, etc.

Más allá del texto, ChatGPT puede generar imágenes y videos originales a través de sus herramientas integradas. El generador de imágenes de GPT-4O ahora es el valor predeterminado en ChatGPT para todos los usuarios, que le ofrece la capacidad de generar imágenes altamente realistas a partir de indicaciones de texto simples. Si prefiere seguir usando Dall-E 3 (su primer generador de imágenes), aún puede acceder a él a través del Dall-E GPT.

Creé esto directamente en Chatgpt con el mensaje: “Haga una imagen de una anciana con arrugas, sentada junto a la ventana, comiendo una manzana y mirando hacia afuera. Sea hiperrealista, use colores de otoño en la imagen”.
Chatgpt / captura de pantalla por cnet
Todos los usuarios de ChatGPT en la web e iOS/Android ahora tienen una biblioteca donde las imágenes se guardan automáticamente, lo que le permite volver a visitarlos, reutilizarlas o editarlas sin cavar en chats antiguos. Puede acceder a él desde la barra lateral izquierda.

Además, Openai ha introducido Sora, su modelo de texto de texto a video, a planes PLUS y Pro, expandiendo las capacidades multimedia de ChatGPT.
Diferentes modelos para diferentes funciones
Originalmente basado en la arquitectura GPT-3 de Openai, ChatGPT ha evolucionado. Existen diferentes variaciones y limitaciones del modelo basadas en su suscripción y su propósito para usar CHATGPT.
GPT-4O es la versión más avanzada accesible para todos, manejando texto, imágenes y audio como entrada y salida. GPT-4O Mini, el modelo más rápido, está optimizado para las tareas cotidianas y está disponible para todos los usuarios (los usuarios de nivel libre se cambian automáticamente a él al alcanzar los límites de uso en GPT-4O).
Los modelos O3 y O4-Mini son modelos de razonamiento, donde O3 es especialmente fuerte en las tareas de codificación, matemáticas y visuales, mientras que O4-Mini es una versión más ligera y rentable. O4-Mini-High es lo mejor para la codificación y la percepción visual.
Los modelos O1 y O1-Mini están diseñados para “pensar” más tiempo antes de responder y son ideales para resolver problemas complejos. Por último, como se mencionó anteriormente, GPT-4.5 es el modelo más grande y mejor para el chat y está disponible en la vista previa de la investigación para todos los planes de EDU pagados y chatgpt para estudiantes.
Si está en cualquier plan pagado, puede cambiar el modelo antes o durante un chat haciendo clic en el selector de modelos en la esquina superior izquierda de la pantalla.

Precio de chatgpt
Operai proporciona chatgpt en un modelo freemium. La versión gratuita ofrece acceso básico a GPT-4O Mini y acceso limitado a GPT-4O, O4-Mini e Investigación profunda. La actualización a un plan pagado desbloquea características adicionales.
ChatGPT Plus cuesta $ 20 al mes y proporciona acceso a SORA, investigaciones profundas y modelos de razonamiento múltiples (O3, O4-Mini y O4-Mini-High), tiempos de respuesta más rápidos, acceso limitado a GPT-4.5 y características adicionales como la interacción de voz.
Para los equipos, hay un equipo de ChatGPT que comienza en $ 25 por usuario por mes. Para los usuarios pesados, ChatGPT Pro está disponible por $ 200 al mes con los límites y capacidades más altos. Las empresas también pueden elegir ChatGPT Enterprise con precios personalizados para funciones de nivel empresarial.
Los estudiantes y las organizaciones sin fines de lucro ocasionalmente reciben ofertas especiales. Por ejemplo, ChatGPT Plus Access a menudo es gratuito para estudiantes en los EE. UU. Y Canadá durante los períodos de examen.
Preocupaciones de privacidad, batallas legales y otras controversias
ChatGPT enfrenta desafíos legales continuos relacionados con las preocupaciones de la industria con respecto a la ética y la legalidad del abastecimiento de datos para la capacitación de IA. Las demandas de alto perfil incluyen las principales editoriales como The New York Times, Dow Jones y la empresa matriz de CNET Ziff Davis (ver divulgación anterior), que alegan el uso no autorizado de su contenido para capacitar a ChatGPT, al igual que muchos autores individuales.
No olvidemos cuándo la modelo de voz “Sky” de OpenAi imitó a Scarlett Johansson sin permiso, lo que llevó a su equipo a amenazar las acciones legales sobre el uso no autorizado de su voz. Operai eliminó la voz, dijo que provenía de una actriz diferente y prometió revelaciones de AI más claras.
La privacidad es otra preocupación. Los expertos y los defensores de la privacidad han planteado preguntas continuas sobre la protección de los datos, cómo se almacena y usa la información personal, y qué los usuarios deben o no compartir. Incluso Openai aconseja que no ingresen información confidencial como números de tarjetas de crédito, historial médico o números de Seguro Social.
Jaffri enfatizó que el despliegue malicioso o descuidado, no los modelos en sí, es la raíz de la mayoría de los riesgos.
“Ahora cualquiera puede crear estas cosas y puede difundirlas mucho más fáciles y mucho más rápidas, así que ese es el tipo de preocupación”, dijo a CNET. “Se trata más de cómo se usa en lugar de ser algo de qué preocuparse”.
Operai ha intentado abordar estos problemas con medidas de protección de datos mejoradas. Sus indicaciones (en planes gratuitos, Plus y Pro) pueden usarse para capacitar al modelo a menos que opte por no participar en la configuración. Los planes de Equipo y Enterprise están diseñados para no recopilar datos del usuario de forma predeterminada. Openai no respondió a una solicitud de comentarios sobre posibles preocupaciones de copyright y plagio sobre los datos de capacitación o sobre la privacidad del usuario y la protección de datos.
Desarrollos recientes y nuevas características
Desde su comienzo, ChatGPT ha crecido en características y capacidades. OpenAI amplió la función de memoria de ChatGPT, lo que permite que el chatbot recupere las interacciones anteriores (que puede administrar o eliminar), creando una experiencia de usuario más personalizada.
Recientemente, Operai hizo las capacidades de generación de imágenes de Chatgpt gratis para todos los usuarios, aunque con un número limitado de usos mensuales. Además, en respuesta a la competencia de rivales como la compañía china de IA Deepseek R1, Operai lanzó pruebas para su nuevo modelo liviano e investigación profunda, accesible incluso para usuarios de nivel libre (con acceso limitado).
ChatGPT se está convirtiendo en una interfaz predeterminada de cómo las personas interactúan con la IA e incluso cómo obtienen información de Internet. A través de su función de búsqueda ChatGPT, compite más directamente con Google Search (incluso eliminando los requisitos de inicio de sesión obligatorios para que sea mucho más fácil para los usuarios casuales).
ChatGPT sigue siendo un jugador influyente en la IA. A medida que las herramientas generativas de IA se integran más en la vida diaria, las mejoras continuas en la usabilidad, la protección de la privacidad y las capacidades de generación de contenido determinarán el éxito a largo plazo de ChatGPT.
“Todo el tipo de tecnología en sí misma será transformador para muchas áreas diferentes, lo que tendrá un impacto directo en nuestras vidas”, dice Jaffri. “Con suerte para mejor”.
Related posts





















































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales1 año ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos1 año ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups1 año ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos1 año ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo