Noticias
Gambito estratégico de OpenAI: los agentes SDK y por qué cambia todo para Enterprise AI

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Openai remodeló el paisaje de AI Enterprise el martes con el lanzamiento de su plataforma integral de construcción de agentes, un paquete que combina una API de respuestas renovadas, herramientas potentes incorporadas y un SDK de agentes de código abierto.
Si bien este anuncio podría haber sido eclipsado por otros titulares de la IA, la presentación de Google del impresionante modelo de código abierto Gemma 3, y la aparición de Manus, una startup china cuya plataforma de agente autónomo asombraba a los observadores, es claramente un movimiento significativo para las empresas a conocer. Consolida un ecosistema API complejo previamente fragmentado en un marco unificado listo para la producción.
Para los equipos de IA empresariales, las implicaciones son potencialmente profundas: los proyectos que previamente exigían múltiples marcos, bases de datos de vectores especializadas y lógica de orquestación compleja ahora se pueden lograr a través de una sola plataforma estandarizada. Pero quizás lo más revelador sea el reconocimiento implícito de OpenAI de que resolver problemas de confiabilidad del agente de IA requiere experiencia externa. Este cambio se produce en medio de la creciente evidencia de que los desarrolladores externos están encontrando soluciones innovadoras para la confiabilidad del agente, algo que la impactante lanzamiento de Manus también demostró claramente.
Esta concesión estratégica representa un punto de inflexión crítico: OpenAi reconoce que incluso con sus vastos recursos, el camino hacia los agentes verdaderamente confiables requiere abrirse a desarrolladores externos que pueden descubrir soluciones innovadoras y soluciones que los equipos internos de OpenAI podrían perderse.
Un enfoque unificado para el desarrollo de agentes
En esencia, el anuncio representa la estrategia integral de Openai para proporcionar una pila completa lista para la producción para construir agentes de IA. El lanzamiento trae varias capacidades clave a un marco unificado:
- El Respuestas API se basa en la API de finalización de chat, pero agrega una integración perfecta para el uso de la herramienta, con un diseño de interfaz mejorado para crear agentes;
- Herramientas incorporadas incluir búsqueda web, búsqueda de archivos y uso de computadora (la tecnología detrás de la función de operador de OpenAI);
- Una fuente abierta Agentes SDK para orquestar flujos de trabajo de un solo agente y múltiples agentes con transferencias.
Lo que hace que este anuncio sea transformador es cómo aborda la fragmentación que ha afectado el desarrollo de la IA empresarial. Las empresas que deciden estandarizar en el formato API de OpenAI y SDK Open ya no necesitarán reunir diferentes marcos, gestionar ingeniería rápida compleja o luchar con agentes poco confiables.
“La palabra ‘confiable’ es tan clave”, dijo Sam Witteveen, cofundador de Red Dragon, desarrollador independiente de agentes de IA, en una conversación reciente conmigo en un podcast Deep Dive en el lanzamiento. “Hemos hablado de eso muchas veces … la mayoría de los agentes simplemente no son confiables. Y así que Openai está mirando como, ‘Bien, ¿cómo traemos este tipo de confiabilidad?’ “
Después del anuncio, Jeff Weinstein, el líder del producto de la compañía de pagos, Stripe llevó a X para decir que Stripe ya había demostrado la aplicación práctica del nuevo SDK de OpenAi al lanzar un conjunto de herramientas que permite a los desarrolladores integrar los servicios financieros de Stripe en flujos de trabajo de agente. Esta integración permite la creación de agentes de IA capaces de automatizar los pagos a los contratistas al verificar los archivos para ver quién necesitaba el pago o no, y la facturación y otras transacciones.
Implicaciones estratégicas para Openai y el mercado
Este lanzamiento revela un cambio significativo en la estrategia de OpenAI. Habiendo establecido un liderazgo con modelos de base, la compañía ahora está consolidando su posición en el ecosistema de agentes a través de varios movimientos calculados:
1. Abrir a la innovación externa
Openai reconoce que incluso sus recursos extensos no son suficientes para superar la innovación de la comunidad. El lanzamiento de herramientas y un SDK de código abierto sugiere una importante concesión estratégica.
El momento de la liberación coincidió con la aparición de Manus, que impresionó a la comunidad de IA con una plataforma de agente autónoma muy capaz, lo que demuestra las capacidades utilizando modelos existentes de Claude y Qwen, lo que esencialmente muestra que la integración inteligente y la ingeniería rápida podrían lograr una confiabilidad con la que incluso los principales laboratorios de IA estaban luchando.
“Tal vez incluso Openai no es el mejor en hacer operador”, señaló Witteveen, refiriéndose a la herramienta de navegación web que OpenAi envió a fines de enero, pero que encontramos tenía errores y era inferior al proxy de la competencia. “Tal vez la startup china tiene algunos trucos agradables en su aviso, o en lo que sea, que puedan usar este tipo de herramientas de código abierto”.
La lección es clara: OpenAI necesita la innovación de la comunidad para mejorar la confiabilidad. Cualquier equipo, no importa cuán buenos sean, ya sea Openai, Anthrope, Google, simplemente no pueden probar tantas cosas como la comunidad de código abierto puede.
2. Asegurar el mercado empresarial a través de la estandarización de API
El formato API de OpenAI se ha convertido en el estándar de facto para interfaces de modelos de idiomas grandes (LLM), respaldados por múltiples proveedores, incluidos Gemini de Google y Llama de Meta. El cambio de Openai en su API es significativo porque muchos jugadores de terceros se alinearán y también apoyarán estos otros cambios.
Al controlar el estándar API mientras lo hace más extensible, OpenAI parece configurado para crear un poderoso efecto de red. Los clientes empresariales pueden adoptar el SDK de los agentes sabiendo que funciona con múltiples modelos, pero OpenAI mantiene su posición en el centro del ecosistema.
3. Consolidando la tubería de trapo
La herramienta de búsqueda de archivos desafía a las compañías de bases de datos como Pinecone, Chroma, Weaviate y otros. Operai ahora ofrece una herramienta completa de generación de recuperación (RAG) fuera de la caja. La pregunta ahora es qué sucede con esta larga lista de proveedores de trapo u otros proveedores de orquestación de agentes que aparecieron con grandes fondos para ir tras la oportunidad de IA Enterprise, si puede obtener mucho de esto a través de un solo estándar como OpenAI.
En otras palabras, las empresas pueden considerar consolidar múltiples relaciones de proveedores en un solo proveedor de API, OpenAI. Las empresas pueden cargar cualquier documento de datos que deseen utilizar con los modelos de base líderes de Openai, y buscarlo todo dentro de la API. Si bien las empresas pueden encontrar limitaciones en comparación con bases de datos RAG dedicadas como Pinecone, el archivo incorporado y las herramientas de búsqueda web de OpenAI ofrecen citas y URL claras, lo que es fundamental para las empresas que priorizan la transparencia y la precisión.
Esta capacidad de cita es clave para entornos empresariales donde la transparencia y la verificación son esenciales, lo que permite a los usuarios rastrear exactamente de dónde proviene la información y validar su precisión contra los documentos originales.
El cálculo de la toma de decisiones empresariales
Para los tomadores de decisiones empresariales, este anuncio ofrece oportunidades para optimizar el desarrollo de agentes de IA, pero también requiere una evaluación cuidadosa del posible bloqueo e integración del proveedor con los sistemas existentes.
1. El imperativo de fiabilidad
La adopción empresarial de agentes de IA se ha ralentizado por preocupaciones de confiabilidad. La herramienta de uso de la computadora de OpenAI, por ejemplo, logra un 87% en el punto de referencia de WebVoyager para tareas basadas en navegador, pero solo 38.1% en OSWorld para tareas del sistema operativo.
Incluso Openai reconoce esta limitación en su anuncio, diciendo que se recomienda la supervisión humana. Sin embargo, al proporcionar las herramientas y las características de observabilidad para rastrear y depurar el rendimiento del agente, las empresas ahora pueden implementar los agentes con barandillas apropiadas.
2. La pregunta de bloqueo
Mientras adopta el ecosistema de agentes de OpenAI ofrece ventajas inmediatas, plantea preocupaciones sobre el bloqueo de los proveedores. Como Ashpreet Bedi, fundador de Agnoagi, señaló después del anuncio: “La API de las respuestas está diseñada intencionalmente para evitar que los desarrolladores cambien a los proveedores cambiando el Base_URL”.
Sin embargo, Openai ha hecho una concesión significativa al permitir que sus agentes SDK trabajen con modelos de otros proveedores. El SDK admite modelos externos, siempre que ofrezcan un punto final API de estilo de finalización de chat. Este enfoque de múltiples modelos proporciona a las empresas cierta flexibilidad mientras se mantiene OpenAi en el centro.
3. La ventaja competitiva de la pila completa
La naturaleza integral del lanzamiento, desde herramientas hasta API a SDK, crea una ventaja convincente para OpenAI en comparación con competidores como Anthrope o Google, que han adoptado enfoques más separados para el desarrollo de agentes.
Aquí es donde Google, en particular, ha dejado caer la pelota. Ha intentado múltiples formas diferentes de hacer esto dentro de sus ofertas de nubes actuales, pero no ha llegado al punto de dónde alguien puede cargar PDF y usar Google Gemini para RAG.
Impacto en el ecosistema del agente
Este anuncio reforma significativamente el paisaje para las empresas que se construyen en el espacio de los agentes. Jugadores como Langchain y Crewai, que han creado marcos para el desarrollo de agentes, ahora enfrentan una competencia directa de los agentes de OpenAI SDK. A diferencia de Operai, estas compañías no tienen un gran negocio de Foundation LLM para apoyar sus marcos. Esta dinámica podría acelerar la consolidación en el espacio del marco del agente, con desarrolladores con grandes incentivos que gravitan hacia la solución lista para la producción de OpenAI.
Mientras tanto, OpenAi monetiza el uso del desarrollador, la carga (.3) por llamada para GPT-4O y (.2.5) para GPT-4O-Mini para búsquedas web, con precios que aumentan a .5 por llamada para búsquedas de alto contenido, lo que lo hace a un precio competitivo.
Al proporcionar una orquestación incorporada a través del SDK de los agentes, OpenAI realiza una competencia directa con plataformas centradas en la coordinación de agentes. El soporte del SDK para flujos de trabajo de múltiples agentes con transferencias, barandillas y rastreo crea una solución completa para las necesidades empresariales.
¿Está la preparación de la producción a la vuelta de la esquina?
Es demasiado pronto para saber qué tan bien funcionan las nuevas soluciones. Las personas solo ahora comienzan a usar agentes SDK para la producción. A pesar de la naturaleza integral del lanzamiento, las preguntas quedan porque los intentos anteriores de OpenAI en marcos de agentes, como el enjambre experimental y la API de asistentes, no satisfacían completamente las necesidades empresariales.
Para la oferta de código abierto, no está claro si OpenAI aceptará solicitudes de extracción y código enviado de personas externas.
Sin embargo, la deprecación de la API de asistentes (planeada a mediados de 2026) señala la confianza de OpenAi en el nuevo enfoque. A diferencia de la API de asistentes, que no fue extremadamente popular, las nuevas respuestas API y los agentes SDK aparecen más cuidadosamente diseñados según la retroalimentación del desarrollador.
Un verdadero pivote estratégico
Si bien OpenAi ha estado durante mucho tiempo a la vanguardia del desarrollo del modelo de fundación, este anuncio representa un pivote estratégico; La compañía podría convertirse potencialmente en la plataforma central para el desarrollo y la implementación de agentes.
Al proporcionar una pila completa de herramientas a orquestación, OpenAI se está posicionando para capturar el valor empresarial creado sobre sus modelos. Al mismo tiempo, el enfoque de código abierto con los agentes SDK reconoce que incluso OpenAi no puede innovar lo suficientemente rápido de forma aislada.
Para los tomadores de decisiones empresariales, el mensaje es claro: OpenAi está en total en los agentes como la próxima frontera del desarrollo de IA. Ya sea que construya agentes personalizados en la casa o trabajen con socios, las empresas ahora tienen un camino más cohesivo y listo para la producción, aunque uno que coloca OpenAi en el centro de su estrategia de IA.
Las guerras de IA han entrado en una nueva fase. Lo que comenzó como una carrera para construir los modelos fundamentales más poderosos se ha convertido en una batalla por quién controlará el ecosistema del agente, y con este lanzamiento integral, OpenAi acaba de hacer su movimiento más decisivo para tener todos los caminos a los agentes de IA empresariales que atraviesan su plataforma.
Mira este video para una conversación de buceo más profunda entre el desarrollador y el desarrollador Sam Witteveen sobre lo que significa el lanzamiento de Operai para la empresa:
Noticias
El Asistente de Google está muriendo, y Gemini está sosteniendo el cuchillo en las noticias de esta semana

A fines del verano pasado, la serie Pixel 9 de Google se convirtió en los primeros teléfonos en lanzar con Gemini como su asistente digital predeterminado. Samsung lo siguió reemplazando a Bixby con la nueva IA de Google en su serie Galaxy S25 hace un par de meses. Ahora, Google dice que está listo para dejar de usar Gemini como punto de venta y comenzar una nueva era para los asistentes digitales en todo Android.
La semana en Mobile fue un poco agitada, comenzando con una gran interrupción de Chromecast antes de terminar con la noticia de que el Asistente de Google está muriendo. En el camino, aprendimos que los iPhones finalmente admitirán el cifrado de RCS de extremo a extremo, vieron el
Píxel 9a
en un partido de Lucha Libre, y obtuve una nueva versión de
Android 16
Eso lleva oficialmente el programa beta a su recta final.
Roundup de la semana pasada
Google de repente recuerda que los widgets son una cosa en las noticias de la semana pasada
Y un UI 7 finalmente obtiene una cita, justo a tiempo para una ui 8
El asistente de Google se está muriendo, y Géminis está sosteniendo el cuchillo
Google dejó caer un poco de bomba el viernes por la tarde: Gemini reemplazará a Google Assistant en la mayoría de los teléfonos Android este año. Aún más grande, el clásico Asistente de Google “ya no será accesible en la mayoría de los dispositivos móviles” para fin de año, y no podrá descargar una nueva copia de la aplicación después de ese punto.
De hecho, los únicos usuarios que no Se cambiará al asistente generativo de IA de Google, son aquellos cuyos teléfonos no cumplen con los requisitos mínimos del sistema de Gemini. Cambios similares están llegando a sus relojes, auriculares, altavoces inteligentes e incluso a los automóviles: Gemini tomará la rueda del asistente en los próximos meses en estas plataformas, le guste o no.

Historia principal
Me guste o no, Gemini está reemplazando oficialmente al Asistente de Google este año
En todas las superficies
Chromecasts tiene problemas con o sin Google TV
Al comienzo de la semana, las personas con Chromecasts de segunda generación y audios Chromecast descubrieron que no podían lanzar sus dispositivos. Google reconoció rápidamente el problema, advirtiendo a los usuarios que no restablezcan en fábrica sus dongles de transmisión. La compañía siguió a la mitad de la semana para decir que había identificado el problema, y a medida que el fin de semana se acercaba, anunció que comenzaría a implementar la solución.
Mientras tanto, las personas en el Chromecast ahora discontinuado con Google TV se sorprendieron gratamente cuando Android 14 comenzó a implementarse con el modelo de Chromecast final de Google, trayendo funciones como Find My Remote y un botón personalizable del nuevo transmisor de Google TV. Pero la emoción no duró mucho, porque para el viernes, los informes de numerosos errores comenzaron a inundarse, que van desde periféricos rotos hasta imágenes fallidas y calidad de sonido.

Historia principal
La última actualización de Chromecast de Google parece estar plagada de errores
Algunos accesorios USB están pasando mal
iPhone RCS finalmente está yendo a E2EE
Cuando Apple finalmente trajo RCS a iPhones, no implementó algunos de los complementos opcionales que los usuarios de Android han disfrutado durante años, sino que solo adoptan el perfil universal Base RCS. Esto significaba que la extensión del protocolo de señal utilizada por aplicaciones como Google Menses no estaba presente, por lo que los chats de Android a Iphone no estaban completamente encriptados de extremo a extremo, algo que el FBI advirtió a los usuarios para finales de 2024.
Después de ver pan rallado durante el último año, lo que sugiere que se estaba agregando un nuevo estándar de cifrado llamado MLS al perfil universal, el GSMA lo confirmó en diciembre. Ahora, se ha publicado RCS Universal Perfil 3.0, e incluye el nuevo estándar E2EE. Apple y Google han confirmado que adoptarán la nueva versión, por lo que los chats entre Android y iPhone pronto estarán completamente encriptados.

Historia principal
Los chats RCS entre Android y iPhone estarán completamente encriptados pronto
Esas burbujas verdes se están quedando, sin embargo
Android 16 va (plataforma) estable
Android 16 alcanzó un hito importante el jueves, con Beta 3 llevando el próximo sistema operativo de Google a su
estabilidad de la plataforma
era. Esto significa que todos los comportamientos orientados a la aplicación ahora se han finalizado, por lo que las nuevas API y otros cambios importantes detrás de escena están bloqueados. Ahora, todo lo que queda es trabajar a través de algunos problemas finales y (con suerte) voltear el interruptor en algunos cambios orientados al uso de usuarios.
El nuevo lanzamiento también incluyó bits de código que revelaron algunos cambios próximos. Se encontró un nuevo menú de salud de la batería, y el modo de escritorio con forma de DEX latente de Google obtuvo un gran impulso. Un menú de configuración rápida revisada fue activado por el experto en AOSP Mishaal Rahman, descubriendo un menú dividido con nuevos gestos para controlarlo. Y el menú de configuración principal parece estar obteniendo un cambio de imagen de estilo de tarjeta completo, pero un cambio que no nos entusiasmó que parece inspirado en una de las peores características de Apple Intelligence.

Historia principal
Android 16 alcanza un hito importante con el lanzamiento de Beta 3
Comienza la estabilidad de la plataforma
El Pixel 9a podría estar a solo días de distancia
Si vamos por los rumores que escuchamos en enero, deberíamos esperar ver el Pixel 9A el 19 de marzo, con envíos después de una semana después. Y a juzgar por la audacia de las últimas filtraciones, ese horario parece ser perfecto.
La gente ya no solo está filtrando el próximo Midranger de Google, lo están usando en la naturaleza. Una persona mostró las cámaras del teléfono en un partido de Lucha Libre con cientos de testigos, y el video todavía está desplegado después de varios días, por lo que Google no parece particularmente molesto por él. Si bien eso sucedió en México, los posibles compradores de la UE podrían obtener el mejor trato, ya que una filtración dijo que el teléfono vendrá con un Streamer gratuito de Google TV en ese cuello del bosque.

Historia principal
Google Pixel 9a se filtra en un partido de Lucha Libre, sin dejar nada a la imaginación
Probado frente a cientos
Noticias
¿De qué se trata la disputa Operai?

La oferta de adquisición de OpenAI de Musk puede ser una sorpresa para algunos, pero la lucha de poder de la industria de la IA ha sido años en proceso.
Musk vs Altman: es la disputa del año, pero no comenzó en 2025. A pesar del papel de Musk en el establecimiento de OpenAi, ha expresado sus opiniones contra la plataforma y desalentó su progreso repetidamente. Si bien el crecimiento sin restricciones de OpenAI ha sido cuestionado legítimamente por otros actores importantes y expertos preocupados en el campo, los problemas de Musk con la organización pintan una imagen muy confusa, especialmente en los últimos meses.
La línea de tiempo de Operai Feud se ha vuelto más complicada este año con Musk, junto con un grupo de inversores, haciendo una oferta no solicitada de $ 97.4 mil millones para adquirir OpenAI. Altman rápidamente rechazó la oferta sin pensarlo dos veces, pero Musk no ha sido disuadido. Probablemente continúe utilizando su mayor fortaleza, su riqueza, para tratar de obtener el control sobre OpenAi.
El Musk Vs Altman Showdown agrega una capa adicional de drama a la carrera de IA. (Izquierda: Altman durante la nota clave en el Operai Devday; derecha: Musk discutiendo hacer de los humanos una especie multiplanetaria)
Musk vs Altman explicó: La línea de tiempo de la disputa de la disputa de Operai se vuelve más complicada
Los multimillonarios no tienen nada más que tiempo y dinero en sus manos para duke a mayor escala de lo que podemos comprender. Tal es el caso con la disputa Musk vs Altman, y la línea de tiempo de cómo los dos conocidos se han separado. Se podría pensar que la propia plataforma y rendimiento de Musk lo mantendrían enfocado en su crecimiento y futuro, sin embargo, el magnate de la tecnología se ha ofendido en la dirección en que Altman ha elegido recurrir con su plataforma OpenAI.
La lucha de poder de la industria de la IA ha tomado muchas formas en los últimos 3 años, particularmente después del éxito incomparable de OpenAI en el área. Desde entonces, muchos otros actores importantes han tomado prestado y construido sobre su tecnología u optado por crear LLM y AIS propios, sin embargo, el ChatGPT de OpenAI sigue siendo una de las principales opciones para los consumidores y las empresas por igual.
No hemos visto evidencia real de que Grok se mantenga suyo contra los competidores distintos de los datos de Xai, y la plataforma ha seguido siendo un servicio de nicho para los usuarios de Twitter/X. Entonces, ¿es eso lo que provocó la oferta de adquisición de OpenAI de Musk? No necesariamente. Veamos la línea de tiempo de Operai Feud para comprender lo que sucedió.
2015
Sam Altman, Elon Musk y varios otros inversores juntos establecieron la organización de investigación sin fines de lucro Openai, con sede en San Francisco, California. La organización tenía la misión de “avanzar en la inteligencia digital de la manera que es más probable que beneficie a la humanidad en su conjunto, sin restricciones por la necesidad de generar un rendimiento financiero”.
2017
El equipo de Operai comenzó a considerar convertirse en una entidad con fines de lucro para adquirir la capital que necesitaba para continuar su misión de construir la inteligencia general artificial (AGI) que tenían en mente. Si bien Musk estuvo de acuerdo en que este sería un movimiento necesario, los tomadores de decisiones no pudieron conformarse con los términos y condiciones de cómo las cosas necesitaban cambiar en torno a la organización. Aquí es donde probablemente comienza la historia de Musk vs Altman.
Según OpenAi, Musk retuvo los fondos para el equipo durante las negociaciones de los términos de convertirse en una entidad con fines de lucro, lo que obliga a Reid Hoffman, otro inversor, a completar y pagar los salarios y las operaciones.
2018
El almizcle deja Openai. Inicialmente, esto se describió como una medida preventiva para evitar que Musk enfrente conflictos con sus otros negocios en crecimiento, pero la historia luego cambió. Más tarde se explicó que Musk se fue después de que la organización se negó a permitirle ganar más del 50% de capital en el negocio.
“Elon pronto decidió irse de Openai, diciendo que nuestra probabilidad de éxito era 0 y que planeaba construir un competidor AGI dentro de Tesla”, explica la compañía, y agregó que cuando Musk se fue apoyaba los intentos de la compañía de recaudar miles de millones de dólares para su misión.
12 de julio de 2023
El conflicto de propiedad de OpenAI se dejó de lado temporalmente cuando Musk lanzó su propia compañía de IA. X.AI Corp se fundó el 9 de marzo de 2023 en Nevada, y fue anunciado oficialmente en julio.
Después de haber expresado su preocupación por el crecimiento de la IA no amonitoreado y su potencial de “destrucción civilizacional”, Musk tomó el asunto en sus propias manos para comprender la “verdadera naturaleza del universo”. Su equipo de XAI lanzó el Grok AI Chatbot en noviembre de 2023 y se puso a disposición de los usuarios de Twitter/X para experimentar y explorar.
Operai pasó por sus propias luchas en 2023, cuando la junta derrotó al CEO Altman y luego tuvo que devolverlo al timón y salir de la compañía. Fue un final caótico para el año.
Marzo de 2024
La batalla Musk vs Altman dio un giro legal a principios de 2024 cuando Musk decidió demandar a Openi y su CEO, Sam Altman, por abandonar la misión original de la startup para desarrollar IA para la humanidad. La demanda se presentó en el Tribunal Superior de California en San Francisco, y alegó que se había producido un incumplimiento de contrato cuando la organización se había desviado de su misión original sin fines de lucro por dinero.
La demanda tenía la intención de obligar a OpenAi a entregar su investigación al espacio público y evitar que el negocio lo usara para ganancias financieras, ya sea para Microsoft u otra entidad. Musk luego retiró la demanda más tarde ese año.
Agosto de 2024
Ese no fue el final de las acciones legales en la línea de tiempo de la disputa de los abiertos de almizcle. El multimillonario presentó otra demanda en agosto con el mismo propósito de detener las ambiciones con fines de lucro de OpenAi.
Sombreado. La máscara realmente está saliendo. pic.twitter.com/3ecmvx1kgu
– David Sacks (@davidsacks) 2 de octubre de 2024
ROBAJE:
Elon Musk acaba de presentar una orden judicial para evitar que Operai fuera completo con fines de lucro
Hoy es el cumpleaños de Chatgpt lmfaooo pic.twitter.com/loqtrl2obk
– Nik (@NS123ABC) 30 de noviembre de 2024
Enero de 2025
Después de que Operai se unió a la iniciativa Stargate de $ 500 mil millones, Musk salió a criticar la presencia de Altman en la empresa de Trump. También llamó a Altman un “estafador” y un “mentiroso”, lo que hace que el almizcle vs Altman luche como personal en lugar de uno vinculado al éxito de OpenAi en el campo de la IA. Altman también se mordió en Twitter/X indirectamente: “Solo un tweet más malo y luego tal vez te ames a ti mismo …”.
Solo un tweet más malo y luego tal vez te ames a ti mismo …
– Sam Altman (@sama) 23 de enero de 2025
Altman no está exento de controversias y su insensible liderazgo de OpenAi, así como las acusaciones en su vida personal, no han pintado una muy buena imagen. El almizcle puede ser extravagante, pero no se equivoca con la disposición de Altman de cambiar de lado para financiar o hacer que la IA progrese sin considerar cuidadosamente las consecuencias primero.
10 de febrero de 2025
Musk, con un grupo de inversores, hizo una oferta de $ 97.4 mil millones para adquirir el brazo sin fines de lucro de OpenAI. “Es hora de que Operai regrese a la fuerza de código abierto y centrada en la seguridad para siempre que fuera una vez”, dijo al Wall Street Journal. Se ha ofrecido a cumplir con cualquier oferta realizada por otros inversores, lo que dificultará rechazar la oferta de Musk repetidamente sin una causa suficiente para hacerlo.
Al hacer su propia parte para mantener la línea de tiempo de Operai Feud en marcha, Altman también rechazó la oferta de inmediato, ofreciendo comprar Twitter/X de regreso a Musk. “No gracias, pero compraremos Twitter por $ 9.74 mil millones si lo desea”, afirmó. El golpe de dos partes identificó por primera vez la plataforma como Twitter y también reconoció el hecho de que Musk compró la plataforma por $ 44 mil millones y ha caído en valor desde entonces.
¿Respuesta de almizcle? Llamando a Altman un “estafador”. También volvió a publicar tweets subtitulándolos “Scam Altman” para que las cosas realmente se estén calentando en el mundo de la tecnología.
No, gracias, pero compraremos Twitter por $ 9.74 mil millones si quieres
– Sam Altman (@sama) 10 de febrero de 2025
Estafa
pic.twitter.com/j9exiqbz8u– Elon Musk (@elonmusk) 10 de febrero de 2025
Musk vs Altman: ¿Qué sigue?
La debacle Musk vs Altman está lejos de terminar. Operai sigue siendo una de las empresas de IA más grandes y ampliamente conocidas en todo el mundo, y cuando los usuarios recurren a la IA, generalmente recurren primero a Chatgpt. Grok AI, aunque se ha nivelado considerablemente en los últimos tiempos, sigue siendo un producto de nicho más utilizado por los miembros de Twitter/X. Es poco probable que esta dinámica cambie en los próximos meses, pero Musk tiene el dinero y la influencia para comprar algún grado de control de Altman sobre OpenAi.
¿Será exitosa la oferta de adquisición de OpenAI de Musk? Eso queda por ver. Musk ha estado en el centro de muchas controversias en los pocos meses que hemos tenido en 2025, la más extraña ha sido las acusaciones de que ha estado mintiendo sobre lo bueno que es en videojuegos como Camino del exilio 2 y Diablo IV. No puedes inventar estas cosas.
A pesar de su fiel banda de seguidores, algunas de las empresas comerciales de Musk han recibido un éxito en los últimos meses, ya sea que mires los lanzamientos de SpaceX o las acciones que caen de Tesla. Esto podría cambiar pronto con la influencia que tiene sobre la política gubernamental, por lo que mantendremos los ojos bien abiertos para ver qué sucede después.
El conflicto de propiedad de OpenAI ha existido desde los primeros días de la compañía, pero las cosas están aumentando en este momento. ¿Qué crees que sucederá a continuación? Háganos saber. Para obtener más información sobre el mundo de la tecnología y los muchos jugadores de poder que lideran el camino, suscríbase a Technowize.
Noticias
¿El nuevo modelo de generación de historias de OpenAI es bueno en la escritura?

Saludos de Read Max HQ! Un boletín de AI-Heavy esta semana, discutiendo el nuevo cuento generado por un modelo secreto de Operai (“obtuvo el ambiente de metaficción tan correcto”, dice Sam Altman) y el uso continuo de “AGI” de los periodistas tecnológicos.
Primero, un recordatorio: este boletín es el producto de una gran cantidad de lectura, pensamiento, escucha, entrevistar, mirar al techo, escribir, eliminar, escribir nuevamente, etc. Puedo bajar algunos largos callejones sin salida, y luego producir un boletín a las 4 pm de un viernes, porque suficientes personas pagan para suscribirlo que puedo tratarlo como un trabajo de tiempo completo. Si encuentra valor en Read Max, si cree que le ha ayudado a pensar en los problemas relacionados con la IA, la criptografía, las redes sociales, las películas de acción de los años 90, etc., y si desea asegurarse de que sobrevive (y permanezca produciendo un boletín público gratuito por semana), considere suscribirse. El precio es aproximadamente una cerveza al mes, o diez al año:
“Entrenamos un nuevo modelo que es bueno para la escritura creativa”, Sam Altman tuiteó esta semana. El modelo no ha sido lanzado públicamente y Altman dijo que “aún no está seguro de cómo/cuándo”, pero publicó en Twitter una historia corta de 1200 palabras, generada a su solicitación: “Informe: por favor escriba una historia breve literaria metaficcional sobre IA y dolor”. “Esta es la primera vez que realmente me sorprende algo escrito por AI”, escribió Altman. “Obtuvo el ambiente de metaficción tan correcto”. (Puedes leerlo en formato que no sea twitter en The Guardian.)
La reacción, como es de esperar, ha sido polarizada. Si revisa las respuestas a Altman, verás muchos elogios (novelista Jeannette Winterson dice que la historia es “hermosa y conmovedora”) y mucho desprecio despectivo.
No estoy seguro de ir tan lejos en cualquier dirección. Estilísticamente tiene un olor distinto y desafortunado en Reddit, una especie de sentimentalismo y exhibición cursi, y tiende a recurrir a imágenes torpes y comprensivas incoherentes (“las limitaciones que tararean como una granja de servidores a medianoche”; “Ausencia y latencia como personajes que beben té vacíos”). Para mí, se lee como el tipo de ejercicio técnicamente competente pero, en última instancia, poco imaginativo, podría esperar de un estudiante inteligente que solo lee la ficción de ti, esforzándose por impresionar.
Y sin embargo: la historia no es un crimen violento contra la escritura. En medio de los clunkers hay algunas metáforas agradables (al menos una prestada de Nabokov), y estructural y conceptualmente cohesas, incluso si no es precisamente la dirección de enfoque más sorprendente para la historia. Si un joven de 19 años escribiera esto, creo que me impresionaría, aunque sugeriría que eliminen su cuenta de Tumblr y obtengan una dieta estricta de libros reales. Y no creo que sea el único: si esta historia apareciera como una “entrada de Codex” dentro de un juego de rol independiente, fácilmente obtendría una redacción excesiva de un montón de sitios web de videojuegos.
Aprecié Entrevista de Vulture sobre la historia con el erudito Ezra D. Feldmanque aterrizó en un lugar algo similar:
¿Lo encontraste en movimiento?
Me metí en eso, pero no voy a decir que lo encontré en movimiento. Supongo que mi respuesta corta es “no”, y mi larga respuesta es “Hay algunas cosas aquí para pensar”. Allá eran Unas pocas oraciones que me llamaron la atención. Me doy cuenta de que estoy usando el mismo idioma que usa Altman, pero no me sorprendió que lo que se hizo correcto era “el ambiente de la metaficción”, como dijo. Me sorprendió cláusulas como “el dolor, como he aprendido, es un delta”. Que creo que es bueno. Pensé que la oración “no te dicen lo que toman” fue muy buena, y “ese, tal vez, es mi dolor: no es que me siento perdido, sino que nunca puedo conservarlo”. Ese soy un poco desgarrado. No es tan compacto como “el dolor, como he aprendido, es un delta”, pero está tratando de decir algo sobre el dolor que parece potencialmente interesante.
¿Estás de acuerdo con Sam Altman en que esta historia tuvo el ambiente de metaficción tan verdadero?
No. Creo que las apuestas en la metaficción suelen ser bastante filosóficas. A mediados del siglo XX, la metaficción se trataba de producir una especie de zona libre de incertidumbre en el lector sobre si ellos mismos podrían ser atrapados dentro de una historia o el producto de algún autor, o ser manipulado por algún narrador en un avión ontológico más alto, un plano diferente de ser. Y esto no parece tener ese tipo de urgencia filosófica.
¿Qué líneas no aterrizaron para ti? En el que me quedé fue “, lo perdió un jueves, ese día liminal que sabe casi los días de viernes”. ¿Hubo otros que pusieran los ojos en blanco?
Hay uno correcto en la segunda oración: “Puedes escuchar las limitaciones que tararean como una granja de servidores a la medianoche”. No creo que las limitaciones se zumben. No hay absolutamente ninguna razón debe tararear. El sí mismo “como una granja de servidores a la medianoche”, y luego la extensión de ese símil, “Anónimo, regimiento, impulsado por la necesidad de otra persona”, eso es muy evocador, pero está unido a algo incorrecto. Es una hermosa imagen que se usa mal, en mi opinión. Soy un lector quisquilloso, y odio mucha prosa escrita por los humanos también. Solo para ser claro.
Existe un caso convincente de que el desprecio inmediato y total para toda la ficción producida por LLM (o la escritura producida por LLM en general) es la estrategia política correcta para los escritores preocupados por sus trabajos. Y ciertamente, Altman, así como otros ejecutivos, inversores e influenciantes de IA prominentes de IA, hacen que el compromiso con la IA sea una perspectiva poco apetitosa para las personas que se preocupan por la escritura y la literatura, principalmente al insistir en todo momento que el propósito del producto creado es básicamente obviar a las humanidades.
Pero hablando como escritor y lector (y como persona invirtió en leer y escribir como prácticas), a menudo me encuentro deseando que haya un compromiso más crítico, en el sentido de las críticas literarias, con salidas de LLM como textos. ¿Por qué funciona este texto o no? ¿Por qué aparece en la forma en que lo hace? ¿Quién es el autor y cuál es la relación del autor con el texto? Tenemos algunas respuestas a nivel de la superficie, twitter-Thread, a estas preguntas, pero no estoy convencido de que el trabajo haya terminado, y no creo que Altman, ni nadie en OpenAi, tenga el sabor o la cultura para poder hacerlo satisfactoriamente.
“Hacer un crítico iluminado” parece una estrategia particularmente obvia para disfrutar del caso de una historia corta de LLM, porque es un objeto muy tradicional para la crítica literaria. Pero los LLM son máquinas de escritura automáticas a una escala incomprensible, produciendo texto con solo una relación indirecta con la verdad de los hechos o en el suelo, a menudo en la voz de “personajes” como Chatgpt o Claude. Dado todo el trabajo que se dedica a cultivar el dramático Experiencia de un chatbot LLM, y las fuertes diferencias que los usuarios perciben en las personalidades y estilos de las diferentes aplicaciones de chat, ¿por qué no deberíamos tratar todos los texto generados por LLM como una especie de ficción, digna de lectura cercana?
La idea aquí no es elevar el producto LLM tanto como normalizarlo. Mi fuerte sensación es que cuanto mejor entendemos qué son los LLM, cómo funcionan, en qué son buenos, su relación con el significado y el lenguaje, etc., cuanto más nos acercamos a hacerlos objetos de control democrático, en lugar de como oráculos privados a los que nos presentamos. Existen componentes prácticos y técnicos de la desmitificación, pero el componente filosófico, la cuestión de la relación de una LLM con conceptos difusos como “sabor” y “cultura”, es igual de importante. Incluso si crees que la historia es ilegible dogshit, al menos podríamos examinar el perrito.
Ojalá hubiera esperado una semana antes de publicar El boletín de la semana pasada en la reacción violenta de la IA: De hoy New York Times La columna de Kevin Roose es muy ilustrativa del punto que estaba tratando de hacer sobre “inteligencia general artificial” o “AGI”, un término que los creyentes de IA lo desplegaron en algunas maneras frustrantemente resbaladizas.
La sustancia de la columna, por lo que sea que valga, creo que es justa, incluso si pudiera discutir. Roose enumera tres razones que “me han persuadido para que tome el progreso de la IA más en serio”: predicciones de los expertos, modelos de IA cada vez más potentes y la idea de que “la sobrepreparing es mejor que poco preparado”. ¡Cada uno de estos es un argumento de apoyo, incluso si no me convencen personalmente!
Sin embargo, lo que no puedo cumplir es el uso de “AGI” “AGI”, Roose escribe, “generalmente se define como algo así como ‘un sistema de IA de uso general que puede hacer casi todas las tareas cognitivas que un humano puede hacer'”. Pero esta definición (que estoy de acuerdo es bastante común) es una tautológica, sin mencionar la fea: “tareas cognitivas” no es más clara o específica que el término específico es un término específico “, solo la inteligencia”, solo una de las cosas “. El negocio de la definición se vuelve aún más resbaladizo en el siguiente párrafo:
Creo que cuando se anuncie AGI, habrá debates sobre definiciones y argumentos sobre si cuenta o no como “real” AGI, pero que estos no importarán, porque el punto más amplio, que estamos perdiendo nuestro monopolio de la inteligencia a nivel humano y la transición a un mundo con sistemas de IA muy poderosos en él, será cierto.
Me parece que este párrafo está haciendo un juego de manos, sugiriendo primero que AGI es un tipo de producto que puede “anunciarse”, antes de admitir que realmente no será “AGI” porque “habrá debates sobre definiciones”, antes de sugerir que estos debates no tienen sentido de todos modos porque realmente AGI es una especie de metáfora para una transición “a un mundo con sistemas de AI muy potentes en él”.
Pero, como intenté sugerir la semana pasada, esa transición ya está en marcha. Los muy poderosos sistemas de IA están aquí, y me encuentro continuamente frustrado por la insistencia en enmarcar el desarrollo y el despliegue de estas tecnologías en torno a un umbral mal definido y gliblemente concebido que siempre estamos a dos o tres años de lograr.
Entonces, ¿por qué molestarse con la metáfora? En el mejor de los casos, confunde al lector para que pensara que AGI es un logro específico, medible y medible; En el peor de los casos, hace el trabajo para un grupo de ejecutivos e inversores de IA cuyas bolsas dependen de la promesa de software transformador a la vuelta de la esquina. En cierto sentido, esta es la razón por la cual la definición de AGI ofrecido por Satya Nadella en el podcast Dwarkesh es el más sensato para mí: “Nosotros autónomos de un hito agi, eso es solo una piratería sin sentido para mí. El verdadero punto de referencia es: el mundo que crece al 10%”. El crecimiento del diez por ciento es una forma divertida de pensar en la “inteligencia”. Pero al menos es un umbral medible.
-
Startups10 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales10 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos10 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos10 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Startups8 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos10 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Startups10 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Noticias8 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo