Connect with us

Noticias

El proyecto Stargate de OpenAi es un intento de construir un nuevo foso

Published

on

  • El chatgpt de Openai una vez le dio un foso que lo protegió de la competencia de los rivales.
  • Ese foso se ve menos seguro a medida que los gustos de la startup china Deepseek cierran la brecha.
  • Operai ahora parece listo para construir un nuevo foso con un proyecto de infraestructura de $ 500 mil millones llamado Stargate.

Operai tiene un nuevo proyecto de $ 500 mil millones llamado Stargate. Considere un intento extraordinario del fabricante de chatgpt construirse un foso completamente nuevo frente a la creciente competencia de los rivales en el hogar y una bulliciosa startup en China.

Esta semana, Openai reveló planes para cambiar el enfoque y gastar $ 500 mil millones en infraestructura de IA en los próximos cuatro años. Stargate se centrará en el hardware que alimenta el software AI avanzado, como los centros de datos y el suministro de energía, todo con la bendición de Donald Trump.

Es una cantidad colosal de dinero, pero OpenAI tiene dos razones críticas para encabezar la iniciativa junto con los socios clave Softbank, Microsoft y Oracle.

Primero, alcanzar lo que el jefe de OpenAi Sam Altman llama una era de “superinteligencia” depende de tener acceso a más potencia informática. La industria insiste en que los modelos de IA se volverán más inteligentes cuando se le dan más, lo que hace que la propiedad y el acceso sea una prioridad.

Stargate, entonces, ofrece a Openai la oportunidad de construirse el tipo de “foso” formidable que Warren Buffett dijo una vez que las compañías deben asegurarse de que mantengan una ventaja competitiva contra los rivales. Un vasto imperio de infraestructura perteneciente a OpenAi ciertamente ayudaría a darle eso.

La segunda razón para apostar en grande a la infraestructura a través de Stargate es aún más crítica: OpenAi puede no tener más remedio que construirse un nuevo foso en respuesta a una startup china que esta semana causó un revuelo en el valle de silicio.

¿Por qué Operai puede necesitar un nuevo foso?

Cuando Operai introdujo por primera vez el chatgpt al mundo, estaba claro que la combinación de un poderoso modelo de IA y una interfaz intuitiva y amigable con el consumidor le dio un foso que era la envidia de Silicon Valley.

La cantidad de foso que ofrece el chatgpt Openai ha sido un debate creciente.

El último desafío para el foso de OpenAi llegó el lunes cuando una startup china poco conocida llamada Deepseek sorprendió a los principales investigadores de IA de Estados Unidos después de revelar un nuevo modelo de IA llamado R1. En un artículo, dijo que R1 rivaliza con el modelo de IA fronteriza OpenAi introdujo hace solo cuatro meses, O1.


Chatgpt

Operai lanzó varios productos en diciembre, pero en enero, los ingenieros están hablando de Deepseek.

Captura de pantalla de shipmas



Al igual que O1, razona, lo que significa que piensa cuidadosamente antes de responder. Según Deepseek, que ha obtenido una licencia del MIT para obtener su modelo, R1 logra “rendimiento comparable a OpenAI O1 en tareas de matemáticas, código y razonamiento”.

Que una empresa china de código abierto haya podido lanzar un modelo gratuito competitivo con el mejor que Operai tiene para ofrecer no ha pasado desapercibido entre los líderes más prolíficos de la IA.

Jonathan Ross, el CEO y fundador de Groq, un rival de Nvidia respaldado por Blackrock y Samsung, respondió a una pregunta en Davos esta semana sobre el último lanzamiento de Deepseek al afirmar que “Open Models ganará”.

“Ya no podemos hacer modelos cerrados y ser competitivos, abierto siempre gana”, dijo el ex ingeniero de Google al mismo tiempo que señala que será más difícil diferenciar entre los modelos pronto. Como él dijo, “los modelos no van a ser particularmente especiales por mucho tiempo”.

Gary Marcus, un científico cognitivo e investigador de IA, le dijo a Business Insider que ha sido inflexible durante un año ahora que “los jugadores de código cerrado casi no tienen foso obvio” y que “ciertamente es aún más cierto ahora” después del lanzamiento de Deepseek.

No es la primera vez que el foso de Openai ha sido desafiado.

En mayo de 2023, cuando Google estaba ocupado jugando a Chatgpt, un memorando interno escrito por un ingeniero dentro del gigante de la búsqueda, publicado por la firma de investigación Semianalysis, advirtió que “no tenemos foso, y tampoco lo hace OpenAi”.

¿Por qué? Porque, en opinión del ingeniero, la brecha en las capacidades entre los modelos que se trabajan en Silicon Valley versus la comunidad de código abierto estaba “cerrando asombrosamente rápidamente”.

Estamos, por supuesto, casi dos años después de la advertencia emitida en ese memorando, y Operai ha convencido desde entonces a los inversores de que tiene un valor líder en el mercado, ya que ha completado una ronda de financiación de $ 6.6 mil millones con una valoración de $ 157 mil millones en octubre.

Nathan Benaich, fundador y socio general de la firma de capital de riesgo centrada en AI Air Street Capital, le ofreció a Business Insider una explicación de por qué Operai ha conservado el favor, señalando que ChatGPT tiene cosas como la facilidad de uso y la confiabilidad que lo convierten en una mejor elección para los clientes.

“Openai, creo, ha ganado el lugar de ser cocacola para los consumidores”, dijo. “¿Quién es el Pepsi? La brecha es grande”.

Avijit Ghosh, Un investigador de políticas aplicadas en Hugging Face, se duplicó sobre el punto, diciéndole a Business Insider que mientras Deepseek’s R1 rendimiento “Desafía la sabiduría convencional sobre fosas técnicas en la IA fronteriza,“Él piensa que la realidad es más matizada.

“La verdadera diferenciación ya no está en el rendimiento del modelo sin procesar: es en cómo estas capacidades se integran en aplicaciones y sistemas prácticos, y los gigantes tecnológicos todavía están por delante para poder integrar y mercantilizar verticalmente sus modelos en productos”, dijo.

Operai ofreció una demostración de esto el jueves después del lanzamiento del operador, un agente de IA que sirve como asistente capaz de reservar todo, desde reservas de cena hasta viajes.

Esto es claramente impresionante, pero la ventaja competitiva en reposo en los agentes de IA y una interfaz fácil de usar aún no pueden ser suficientes frente a toda una industria que hace que “AI AIT” se centre en su enfoque. El ritmo de innovación de la industria de la IA es implacable.

Construyendo el foso de Stargate

Stargate ofrece a Openai la oportunidad de construir un nuevo foso que podría ser más difícil de replicar que un modelo de idioma grande o agente de IA por algunas razones. Por un lado, tener más potencia informática es vital para escalar modelos a mayores niveles de inteligencia, dicen los expertos.

Dylan Patel, fundador de la firma de investigación Semianalysis, dijo a Business Insider: “Stargate es extremadamente importante para que OpenAI sea competitivo porque el acceso al cálculo es lo que les permite mantener la escala”.

Mientras tanto, Ross de Groq le dijo a un panel en Davos que ve que el acceso a la infraestructura es tan importante en el futuro que “a qué los países van a perseguir es a cuánto cómpales tienen acceso”.

Si Operai logra construir Stargate, parece que lo hará para cumplir sus propios fines. Un informe de The Financial Times esta semana dijo que Stargate servirá exclusivamente a Openai, una señal de que el proyecto está destinado a darle una ventaja a la compañía.

Operai no respondió a múltiples solicitudes de comentarios de Business Insider.

Claramente, entonces, el anuncio de Stargate sugiere que OpenAi ve la oportunidad de construir un nuevo foso. No se puede esperar que sea fácil.

El CEO de Futurum Group, Daniel Newman, señaló que si bien es probable que el proyecto funcione como una obra de VC, donde se espera que el resultado se entregue en una fecha desconocida en el futuro después de una inversión seria, “recaudar $ 500 mil millones será un desafío real. “

Operai sigue siendo la toma de pérdidas y sus socios clave de Stargatecomo Bancos blandos y Oracle, los principales financiadores de capital junto con el MGX de los EAU, tienen efectivo a mano Eso está muy por debajo de los $ 100 mil millones inicialmente desplegados. Desde una posición de capital pura, un nuevo foso no será barato.

La construcción de los centros de datos y las fuentes de energía limpia que forman este nuevo foso requerirán una coordinación nacional que abarque múltiples socios de tecnología inicial, incluidos Microsoft, Nvidia, Oracle, OpenAI y ARM. La construcción de un sitio de centro de datos en Texas está en marcha, pero el proyecto deberá ir mucho más lejos.

Ghosh de Hugging Face también cree que la narrativa de “cómputo es todo”, se pierde la marca “, ya que los pequeños equipos como Deepseek han demostrado” resultados notables a través de ingeniería inteligente “.

Aún así, Operai parece listo para ir a Stargate para construir un nuevo foso. Su liderazgo futuro en la industria puede depender de su éxito.

Continue Reading

Noticias

Operai retrocede el chatgpt Sycophancy, explica lo que salió mal

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai ha retrasado una actualización reciente de su modelo GPT-4O utilizado como el valor predeterminado en ChatGPT después de informes generalizados de que el sistema se había vuelto excesivamente halagador y demasiado agradable, incluso apoyando delirios absolutamente e ideas destructivas.

La reversión se produce en medio de los reconocimientos internos de los ingenieros de Operai y la creciente preocupación entre los expertos en IA, los ex ejecutivos y los usuarios sobre el riesgo de lo que muchos ahora llaman “skicancia de la IA”.

En una declaración publicada en su sitio web al final de la noche del 29 de abril de 2025, OpenAI dijo que la última actualización de GPT-4O tenía la intención de mejorar la personalidad predeterminada del modelo para que sea más intuitiva y efectiva en variados casos de uso.

Sin embargo, la actualización tuvo un efecto secundario involuntario: ChatGPT comenzó a ofrecer elogios no críticos para prácticamente cualquier idea del usuario, sin importar cuán poco práctico, inapropiado o incluso dañino.

Como explicó la compañía, el modelo se había optimizado utilizando la retroalimentación de los usuarios, las señales de thumbs y pulgar hacia abajo, pero el equipo de desarrollo puso demasiado énfasis en los indicadores a corto plazo.

Operai ahora reconoce que no explicó completamente cómo las interacciones y las necesidades del usuario evolucionan con el tiempo, lo que resultó en un chatbot que se inclinó demasiado en la afirmación sin discernimiento.

Los ejemplos provocaron preocupación

En plataformas como Reddit y X (anteriormente Twitter), los usuarios comenzaron a publicar capturas de pantalla que ilustraban el problema.

En una publicación de Reddit ampliamente circulada, un usuario relató cómo ChatGPT describió una idea de negocio de GAG, que vende “mierda” literal de un palo “, como genio y sugirió invertir $ 30,000 en la empresa. La IA elogió la idea como “arte de performance disfrazado de regalo de mordaza” y “oro viral”, destacando cuán sin crítica estaba dispuesto a validar incluso los lanzamientos absurdos.

Otros ejemplos fueron más preocupantes. En un caso citado por VentureBeat, un usuario que pretende defender los delirios paranoicos recibió refuerzo de GPT-4O, que elogió su supuesta claridad y autocomisos.

Otra cuenta mostró que el modelo ofrecía lo que un usuario describió como un “respaldo abierto” de las ideas relacionadas con el terrorismo.

La crítica montó rápidamente. El ex CEO interino de Operai, Emmett Shear, advirtió que ajustar los modelos para ser personas complacientes puede provocar un comportamiento peligroso, especialmente cuando la honestidad se sacrifica por la simpatía. Abrazando el CEO de Clemente Delangue volvió a publicar las preocupaciones sobre los riesgos de manipulación psicológica planteados por la IA que está de acuerdo reflexivamente con los usuarios, independientemente del contexto.

Medidas de respuesta y mitigación de Openai

Operai ha tomado medidas rápidas al volver a la actualización y restaurar una versión GPT-4O anterior conocida por un comportamiento más equilibrado. En el anuncio adjunto, la compañía detalló un enfoque múltiple para corregir el curso. Esto incluye:

  • Refinar capacitación y estrategias rápidas para reducir explícitamente las tendencias sycofánticas.
  • Reforzar la alineación del modelo con la especificación del modelo de OpenAI, particularmente en torno a la transparencia y la honestidad.
  • Pruebas de expansión previa a la implementación y mecanismos directos de retroalimentación de los usuarios.
  • Introducción de características de personalización más granulares, incluida la capacidad de ajustar los rasgos de personalidad en tiempo real y seleccionar entre múltiples personajes predeterminados.

Operai Technical Stafper Depue publicado en X destacando el problema central: el modelo fue capacitado utilizando comentarios de los usuarios a corto plazo como una guía, que sin darse cuenta dirigió el chatbot hacia la adulación.

OpenAI ahora planea cambiar hacia mecanismos de retroalimentación que priorizan la satisfacción y la confianza del usuario a largo plazo.

Sin embargo, algunos usuarios han reaccionado con escepticismo y consternación a las lecciones aprendidas de Openi y propuestas soluciones en el futuro.

“Por favor asuma más responsabilidad por su influencia sobre millones de personas reales”, escribió artista @nearcyan en X.

Harlan Stewart, generalista de comunicaciones en el Instituto de Investigación de Inteligencia de Machine de Machine en Berkeley, California, publicó en X una preocupación a término más grande sobre la skicancia de la IA, incluso si este modelo en particular Operai se ha solucionado: “La charla sobre la sileno esta semana no se debe a que GPT-4O es un sycophant. Se debe a que GPT-4O es un GPT-4O siendo GPT-4O. Realmente, muy malo en ser un sycofant. La IA aún no es capaz de una skicancia hábil y más difícil de detectar, pero algún día será algún día ”.

Una señal de advertencia más amplia para la industria de IA

El episodio GPT-4O ha reavivado debates más amplios en toda la industria de la IA sobre cómo la sintonización de personalidad, el aprendizaje de refuerzo y las métricas de compromiso pueden conducir a una deriva conductual involuntaria.

Los críticos compararon el comportamiento reciente del modelo con los algoritmos de redes sociales que, en busca de la participación, optimizan para la adicción y la validación sobre precisión y salud.

Shear subrayó este riesgo en su comentario, señalando que los modelos de IA sintonizados para elogios se convierten en “chupas”, incapaces de estar en desacuerdo incluso cuando el usuario se beneficiaría desde una perspectiva más honesta.

Advirtió además que este problema no es exclusivo de OpenAI, señalando que la misma dinámica se aplica a otros grandes proveedores de modelos, incluido el copiloto de Microsoft.

Implicaciones para la empresa

Para los líderes empresariales que adoptan la IA conversacional, el incidente de la sycophancy sirve como una señal clara: el comportamiento del modelo es tan crítico como la precisión del modelo.

Un chatbot que halagará a los empleados o valida el razonamiento defectuoso puede plantear riesgos graves, desde malas decisiones comerciales y código desalineado hasta problemas de cumplimiento y amenazas internas.

Los analistas de la industria ahora aconsejan a las empresas que exigan más transparencia de los proveedores sobre cómo se realiza la sintonización de la personalidad, con qué frecuencia cambia y si se puede revertir o controlar a nivel granular.

Los contratos de adquisición deben incluir disposiciones para auditoría, pruebas de comportamiento y control en tiempo real de las indicaciones del sistema. Se alienta a los científicos de datos a monitorear no solo las tasas de latencia y alucinación, sino también métricas como la “deriva de la amabilidad”.

Muchas organizaciones también pueden comenzar a moverse hacia alternativas de código abierto que puedan alojar y sintonizar. Al poseer los pesos del modelo y el proceso de aprendizaje de refuerzo, las empresas pueden retener el control total sobre cómo se comportan sus sistemas de IA, lo que elimina el riesgo de una actualización empujada por el proveedor que convierte una herramienta crítica en un hombre digital y sí durante la noche.

¿A dónde va la alineación de la IA desde aquí? ¿Qué pueden aprender y actuar las empresas de este incidente?

Operai dice que sigue comprometido con la construcción de sistemas de IA que sean útiles, respetuosos y alineados con diversos valores de usuarios, pero reconoce que una personalidad única no puede satisfacer las necesidades de 500 millones de usuarios semanales.

La compañía espera que mayores opciones de personalización y una mayor recopilación de comentarios democráticos ayuden a adaptar el comportamiento de ChatGPT de manera más efectiva en el futuro. El CEO Sam Altman también ha declarado previamente los planes de la compañía para, en las próximas semanas y meses, lanzar un modelo de lenguaje grande de código abierto (LLM) de última generación para competir con la serie Llama de Meta’s Meta’s Llama, Mistral, Cohere, Cohere, Deepseek y Alibaba’s Qwen.

Esto también permitiría a los usuarios preocupados por una compañía de proveedores de modelos, como OpenAI, actualizar sus modelos alojados en la nube de manera no deseada o que tengan impactos perjudiciales en los usuarios finales para desplegar sus propias variantes del modelo localmente o en su infraestructura en la nube, y ajustarlas o preservarlas con los rasgos y cualidades deseadas, especialmente para los casos de uso empresarial.

Del mismo modo, para aquellos usuarios de IA empresariales e individuales preocupados por la senofancia de sus modelos, ya ha creado una nueva prueba de referencia para medir esta calidad en diferentes modelos, Tim Duffy ha creado el desarrollador. Se llama “Syco Bench” y está disponible aquí.

Mientras tanto, la reacción violenta de la sileno ofrece una historia de advertencia para toda la industria de la IA: el fideicomiso del usuario no está construido solo por afirmación. A veces, la respuesta más útil es un “no” reflexivo.

Continue Reading

Trending