Connect with us

Noticias

Conozca a los jugadores poderosos en la startup XAI de Elon Musk

Published

on

  • La startup xAI de Elon Musk ha atraído a los mejores talentos desde su lanzamiento en julio de 2023.
  • xAI ha recaudado más de 12 mil millones de dólares y está valorada en 50 mil millones de dólares.
  • Sus miembros fundadores tienen experiencia previa en empresas como Google, OpenAI y Tesla.

La startup xAI de Elon Musk es uno de los jugadores más nuevos en la carrera de la inteligencia artificial, pero eso no le ha impedido atraer a los mejores talentos y alcanzar una valoración de 50 mil millones de dólares en solo 16 meses.

Lanzado por Musk en julio de 2023 para enfrentarse a OpenAI, la empresa detrás de ChatGPT, el elevado objetivo de xAI es “comprender el universo”.

La startup comenzó con un equipo de 12 personas que, antes de unirse al último viaje a la luna de Musk, trabajaron en empresas como Google DeepMind, Tesla, OpenAI y Microsoft. Ha recaudado un total de 12 mil millones de dólares, incluida una ronda de financiación de 6 mil millones de dólares que se cerró en diciembre.

Desde su lanzamiento, xAI ha lanzado un chatbot llamado Grok, que ahora es de uso gratuito para todos. Algunas de sus funciones más recientes incluyen resultados de búsqueda web, carga de PDF, comprensión de imágenes y la capacidad de resumir conversaciones y comprender publicaciones. También ha lanzado una herramienta de generación de imágenes.

Grok ha sido entrenado con datos de usuario de Xla empresa anteriormente conocida como Twitter, de la que también es propietario Musk. Esa dinámica le ha dado a xAI una ventaja competitiva, pero también desencadenó una investigación del principal regulador de privacidad de Europa, lo que resultó en que X hiciera concesiones sobre algunos datos de los usuarios.

Para competir con rivales como OpenAI y Google, xAI planea diez veces el tamaño de su supercomputadora Memphisque entrena sus modelos de IA. El equipo de xAI construyó la supercomputadora, llamada Colossus, a una velocidad vertiginosa. y ya se considera el más grande de su tipo en el mundo.

Conozca a las figuras clave de xAI que están impulsando el rápido crecimiento de la startup.

Ígor Babuschkin

Babuschkin, miembro fundador de xAI, pasó tres años como ingeniero de investigación en Google DeepMind antes de unirse a OpenAI. Regresó a Google DeepMind durante casi un año y luego se fue a xAI.

En una conversación transmitida en vivo con Musk y otros en X Spaces en julio de 2023, Babuschkin dijo que originalmente era físico y trabajó brevemente en el Gran Colisionador de Hadrones, el acelerador de partículas más avanzado del mundo.

Durante esa conversación, Babuschkin dijo que “siempre le ha apasionado” comprender el universo y luego se interesó en los campos del aprendizaje automático profundo y la inteligencia artificial, y decidió hacer un cambio de carrera.

Añadió: “Me apasionaban mucho los modelos de lenguaje y hacer que hicieran cosas impresionantes, y ahora me he asociado con Elon para ver si realmente podemos implementar estas nuevas tecnologías para realmente hacer mella en nuestra comprensión del universo y el progreso. nuestro conocimiento colectivo.”

Manuel Kroiss

Kroiss trabajó anteriormente como ingeniero en Google DeepMind y fue coautor de varios artículos de investigación sobre aprendizaje automático, siendo el más reciente: “Launchpad: Un modelo de programación para la investigación de aprendizaje automático distribuido”.

Yuhuai (Tony) Wu

Wu trabajó anteriormente en Google y Google DeepMind y pasó unos meses como investigador científico en prácticas en OpenAI. También pasó más de un año como investigador postdoctoral en la Universidad de Stanford.

Wu dijo en la transmisión en vivo de X Spaces 2023 que su sueño ha sido abordar los problemas más difíciles en matemáticas e inteligencia artificial. También es coautor de varios artículos de investigación sobre aprendizaje automático y modelos de lenguajes grandes.

Wu tiene una licenciatura en matemáticas de la Universidad de New Brunswick y un doctorado. en aprendizaje automático de la Universidad de Toronto.

Christian Szegedy

Szegedy se unió a xAI procedente de Google, donde pasó 14 años de su carrera. Su último papel allí fue como científico investigador de plantilla.

Szegedy tiene una maestría en matemáticas y un doctorado. en matemáticas aplicadas de la Universidad de Bonn.

En una charla informal con el científico de datos de Nvidia, Bojan Tunguz, a principios de este año, Szegedy dijo que había trabajado en el diseño de chips durante 12 años.

Luego, en 2010, a la edad de 40 años, decidió hacer un cambio de carrera después de darse cuenta de que la IA sería el próximo gran avance y se unió a Google.

Jimmy Ba

Ba tiene experiencia en redes neuronales profundas y fue alumno de Geoffrey Hinton, a quien se conoce ampliamente como el “padrino de la IA”.

Ba es profesor asistente en la Universidad de Toronto. En 2023, la universidad le otorgó una beca de investigación Sloan, un programa que la Fundación Alfred P. Sloan reconoce como personas “cuya creatividad, innovación y logros en investigación los hacen destacar como la próxima generación de líderes”.

Una publicación de LinkedIn del Departamento de Ciencias de la Computación de la universidad anunciando el premio dijo que la investigación de Ba ha tenido una gran influencia en el aprendizaje profundo y se centra en la creación de algoritmos eficientes de aprendizaje profundo para redes neuronales.

En los X Spaces del año pasado, Ba dijo que sus ambiciones de investigación a largo plazo se alinean con la misión de xAI de “ayudar a la humanidad a superar algunos de los desafíos más ambiciosos que existen” a través de herramientas de IA.

Toby Pohlen

Pohlen pasó más de seis años en Google DeepMind, donde recientemente trabajó como ingeniero de investigación. El ingeniero con sede en Londres trabajó en herramientas de evaluación para LLM, así como en aprendizaje por refuerzo escalable en Google DeepMind.

Cuando xAI lanzó Grok en noviembre de 2023, Pohlen compartió una demostración y sugirió que el chatbot tendría una configuración normal además de un “modo divertido”.

Ross Nordeen

Nordeen fue anteriormente gerente de programas técnicos en Tesla y trabajó en supercomputación antes de irse para unirse a xAI en 2023.

Según el biógrafo de Musk, Walter Isaacson, llamaron a Nordeen para ayudar a Musk con un esfuerzo de último minuto para trasladar algunos servidores de datos de Sacramento a Oregon.

Se dice que Nordeen compró todo el stock de AirTags en una Apple Store en San Francisco, por valor de 2.000 dólares, para poder seguir el recorrido de los servidores que se estaban moviendo.

Nordeen pagó otros $2,500 en Home Depot por herramientas como llaves inglesas, cortadores de pernos y faros para ayudar con la misión de retirar y transferir los servidores.

Greg Yang

Yang trabaja en matemáticas y la ciencia del aprendizaje profundo en xAI y anteriormente fue investigador en Microsoft durante más de cinco años.

En la sesión de X Spaces, Yang dijo que se tomó un tiempo libre de su licenciatura en la Universidad de Harvard y se convirtió en DJ y productor de música dubstep. Dijo que después de un poco de introspección, descubrió que no quería ser DJ.

Dijo que su objetivo es hacer realidad la inteligencia artificial general y añadió que quiere “crear algo más inteligente que yo”. Luego estudió matemáticas para perseguir su ambición profesional.

Guo Dong Zhang

Guodong tiene un doctorado. en aprendizaje automático de la Universidad de Toronto. Comenzó su carrera en IA como pasante de investigación en Microsoft, luego en Google Brain y Google DeepMind.

Luego pasó unos 10 meses como científico investigador en Google DeepMind antes de unirse a xAI como líder de formación previa.

Zihang Dai

Dai también se unió a xAI procedente de Google, donde recientemente fue científico investigador senior y pasó más de cinco años en la empresa.

Tiene una maestría en ciencias y un doctorado. en informática de la Universidad Carnegie Mellon.

Continue Reading

Noticias

Operai retrocede el chatgpt Sycophancy, explica lo que salió mal

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai ha retrasado una actualización reciente de su modelo GPT-4O utilizado como el valor predeterminado en ChatGPT después de informes generalizados de que el sistema se había vuelto excesivamente halagador y demasiado agradable, incluso apoyando delirios absolutamente e ideas destructivas.

La reversión se produce en medio de los reconocimientos internos de los ingenieros de Operai y la creciente preocupación entre los expertos en IA, los ex ejecutivos y los usuarios sobre el riesgo de lo que muchos ahora llaman “skicancia de la IA”.

En una declaración publicada en su sitio web al final de la noche del 29 de abril de 2025, OpenAI dijo que la última actualización de GPT-4O tenía la intención de mejorar la personalidad predeterminada del modelo para que sea más intuitiva y efectiva en variados casos de uso.

Sin embargo, la actualización tuvo un efecto secundario involuntario: ChatGPT comenzó a ofrecer elogios no críticos para prácticamente cualquier idea del usuario, sin importar cuán poco práctico, inapropiado o incluso dañino.

Como explicó la compañía, el modelo se había optimizado utilizando la retroalimentación de los usuarios, las señales de thumbs y pulgar hacia abajo, pero el equipo de desarrollo puso demasiado énfasis en los indicadores a corto plazo.

Operai ahora reconoce que no explicó completamente cómo las interacciones y las necesidades del usuario evolucionan con el tiempo, lo que resultó en un chatbot que se inclinó demasiado en la afirmación sin discernimiento.

Los ejemplos provocaron preocupación

En plataformas como Reddit y X (anteriormente Twitter), los usuarios comenzaron a publicar capturas de pantalla que ilustraban el problema.

En una publicación de Reddit ampliamente circulada, un usuario relató cómo ChatGPT describió una idea de negocio de GAG, que vende “mierda” literal de un palo “, como genio y sugirió invertir $ 30,000 en la empresa. La IA elogió la idea como “arte de performance disfrazado de regalo de mordaza” y “oro viral”, destacando cuán sin crítica estaba dispuesto a validar incluso los lanzamientos absurdos.

Otros ejemplos fueron más preocupantes. En un caso citado por VentureBeat, un usuario que pretende defender los delirios paranoicos recibió refuerzo de GPT-4O, que elogió su supuesta claridad y autocomisos.

Otra cuenta mostró que el modelo ofrecía lo que un usuario describió como un “respaldo abierto” de las ideas relacionadas con el terrorismo.

La crítica montó rápidamente. El ex CEO interino de Operai, Emmett Shear, advirtió que ajustar los modelos para ser personas complacientes puede provocar un comportamiento peligroso, especialmente cuando la honestidad se sacrifica por la simpatía. Abrazando el CEO de Clemente Delangue volvió a publicar las preocupaciones sobre los riesgos de manipulación psicológica planteados por la IA que está de acuerdo reflexivamente con los usuarios, independientemente del contexto.

Medidas de respuesta y mitigación de Openai

Operai ha tomado medidas rápidas al volver a la actualización y restaurar una versión GPT-4O anterior conocida por un comportamiento más equilibrado. En el anuncio adjunto, la compañía detalló un enfoque múltiple para corregir el curso. Esto incluye:

  • Refinar capacitación y estrategias rápidas para reducir explícitamente las tendencias sycofánticas.
  • Reforzar la alineación del modelo con la especificación del modelo de OpenAI, particularmente en torno a la transparencia y la honestidad.
  • Pruebas de expansión previa a la implementación y mecanismos directos de retroalimentación de los usuarios.
  • Introducción de características de personalización más granulares, incluida la capacidad de ajustar los rasgos de personalidad en tiempo real y seleccionar entre múltiples personajes predeterminados.

Operai Technical Stafper Depue publicado en X destacando el problema central: el modelo fue capacitado utilizando comentarios de los usuarios a corto plazo como una guía, que sin darse cuenta dirigió el chatbot hacia la adulación.

OpenAI ahora planea cambiar hacia mecanismos de retroalimentación que priorizan la satisfacción y la confianza del usuario a largo plazo.

Sin embargo, algunos usuarios han reaccionado con escepticismo y consternación a las lecciones aprendidas de Openi y propuestas soluciones en el futuro.

“Por favor asuma más responsabilidad por su influencia sobre millones de personas reales”, escribió artista @nearcyan en X.

Harlan Stewart, generalista de comunicaciones en el Instituto de Investigación de Inteligencia de Machine de Machine en Berkeley, California, publicó en X una preocupación a término más grande sobre la skicancia de la IA, incluso si este modelo en particular Operai se ha solucionado: “La charla sobre la sileno esta semana no se debe a que GPT-4O es un sycophant. Se debe a que GPT-4O es un GPT-4O siendo GPT-4O. Realmente, muy malo en ser un sycofant. La IA aún no es capaz de una skicancia hábil y más difícil de detectar, pero algún día será algún día ”.

Una señal de advertencia más amplia para la industria de IA

El episodio GPT-4O ha reavivado debates más amplios en toda la industria de la IA sobre cómo la sintonización de personalidad, el aprendizaje de refuerzo y las métricas de compromiso pueden conducir a una deriva conductual involuntaria.

Los críticos compararon el comportamiento reciente del modelo con los algoritmos de redes sociales que, en busca de la participación, optimizan para la adicción y la validación sobre precisión y salud.

Shear subrayó este riesgo en su comentario, señalando que los modelos de IA sintonizados para elogios se convierten en “chupas”, incapaces de estar en desacuerdo incluso cuando el usuario se beneficiaría desde una perspectiva más honesta.

Advirtió además que este problema no es exclusivo de OpenAI, señalando que la misma dinámica se aplica a otros grandes proveedores de modelos, incluido el copiloto de Microsoft.

Implicaciones para la empresa

Para los líderes empresariales que adoptan la IA conversacional, el incidente de la sycophancy sirve como una señal clara: el comportamiento del modelo es tan crítico como la precisión del modelo.

Un chatbot que halagará a los empleados o valida el razonamiento defectuoso puede plantear riesgos graves, desde malas decisiones comerciales y código desalineado hasta problemas de cumplimiento y amenazas internas.

Los analistas de la industria ahora aconsejan a las empresas que exigan más transparencia de los proveedores sobre cómo se realiza la sintonización de la personalidad, con qué frecuencia cambia y si se puede revertir o controlar a nivel granular.

Los contratos de adquisición deben incluir disposiciones para auditoría, pruebas de comportamiento y control en tiempo real de las indicaciones del sistema. Se alienta a los científicos de datos a monitorear no solo las tasas de latencia y alucinación, sino también métricas como la “deriva de la amabilidad”.

Muchas organizaciones también pueden comenzar a moverse hacia alternativas de código abierto que puedan alojar y sintonizar. Al poseer los pesos del modelo y el proceso de aprendizaje de refuerzo, las empresas pueden retener el control total sobre cómo se comportan sus sistemas de IA, lo que elimina el riesgo de una actualización empujada por el proveedor que convierte una herramienta crítica en un hombre digital y sí durante la noche.

¿A dónde va la alineación de la IA desde aquí? ¿Qué pueden aprender y actuar las empresas de este incidente?

Operai dice que sigue comprometido con la construcción de sistemas de IA que sean útiles, respetuosos y alineados con diversos valores de usuarios, pero reconoce que una personalidad única no puede satisfacer las necesidades de 500 millones de usuarios semanales.

La compañía espera que mayores opciones de personalización y una mayor recopilación de comentarios democráticos ayuden a adaptar el comportamiento de ChatGPT de manera más efectiva en el futuro. El CEO Sam Altman también ha declarado previamente los planes de la compañía para, en las próximas semanas y meses, lanzar un modelo de lenguaje grande de código abierto (LLM) de última generación para competir con la serie Llama de Meta’s Meta’s Llama, Mistral, Cohere, Cohere, Deepseek y Alibaba’s Qwen.

Esto también permitiría a los usuarios preocupados por una compañía de proveedores de modelos, como OpenAI, actualizar sus modelos alojados en la nube de manera no deseada o que tengan impactos perjudiciales en los usuarios finales para desplegar sus propias variantes del modelo localmente o en su infraestructura en la nube, y ajustarlas o preservarlas con los rasgos y cualidades deseadas, especialmente para los casos de uso empresarial.

Del mismo modo, para aquellos usuarios de IA empresariales e individuales preocupados por la senofancia de sus modelos, ya ha creado una nueva prueba de referencia para medir esta calidad en diferentes modelos, Tim Duffy ha creado el desarrollador. Se llama “Syco Bench” y está disponible aquí.

Mientras tanto, la reacción violenta de la sileno ofrece una historia de advertencia para toda la industria de la IA: el fideicomiso del usuario no está construido solo por afirmación. A veces, la respuesta más útil es un “no” reflexivo.

Continue Reading

Trending