Noticias

OpenAI comienza 2025 con gran entusiasmo por AGI y superinteligencia

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Al igual que terminó 2024 en la ciudad de Nueva York, el ciclo de noticias sobre IA de 2025 comenzó con un trueno.

El cofundador y director ejecutivo de OpenAI, Sam Altman, acudió a su blog personal ayer, 5 de enero de 2025, para conmemorar tardíamente el segundo aniversario de ChatGPT (lanzado en noviembre de 2022) y ofrecer una serie de “Reflexiones”, como se tituló la publicación, sobre progreso hacia el objetivo declarado de OpenAI de desarrollar inteligencia artificial general (AGI) (la compañía lo define como “sistemas de IA que generalmente son más inteligentes que los humanos”) y, más tarde, superinteligencia o sistemas de inteligencia artificial incluso más inteligentes que eso.

Entre las sorprendentes declaraciones que Altman escribe en su publicación se encuentran: “Ahora estamos seguros de que sabemos cómo desarrollar la AGI tal como la hemos entendido tradicionalmente.

Altman no puso un cronograma sobre este desarrollo particular en la publicación de su blog, pero en una entrevista publicada ayer por Bloomberg pero realizada antes del anuncio del modelo o3 de OpenAI el mes pasado, Altman dijo:

“Creo que la AGI probablemente se desarrollará durante el mandato de este presidente, y hacerlo bien parece realmente importante”.

Antes de que tengamos AGI, los agentes de IA se unirán a la fuerza laboral este año, dice Altman

Volviendo al blog de Altman, el director ejecutivo escribió: “Creemos que, en 2025, podremos ver a los primeros agentes de IA ‘unirse a la fuerza laboral’ y cambiar materialmente la producción de las empresas.

Si se me permite leer entre líneas, la idea es que las empresas pronto podrían aumentar o incluso reemplazar a los miembros humanos de su personal con agentes de IA, es decir, asistentes autónomos o semiautónomos impulsados ​​por IA que puedan completar múltiples tareas con un mínimo de respaldo humano. -y adelante.

¿Superinteligencia entrante?

Pero son las declaraciones finales de Altman en su blog las que quizás sean las más audaces y provocativas. Continúa escribiendo:

Estamos empezando a dirigir nuestro objetivo más allá de eso, hacia la superinteligencia en el verdadero sentido de la palabra. Amamos nuestros productos actuales, pero estamos aquí para un futuro glorioso. Con superinteligencia podemos hacer cualquier otra cosa. Las herramientas superinteligentes podrían acelerar enormemente los descubrimientos científicos y la innovación mucho más allá de lo que somos capaces de hacer por nuestra cuenta y, a su vez, aumentar enormemente la abundancia y la prosperidad.

Esto suena a ciencia ficción ahora mismo, y un poco loco siquiera hablar de ello. Está bien, hemos estado allí antes y estamos bien con estar allí de nuevo. Estamos bastante seguros de que en los próximos años todo el mundo verá lo que nosotros vemos y de que es muy importante actuar con mucho cuidado, sin dejar de maximizar los beneficios y el empoderamiento amplios. Dadas las posibilidades de nuestro trabajo, OpenAI no puede ser una empresa normal.

Ese mismo día, el jefe de alineación de misiones de OpenAI, Joshua Achiam, también publicó en X: “El mundo no está lidiando lo suficiente con la seriedad de la IA y cómo cambiará o negará muchos de los supuestos en los que se basan muchos equilibrios aparentemente sólidos”.

Achiam expuso más en un largo hilo sobre X, sugiriendo que el rápido ritmo del avance de la IA alterará significativamente “Política interna. Política internacional. Eficiencia del mercado. La tasa de cambio del progreso tecnológico. Gráficos sociales. La dependencia emocional de las personas de otras personas”. y en otro post, agregó que esto “forzará cambios de estrategia en empresas, instituciones de todo tipo y países”.

Antes de todas estas publicaciones, el 3 de enero, Stephen McAleer, un autodenominado investigador de seguridad en OpenAI, también publicó en X: “Extraño un poco la investigación de IA cuando no sabíamos cómo crear superinteligencia”.

Reacciones en todos los ámbitos

La reacción en la web a estas publicaciones ha sido una mezcla bastante predecible de positivo y negativo, y me parece dividida en su mayoría equitativamente entre aquellos que abrazan el cronograma optimista y aparentemente agresivo de OpenAI para el avance de la IA en la sociedad y aquellos que creen que la empresa está llena de eso.

Como escribió McKay Wrigley, fundador de Takeoff AI, una plataforma de desarrollo de habilidades, en una publicación en X: “Los cronogramas de AGI ya no están disponibles. Los cronogramas de ASI ya están disponibles”.

Otro usuario de X, @gfodor, escribió una predicción extremadamente optimista en una publicación: “Al final del mandato de Trump tendremos AGI, si no ASI, estaremos en Marte, tendremos al menos un millón de robots humanoides, Sabremos que estamos solos si los extraterrestres no aparecen, sabremos si Yud tenía razón y tendremos que tener una RBU. Divertido”

La RBU, por supuesto, se refiere al “ingreso básico universal”, una idea que surgió a finales del siglo XVIII para ofrecer salarios mínimos a toda la población y que en los últimos años ha recibido un nuevo respaldo de figuras de Silicon Valley, incluido Altman, como medio. de aprovechar las ganancias de productividad de la IA y garantizar que no causen que la sociedad sufra una depresión económica o una devastación si la mayoría de los empleos son reemplazados por la IA.

El eterno escéptico de OpenAI, Gary Marcus, recurrió a X para publicar un hilo de enlaces a áreas en las que cree que el modelo de razonamiento o1 de OpenAI está muy por debajo de lo que podría considerarse AGI o cercano a él, y afirmó: “Muchas figuras destacadas en el campo han reconocido “Es posible que hayamos alcanzado un período de rendimientos decrecientes del escalamiento puro de LLM, tal como anticipé en 2022. Nadie sabe qué sucederá a continuación”.

Benjamin Riley, un ex asociado de JP Morgan que dijo que trabajó en la empresa cuando la infame empresa de energía fallida Enron era cliente, comparó esa empresa con OpenAI en la red social BlueSky en una serie de publicaciones, escribiendo, en parte: “Yo principalmente Manténgase alejado de las intrigas del palacio de OpenAI, pero hombre, todas las señales están ahí”.

Aprovechando la predicción de Altman de que los agentes de IA se unirán a la fuerza laboral este año, el gerente de relaciones públicas y crítico abierto de la IA, Ed Zitron, también escribió en BlueSky: “¡Dejen de imprimir todo lo que Sam Altman dice como si fuera verdad!”

Pronto descubriremos si es cierto o no, ya que 2025 apenas ha comenzado y ya el revuelo por la AGI y la superinteligencia ha alcanzado un punto álgido como nunca antes había visto en mis 15 años escribiendo sobre tecnología.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version