Noticias

¿Se puede confiar en Sam Altman el futuro de la IA?

Published

on

Sejal Sharma es columnista de IA de IE y ofrece inmersiones profundas en el mundo de la inteligencia artificial y su impacto transformador en todas las industrias. Su columna bimensual AI Logs explora las últimas tendencias, avances y dilemas éticos en IA, brindando análisis expertos y conocimientos nuevos. Para mantenerse informado, suscríbase a nuestro boletín AI Logs para obtener contenido exclusivo.

Imagínese a un joven emprendedor estadounidense que se acerca a Yoshua Bengio, uno de los padrinos de la IA, con una propuesta para lanzar una startup de inteligencia artificial en 2015. Aunque Bengio siguió comprometido con el mundo académico, proporcionó una lista de los principales investigadores de IA. Decidido a construir algo magnífico, el emprendedor se puso en contacto con estos expertos y con otros durante varias semanas, ofreciéndoles la oportunidad de unirse a su nueva empresa con un plazo de tres semanas para decidir. Cuando llegó la fecha límite, nueve de cada diez habían aceptado subir a bordo.

Unos años más tarde, esa startup rudimentaria, que alguna vez se dirigió desde una sala de estar, se ha convertido en el gigante tecnológico que ahora reconocemos como OpenAI. En el centro de todo estaba Greg Brockman, el emprendedor que ayudó a transformar a un grupo de investigadores de IA en una de las empresas más influyentes del mundo.

Fundada en 2015 por Sam Altman, Ilya Sutskever, Elon Musk, John Schulman, Wojciech Zaremba y Brockman, su misión era una tarea difícil: desarrollar AGI (Inteligencia General Artificial) que no solo sirviera a unos pocos, sino a la humanidad en general. grande.

Pero ninguna gran misión viene sin una serie de pruebas y tribulaciones. Desde entonces, la organización ha dado un giro total y casi no se parece en nada a la entidad naciente que era hace nueve años.

La salida de la vieja guardia

Uno de los mayores cambios es que de los seis fundadores originales, solo dos participan activamente en la empresa en la actualidad. La puerta giratoria del liderazgo de OpenAI ha girado más rápido que un hámster en una rueda.

Musk se fue en 2018, citando conflictos entre las ambiciones de IA de Tesla y los objetivos de OpenAI. Luego vinieron las salidas de otras figuras clave. En 2024, la directora de tecnología Mira Murati se fue silenciosamente, mientras que Schulman se mudó para unirse a la empresa rival Anthropic. Sorprendentemente, Brockman anunció un año sabático hasta finales de este año, dejando al mundo preguntándose si regresará.

La salida de Sutskever se anticipó después de que se convirtiera en persona non grata por su papel en la controvertida decisión del año pasado de destituir a Altman del puesto de director ejecutivo.

La expulsión no tuvo éxito. Cinco días después, Altman fue reintegrado después de que empleados e inversionistas lo apoyaran. Este episodio se convirtió en un punto de inflexión para la empresa. Y no en el buen sentido.

Debido a que las razones detrás de la destitución de Altman seguían siendo turbias, y la junta no proporcionó una explicación clara para su decisión en ese momento, excepto decir que Altman no fue abierto en su comunicación con la junta, la gente comenzó a cuestionar las intenciones de la compañía y si podría lograr la misión que se había propuesto cumplir en primer lugar: la seguridad de la IA.

Los comentarios recientes de Geoffrey Hinton, otra figura renombrada de la IA a la que a menudo se hace referencia como el “padrino de la IA”, dan crédito a sospechas arraigadas desde hace mucho tiempo de que OpenAI ha cambiado sus prioridades, favoreciendo potencialmente la rentabilidad sobre su compromiso inicial de garantizar la seguridad de la IA.

“Estoy particularmente orgulloso del hecho de que uno de mis estudiantes despidió a Sam Altman”, dijo Hinton, refiriéndose a Sutskever, quien es su protegido.

Hinton tiene muchos elogios a su nombre. Una adición a la lista es que recientemente recibió el Premio Nobel de Física por su trabajo en IA.

“OpenAI se creó con gran énfasis en la seguridad. Su objetivo principal era desarrollar inteligencia artificial general y garantizar que fuera segura… Y con el tiempo resultó que Sam Altman estaba mucho menos preocupado por la seguridad que por las ganancias y creo que eso es desafortunado”, añadió.

Al momento de escribir esta columna, solo Altman y Zaremba permanecen al frente de OpenAI. Sin embargo, la metamorfosis de la empresa (de una humilde organización sin fines de lucro a una empresa con fines de lucro) no ha pasado precisamente desapercibida.

De las puras intenciones al afán de lucro

La empresa que se propuso cambiar el mundo se ha transformado a sí misma más que el mundo que la rodea. Concebida como una organización sin fines de lucro, OpenAI cambió de rumbo en 2019, transformándose en una entidad de “beneficios limitados” bajo el nombre de OpenAI LP.

El trato: traer mucho dinero.

Ingresa Microsoft, blandiendo una chequera con una sonrisa de mil millones de dólares. Si bien Microsoft hizo una inversión multimillonaria, OpenAI afirmó que seguía siendo independiente, gobernada por su brazo sin fines de lucro.

Sin embargo, informes recientes han revelado que la compañía planea reorganizarse como una corporación con fines de lucro, diluyendo su gobierno sin fines de lucro y potencialmente entregando más control a los inversores y a Altman, que anteriormente no tenían capital.

Desde entonces, la relación con Microsoft ha crecido a lo largo de los años y su inversión resultó ser justo lo que OpenAI necesitaba para lanzar ChatGPT al mundo.

Lanzado a finales de 2022, ChatGPT, como sabes, lo cambió todo. ¿Libros de texto? Anticuado. ¿Google? Redundante. En un instante, ChatGPT se convirtió en una de las aplicaciones de más rápido crecimiento en la historia de la humanidad, con más de 200 millones de usuarios semanales.

El éxito de ChatGPT sacudió los cimientos mismos de Silicon Valley y desencadenó una carrera global de IA. Los inversores acudieron en masa y desde entonces la valoración de OpenAI se ha disparado de 14.000 millones de dólares en 2021 a la asombrosa cifra de 150.000 millones de dólares en 2024, después de recaudar recientemente otros 6.600 millones de dólares de Microsoft y Nvidia.

El aumento de la riqueza de OpenAI también ha llevado a lo que puede describirse como un enigma “muskiano”. En agosto de 2024, Musk presentó su segunda demanda, acusando a OpenAI de dejar de ser una corporación sin fines de lucro y traicionar su ideal fundacional.

Ahora exige el triple de los 44,6 millones de dólares que donó y que la empresa abra el código fuente de su investigación sobre GPT-4, alineándose coincidentemente con las necesidades de su empresa competidora, xAI.

Pero es poco probable que eso suceda. Es posible que el nombre diga “Open”, pero OpenAI aún no ha lanzado un modelo de código abierto desde GPT-2 en 2019. De hecho, la compañía ha hecho muchas de las cosas que dijo que no haría, como mantenerse alejado de desarrollo de productos comerciales y asociaciones con fines de lucro.

Su noble misión de desarrollar AGI segura ahora parece fuera de lugar, como tratar de enseñarle democracia a un gato.

¿Pero qué pasa con el futuro?

El éxito de la empresa con productos como ChatGPT sin duda ha cambiado el panorama tecnológico, pero también ha reavivado los temores sobre el mal uso de la IA. Es probable que veamos modelos de IA aún más potentes de OpenAI en los próximos años. Existe mucha preocupación de que si podemos construir una IA que pueda hacer grandes cosas, también podemos construir una IA que pueda hacer cosas terribles.

La creciente influencia de OpenAI genera serias preocupaciones sobre el poder desenfrenado de AGI: sistemas que pueden comprender, aprender y aplicar inteligencia como los humanos.

¿Se puede confiar en que cualquier corporación, sin importar cuán nobles sean sus orígenes, utilice dicha tecnología de manera responsable? Los críticos argumentan que el cambio de OpenAI impulsado por las ganancias (y la posible dilución del control de las organizaciones sin fines de lucro) pueden llevarlo por un camino peligroso, priorizando el éxito comercial sobre la gobernanza ética.

Y luego, en el centro de todo, está Altman, una figura que infunde tanto miedo como respeto en Silicon Valley. ¿Se puede confiar en él para garantizar que la IA (y eventualmente la AGI) se desarrolle de manera responsable?

La compañía está reescribiendo su historia con Altman, probablemente gane capital, y caras conocidas como Murati y Brockman ya no están en escena.

Las tensiones con Microsoft también están burbujeando bajo la superficie. Un informe reciente de La información sugiere que Microsoft está luchando por satisfacer las demandas informáticas de OpenAI, demandas tan vastas que la rentabilidad de OpenAI puede seguir siendo un sueño lejano hasta 2029.

Al final, el legado de OpenAI dependerá de lo que construya y cómo lo haga. Si podemos crear máquinas que piensen, también debemos enseñarles a preocuparse.

El viejo refrán dice: “El futuro ya está aquí, sólo que no está distribuido equitativamente”. Si OpenAI cumple su misión o se adentra en territorio peligroso determinará el futuro de la tecnología y la confianza en las manos que la moldean.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version