Noticias

Stargate creará empleos. Pero no para los humanos.

Published

on

El martes estaba pensando en escribir una historia sobre las implicaciones de la derogación de la orden ejecutiva de Biden sobre la IA por parte de la administración Trump. (La mayor implicación: que a los laboratorios ya no se les pide que informen sobre capacidades peligrosas al gobierno, aunque pueden hacerlo de todos modos.) Pero entonces surgieron dos historias más grandes e importantes sobre la IA: una de ellas técnica y otra económica.

Regístrese aquí para explorar los grandes y complicados problemas que enfrenta el mundo y las formas más eficientes de resolverlos. Enviado dos veces por semana.

Stargate es un programa de empleo, pero tal vez no para humanos

La historia económica es Stargate. Junto con empresas como Oracle y Softbank, el cofundador de OpenAI, Sam Altman, anunció una alucinante inversión planificada de 500 mil millones de dólares en “nueva infraestructura de IA para OpenAI”, es decir, para centros de datos y las plantas de energía que se necesitarán para alimentarlos. .

La gente inmediatamente tuvo preguntas. Primero, estuvo la declaración pública de Elon Musk de que “en realidad no tienen el dinero”, seguida de la réplica del CEO de Microsoft, Satya Nadella: “Estoy bien para mis 80 mil millones de dólares”. (Recuerde que Microsoft tiene una gran participación en OpenAI).

En segundo lugar, algunos cuestionaron la afirmación de OpenAI de que el programa “creará cientos de miles de empleos estadounidenses”.

¿Por qué? Bueno, la única forma plausible para que los inversores recuperen su dinero en este proyecto es si, como ha estado apostando la compañía, OpenAI pronto desarrollará sistemas de inteligencia artificial que puedan realizar la mayor parte del trabajo que los humanos pueden hacer en una computadora. Los economistas están debatiendo ferozmente qué impactos económicos tendría exactamente eso, si se produjera, aunque la creación de cientos de miles de empleos no parece serlo, al menos no a largo plazo.

La automatización masiva ha ocurrido antes, al comienzo de la Revolución Industrial, y algunas personas esperan sinceramente que a largo plazo será algo bueno para la sociedad. (Mi opinión: eso realmente depende de si tenemos un plan para mantener la responsabilidad democrática y la supervisión adecuada, y para compartir los beneficios del nuevo y alarmante mundo de ciencia ficción. En este momento, no tenemos eso en absoluto, así que creo que No estoy entusiasmado con la perspectiva de ser automatizado).

Pero incluso si usted está más entusiasmado que yo con la automatización, “reemplazaremos todo el trabajo de oficina con IA” (que se entiende ampliamente como el modelo de negocios de OpenAI) es un plan absurdo para convertirlo en un programa de empleo. Pero entonces, una inversión de 500 mil millones de dólares para eliminar innumerables empleos probablemente no obtendría el visto bueno del presidente Donald Trump, como lo ha hecho Stargate.

Es posible que DeepSeek haya descubierto el refuerzo de los comentarios de la IA

La otra gran historia de esta semana fue DeepSeek r1, un nuevo lanzamiento de la startup china de IA DeepSeek, que la compañía anuncia como rival del o1 de OpenAI. Lo que hace que r1 sea tan importante son menos las implicaciones económicas y más las técnicas.

Para enseñar a los sistemas de inteligencia artificial a dar buenas respuestas, calificamos las respuestas que nos dan y los entrenamos para que se concentren en las que calificamos altamente. Esto es “aprendizaje reforzado a partir de la retroalimentación humana” (RLHF), y ha sido el enfoque principal para capacitar a los LLM modernos desde que un equipo de OpenAI lo puso en funcionamiento. (El proceso se describe en este artículo de 2019).

Pero RLHF no es la forma en que obtuvimos el programa de juegos de inteligencia artificial ultrasobrehumano AlphaZero. Fue entrenado usando una estrategia diferente, basada en el juego autónomo: la IA fue capaz de inventar nuevos acertijos por sí misma, resolverlos, aprender de la solución y mejorar a partir de ahí.

Esta estrategia es particularmente útil para enseñar a un modelo cómo hacer rápidamente cualquier cosa que pueda hacer costosa y lentamente. AlphaZero podría considerar lenta y exhaustivamente muchas políticas diferentes, determinar cuál es la mejor y luego aprender de la mejor solución. Es este tipo de juego autónomo el que hizo posible que AlphaZero mejorara enormemente los motores de juegos anteriores.

Entonces, por supuesto, los laboratorios han estado tratando de encontrar algo similar para modelos de lenguaje grandes. La idea básica es simple: se deja que un modelo considere una pregunta durante mucho tiempo, utilizando potencialmente muchos cálculos costosos. Luego lo entrenas con la respuesta que finalmente encontró, intentando producir un modelo que pueda obtener el mismo resultado a un precio más bajo.

Pero hasta ahora, “los grandes laboratorios no parecían tener mucho éxito con este tipo de RL de mejora automática”, escribió el ingeniero de aprendizaje automático Peter Schmidt-Nielsen en una explicación de la importancia técnica de DeepSeek r1. Lo que ha impresionado tanto (y alarmado) a los ingenieros con r1 es que el equipo parece haber logrado avances significativos utilizando esa técnica.

Esto significaría que a los sistemas de IA se les puede enseñar a hacer de forma rápida y económica cualquier cosa que sepan hacer de forma lenta y costosa, lo que contribuiría a algunas de las rápidas e impactantes mejoras en las capacidades que el mundo presenció con AlphaZero, sólo en áreas de la economía. mucho más importante que jugar.

Otro hecho notable aquí: estos avances provienen de una empresa china de inteligencia artificial. Dado que las empresas estadounidenses de IA no tienen reparos en utilizar la amenaza del dominio chino de la IA para impulsar sus intereses (y dado que realmente existe una carrera geopolítica en torno a esta tecnología), eso dice mucho sobre la rapidez con la que China puede estar poniéndose al día.

Mucha gente que conozco está harta de oír hablar de la IA. Están hartos de la IA en sus canales de noticias y de productos de IA que son peores que los humanos pero muy baratos, y no están exactamente apoyando a OpenAI (o a cualquier otra persona) para convertirse en los primeros trillonarios del mundo al automatizar industrias enteras.

Pero creo que en 2025 la IA realmente será importante, no por si se desarrollarán estos poderosos sistemas, algo que en este momento parece estar en marcha, sino por si la sociedad está lista para levantarse e insistir en que se haga de manera responsable.

Cuando los sistemas de IA comiencen a actuar de forma independiente y a cometer delitos graves (todos los laboratorios principales están trabajando en “agentes” que pueden actuar de forma independiente en este momento), ¿haremos responsables a sus creadores? Si OpenAI hace una oferta ridículamente baja a su entidad sin fines de lucro en su transición al estado totalmente con fines de lucro, ¿intervendrá el gobierno para hacer cumplir la ley sin fines de lucro?

Muchas de estas decisiones se tomarán en 2025 y hay mucho en juego. Si la IA te inquieta, es mucho más motivo para exigir acción que para desconectarte.

Una versión de esta historia apareció originalmente en el boletín Future Perfect. ¡Regístrate aquí!

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version