Noticias
Dos años de ChatGPT: del asombro absoluto al ‘punto más bajo de la desilusión’ | Tecnología
“Es una innovación tremenda; a mí también me sorprendió”. “Suena mucho más natural que la mayoría de programas similares”. “Ha aprendido intuitivamente a mantener conversaciones sobre casi cualquier tema”. Estas son algunas de las primeras reacciones de los expertos en inteligencia artificial (IA) ante ChatGPT, tal y como publica EL PAÍS. En apenas unos días, la herramienta cautivó tanto a profesionales como a usuarios en general, que comenzaron a compartir extractos de sus conversaciones con el bot en las redes sociales. De repente, cualquiera con una conexión a Internet podía entablar un diálogo con una máquina que proporcionaba respuestas coherentes y bien escritas, aunque no siempre precisas. Para muchos, parecía como si estuvieran conversando con una persona y no con una máquina. Este sábado se cumplen dos años desde el lanzamiento de ChatGPT, que presentó al público la IA generativa, una tecnología capaz de producir contenido aparentemente original basado en indicaciones humanas.
¿Cuál es el estado actual de esta tecnología? El entusiasmo inicial ha dado paso a una batalla corporativa por el dominio en el despliegue de dichas herramientas. Microsoft rápidamente firmó un acuerdo de colaboración con OpenAI, el desarrollador detrás de ChatGPT y DALL·E, mientras que Google no se quedó atrás, anunciando sus propios modelos abiertos en dos meses.
Hoy nos encontramos en lo que la consultora Gartner llama “la depresión de la desilusión”: la euforia inicial generó expectativas infladas, y la incapacidad de cumplirlas inmediatamente hizo que el interés disminuyera. Esta es una fase natural en el ciclo de vida de las tendencias tecnológicas y, según Gartner, la pendiente de las expectativas volverá a aumentar dentro de unos años, aunque de forma más moderada que el primer aumento.
“Dos años después, los cerebros artificiales siguen siendo estocásticos sabelotodo: hablan con gran autoridad, parecen saberlo todo, pero lo que dicen no es el resultado de un conocimiento real, sino de su capacidad intuitivamente desarrollada para parecer sabios”. resume Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos de la Universidad Nacional de Educación a Distancia (UNED) y vicerrector adjunto de Investigación.
Andrej Karpathy, uno de los creadores del modelo GPT (que dejó OpenAI en febrero), reconoció recientemente signos de agotamiento en la IA generativa. Dado que las primeras versiones de ChatGPT ya estaban preparadas para casi todos los textos disponibles en Internet, las nuevas versiones no podrán utilizar muchos más datos que sus predecesoras. Esto significará que los modelos no podrán mejorar significativamente.
“Para que se dé un gran salto será necesaria innovación en la arquitectura algorítmica, como el desarrollo de transformadores [a type of neural network that is key in the development of large language models] en 2017”, afirma Álvaro Barbero, jefe de análisis de datos del Instituto de Ingeniería del Conocimiento.
También hay preocupaciones en el ámbito empresarial. Los inversores aún tienen que ver cómo se puede monetizar eficazmente la IA generativa. OpenAI recaudó 10 mil millones de dólares en octubre “para operar con flexibilidad”, además de los 13 mil millones de dólares prometidos por Microsoft en 2023. Sin embargo, esta financiación puede no ser suficiente. El tan esperado modelo GPT-5, cuyo lanzamiento inicialmente estaba previsto para finales de 2023, aún no ha llegado, y los analistas empiezan a dudar de que sea tan innovador como ha sugerido el director ejecutivo Sam Altman.
Dentro de 12 meses, la burbuja GenAI habrá estallado.
• La economía no funciona
• El enfoque actual se ha estancado
• No existe una aplicación excelente
• Las alucinaciones persisten
• Persisten errores descabellados
• Nadie tiene un foso
• La gente está empezando a darse cuenta de todo lo anterior. pic.twitter.com/OXd1kRyXYg-GaryMarcus (@GaryMarcus) 24 de julio de 2024
Según las propias proyecciones de OpenAI, la compañía no obtendrá ganancias hasta 2029 y, mientras tanto, está gastando alrededor de 500 millones de dólares al mes. la revista tecnica La información estima que el costo de entrenar sus modelos alcanzará los 7 mil millones de dólares para 2024, y OpenAI podría quedarse sin fondos el próximo verano.
“Dentro de 12 meses, la burbuja de la IA habrá estallado”, dijo el experto en IA Gary Marcus en julio pasado. “La economía no funciona, el enfoque actual se ha estancado, no existe una aplicación asesina, alucinaciones [when the system makes things up] Siguen existiendo errores estúpidos, nadie tiene un foso y la gente está empezando a darse cuenta de todo lo anterior”.
La revolución de la IA
Dejando a un lado las preocupaciones financieras, no hay duda de que la herramienta lanzada el 30 de noviembre de 2022 fue innovadora. “Desde mi perspectiva, la aparición de ChatGPT fue absolutamente revolucionaria”, afirma Carlos Gómez Rodríguez, catedrático de Informática e Inteligencia Artificial de la Universidad de La Coruña y experto en procesamiento del lenguaje natural, el campo de la IA dedicado a comprender y generar texto. “Por primera vez, un único sistema podría realizar una amplia gama de tareas sin una formación específica. Antes se podía crear un traductor español-inglés, pero diseñándolo específicamente para eso. Resultó que al desarrollar estos modelos más grandes, el modelo podía hacer muchas cosas. Eso ha cambiado todo en mi campo de investigación”.
“La IA generativa ha dado lugar a aplicaciones interesantes, como resumir textos, redactar cartas en otros idiomas y extraer información de documentos, pero también a usos problemáticos, como depender del sistema para extraer información factual cuando en realidad está haciendo predicciones y no buscando. o sacar conclusiones cuando no se trata de razonamiento”, explica Ricardo Baeza-Yates, director de investigación del Experiential AI Institute de la Northeastern University de Boston y profesor de la Universidad Pompeu Fabra de Barcelona. Además de los generadores de imágenes y vídeos, la IA generativa está desdibujando la línea entre la realidad y el engaño a través de deepfakes, al tiempo que permite formas de ciberataques más sofisticadas y rentables.
Apenas tres meses después del lanzamiento de ChatGPT, OpenAI presentó el modelo GPT-4, lo que supone un salto significativo con respecto a la primera versión de la herramienta. Sin embargo, en los casi dos años transcurridos desde entonces, no ha habido grandes avances. “Parece que con GPT-4 hemos alcanzado los límites de lo que la IA es capaz de hacer con sólo emular nuestra intuición. También se ha comprobado que la capacidad de pensamiento racional no ha aparecido por arte de magia con sólo hacer cerebros más grandes”, explica Gonzalo.
El camino por delante
El último desarrollo en IA generativa son los sistemas multimodales, capaces de combinar diferentes tipos de medios, como texto, imagen y audio. Por ejemplo, las últimas versiones de ChatGPT o Gemini pueden analizar una foto de tu frigorífico y sugerirte qué preparar para la cena. Pero generan estos resultados basándose en la intuición, no en el razonamiento. “El siguiente paso será investigar si los grandes modelos lingüísticos pueden evolucionar hasta convertirse en agentes autónomos, es decir, que puedan operar de forma independiente e interactuar entre sí en nuestro nombre. Podrían reservar billetes de avión o reservas de hotel siguiendo nuestras instrucciones”, afirma Gómez Rodríguez.
“Creo que los modelos de IA generativa están llegando a sus límites y necesitarán añadir otros elementos, como conocimiento verdadero. [Perplexity and others already cite the sources they use]lógica deductiva [classic AI] y, a largo plazo, el sentido común, el más raro de los sentidos. Sólo entonces podremos empezar a hablar de razonamiento verdadero”, afirma Baeza-Yates.
Esto es lo que Altman ha prometido para el próximo año. Se refiere a ella como inteligencia artificial general (AGI), que iguala o supera las capacidades humanas. Está claro que tal desarrollo tomará tiempo para materializarse y, como sugiere Baeza-Yates, se necesitará algo más que IA generativa para lograr este objetivo.
“Los grandes modelos multimodales de IA generativa serán una parte fundamental de la solución general para el desarrollo de AGI, pero no creo que sean suficientes por sí solos. Creo que vamos a necesitar algunos otros grandes avances antes de llegar a lo que llamamos AGI”, dijo la semana pasada Demis Hassabis, jefe de investigación de IA en Google y ganador del Premio Nobel de Química, en una reunión con periodistas en la que EL PAÍS participó.
“La IA generativa no sólo no nos acerca a las grandes cuestiones científicas de la IA, como por ejemplo si la inteligencia puede existir en formas no orgánicas, sino que en realidad nos desvía de ellas. Estos sistemas son incapaces de razonar, [to achieve that] Tendríamos que recurrir a la IA simbólica. [based on mathematical logic]”, reflexiona Ramón López de Mántaras, fundador del Instituto de Investigación en Inteligencia Artificial del CSIC y uno de los pioneros en España en este campo.
Alphafold, la herramienta desarrollada por el equipo de Hassabis para predecir la estructura de 200 millones de proteínas (lo que le llevó al Premio Nobel) integra 32 técnicas de IA diferentes, siendo la IA generativa solo una de ellas. “Creo que el futuro estará en este tipo de sistemas híbridos”, afirma López de Mántaras.
Suscríbete a nuestro boletín semanal para recibir más cobertura de noticias en inglés de EL PAÍS Edición USA