Noticias

¿Qué quiere decir Sam Altman de OpenAI cuando dice que AGI es alcanzable?

Published

on

Sam Altman comenzó 2025 con una declaración audaz: OpenAI ha descubierto cómo crear inteligencia artificial general (AGI), un término comúnmente entendido como el punto donde los sistemas de IA pueden comprender, aprender y realizar cualquier tarea intelectual que un humano pueda realizar.

En una publicación de blog reflexiva publicada durante el fin de semana, también dijo que la primera ola de agentes de IA podría unirse a la fuerza laboral este año, marcando lo que él describe como un momento crucial en la historia de la tecnología.

Altman describió el viaje de OpenAI desde un tranquilo laboratorio de investigación a una empresa que afirma estar a punto de crear AGI.

El cronograma parece ambicioso, tal vez demasiado ambicioso, mientras que ChatGPT celebró su segundo cumpleaños hace poco más de un mes, Altman sugiere que el próximo paradigma de modelos de IA capaces de razonamiento complejo ya está aquí.

A partir de ahí, se trata de integrar la IA casi humana en la sociedad hasta que la IA nos gane en todo.

¿Wen AGI, Wen ASI?

La explicación de Altman sobre lo que implica AGI siguió siendo vaga, y sus predicciones cronológicas sorprendieron a los investigadores de IA y a los veteranos de la industria.

“Ahora estamos seguros de que sabemos cómo construir AGI como lo hemos entendido tradicionalmente”, escribió Altman. “Creemos que, en 2025, podremos ver a los primeros agentes de IA ‘unirse a la fuerza laboral’ y cambiar materialmente la producción de las empresas. “

La explicación de Altman es vaga porque no existe una definición estandarizada de AGI. Ha sido necesario elevar el listón cada vez más a medida que los modelos de IA se vuelven más poderosos, pero no necesariamente más capaces.

“Al considerar lo que dijo Altman sobre los agentes de IA de nivel AGI, es importante centrarse en cómo ha ido evolucionando la definición de AGI”, dijo Humayun Sheikh, director ejecutivo de Fetch.ai y presidente de la Alianza ASI. Descifrar.

“Si bien estos sistemas ya pueden pasar muchos de los puntos de referencia tradicionales asociados con AGI, como la prueba de Turing, esto no implica que sean sensibles”, dijo Sheikh. “AGI aún no ha alcanzado un nivel de verdadera sensibilidad, y no creo que lo alcance hasta dentro de bastante tiempo”.

La desconexión entre el optimismo de Altman y el consenso de los expertos plantea dudas sobre lo que quiere decir con “AGI”. Su explicación sobre los agentes de IA que “se unirán a la fuerza laboral” en 2025 suena más a una automatización avanzada que a una verdadera inteligencia artificial general.

“Las herramientas superinteligentes podrían acelerar enormemente el descubrimiento científico y la innovación mucho más allá de lo que somos capaces de hacer por nuestra cuenta y, a su vez, aumentar enormemente la abundancia y la prosperidad”, escribió.

Pero, ¿tiene razón Altman cuando dice que AGI o la integración de agentes existirán en 2025? No todo el mundo está tan seguro.

“Simplemente hay demasiados errores e inconsistencias con los modelos de IA existentes que deben solucionarse primero”, dijo Charles Wayn, cofundador de la súper aplicación descentralizada Galxe. Descifrar. “Dicho esto, es probable que sea cuestión de años, más que de décadas, antes de que veamos agentes de IA de nivel AGI”.

Algunos expertos sospechan que las audaces predicciones de Altman podrían tener otro propósito.

En cualquier caso, OpenAI ha estado gastando dinero en efectivo a un ritmo astronómico, lo que requiere inversiones masivas para mantener el desarrollo de la IA por buen camino.

Según algunos, prometer avances inminentes podría ayudar a mantener el interés de los inversores a pesar de los importantes costes operativos de la empresa.

Eso es todo un asterisco para alguien que afirma estar al borde de uno de los avances tecnológicos más importantes de la humanidad.

Aún así, otros respaldan las afirmaciones de Altman.

“Si Sam Altman dice que AGI llegará pronto, entonces probablemente tenga algunos datos o visión comercial para respaldar esta afirmación”, dijo Harrison Seletsky, director de desarrollo comercial de la plataforma de identidad digital SPACE ID. Descifrar.

Seletsky dijo que “agentes de IA ampliamente inteligentes” pueden tardar uno o dos años si las declaraciones de Altman son ciertas y la tecnología sigue evolucionando en el mismo espacio.

El director general de OpenAI insinuó que AGI no es suficiente para él y que su empresa apunta a ASI: un estado superior de desarrollo de IA en el que los modelos superan las capacidades humanas en todas las tareas.

“Estamos empezando a orientar nuestro objetivo más allá de eso hacia la superinteligencia en el verdadero sentido de la palabra. Amamos nuestros productos actuales, pero estamos aquí para un futuro glorioso. Con superinteligencia podemos hacer cualquier otra cosa”, escribió Altman en el blog.

Si bien Altman no dio más detalles sobre un cronograma para ASI, algunos esperan que los robots puedan sustituir a todos los humanos para 2116.

Altman dijo anteriormente que el ASI es sólo cuestión de “unos pocos miles de días”, sin embargo, los expertos del Forecasting Institute dan un 50% de probabilidad de que el ASI se logre al menos en 2060.

No es lo mismo saber cómo alcanzar el AGI que poder alcanzarlo.

Yan Lecun, investigador jefe de IA de Meta, dijo que la humanidad aún está lejos de alcanzar tal hito debido a las limitaciones en la técnica de entrenamiento o el hardware necesario para procesar cantidades tan grandes de información.

Eliezer Yudkowsky, un investigador y filósofo de IA bastante influyente, también ha argumentado que esto puede ser un movimiento publicitario que básicamente beneficiará a OpenAI en el corto plazo.

Trabajadores humanos versus agentes de IA

Por lo tanto, el comportamiento de los agentes existe (a diferencia de AGI o ASI) y la calidad y versatilidad de los agentes de IA están aumentando más rápido de lo que muchos esperan.

Marcos como Crew AI, Autogen o LangChain hicieron posible crear sistemas de Agentes de IA con diferentes capacidades, incluida la capacidad de trabajar mano a mano con los usuarios.

¿Qué significa esto para el ciudadano medio? ¿Será esto un peligro o una bendición para los trabajadores cotidianos?

Los expertos no están demasiado preocupados.

“No creo que veamos cambios organizativos dramáticos de la noche a la mañana”, dijo Sheikh de Fetch.ai. “Si bien puede haber cierta reducción del capital humano, particularmente para tareas repetitivas, estos avances también podrían abordar tareas repetitivas más sofisticadas que los actuales sistemas de aeronaves pilotadas a distancia no pueden manejar.

Seletsky también cree que lo más probable es que los agentes realicen tareas repetitivas en lugar de aquellas que requieren cierto nivel de toma de decisiones.

En otras palabras, los humanos están a salvo si pueden utilizar su creatividad y experiencia a su favor y asumir las consecuencias de sus acciones.

“No creo que la toma de decisiones esté necesariamente dirigida por agentes de IA en el futuro cercano, porque pueden razonar y analizar, pero aún no tienen ese ingenio humano”, dijo a Decrypt.

Y parece haber cierto grado de consenso, al menos a corto plazo.

“La distinción clave radica en la falta de “humanidad” en el enfoque de AGI. Es un enfoque objetivo y basado en datos para la investigación y la inversión financiera. Esto puede ayudar en lugar de obstaculizar las decisiones financieras porque elimina algunos prejuicios emocionales que a menudo conducen a decisiones precipitadas”, dijo Wayn de Galxe.

Los expertos ya son conscientes de las posibles implicaciones sociales de la adopción de agentes de IA.

Una investigación de la City University de Hong Kong sostiene que la IA generativa y los agentes en general deben colaborar con los humanos en lugar de sustituirlos para que la sociedad pueda lograr un crecimiento saludable y continuo.

“La IA ha creado desafíos y oportunidades en diversos campos, incluidos la tecnología, los negocios, la educación, la atención médica, así como las artes y las humanidades”, se lee en el artículo de investigación. “La colaboración entre la IA y los humanos es la clave para abordar los desafíos y aprovechar las oportunidades creadas por la IA generativa”.

A pesar de este impulso a la colaboración entre humanos e IA, las empresas han comenzado a sustituir agentes de IA por trabajadores humanos con resultados mixtos.

En términos generales, siempre necesitan un humano para manejar las tareas que los agentes no pueden realizar debido a alucinaciones, limitaciones de entrenamiento o simplemente falta de comprensión del contexto.

A partir de 2024, casi el 25% de los directores ejecutivos están entusiasmados con la idea de tener su granja de agentes esclavizados digitalmente que hagan el mismo trabajo que hacen los humanos sin costos laborales involucrados.

Aún así, otros expertos sostienen que un agente de IA puede hacer casi el 80% de lo que hace un CEO, por lo que nadie está realmente a salvo.

Editado por Sebastián Sinclair.

Generalmente inteligente Hoja informativa

Un viaje semanal de IA narrado por Gen, un modelo de IA generativa.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version