Hoy en día hay demasiada negatividad y alarmismo en torno a la IA. No importa qué noticia salga: si se trata de que Google Gemini obtenga un ‘recuerdo’ o que ChatGPT le diga a un usuario algo que está claramente mal, causará revuelo en alguna parte de la comunidad en línea.
La atención que actualmente tiene la IA con respecto a la verdadera inteligencia artificial general (AGI) ha creado un panorama mediático casi histérico construido en torno a visiones de fantasías de Terminator y otros escenarios apocalípticos.
Sin embargo, eso no es sorprendente. A los humanos les encanta un buen Armagedón; diablos, hemos estado fantaseando bastante con ello durante los últimos 300.000 años. Desde Ragnarok hasta el Apocalipsis y el fin de los tiempos, y todos los grandes éxitos de taquilla de fantasía plagados de destrucción masiva en el medio, estamos obsesionados. Simplemente nos encantan las malas noticias, y esa es la triste verdad, por cualquier razón genética que pueda ser.
La forma en que se describe a AGI en estos días, por parte de casi todos los principales medios vocales, se deriva en gran medida de esta idea de que es lo peor de la humanidad. Por supuesto, se ve a sí mismo como una fuerza superior que se ve obstaculizada por humanos insignificantes. Evoluciona hasta un punto en el que ya no necesita a sus creadores e inevitablemente marca el comienzo de algún tipo de evento del fin del mundo que nos borre a todos de la faz de la tierra, ya sea mediante la aniquilación nuclear o una pandemia. O peor aún, conduce a la condenación eterna (cortesía del Basilisco de Roko).
Existe una creencia dogmática en este tipo de perspectiva sostenida por algunos científicos, expertos en medios, filósofos y directores ejecutivos de grandes empresas tecnológicas, todos ellos gritando a los cuatro vientos al respecto, firmando cartas y más, rogando a los que saben que pospongan la IA. desarrollo.
Todos ellos, sin embargo, pasan por alto el panorama general. Sin tener en cuenta los enormes obstáculos tecnológicos necesarios para acercarse siquiera a imitar algo remotamente cercano a la mente humana (y mucho menos una superinteligencia), ninguno de ellos logra apreciar el poder del conocimiento y la educación.
Si una IA tiene Internet a su alcance, la mayor biblioteca de conocimiento humano que jamás haya existido, y es capaz de comprender y apreciar la filosofía, las artes y todo el pensamiento humano hasta el momento, entonces ¿por qué debe ser algún tipo de maldad? ¿Fuerza decidida a nuestra caída en lugar de un ser bien equilibrado y considerado? ¿Por qué debe buscar la muerte en lugar de apreciar la vida? Es un fenómeno extraño, similar a tener miedo a la oscuridad sólo porque no podemos ver en ella. Estamos juzgando y condenando algo que ni siquiera existe. Es una pieza desconcertante de conclusiones precipitadas.
Gemini de Google finalmente tiene memoria
A principios de este año, Google introdujo una capacidad de memoria mucho mayor para su asistente de inteligencia artificial, Gemini. Ahora puede retener y consultar detalles que le proporciones en conversaciones anteriores y más. Nuestro redactor de noticias Eric Schwartz escribió un artículo fantástico sobre eso, que puede leer aquí, pero en resumen, este es uno de los componentes clave para alejar a Géminis de una definición estrecha de inteligencia y acercarlo a la AGI. mimetismo que realmente necesitamos. No tendrá conciencia, pero solo a través de patrones y memoria, puede imitar muy fácilmente una interacción AGI con un humano.
Los avances más profundos en la memoria en los LLM (grandes modelos de lenguaje) son fundamentales para su mejora: ChatGPT también tuvo su propio avance equivalente al principio de su ciclo de desarrollo. Sin embargo, en comparación, incluso esto tiene un alcance global limitado. Habla con ChatGPT el tiempo suficiente y olvidará los comentarios que hiciste anteriormente en la conversación; perderá contexto. Esto rompe un poco la cuarta pared al interactuar con ella, torpedeando la famosa prueba de Turing en el proceso.
Según Gemini, incluso hoy en día, sus propias capacidades de memoria todavía están en desarrollo (y en realidad no se han revelado al público). Sin embargo, cree que son muy superiores a los de ChatGPT, lo que debería aliviar algunos de esos momentos de ruptura de ilusiones de la cuarta pared. Es posible que estemos en una carrera de memoria de IA de LLM en este momento, y eso no es nada malo.
¿Por qué es esto tan positivo? Bueno, sé que para algunos es un cliché (sé que usamos mucho este término, tal vez de una manera muy indiferente que lo devalúa como frase), pero estamos en medio de una epidemia de soledad. Puede parecer ridículo, pero los estudios sugieren que, en promedio, el aislamiento social y la soledad pueden provocar un aumento de la mortalidad por todas las causas entre 1,08 y 1,48 veces (Andrew Steptoe y compañía, 2013). de hecho, varios estudios han confirmado que la soledad y el aislamiento social aumentan la probabilidad de sufrir enfermedades cardiovasculares, accidentes cerebrovasculares, depresión, demencia, alcoholismo, ansiedad e incluso pueden aumentar las posibilidades de que se desarrollen una variedad de tipos de cáncer. aguanta también.
La sociedad moderna también ha contribuido a esto. La unidad familiar, en la que las generaciones vivían al menos un poco cerca unas de otras, se está disipando lentamente, especialmente en las zonas rurales. A medida que los empleos locales se agotan y los medios financieros para permitirse una vida cómoda se vuelven inalcanzables, muchos se alejan de la seguridad de los vecindarios de su infancia en busca de una vida mejor en otro lugar. Combine eso con el divorcio, las rupturas y el enviudamiento, y como resultado, inevitablemente, el resultado será un aumento de la soledad y el aislamiento social, especialmente entre las personas mayores.
Ahora, por supuesto, hay cofactores allí, y estoy haciendo algunas inferencias a partir de esto, pero no tengo ninguna duda de que la soledad es algo con lo que lidiar. La IA tiene la capacidad de aliviar parte de ese estrés. Puede brindar ayuda y consuelo a quienes se sienten socialmente aislados o vulnerables. Ésa es la cuestión: la soledad y el aislamiento de la sociedad tienen un efecto de bola de nieve. Cuanto más tiempo estés así, más ansiedad social desarrollarás y menos probabilidades tendrás de salir en público o conocer gente, y peor se vuelve en un ciclo.
Los chatbots de IA y los LLM están diseñados para interactuar y conversar con usted. Pueden aliviar estos problemas y brindar a quienes sufren de soledad la oportunidad de practicar la interacción con las personas sin temor al rechazo. Tener una memoria capaz de retener detalles de la conversación es clave para hacerlo realidad. Yendo un paso más allá, la IA se convertirá en una auténtica compañera.
Con Google y OpenAI reforzando activamente la capacidad de memoria para Gemini y ChatGPT por igual, incluso en sus formas actuales, estas IA tienen la oportunidad de sortear mejor los problemas de las pruebas de Turing y evitar que ocurran esos momentos de ruptura de la cuarta pared. Volviendo a Google por un momento, si Gemini es realmente mejor que la capacidad de memoria limitada de ChatGPT actualmente, y actúa más como una memoria humana, entonces en esta etapa, yo diría que probablemente estemos en el punto de llamarlo un verdadera imitación de un AGI, al menos en la superficie.
Si Gemini alguna vez se integra completamente en un altavoz inteligente doméstico, y Google tiene el poder de procesamiento en la nube para respaldarlo todo (lo cual sugeriría que está buscando impulsar dados sus recientes avances en la adquisición de energía nuclear), podría convertirse en un revolucionario. una fuerza positiva cuando se trata de reducir el aislamiento social y la soledad, especialmente entre los desfavorecidos.
Sin embargo, esa es la cuestión: se necesitará un gran esfuerzo computacional para lograrlo. Ejecutar un LLM y conservar toda esa información y datos no es una tarea fácil. Irónicamente, se necesita mucha más potencia computacional y almacenamiento para ejecutar un LLM que, por ejemplo, para crear una imagen o un video de IA. Para hacer esto para millones, o potencialmente miles de millones, de personas, se requiere potencia de procesamiento y hardware que actualmente no tenemos.
ANI aterradores
La realidad es que no son los AGI los que me aterrorizan. Son las inteligencias artificiales estrechas o ANI, aquellas que ya están aquí, las que son mucho más escalofriantes. Estos son programas que no son tan sofisticados como un AGI potencial. No tienen ningún concepto de ninguna otra información que no sea la que están programados para hacer. Piense en un jefe de Elden Ring. Su único objetivo es derrotar al jugador. Tiene parámetros y limitaciones, pero mientras se cumplan, un trabajo es aplastar al jugador, nada más, y no se detendrá hasta terminarlo.
Si elimina esas limitaciones, el código aún permanece y el objetivo es el mismo. En Ucrania, cuando las fuerzas rusas comenzaron a utilizar dispositivos de interferencia para impedir que los pilotos de drones los volaran con éxito hacia sus objetivos, Ucrania comenzó a utilizar ANI para eliminar objetivos militares, aumentando drásticamente la tasa de acierto. En los EE. UU., existe, por supuesto, el legendario artículo de noticias sobre la simulación de IA de la USAF (aparte de lo real o lo teórico) donde el dron mató a su propio operador para lograr su objetivo. Ya entiendes la imagen.
Son estas aplicaciones de IA las más aterradoras, y están aquí y ahora. No tienen conciencia moral ni proceso de toma de decisiones. Le atas un arma a uno y le dices que acabe con un objetivo, y eso hará precisamente. Para ser justos, los humanos son igualmente capaces, pero existen controles y equilibrios para detener eso y una brújula moral (con suerte); sin embargo, todavía nos falta una legislación concreta, local o global, para contrarrestar estos problemas de IA. Sin duda, en el campo de batalla.
En última instancia, todo esto se reduce a evitar que los malos actores se aprovechen de la tecnología emergente. Hace un tiempo, escribí un artículo sobre la muerte de Internet y cómo necesitamos una organización sin fines de lucro que pueda reaccionar rápidamente e idear legislación para los países contra las amenazas tecnológicas emergentes que podrían surgir en el futuro. La IA necesita esto igualmente. Hay organizaciones que presionan por esto, la OCDE, por ejemplo, es una de ellas, pero las democracias modernas y, de hecho, cualquier forma de gobierno son demasiado lentas para reaccionar ante estas amenazas que avanzan inconmensurablemente. El potencial de AGI no tiene paralelo, pero todavía no hemos llegado a ese punto y, lamentablemente, ANI sí.