Las empresas de IA tienen la misión de cambiar radicalmente nuestro mundo. Están trabajando en la construcción de máquinas que podrían superar la inteligencia humana y desatar una transformación económica dramática para todos nosotros.
Noticias
IA democrática: ¿Deberían empresas como OpenAI y Anthropic obtener nuestro permiso?
Sam Altman, director ejecutivo de OpenAI, fabricante de ChatGPT, básicamente nos ha dicho que está tratando de construir un dios, o una “inteligencia mágica en el cielo”, como él dice. El término oficial de OpenAI para esto es inteligencia artificial general o AGI. Altman dice que AGI no sólo “romperá el capitalismo” sino que también es “probablemente la mayor amenaza para la existencia continua de la humanidad”.
Aquí surge una pregunta muy natural: ¿alguien realmente pidió este tipo de IA? ¿Con qué derecho unos pocos directores ejecutivos tecnológicos poderosos pueden decidir que todo nuestro mundo debería ponerse patas arriba?
Como he escrito antes, es claramente antidemocrático que empresas privadas estén creando tecnología que apunta a cambiar totalmente el mundo sin buscar la aceptación del público. De hecho, incluso los líderes de las principales empresas están expresando inquietud por lo antidemocrático que es.
Jack Clark, cofundador de la empresa de inteligencia artificial Anthropic, dijo a Vox el año pasado que es “algo realmente extraño que esto no sea un proyecto del gobierno”. También escribió que hay varias cosas clave que lo “confunden e inquietan”, entre ellas: “¿Cuánto permiso deben obtener los desarrolladores de IA de la sociedad antes de cambiarla irrevocablemente?” Clark continuó:
Los tecnólogos siempre han tenido una especie de vena libertaria, y esto quizás se resume mejor en la era de las ‘redes sociales’ y Uber et al de la década de 2010: se implementaron en el mundo vastos sistemas que alteraron la sociedad, desde redes sociales hasta sistemas de viajes compartidos, y escalaron agresivamente sin tener en cuenta las sociedades en las que estaban influyendo. Esta forma de invención sin autorización es básicamente la forma de desarrollo implícitamente preferida, personificada en Silicon Valley y la filosofía tecnológica general de “moverse rápido y romper cosas”. ¿Debería ocurrir lo mismo con la IA?
Me he dado cuenta de que cuando alguien cuestiona esa norma de “invención sin permiso”, muchos entusiastas de la tecnología se oponen. Sus objeciones siempre parecen caer en una de tres categorías. Debido a que se trata de un debate tan perenne e importante, vale la pena abordar cada uno de ellos por separado y por qué creo que están equivocados.
Objeción 1: “Nuestro uso es nuestro consentimiento”
ChatGPT es la aplicación para consumidores de más rápido crecimiento en la historia: tenía 100 millones de usuarios activos apenas dos meses después de su lanzamiento. No hay duda de que mucha gente lo encontró realmente genial. Y estimuló el lanzamiento de otros chatbots, como Claude, que todo tipo de personas están aprovechando: desde periodistas hasta programadores y padres ocupados que quieren que alguien (o algo) más haga la maldita lista de compras.
Algunos afirman que este simple hecho: ¡estamos usando la IA! – demuestra que la gente está de acuerdo con lo que hacen las grandes empresas.
Esta es una afirmación común, pero creo que es muy engañosa. Nuestro uso de un sistema de inteligencia artificial no equivale a consentimiento. Por “consentimiento” normalmente nos referimos al consentimiento informado, no al consentimiento nacido de la ignorancia o la coerción.
Gran parte del público no está informado sobre los verdaderos costos y beneficios de estos sistemas. ¿Cuántas personas son conscientes, por ejemplo, de que la IA generativa consume tanta energía que, como resultado, empresas como Google y Microsoft están incumpliendo sus promesas climáticas?
Además, todos vivimos en entornos de elección que nos obligan a utilizar tecnologías que preferiríamos evitar. A veces “consentimos” la tecnología porque tememos estar en desventaja profesional si no la usamos. Piense en las redes sociales. Personalmente, no estaría en X (anteriormente conocido como Twitter) si no fuera por el hecho de que lo considero importante para mi trabajo como periodista. En una encuesta reciente, muchos jóvenes dijeron que desearían que las plataformas de redes sociales nunca se hubieran inventado, pero dado que estas plataformas existen, se sienten presionados a estar en ellas.
Incluso si cree que el uso de un sistema de inteligencia artificial en particular por parte de alguien constituye consentimiento, eso no significa que dé su consentimiento al proyecto más amplio de construir AGI.
Esto nos lleva a una distinción importante: existe la IA limitada, un sistema diseñado específicamente para una tarea específica (por ejemplo, la traducción de idiomas), y luego está la AGI. ¡La IA estrecha puede ser fantástica! Es útil que los sistemas de inteligencia artificial puedan realizar una edición burda de su trabajo de forma gratuita o permitirle escribir código de computadora usando simplemente un inglés sencillo. Es asombroso que la IA esté ayudando a los científicos a comprender mejor las enfermedades.
Y es extremadamente sorprendente que la IA haya resuelto el problema del plegamiento de proteínas (el desafío de predecir en qué forma 3D se plegará una proteína), un rompecabezas que dejó perplejos a los biólogos durante 50 años. El Comité Nobel de Química está claramente de acuerdo: acaba de otorgar un premio Nobel a los pioneros de la IA por permitir este avance, que ayudará al descubrimiento de fármacos.
Pero eso es diferente del intento de construir una máquina de razonamiento de propósito general que supere a los humanos, una “inteligencia mágica en el cielo”. Si bien mucha gente quiere una IA limitada, las encuestas muestran que la mayoría de los estadounidenses no quieren AGI. Lo que nos lleva a…
Objeción 2: “El público es demasiado ignorante para decirles a los innovadores cómo innovar”
Aquí hay una cita comúnmente (aunque dudosa) atribuida al fabricante de automóviles Henry Ford: “Si hubiera preguntado a la gente qué querían, habrían dicho caballos más rápidos”.
La afirmación aquí es que hay una buena razón por la cual los inventores genios no piden la aceptación del público antes de lanzar un nuevo invento: la sociedad es demasiado ignorante o carente de imaginación para saber cómo es una buena innovación. Desde la imprenta y el telégrafo hasta la electricidad e Internet, muchas de las grandes innovaciones tecnológicas de la historia se produjeron porque unos pocos individuos decidieron adoptarlas por decreto.
Pero eso no significa que decidir por decreto sea siempre apropiado. El hecho de que la sociedad a menudo haya permitido que los inventores hicieran eso puede deberse en parte al solucionismo tecnológico, en parte a la creencia en la visión de la historia del “gran hombre” y en parte a que, bueno, habría sido bastante difícil consultar a amplios sectores de la humanidad. sociedad en una era anterior a las comunicaciones de masas, ¡antes de cosas como la imprenta o el telégrafo!
Y si bien esos inventos conllevaron riesgos percibidos y daños reales, no plantearon la amenaza de acabar con la humanidad por completo o someternos a una especie diferente.
Para las pocas tecnologías que hemos inventado hasta ahora que cumplen con ese requisito, buscar aportes democráticos y establecer mecanismos para la supervisión global. tener se ha intentado, y con razón. Es la razón por la que tenemos un Tratado de No Proliferación Nuclear y una Convención sobre Armas Biológicas, tratados que, aunque es difícil implementarlos de manera efectiva, son muy importantes para mantener nuestro mundo seguro.
Es cierto, por supuesto, que la mayoría de la gente no entiende el meollo de la cuestión de la IA. Entonces, el argumento aquí no es que el público deba dictar los detalles de la política de IA. Es que está mal ignorar los deseos generales del público cuando se trata de preguntas como “¿Debería el gobierno hacer cumplir las normas de seguridad antes de que ocurra una catástrofe o sólo castigar a las empresas después del hecho?” y “¿Existen ciertos tipos de IA que no deberían existir en absoluto?”.
Como me dijo el año pasado Daniel Colson, director ejecutivo de la organización sin fines de lucro AI Policy Institute, “los formuladores de políticas no deberían tomar los detalles de cómo resolver estos problemas de los votantes o del contenido de las encuestas. El lugar donde creo que los votantes son Sin embargo, la gente adecuada a quien preguntar es: ¿Qué quieren de la política? ¿Y en qué dirección quieres que vaya la sociedad?
Objeción 3: “De todos modos, es imposible limitar la innovación”
Finalmente, está el argumento de la inevitabilidad tecnológica, que dice que no se puede detener el avance del progreso tecnológico: ¡es imparable!
Esto es un mito. De hecho, hay muchas tecnologías que hemos decidido no desarrollar, o que hemos desarrollado pero a las que les hemos impuesto restricciones muy estrictas. Basta pensar en la clonación humana o la modificación de la línea germinal humana. Los investigadores del ADN recombinante detrás de la Conferencia de Asilomar de 1975 organizaron una moratoria sobre ciertos experimentos. En particular, todavía no estamos clonando humanos.
O pensemos en el Tratado sobre el Espacio Ultraterrestre de 1967. Adoptado por las Naciones Unidas en el contexto de la Guerra Fría, prohibía a las naciones hacer ciertas cosas en el espacio, como almacenar allí sus armas nucleares. Hoy en día, el tratado surge en los debates sobre si debemos enviar mensajes al espacio con la esperanza de llegar a los extraterrestres. Algunos argumentan que eso es peligroso porque una especie alienígena, una vez consciente de nosotros, podría conquistarnos y oprimirnos. Otros argumentan que será genial: ¡tal vez los extraterrestres nos regalen sus conocimientos en forma de una Enciclopedia Galáctica!
De cualquier manera, está claro que hay mucho en juego y que toda la civilización humana se vería afectada, lo que llevó a algunos a defender la deliberación democrática antes de enviar transmisiones intencionales al espacio.
Como dice el viejo proverbio romano: Lo que afecta a todos debe ser decidido por todos.
Esto es tan cierto para la IA superinteligente como para las armas nucleares, las armas químicas o las transmisiones interestelares.