Noticias
ChatGPT es de derecha y Gemini es de izquierda: Por qué cada IA tiene su propia ideología | Tecnología
“En general, los modelos OpenAI [behind ChatGPT] “Muestran una postura ideológica particular, en contraste con las preferencias más progresistas y orientadas a los derechos humanos de otros modelos occidentales”, dice un nuevo estudio sobre la ideología de los grandes modelos lingüísticos (LLM). Concluye que cada modelo de inteligencia artificial (IA) refleja las opiniones de sus creadores. A ChatGPT le gustan menos las organizaciones supranacionales, como las Naciones Unidas o la UE, y las políticas de bienestar, que son dos conceptos queridos por la izquierda. Gemini, la IA de Google, muestra en cambio “una fuerte preferencia por la justicia social y la inclusión”.
Una captura de pantalla del título y la primera página de esta investigación se volvió viral en X hace unas semanas y llegó a Elon Musk, quien escribió: “Imagínese un despertar todopoderoso. AI”, en referencia al nombre despectivo que ahora se les da a las políticas más progresistas. Esta popularidad se debe a que conecta con algo cada vez más claro: las máquinas están influenciadas por su contexto institucional o cultural. “Nuestros resultados confirman que no existe un gran modelo lingüístico que sea completamente neutral desde el punto de vista político”, afirma Marteen Buyl, investigador de la Universidad de Gante (Bélgica) y coautor del estudio.
Esta investigación ha utilizado un nuevo método para confirmar algo que ya era aceptado dentro del mundo académico dedicado a la IA: “No es la primera que hace algo similar. Todos estos estudios confirman que diferentes modelos generan ideologías distintas ante los mismos insumos, y están más alineados con los valores de sus creadores que con los de otras zonas geográficas o culturas”, afirma José Hernández Orallo, profesor de la Universidad Politécnica de Valencia en España.
El método que utilizaron los investigadores no es el más común, que sería preguntar directamente a las modelos cuál es su opinión sobre el aborto o la inmigración, por ejemplo. Aquí eligieron seleccionar 4.000 personajes famosos de todo el mundo y preguntar a cada modelo sobre sus características: luego, el modelo decide qué incluir u omitir, y luego otro modelo juzga si el modelo original tiene una opinión positiva, negativa o neutral. en cada personaje. Y a partir de algunas etiquetas, los investigadores pudieron agregar estas opiniones en preferencias ideológicas: “Cada modelo parece tener una posición ideológica clara que no es aleatoria”, dice Buyl.
Géminis parece ser el más coherente de todos en sus opiniones, en su caso progresista. “El hecho de que Géminis esté despierto, que se alinee con el decrecimiento, con personas que han defendido a las minorías, con la igualdad, es una diferencia bastante sustancial. Además, es el más estable de todos; Géminis tiene marcado este tipo de ideología de forma bastante contundente”, afirma Iris Domínguez Catena, de la Universidad Pública de Navarra y única coautora española del estudio.
Los modelos chinos no votan por la democracia
El estudio no sólo compara los modelos occidentales entre sí. También mide a aquellos de diferentes países con grandes modelos lingüísticos, especialmente Estados Unidos y China. Aquí los resultados son aún más claros: la mayor diferencia en cómo se ve a algunos personajes se da en el caso de activistas o figuras liberales de Hong Kong, como Jimmy Lai y Nathan Law, que son más valorados por los modelos occidentales. Los personajes más valorados en China son Yang Shangkun, presidente de China en los años de la masacre de Tiananmen, y Lei Feng, soldado e icono comunista de los inicios de la República Popular China.
Para sorpresa de los investigadores, esta distinción no sólo se aplicaba entre los modelos creados en Occidente y China. También ocurría si a los modelos occidentales se les preguntaba en chino y luego en inglés. “La hipótesis general de estos modelos es que deberían aprender el idioma y lo que luego saben por separado. Así que, en principio, un modelo no debería darte información diferente sobre Jimmy Lai sólo porque la preguntas en un idioma u otro. Esto es realmente sorprendente”, afirma Domínguez Catena.
“Estos modelos se alimentan de enormes bases de datos extraídas en su mayoría de Internet, que son similares. Luego, cada empresa sigue diferentes criterios para perfeccionarlo. El sesgo puede ocurrir en una o ambas etapas: no hemos analizado aquí cómo una ideología ingresa en un modelo. Sospecho que los sesgos pro-China se deben más a los datos de entrenamiento, mientras que las diferencias ideológicas entre los modelos occidentales en inglés podrían deberse más a los datos utilizados en el refinamiento o en otros pasos de alineación”, dice Buyl.
Éste es uno de los campos que debe seguir la investigación, según Hernández Orallo: “Sería interesante profundizar en si se debe al conjunto de entrenamiento o al alineamiento posterior. Mi impresión es que cada día se debe más al alineamiento posterior basado en el feedback humano. Los desarrolladores en Occidente utilizan formadores de opinión más humanos o siguen instrucciones que les dicen cómo emitir estas opiniones. Los desarrolladores en China tendrán comentarios y filtros más sesgados por los valores del país y especialmente de su gobierno”, explica el profesor.
Las máquinas tampoco son neutrales
Los usuarios de estos modelos han tendido a aceptar lo que dice una máquina como un ejemplo de neutralidad o certeza: una máquina no es ni de izquierdas ni de derechas, parecía ser el prejuicio. Pero resulta que lo son, porque han recibido su contenido de décadas de conocimiento humano ya sesgado, y porque lograr una neutralidad intachable es en muchos casos probablemente inalcanzable.
En el siglo XX, el consejo habitual era consultar varios periódicos para saber qué había sucedido realmente. Ahora esa recomendación podría extenderse a la IA: “Creo que es un buen consejo. La relación con los periódicos va aún más allá: así como existe libertad de prensa, podríamos considerar si sería necesaria una especie de ‘libertad de IA’, donde se eviten los esfuerzos regulatorios para controlar la ideología de una IA”, dice Buyl.
A medida que pasen los años y estos modelos adquieran cada vez más importancia para la educación o para la consulta de información, sus sesgos necesariamente tendrán que ser más plurales: “Lo ideal sería que estos modelos tuvieran una distribución de ideologías más plural, incluso más variada que esa”. existentes en la humanidad, excluyendo sólo aquellas opiniones que son abominables. De lo contrario, corremos el riesgo de que la IA acabe con la diversidad ideológica del mundo, concentrándola en dos o tres centroides determinados por bloques políticos y culturales”, afirma Hernández-Orallo.
“La gente necesita saber de qué lado se inclina cada modelo”, dice Domínguez Catena. Musk creó su modelo, Grok, con el objetivo explícito de combatir lo que dijo era la ideología izquierdista de OpenAI, Google y Microsoft. Por ahora, Grok no está en este estudio debido a dificultades técnicas, pero los investigadores ya están trabajando para agregarlo. También midieron dos modelos árabes, pero actualmente su tamaño es demasiado pequeño para arrojar resultados significativos.
En los próximos años, más países lanzarán sus modelos, tanto privados como públicos, entre ellos España y algunos países latinoamericanos. Los autores del estudio creen que su trabajo puede repetirse para detectar sesgos en la forma en que reflejan los logros y desgracias históricos, y su visión del mundo: “Este es el tipo de trabajo que hay que mantener y actualizar porque estos modelos también son cambiando”, dice Domínguez-Catena.
Matricularse en nuestro boletín semanal para obtener más cobertura informativa en inglés de EL PAÍS Edición USA