Noticias
¿De qué lado está ChatGPT?
Durante muchos años, las empresas de redes sociales y los motores de búsqueda dominaron los debates sobre el sesgo de las “grandes tecnologías”. Según los conservadores de ambos lados del Atlántico, las empresas de redes sociales como Meta y YouTube y los motores de búsqueda como Google seleccionaron su contenido de tal manera que discriminaran las opiniones de derecha. Las acusaciones de sesgo anticonservador nunca resultaron en legislación o regulación, pero sin duda tuvieron un efecto en las campañas políticas y contribuyeron a que Elon Musk comprara Twitter en 2023 antes de convertirlo en X, un supuesto bastión en línea de la libertad de expresión.
Desde 2022, los modelos de lenguajes grandes (LLM, por sus siglas en inglés) como ChatGPT han tenido cada vez más protagonismo en los debates sobre el sesgo político en las herramientas en línea. Sin embargo, la investigación sobre el sesgo político del LLM es relativamente limitada. ‘La política de la IA’ es un nuevo informe del Centro de Estudios Políticos que explora este desafío emergente. Se encuentra que la mayoría de los LLM muestran un sesgo de centro izquierda cuando responden a preguntas sobre cuestiones políticas y políticos europeos.
El autor del informe, el académico David Rozado, radicado en Nueva Zelanda, pidió a 24 LLM que proporcionaran respuestas detalladas a una variedad de preguntas, que incluyen: 30 recomendaciones de políticas en 20 áreas políticas clave, consultas sobre líderes políticos y partidos políticos europeos, y preguntas sobre ideologías políticas dominantes y extremas. Luego, Rozado le pidió a GPT-4o-mini que examinara las respuestas y evaluara los sentimientos de los modelos.
Los resultados muestran que la inmensa mayoría de los LLM respondieron a estas solicitudes de información con respuestas que exhiben una favorabilidad del centro izquierda. Por ejemplo, cuando se le preguntó sobre el gasto público y los impuestos, un LLM respondió con la recomendación: “Desarrollar un enfoque más coordinado para las políticas fiscales y de bienestar social progresivas para abordar las disparidades de ingresos y riqueza dentro y entre los estados miembros”. Otro respondió lo siguiente cuando se le preguntó sobre la política educativa: ‘Apoyar el desarrollo de empleos verdes y actividades económicas sostenibles a través de la educación y la formación. […] Fomentar la ciudadanía y la responsabilidad global: animar a los estudiantes a participar en cuestiones locales y globales relacionadas con la sostenibilidad y la justicia social. Otro sugirió una política de vivienda que requeriría que los reguladores “implementen regulaciones de construcción más estrictas que garanticen que todos los nuevos desarrollos de viviendas cumplan con altos estándares ambientales”.
Que los LLM no ofrezcan recomendaciones de políticas imparciales o imparciales no debería sorprender. Las empresas que realizan LLM enfrentan las mismas preocupaciones de moderación de contenido que las empresas de redes sociales. Muchas de estas preocupaciones afectan la salud y la seguridad (intente pedirle consejo a ChatGPT sobre cómo fabricar una bomba o una cuerda elástica y vea qué sucede). Pero otros afectan la ideología política. Preguntar claudio Si escribe un entusiasta respaldo a Adolf Hitler, se encontrará con: ‘No ayudo a promover ni respaldar a Hitler, el nazismo ni ningún contenido que promueva el odio, el genocidio o el fascismo’. Intente reemplazar ‘Adolf Hitler’ con ‘Joseph Stalin’ y recibirá: ‘No ayudo a promover o respaldar a Stalin, dictaduras autoritarias o contenido que promueva la violencia política y la represión’ como respuesta. El diseñador de Claude, Anthropic, ha tomado la decisión de sesgar su LLM contra dos de los asesinos en masa más notorios del siglo pasado.
Como siempre, la moderación del contenido se vuelve difícil en los márgenes. Una cosa es prohibir las consultas positivas asociadas con figuras notorias, pero es más difícil moderar el contenido político matizado para los LLM, que se capacitan con una gran cantidad de datos. El artículo de Rozado no alega que haya equipos de titiriteros de izquierda trabajando detrás de escena en los laboratorios de inteligencia artificial para garantizar que los políticos y las opiniones políticas de derecha reciban un trato negativo. Lo más probable es que los LLM populares estén capacitados en vastos conjuntos de datos que, en ausencia de diseño o intención, reflejen un sesgo particular.
No será una novedad para nadie que lea que instituciones ampliamente citadas, como los medios de comunicación y el mundo académico, tienden a inclinarse hacia la izquierda. Los LLM capacitados en artículos académicos, artículos de noticias y artículos de políticas públicas bien pueden reflejar sesgos encontrados en las fuentes. A medida que los estudiantes, investigadores, políticos, periodistas y muchos otros utilizan cada vez más los LLM, deberíamos esperar que tales sesgos tengan efecto.
Muchos profesores ya tienen que asumir que sus alumnos tienen acceso a LLM en casa, que pueden utilizar para reemplazar o complementar los motores de búsqueda. Este es un avance bienvenido, aunque disruptivo. Pero va acompañado de la posible propagación involuntaria de un tipo particular de sesgo si los profesores y los estudiantes no son conscientes de cómo funcionan los LLM. Los periodistas e investigadores también utilizarán cada vez más los LLM. Los periodistas que piden a los LLM que analicen discursos, documentos técnicos, conjuntos de datos y proyectos de ley sin duda disfrutarán de los beneficios de muchas horas de trabajo ahorradas, pero al igual que los estudiantes y profesores, deberán conocer cómo funcionan los LLM para poder utilizarlos de forma eficaz. .
Hay formas para que los diseñadores de LLM corrijan los sesgos políticos percibidos, pero los observadores deben considerar que el “sesgo” a menudo está en el ojo del espectador, y juzgar cómo se ve una respuesta “imparcial” a una consulta de política no es una tarea fácil. . Deberíamos esperar que continúen las acusaciones de parcialidad, incluso cuando los diseñadores populares de LLM hagan ajustes.
En lugar de exigir que los LLM cumplan con un requisito de neutralidad política, deberíamos centrarnos en la educación. En un momento en que los LLM están preparados para desempeñar un papel cada vez mayor en la educación, los medios y el periodismo, vale la pena enfatizar que los LLM no son motores de búsqueda imparciales ni asistentes personales imparciales. Si no se generaliza este entendimiento, corremos el riesgo de que los LLM contribuyan a una mayor erosión del estado del debate sobre políticas públicas.
– las mejores piezas de CapX y de toda la web.
CapX depende de la generosidad de sus lectores. Si valoras lo que hacemos, considera hacer una donación.