Noticias

Por qué ChatGPT es una herramienta exclusivamente terrible para los ministros del gobierno.

Published

on

Crédito: Dominio público de Pixabay/CC0

La noticia de que Peter Kyle, Secretario de Estado de Ciencia y Tecnología, había estado utilizando CHATGPT para obtener asesoramiento de políticas provocó algunas preguntas difíciles.

Kyle aparentemente usó la herramienta AI para redactar discursos e incluso le pidió sugerencias sobre qué podcasts debe aparecer. Pero también buscó consejos sobre su trabajo de política, aparentemente incluyendo preguntas sobre por qué las empresas en el Reino Unido no están adoptando la IA más fácilmente. Le pidió a la herramienta que definiera qué significa “inclusión digital”.

Un portavoz de Kyle dijo que su uso de la herramienta “no sustituye el consejo integral que recibe habitualmente de los funcionarios”, pero tenemos que preguntarnos si algún uso es adecuado. ¿ChatGPT da un consejo lo suficientemente bueno para tener algún papel en las decisiones que puedan afectar la vida de millones de personas?

Apuntalado por nuestra investigación sobre IA y Política Pública, encontramos que ChatGPT tiene una defecto de forma única como un dispositivo para los ministros del gobierno de varias maneras, incluido el hecho de que es un retroceso, cuando los gobiernos realmente deberían mirar hacia el futuro.

1. Mirando hacia atrás en lugar de avanzar

Donde los ministros del gobierno idealmente deberían buscar ideas nuevas y nuevas con vistas al futuro, la información que sale de un chatbot de IA es, por definición, del pasado. Es una forma muy efectiva de resumir lo que ya se ha pensado, pero no equipado, para sugerir formas de pensar genuinamente nuevas.

Las respuestas de ChatGPT no se basan en todo el pasado por igual. La digitalización cada vez mayor a lo largo de los años dirige el mecanismo de búsqueda de patrones de Chatgpt al pasado reciente. En otras palabras, cuando un ministro le pidió que brinde consejos sobre un problema específico en el Reino Unido, las respuestas de ChatGPT estarían más ancladas en los documentos producidos en el Reino Unido en los últimos años.

Y en particular, en el caso de Kyle, eso significa que un ministro de trabajo no solo accederá a un ministro de trabajo del pasado, sino que se le informará un algoritmo inclinado fuertemente sobre el consejo dado a los gobiernos conservadores. Ese no es el fin del mundo, por supuesto, pero es cuestionable dado que Labor ganó una elección prometiendo un cambio.

Kyle, o cualquier otro Ministro consultoría de ChatGPT, se le dará información basada en las tradiciones políticas que reflejan los Rishi Sunak, Boris Johnson, Theresa May y David Cameron Eras. Es menos probable que reciban información basada en el pensamiento de los nuevos años laborales, que fueron hace más tiempo.

Si Kyle pregunta qué significa la inclusión digital, es más probable que la respuesta refleje lo que estas administraciones tory creen que significa en lugar de los pensamientos de los gobiernos más alineados con sus valores.

En medio de todo el entusiasmo dentro del trabajo para aprovechar la IA, esta puede ser una razón para que se distancien de usar ChatGPT para obtener asesoramiento de políticas. Arriesgan la política tory, una que les gusta criticar, los zombisos en la suya.

2. Prejuicio

ChatGPT ha sido acusado de tener “alucinaciones”: las falsedades generadoras, extrañas, que sonan plausibles.

Hay una explicación técnica simple para esto, como se alude en un estudio reciente. El “modelo de verdad” para ChatGPT, como para cualquier modelo de lenguaje grande, es de consenso. Modela la verdad como algo en lo que todos aceptan ser verdad. Para ChatGPT, su verdad es simplemente el consenso de puntos de vista expresados ​​en los datos en los que ha sido entrenado.

Esto es muy diferente del modelo humano de la verdad, que se basa en la correspondencia. Para nosotros, la verdad es lo que mejor corresponde a la realidad en el mundo físico. La divergencia entre los modelos de verdad podría ser consecuente de muchas maneras.

Por ejemplo, la licencia de TV, un modelo que opera solo dentro de unas pocas naciones, no figuraría prominentemente dentro del modelo de consenso de ChatGPT construido en un conjunto de datos global. Por lo tanto, es poco probable que las sugerencias de ChatGPT sobre la política de medios de transmisión toquen sustancialmente las licencias de televisión.

Además de explicar las alucinaciones, los modelos de divergencias en la verdad tienen otras consecuencias. Los prejuicios sociales, incluido el sexismo y el racismo, se internalizan fácilmente bajo el modelo de consenso.

Considere buscar consejos de chatgpt para mejorar las condiciones para los trabajadores de la construcción, una profesión históricamente dominada por los hombres. El modelo de consenso de ChatGPT podría cegarlo de consideraciones importantes para las mujeres.

El modelo de verdad de correspondencia permite a los humanos participar continuamente en la deliberación y el cambio moral. Un experto en política humana que asesora a Peter Kyle podría iluminarlo sobre complejidades pertinentes del mundo real.

Por ejemplo, podrían resaltar cómo los éxitos recientes en el diagnóstico basado en IA podrían ayudar a abordar aspectos distintos de la carga de la enfermedad del Reino Unido sabiendo que una de las prioridades del trabajo es reducir los tiempos de espera del NHS.

3. Narrativas agradables

Herramientas como ChatGPT están diseñadas para dar narraciones atractivas y elegantes al responder a las preguntas. ChatGPT logró esto en parte eliminando el texto de mala calidad de sus datos de capacitación (con la ayuda de trabajadores mal pagados en África).

Estas piezas poéticas de escritura funcionan bien para el compromiso y ayudan a Operai a mantener a los usuarios enganchados a su producto. Los humanos disfrutan de una buena historia, y particularmente una que ofrece resolver un problema. Nuestra historia evolutiva compartida nos ha convertido en narradores y listones de historias a diferencia de cualquier otra especie.

Pero el mundo real no es una historia. Es un remolino constante de complejidades políticas, contradicciones sociales y dilemas morales, muchos de los cuales nunca se pueden resolver. El mundo real y las decisiones que los ministros del gobierno tienen que tomar en nuestro nombre son complejos.

Hay intereses en competencia y diferencias irreconciliables. Raramente hay una respuesta ordenada. La inclinación de Chatgpt por narraciones agradables está en desacuerdo con la política pública imperativa de abordar las condiciones desordenadas del mundo real.

Las características que hacen de ChatGPT una herramienta útil en muchos contextos son directamente incompatibles con las consideraciones de las políticas públicas, un reino que busca tomar decisiones políticas para abordar las necesidades de los ciudadanos de un país.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Por qué ChatGPT es una herramienta única y terrible para los ministros del gobierno (2025, 7 de abril) recuperó el 7 de abril de 2025 de https://phys.org/news/2025-04-chatgpt-uniquely-terrible-tool-ministers.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version