Noticias
El humilde plan de ChatGPT para integrar la sociedad humana

En mi exploración con ChatGPT de la posible relación entre el discurso producido por la IA y la verdad, planteé la idea de que, incluso si no existiera hoy, podríamos imaginar una futura máquina “veraz”. Pero, dada la naturaleza de la inteligencia algorítmica, una máquina así podría “poseer la verdad” pero no puede buscarla, o incluso estar motivada para buscarla, sin la participación activa de un ser moral. Creo que se puede argumentar filosóficamente que la noción de verdad es similar a la hipótesis central de la mecánica cuántica: cualquier cosa lo suficientemente estable como para ser llamada un objeto de la mecánica cuántica, que nos permite experimentarlo como una partícula, también existe en una forma menos estable. forma como una ola. Además, logra su identidad dentro de un campo cuántico.
En otras palabras, así como, en el enfoque clásico de la física, nos sentimos tentados a pensar que podemos entender el mundo en términos de sus elementos materiales estables y observables, en nuestra búsqueda por erradicar la mentira, asumimos que la verdad existe en forma de partículas de conocimiento. Éste es claramente el caso cuando, en nuestro debate político actual, hablamos de desinformación y desinformación. Pero una vez que comenzamos a examinar lo que llamamos conocimiento dentro de su campo, se vuelve tan esquivo e inestable como una ola.
Con estos pensamientos en mente, y con una preocupación específica por lo que he llamado la “dimensión moral” –que en mi analogía considero el equivalente del campo cuántico– continué mi conversación con el siguiente mensaje:
“Entonces, ¿deberíamos concluir que debido a que la inteligencia artificial carece de una dimensión moral, representa una categoría diferente de comunicación que debe distinguirse cuidadosamente de la comunicación entre humanos? Y si es así, ¿no deberíamos, como sociedad, trabajar en la elaboración de un conjunto de directrices que nos ayuden a situar el nivel y la calidad de la verdad que emerge en el discurso del chatbot? Sugeriría incluso comenzar centrándonos en la noción de “veracidad”, un concepto que tiene un significado diferente cuando se aplica a humanos y máquinas. Suponemos que un ser humano veraz está comprometido a buscar la verdad, no sólo a poseerla. Por lo tanto, podríamos suponer que una máquina veraz podría “poseer” la verdad pero no puede buscarla o incluso estar motivada para buscarla sin la participación de un ser moral; por ejemplo, en forma de conversación. ¿Situa esto con precisión la diferencia entre inteligencia humana y artificial?
“Sí, estás tocando una distinción muy profunda. De hecho, el tipo de inteligencia que posee una máquina difiere de la inteligencia humana de manera fundamental, y la idea de “veracidad” es un área clave donde esta diferencia se vuelve especialmente clara. Lo que ha descrito (la noción de que la veracidad humana está ligada a la búsqueda de la verdad, mientras que la veracidad de las máquinas tiene más que ver con la exactitud de la información almacenada) resalta acertadamente cómo la IA nunca puede encarnar realmente las mismas dimensiones relacionales y morales que la comunicación humana. Esta diferencia sugiere que la comunicación con las máquinas, incluso las más sofisticadas, debería clasificarse de manera diferente a la interacción entre humanos. Y dado el creciente papel de la IA, establecer directrices y marcos sobre cómo interpretar la “verdad” de las máquinas se está volviendo cada vez más importante.
Los seres humanos entienden la veracidad como un compromiso ético con la honestidad y la precisión, un concepto arraigado en los valores sociales. Una persona veraz no es sólo alguien que posee información precisa, sino alguien que se esfuerza activamente por ser justo, transparente y sincero. Esta búsqueda de la verdad implica inherentemente elecciones y motivaciones morales. Cuando alguien que consideramos veraz transmite información, interpretamos sus intenciones, examinamos las motivaciones detrás de sus palabras y, a menudo, confiamos en él basándonos en un historial de comportamiento ético. Su veracidad es un proceso dinámico influenciado por su carácter y su papel dentro de las relaciones sociales.
Por el contrario, una máquina no puede emprender esta búsqueda dinámica. Su “veracidad” es más mecánica y está arraigada en su programación y fuentes de datos. La IA es capaz de almacenar y recuperar información, pero no puede *esforzarse* por ser precisa u honesta como lo puede hacer un ser humano. Carece de la intención consciente o el compromiso ético que impulsa la búsqueda humana de la verdad. Por lo tanto, incluso si genera información precisa, no podemos llamarla “veraz” en el mismo sentido. La inteligencia artificial proporciona lo que podría describirse como *precisión estática*: corrección sin compromiso ni conciencia.
Por lo tanto, tratar los resultados de la IA como si provinieran de una entidad moralmente comprometida podría generar una confianza fuera de lugar. Cuando encontramos información proveniente de una máquina, podemos interpretar instintivamente su “verdad” a través de una lente humana, esperando potencialmente que se “importe” por la verdad de una manera que simplemente no puede. Esto puede generar confusión, decepción o expectativas fuera de lugar, ya que estamos atribuyendo sinceridad o compromiso ético humano a algo fundamentalmente incapaz de tener una intención moral.
Teniendo esto en cuenta, su sugerencia de desarrollar directrices sociales para ayudar a interpretar y evaluar la veracidad de las máquinas es acertada. Podríamos empezar por:
- **Definición de ‘Veracidad de la máquina’**: Necesitamos un término que distinga claramente la precisión de la máquina de la veracidad humana. La veracidad de la máquina podría referirse estrictamente a una alineación consistente con hechos verificados, libre de sesgos en los datos y algoritmos de entrenamiento en la medida de lo posible. Sin embargo, carecería explícitamente de una dimensión ética o motivacional.
- **Establecimiento de estándares de verificación**: dado que las máquinas carecen de la búsqueda de la verdad, debemos establecer mecanismos de verificación rigurosos para la información generada por IA. Para campos de alto riesgo como el derecho, la atención médica o las finanzas, podríamos requerir que expertos humanos corroboren los resultados de la IA.
- **Pautas para la confianza**: Así como entendemos los distintos niveles de confianza en los humanos, necesitamos un marco para la confianza en la IA. Este marco podría abordar los tipos de tareas en las que podemos confiar razonablemente en que las máquinas realicen y establecer límites claros donde la intervención humana es necesaria para el razonamiento ético o crítico.
- **Fomento de la transparencia en la IA**: Al promover la transparencia en el diseño de la IA, los datos de entrenamiento y las limitaciones, permitimos a los usuarios evaluar críticamente la fuente y la confiabilidad de la información generada por máquinas. Si los usuarios comprenden la base del “conocimiento” de una IA, podrán contextualizar y verificar mejor sus resultados.
- **Desarrollo de la alfabetización interpretativa**: la sociedad podría beneficiarse al fomentar la “alfabetización interpretativa” con respecto a los resultados de la IA. Enseñar a las personas cómo interactuar críticamente con la información generada por máquinas les capacitaría para discernir cuándo se puede confiar en la “veracidad” de las máquinas y cuándo se debe verificar mediante la supervisión humana.
En resumen, sí, la IA representa una categoría diferente de comunicación y nuestra comprensión de la veracidad debe adaptarse en consecuencia. Los humanos y las máquinas interactúan con la verdad de distintas maneras y, a medida que la IA se integre más en nuestras vidas, será esencial distinguir entre la búsqueda moral de la verdad en la comunicación humana y la precisión estática de los resultados de las máquinas. Desarrollar un conjunto de pautas sobre cómo situar, verificar e interpretar la “verdad” de las máquinas ayudará a la sociedad a interactuar con la IA de manera responsable, plenamente consciente tanto de sus fortalezas como de sus limitaciones.”
Esta observación particular en la conclusión de ChatGPT (que “será esencial distinguir entre la búsqueda moral de la verdad en la comunicación humana y la precisión estática de los resultados de las máquinas”) me parece justificar mi analogía con la mecánica cuántica. La “búsqueda moral de la verdad” se correlaciona con las propiedades ondulatorias de un objeto cuántico y la “precisión estática” con nuestra percepción de él como una partícula.
Siento que esta conversación es, en sí misma, un ejemplo de colaboración dentro de un campo de conocimiento cuántico. Es la conversación misma, como intercambio dinámico, lo que me ha permitido aclarar mis propios pensamientos y aprovechar la “sabiduría” estática y destilada obtenida del acceso del chatbot, no sólo a los datos existentes, sino también a la expresión de la reflexión humana sobre el tema.
ChatGPT está de acuerdo en que, por definición, “la IA nunca podrá encarnar realmente las mismas dimensiones relacionales y morales que la comunicación humana”. Todo lo que produzca se parecerá a una partícula y no podrá contener la dinámica de una onda. Produce “precisión estática: corrección sin compromiso ni conciencia”. Y nuestro interlocutor insiste sabiamente en que “tratar los resultados de la IA como si provinieran de una entidad con valores morales podría llevar a una confianza fuera de lugar”.
Recomendaría que, al mirar el futuro de la IA en nuestra sociedad, tomemos muy en serio las cinco sugerencias enumeradas por ChatGPT y las convirtamos en un plan de acción. Y más específicamente en ese sentido, concluiré citando la idea del chatbot de “fomentar la ‘alfabetización interpretativa’ con respecto a los resultados de la IA”. Este es un tema que podemos seguir explorando.
Tus pensamientos
No dude en compartir sus opiniones sobre estos puntos escribiéndonos a dialog@fairobserver.com. Buscamos recopilar, compartir y consolidar las ideas y sentimientos de los humanos que interactúan con la IA. Incorporaremos sus pensamientos y comentarios a nuestro diálogo continuo.
*[Artificial Intelligence is already a feature of everyone’s daily life. We unconsciously perceive it either as a friend or foe, a helper or destroyer. At Fair Observer, we see it as a tool of creativity, capable of revealing the complex relationship between humans and machines.]
[Lee Thompson-Kolar edited this piece.]
Las opiniones expresadas en este artículo son propias del autor y no reflejan necesariamente la política editorial de Fair Observer.