Connect with us

Noticias

¿Chatgpt es una droga? Las metáforas muestran lo que piensan los estudiantes de AI

Published

on

Usar chatgpt para ayudarlo a escribir es como ponerse un par de tacones altos. La razón, según un investigador de posgrado de China: “Hace que mi escritura se vea noble y elegante, aunque ocasionalmente caigo en mi cara en el mundo académico”.

Esta comparación provino de un participante en un estudio reciente de estudiantes que han adoptado inteligencia artificial generativa en su trabajo. Los investigadores pidieron a los estudiantes internacionales que completaron estudios de posgrado en el Reino Unido que explicen el papel de la IA en su escritura utilizando una metáfora.

Las respuestas fueron creativas y diversas: se decía que AI era una nave espacial, un espejo, una droga que mejora el rendimiento, un automóvil autónomo, maquillaje, un puente o comida rápida. Dos personas compararon la IA generativa con Spider-Man, otra con el mapa mágico de los Merodeadores de Harry Potter. Estas comparaciones revelan cómo los adoptantes de esta tecnología están sintiendo su impacto en su trabajo durante un momento en que las instituciones están luchando por dibujar líneas alrededor de las cuales los usos son éticos y cuáles no.


Sobre el apoyo al periodismo científico

Si está disfrutando de este artículo, considere apoyar nuestro periodismo galardonado con suscripción. Al comprar una suscripción, está ayudando a garantizar el futuro de las historias impactantes sobre los descubrimientos e ideas que dan forma a nuestro mundo hoy.


“La IA generativa ha transformado la educación dramáticamente”, dice el autor de estudio senior Chin-Hsi Lin, investigador de tecnología educativa en la Universidad de Hong Kong. “Queremos que los estudiantes puedan expresar sus ideas” sobre cómo las están usando y cómo se sienten al respecto, dice.

Lin y sus colegas reclutaron estudiantes de posgrado de 14 regiones, incluidos países como China, Pakistán, Francia, Nigeria y los Estados Unidos, que estudiaban en el Reino Unido y usaban ChatGPT-4 en su trabajo, que solo estaba disponible para suscriptores pagados en ese momento. Se les pidió a los estudiantes que llegaran y explicaran una metáfora de la forma en que la IA generativa afecta su escritura académica. Para verificar que las 277 metáforas en las respuestas de los participantes fueran fieles a su uso real de la tecnología, los investigadores realizaron entrevistas en profundidad con 24 de los estudiantes y les pidieron que proporcionaran capturas de pantalla de sus interacciones con IA.

Al analizar las respuestas, los investigadores encontraron cuatro categorías sobre cómo los estudiantes usaban y pensaban en la IA en su trabajo. El más básico de estos fue el soporte técnico: el uso de IA para verificar la gramática inglesa o formatear una lista de referencias. Los participantes compararon la IA con las mejoras estéticas, como el maquillaje o los tacones altos, un papel humano, como un tutor o editor de idiomas, o una herramienta mecánica como una máquina de embalaje o una cinta de medición.

En la siguiente categoría, el desarrollo de texto, la IA generativa estuvo más involucrada en el proceso de escritura en sí. Algunos estudiantes lo usaron para organizar la lógica de su escritura; Una persona lo equiparó al piloto automático de Tesla porque les ayudó a mantenerse en el camino. Otros lo usaron para ayudar con su revisión de la literatura y la compararon con un asistente, una metáfora común utilizada en el marketing de IA, o un comprador personal. Y los estudiantes que usaron el chatbot para ayudar a la lluvia de ideas a menudo usaron metáforas que describían la tecnología como una guía. Lo llamaron una brújula, un compañero, un conductor de autobús o un mapa mágico.

En la tercera categoría, los estudiantes usaron AI para transformar de manera más significativa su proceso de escritura y producto final. Aquí, llamaron a la tecnología un “puente” o un “maestro” que podría ayudarlos a superar los límites interculturales en los estilos de comunicación, especialmente importante porque la escritura académica a menudo se realiza en inglés. Ocho personas lo describieron como un lector mental porque, para citar a un participante, ayudó a expresar “esos conceptos profundamente matizados que son difíciles de articular”.

Otros dijeron que les ayudó a comprender realmente esos conceptos difíciles, especialmente al sacar de diferentes disciplinas. Tres personas lo compararon con una nave espacial y dos con Spider-Man: “porque puede navegar rápidamente a través de la compleja red de información académica” en todas las disciplinas.

En la cuarta categoría, las metáforas de los estudiantes destacaron los peligros potenciales de la IA. Algunos de los participantes expresaron molestias con la forma en que permite una falta de innovación (como un pintor que simplemente copia el trabajo de los demás) o una falta de comprensión más profunda (como la comida rápida, conveniente pero no nutritivo). En esta categoría, los estudiantes lo llamaban más comúnmente un medicamento, especialmente adictivo. Una respuesta particularmente adecuada lo comparó con los esteroides en los deportes: “En un entorno competitivo, nadie quiere quedarse atrás porque no lo usan”.

Amanda Montañez; Fuente: “Tacones altos, brújulas, Spider-Man o Drug? 228; Abril de 2025 (datos)

“Las metáforas realmente importan, y han moldeado el discurso público” para todo tipo de nuevas tecnologías, dice Emily Weinstein, investigadora de tecnología en el Centro de Digital Prosping digital de la Universidad de Harvard, que no participó en el nuevo estudio. Las comparaciones que usamos para hablar sobre nuevas tecnologías pueden revelar nuestras suposiciones sobre cómo funcionan, e incluso nuestros puntos ciegos.

Por ejemplo, “hay amenazas implícitas en las otras metáforas que están aquí”, dice ella. Los sistemas de asistencia del conductor a veces causan un bloqueo. Los lectores mental de un mundo de fantasía o los mapas mágicos no pueden ser explicados por la ciencia, sino que simplemente tienen que ser confiables. Y los tacones altos, como se destacó el participante, puede hacer que te hagas más que caer de cara.

Weinstein dice que nunca solo hay una metáfora adecuada para hablar sobre una nueva tecnología. Por ejemplo, las metáforas de drogas o cigarrillos son muy comunes cuando las personas hablan de las redes sociales, y de alguna manera, son aptas. Aplicaciones como Tiktok e Instagram pueden ser genuinamente adictivas y a menudo se dirigen a la adolescencia. Pero cuando intentamos asignar solo una metáfora a una nueva tecnología, corremos el riesgo de aplanarla y pasar por alto sus beneficios y peligros.

“Si su modelo mental de redes sociales es que es crack [cocaine]será difícil para nosotros tener una conversación sobre el uso moderador, por ejemplo ”, dice ella.

Y culturalmente, nuestros modelos mentales de IA generativo todavía carecen seriamente. “El problema es que en este momento nos faltan formas de hablar sobre los detalles. Pero “Creo que muchas de las cosas que nos dan esta reacción moral y emocional … tiene que ver con que no tengamos lenguaje o formas de hablar más específicamente” sobre lo que queremos de esta tecnología.

Crear este nuevo lenguaje requerirá más escucha y discusión en el aula, tal vez incluso por asignación. Esto puede aliviar la presión sobre los maestros para que comprendan cada uso potencial de la IA y asegurarse de que los estudiantes no se queden en un área gris sin orientación. Para ciertas tareas, los maestros y los asesores pueden querer permitir que los estudiantes usen la IA generativa como una brújula para hacer una lluvia de ideas o como el hombre de la araña de su Gwen Stacy para ayudarlos a pasar por la red mundial.

“Hay diferentes objetivos de aprendizaje para diferentes tareas y diferentes contextos”, dice Weinstein. “Y a veces su objetivo podría no estar en tensión con un uso más transformador”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Por qué un periodista podría obtener las indicaciones de ChatGPT de un ministro, y lo que significa para la transparencia

Published

on

Cuando el nuevo científico reveló que había obtenido las indicaciones de ChatGPT de un ministro del Gobierno del Reino Unido a través de una solicitud de Libertad de Información (FOI), muchos en periodismo y política hicieron una doble toma. El ministro de Ciencia y Tecnología, Peter Kyle, aparentemente le había pedido al AI Chatbot que redactara un discurso, explique una política compleja y, más memorablemente, le diga en qué podcasts aparecer.

Lo que una vez parecía reflexiones privadas o uso experimental de IA ahora está firmemente en el dominio público, porque se realizó en un dispositivo gubernamental.

Es un ejemplo sorprendente de cómo se estiran las leyes de FOI en la era de la inteligencia artificial. Pero también plantea una pregunta más grande y más incómoda: ¿qué más en nuestras vidas digitales cuenta como un registro público? Si se pueden publicar indicaciones de IA, ¿deberían las búsquedas de Google las siguientes?

La Ley de Libertad de Información de Gran Bretaña se aprobó en 2000 y entró en vigor en 2005. Desde entonces, han surgido dos usos distintos de FOI. El primero, y posiblemente el más exitoso, se aplica a los registros personales. Esto le ha dado a las personas el derecho de acceder a la información que se mantiene sobre ellos, desde archivos de vivienda hasta registros de bienestar social. Es una historia de éxito tranquila que ha empoderado a los ciudadanos en sus tratos con el estado.

El segundo es lo que los periodistas usan para interrogar el funcionamiento del gobierno. Aquí, los resultados han sido irregulares en el mejor de los casos. Si bien FOI ha producido cucharadas y escándalos, también ha sido socavado por exenciones radicales, retrasos crónicos y una cultura de Whitehall que considera que la transparencia es opcional en lugar de esencial.

Tony Blair, quien presentó el acto como primer ministro, lo describió como el mayor error de su tiempo en el gobierno. Más tarde argumentó que FOI convirtió la política en “una conversación realizada con los medios de comunicación”.

Los sucesivos gobiernos se han roto contra FOI. Pocos casos ilustran esto mejor que la batalla sobre los notas de las arañas negras: cartas escritas por el entonces Príncipe (ahora Rey) Carlos a los ministros, presionando sobre temas, desde la agricultura hasta la arquitectura. El gobierno luchó durante una década para mantenerlos en secreto, citando el derecho del príncipe a los consejos confidenciales.



Leer más: contenido aburrido, pero el lanzamiento de Prince Charles Letters es un momento histórico


Cuando finalmente fueron liberados en 2015 después de un fallo de la Corte Suprema, el resultado fue ligeramente vergonzoso pero políticamente explosivo. Probó que lo que los ministros consideran la correspondencia “privada” pueden estar sujetas a escrutinio público.

El caso ChatGPT se siente como una versión moderna de ese debate. Si un político redacta ideas a través de AI, ¿es un pensamiento privado o un registro público? Si esos indican que la política de forma, seguramente el público tiene derecho a saber.

¿Las búsquedas de Google son las siguientes?

La ley de FOI es clara en el documento: cualquier información en poder de un organismo público está sujeta a liberación a menos que esté exenta. A lo largo de los años, los tribunales han dictaminado que la plataforma es irrelevante. Correo electrónico, whatsapp o notas escritas a mano: si el contenido se relaciona con los negocios oficiales y está en manos de un organismo público, es potencialmente divulgable.

El precedente se estableció en Dublín en 2017 cuando la Oficina del Primer Ministro irlandés publicó mensajes de WhatsApp al emisor de servicio público RTÉ. La Oficina del Comisionado de Información del Reino Unido también ha publicado una guía detallada que confirma que la información oficial mantenida en canales no corporativos, como correo electrónico privado, WhatsApp o Signal, está sujeta a solicitudes de FOI si se relaciona con los negocios de la autoridad pública.

La consulta en curso Covid-19 ha demostrado cómo los grupos de WhatsApp, una vez considerados backannels informales, se convirtieron en ámbitos de toma de decisiones clave en el gobierno, con mensajes de Boris Johnson, Matt Hancock y asesores principales como Dominic Cummings ahora revelados como registros oficiales.

En Australia, los mensajes de WhatsApp entre los ministros fueron examinados durante el escándalo de RobodeBT, una búsqueda ilegal de bienestar que se extendió entre 2016 y 19, mientras que la investigación de Canadá sobre las protestas del “convoy de libertad” en 2022 reveló textos y chats privados entre altos funcionarios como evidencia crucial de cómo se tomaron las decisiones.

El principio es simple: si se está haciendo el trabajo del gobierno, el público tiene derecho a verlo.

Los registros de chat de IA ahora caen en esta misma área gris. Si un funcionario o ministro usa ChatGPT para explorar las opciones de política o redactar un discurso en un dispositivo gubernamental, ese registro puede ser un registro, como lo demostraron las indicaciones de Peter Kyle.

Gobierno de WhatsApp.
Andy Rain/Epa-Efe

Esto abre un precedente fascinante (y ligeramente desconcertante). Si las indicaciones de AI son fáciles, ¿qué pasa con las búsquedas de Google? Si un funcionario civil tipos “cómo privatizar el NHS” en Chrome en una computadora portátil gubernamental, ¿es una consulta privada o un registro oficial?

La respuesta honesta es: no lo sabemos (todavía). FOI no ha alcanzado por completo la era digital. Las búsquedas de Google suelen ser efímeras y no se almacenan de manera rutinaria. Pero si las búsquedas se registran o se capturan en pantalla como parte del trabajo oficial, entonces podrían solicitarse.

Del mismo modo, ¿qué pasa con los borradores escritos en el asistente de escritura de IA gramatal o ideas de lluvia de ideas con Siri? Si esas herramientas se usan en dispositivos oficiales y existen registros, podrían revelarse.

Por supuesto, no hay nada que evite que este o cualquier gobierno futuro cambie la ley o apriete las reglas de FOI para excluir material como este.

Foi, periodismo y democracia

Si bien este tipo de revelaciones son fascinantes, corren el riesgo de distraer de un problema más profundo: FOI está cada vez más politizado. Las negativas ahora a menudo se basan en consideraciones políticas en lugar de la carta de la ley, con solicitudes rutinariamente retrasadas o rechazadas para evitar vergüenza. En muchos casos, el uso de los grupos de WhatsApp por parte de los ministros fue un intento deliberado de evitar el escrutinio en primer lugar.

Existe una cultura creciente de evitación de transparencia entre el gobierno y los servicios públicos, una que se extiende más allá de los ministros. Las empresas privadas que entregan contratos públicos a menudo están protegidos de FOI por completo. Mientras tanto, algunos gobiernos, incluidos Irlanda y Australia, han debilitado la ley misma.

Las herramientas de IA ya no son experimentos, se están convirtiendo en parte de cómo se desarrolla la política y se toman decisiones. Sin una supervisión adecuada, corren el riesgo de convertirse en el próximo punto ciego en la responsabilidad democrática.

Para los periodistas, este es un posible cambio de juego. Los sistemas como ChatGPT pronto pueden integrarse en los flujos de trabajo del gobierno, redactar discursos, resumir informes e incluso una estrategia de lluvia de ideas. Si las decisiones están cada vez más formadas por sugerencias algorítmicas, el público merece saber cómo y por qué.

Pero también revive un viejo dilema. La democracia depende de la transparencia, sin embargo, los funcionarios deben tener espacio para pensar, experimentar y explorar ideas sin temor a que cada consulta o borrador de IA termine en la portada. No todos los solicitantes de búsqueda o chatbot son una posición de política final.

Blair puede haber llamado a Foi un error, pero en verdad, obligó al poder a enfrentar la realidad de la responsabilidad. El verdadero desafío ahora es actualizar FOI para la era digital.

Continue Reading

Noticias

Una nueva investigación revela la brecha de género “asombrosa” en la adopción de chatgpt

Published

on

Un nuevo estudio publicado en el Actas de la Academia Nacional de Ciencias ha descubierto que la adopción de ChatGPT en el lugar de trabajo ha sido generalizada pero desigual. Los trabajadores más jóvenes, menos experimentados y de mayores ingresos tienen más probabilidades de usar la herramienta, mientras que los trabajadores y mujeres de bajos ingresos la han adoptado a tasas significativamente más bajas. Incluso entre los trabajadores en la misma ocupación que manejan tareas laborales similares, los hombres tienen mucho más probabilidades de usar ChatGPT que las mujeres. Los hallazgos destacan cómo las barreras para la adopción pueden estar reforzando las desigualdades existentes en el mercado laboral.

CHATGPT es una de las herramientas de inteligencia artificiales generativas más utilizadas, capaz de producir texto similar al humano en respuesta a las indicaciones del usuario. Desde su lanzamiento, se ha integrado en varios lugares de trabajo para ayudar con tareas como la escritura, la codificación e investigación. Dado su potencial para transformar cómo se realiza el trabajo, los investigadores estaban interesados ​​en comprender quién está utilizando ChatGPT, cómo esperan que impacte sus trabajos y qué factores influyen en la adopción.

Si bien la IA generativa tiene el potencial de ayudar a los trabajadores mediante la automatización de tareas repetitivas y aumentando la eficiencia, algunos estudios sugieren que podría beneficiar a los trabajadores menos experimentados al nivelar las brechas de habilidades. Sin embargo, los patrones de adopción no siempre son uniformes en diferentes datos demográficos. Al examinar cómo los trabajadores en diversas ocupaciones usan ChatGPT, los investigadores pretendían descubrir si ciertos grupos estaban siendo dejados en el proceso de adopción.

“Soy un economista laboral que estudia cómo el cambio tecnológico afecta el empleo y el salario.

Para investigar la adopción de ChatGPT en la fuerza laboral, los investigadores colaboraron con estadísticas de Dinamarca para encuestar a 18,000 trabajadores de 11 ocupaciones entre noviembre de 2023 y enero de 2024. La encuesta se dirigió a trabajos dirigidos a los expertos que consideraron altamente expuestos a ChatGPT, lo que significa que la herramienta podría reducir significativamente el tiempo requerido para completar las tareas de trabajo clave. Estas ocupaciones incluyeron profesionales de marketing, asesores financieros, desarrolladores de software, periodistas y profesionales legales.

Las respuestas de la encuesta se vincularon a los registros del mercado laboral nacionales, que proporcionaban información detallada sobre las ganancias, la educación, el historial laboral y los antecedentes demográficos de cada trabajador. Los investigadores analizaron qué trabajadores usaban ChatGPT, sus expectativas sobre cómo afectaría su trabajo y las barreras que impiden que algunos empleados adopten la herramienta.

Humlum y sus colegas descubrieron que ChatGPT ha sido ampliamente adoptado en ocupaciones expuestas, con el 41% de los trabajadores que lo usan para tareas relacionadas con el trabajo. Sin embargo, las tasas de adopción variaron significativamente por la profesión. Los profesionales y periodistas de marketing, que a menudo participan en tareas intensivas en escritura, tenían más probabilidades de usar ChatGPT, con un 65% informando que habían usado la herramienta. Por el contrario, los asesores financieros, cuyo trabajo implica manejar información confidencial, tuvieron la tasa de adopción más baja en solo el 12%.

Al examinar las diferencias demográficas, los investigadores descubrieron una brecha de género. Las mujeres tenían 16 puntos porcentuales menos propensos que los hombres de usar ChatGPT, incluso cuando se comparan a los trabajadores en la misma ocupación con responsabilidades laborales similares. Esta disparidad de género persistió en todos los indicadores medidos de adopción, lo que sugiere que las mujeres enfrentan barreras adicionales para usar la tecnología.

“La asombrosa brecha de género en la adopción de ChatGPT, incluso entre los trabajadores en las mismas ocupaciones que manejan tareas laborales similares, fue una gran sorpresa para nosotros”, dijo Humlum a PSYPOST.

La edad y la experiencia también jugaron un papel en la adopción. Los trabajadores más jóvenes y menos experimentados tenían más probabilidades de usar ChatGPT, con cada año adicional asociado con una disminución de 0.7 puntos porcentuales en la probabilidad de usar la herramienta.

Curiosamente, a pesar de tener menos tenencia en sus campos, los trabajadores que usaron ChatGPT tendían a ganar un poco más antes de que la herramienta estuviera disponible. Esto sugiere que las personas de mayor rendimiento dentro de sus grupos de pares profesionales tenían más probabilidades de experimentar y adoptar la tecnología.

“Nuestro hallazgo clave es que han surgido desigualdades sustanciales en la adopción de ChatGPT”, dijo Humlum. “Los hombres más jóvenes y con mayor ingreso tienen significativamente más probabilidades de usar estas herramientas en comparación con otros trabajadores dentro de la misma ocupación”.

Los trabajadores en las ocupaciones expuestas a ChatGPT vieron un potencial de productividad significativo en la herramienta, estimando que podría reducir los tiempos de trabajo en aproximadamente un tercio de sus tareas laborales. Sin embargo, los empleados con mayor experiencia en sus campos tendieron a informar ganancias de productividad más pequeñas, lo que indica que ChatGPT es más beneficioso para aquellos que tienen un conocimiento menos especializado.

A pesar de reconocer la eficiencia de la herramienta, muchos trabajadores dudaron en cambiar la forma en que asignaron su tiempo. Alrededor del 40% de los encuestados declaró que incluso si ChatGPT les ahorraba tiempo en ciertas tareas, no aumentarían la cantidad de trabajo que hicieron en esas áreas.

Uno de los hallazgos más sorprendentes del estudio fue que las expectativas de los trabajadores sobre el ahorro de tiempo no predecían fuertemente si realmente usaban ChatGPT. Por ejemplo, entre aquellos que creían que la herramienta podría reducir el tiempo de finalización de la tarea a la mitad, solo el 23% planeó usarla en las próximas dos semanas.

En cambio, la adopción a menudo se vio obstaculizada por barreras estructurales, como las restricciones del empleador en el uso de la IA o la necesidad percibida de capacitación. Cuando los investigadores informaron al azar a los trabajadores sobre el potencial de ahorro de tiempo de ChatGPT, no cambió significativamente su probabilidad de usar la herramienta, lo que refuerza la idea de que los factores externos están limitando la adopción.

La encuesta se centró en los trabajadores daneses, por lo que los hallazgos pueden no reflejar completamente los patrones de adopción en otros países. Además, si bien el estudio identifica las tendencias en la adopción, no explora si el uso de ChatGPT conduce a mejoras medibles en el desempeño laboral o los resultados profesionales.

“Los patrones que documentamos reflejan efectos a corto plazo, capturando la adopción desigual de ChatGPT en su primer año”, señaló Humlum. “Estas desigualdades podrían reducirse o ampliarse con el tiempo a medida que más trabajadores adoptan las herramientas y las empresas comienzan a reorganizar los flujos de trabajo en torno a esta nueva tecnología.

La investigación futura podría investigar si los primeros usuarios obtienen ventajas a largo plazo en ganancias o promociones y si los programas de capacitación específicos pueden ayudar a cerrar las brechas existentes en la adopción. “Nuestro objetivo a largo plazo es comprender cómo la IA generativa está remodelando los mercados laborales”, dijo Humlum.

El estudio, “La adopción desigual de ChatGPT exacerba las desigualdades existentes entre los trabajadores”, fue escrita por Anders Humlum y Emilie Vestergaard.

Continue Reading

Noticias

¿Qué es Sora? Todo lo que sabemos sobre el generador de videos AI de Openai

Published

on

Sora es el último modelo de IA de OpenAI diseñado para generar videos de alta fidelidad a partir de descripciones de texto, lo que lleva la creación de contenido con IA a nuevas alturas.

A diferencia de las herramientas tradicionales de generación de videos, Sora puede producir escenas complejas y dinámicas con movimiento realista, entornos detallados y personajes consistentes.

Continue Reading

Trending