Connect with us

Noticias

Chatgpt puede ayudar a escribir un ensayo. Los científicos quieren que comience a doblar la ropa

Published

on

STANFORD, California. – La inteligencia artificial puede encontrarle una receta o generar una imagen, pero no puede colgar una imagen en una pared o cocinar su cena.

Chelsea Finn quiere que eso cambie. Finn, ingeniero e investigador de la Universidad de Stanford, cree que la IA puede estar en la cúspide de impulsar una nueva era en robótica.

“A largo plazo queremos desarrollar un software que permita a los robots operar de manera inteligente en cualquier situación”, dice ella.

Una compañía que cofundó ya ha demostrado un robot AI de uso general que puede doblar la ropa, entre otras tareas. Otros investigadores han demostrado el potencial de IA para mejorar la capacidad de los robots para hacer todo, desde clasificación de paquetes hasta carreras de drones. Y Google acaba de dar a conocer

Un robot con IA que podría empacar un almuerzo.

Pero la comunidad de investigación se divide sobre si las herramientas generativas de IA pueden transformar la robótica de la forma en que han transformado algún trabajo en línea. Los robots requieren datos del mundo real y enfrentan problemas mucho más difíciles que los chatbots.

“Los robots no se convertirán de repente en este sueño de ciencia ficción de la noche a la mañana”, dice Ken Goldberg, profesor de UC Berkeley. “Es realmente importante que la gente entienda eso, porque todavía no estamos allí”.

Sueños y decepción

Hay menos partes de la ciencia e ingeniería que tienen una mayor brecha entre la expectativa y la realidad que la robótica. La misma palabra “robot” fue acuñado por Karel čapek, un escritor de Czeck que, en la década de 1920, escribió una obra que imaginaba seres humanos que podían llevar a cabo cualquier tarea que su dueño ordenara.

En realidad, los robots han tenido muchos problemas para hacer trabajos triviales. Las máquinas están en su mejor momento cuando realizan movimientos altamente repetitivos en un entorno cuidadosamente controlado, por ejemplo, en una línea de ensamblaje automotriz dentro de una fábrica, pero el mundo está lleno de obstáculos inesperados y objetos poco comunes.

En el Laboratorio de Finn en la Universidad de Stanford, el estudiante graduado Moo Jin Kim demuestra cómo los robots con AI al menos tienen el potencial de solucionar algunos de esos problemas. Kim ha estado desarrollando un programa llamado “OpenVLA

“Que significa visión, lenguaje, acción.

“Es un paso en la dirección de ChatGPT para la robótica, pero todavía hay mucho trabajo por hacer”, dice.

Moo Jin Kim establece un robot a IA en la Universidad de Stanford.

/

El robot en sí parece bastante poco notable, solo un par de brazos mecánicos con pinzas. Lo que lo hace diferente es lo que hay dentro. Los robots regulares deben estar cuidadosamente programados. Un ingeniero tiene que escribir instrucciones detalladas para cada tarea. Pero este robot funciona con una red neuronal de IA enseñable. La red neuronal opera cómo los científicos creen que el cerebro humano podría funcionar: los “nodos” matemáticos en la red tienen miles de millones de conexiones entre sí de una manera similar a la forma en que las neuronas en el cerebro están conectadas. “Programación” de este tipo de red se trata simplemente de reforzar las conexiones que importan y debilitar las que no lo hacen.

En la práctica, esto significa que Kim puede entrenar al modelo OpenVLA cómo hacer un montón de tareas diferentes, simplemente mostrándolo.

Se unen al robot un par de joysticks que controlan cada brazo. Para entrenarlo, un operador humano usa los joysticks para “titiriteros” al robot, ya que hace una tarea deseada.

“Básicamente, me gusta la tarea que quieras que hagas, sigues haciéndolo una y otra vez como 50 veces o 100 veces”, dice.

Esa repetición es todo lo que se requiere. Las conexiones entre nodos en la red neuronal de IA del robot se refuerzan cada vez que se muestra la acción. Pronto puede repetir la tarea sin el titiritero.

Para demostrar, Kim saca una bandeja de diferentes tipos de mezcla de senderos. Ya lo ha enseñado a recoger. Ahora quiero parte de la mezcla que tiene M&M y nueces verdes, y todo lo que tengo que hacer es preguntar.

“Saca algunos verdes con las nueces en el tazón”, escribo. Muy lentamente, los brazos del robot se ponen en acción.

En una feed de video, Openvla coloca una estrella sobre el contenedor correcto. Eso significa que la primera parte del modelo, que tiene que tomar mi texto e interpretar su significado visualmente, ha funcionado correctamente.

No siempre, dice Kim. “Esa es la parte en la que aguantamos la respiración”.

Luego, lentamente, vacilante, se extiende con su garra, toma la primicia y obtiene la mezcla de senderos.

“¡Parece que está funcionando!” dice Kim con entusiasmo.

Es una cucharada muy pequeña. Pero una cucharada en la dirección correcta.

Cualquier cosa bots

El investigador de Stanford, Chelsea Finn, ha cofundado una empresa en San Francisco llamada inteligencia física

que busca llevar este enfoque de entrenamiento al siguiente nivel.

Ella imagina un mundo en el que los robots pueden adaptarse rápidamente para hacer trabajos simples, como hacer un sándwich o reabastecer en los estantes de comestibles. Contrariamente al pensamiento actual sobre robótica, sospecha que la mejor manera de llegar allí podría ser capacitar a un solo modelo para hacer muchas tareas diferentes.

“De hecho, pensamos que tratar de desarrollar sistemas generalistas tendrá más éxito que tratar de desarrollar un sistema que haga una cosa muy, muy bien”, dice ella.

La inteligencia física ha desarrollado una red neuronal de IA que puede doblar la ropa, recoger granos de café y ensamblar una caja de cartón, aunque la red neuronal que le permite hacer todas esas cosas es demasiado poderosa para estar físicamente en el robot mismo.

“En ese caso, teníamos una estación de trabajo que estaba en el apartamento que calculaba las acciones y luego las envía a través de la red al robot”, dice ella.

Pero el siguiente paso, compilar datos de capacitación para su programa Robot AI, es una tarea mucho más difícil que simplemente recopilar texto de Internet para entrenar un chatbot.

“Esto es realmente difícil”, reconoce Finn. “No tenemos un Internet abierto de datos de robots, por lo que a menudo se trata de recopilar los datos nosotros mismos sobre los robots”.

Aún así, Finn cree que es factible. Además de los entrenadores humanos, los robots también pueden intentar repetidamente hacer tareas por su cuenta y rápidamente desarrollar su base de conocimiento, dice ella.

Dilema de datos

Pero Ken Goldberg de Berkley es más escéptico de que la brecha del mundo real se pueda unir rápidamente. Los chatbots de IA han mejorado enormemente en los últimos años porque han tenido una gran cantidad de datos para aprender. De hecho, han recogido casi todo el Internet para entrenar a sí mismos cómo escribir oraciones y dibujar imágenes.

Ken Goldberg, cofundador de Ambi Robotics y profesor en UC Berkeley.

Ken Goldberg, cofundador de Ambi Robotics y profesor en UC Berkeley.

Niall David Cytryn / Ambi Robotics

Robótica de Ambi

Simplemente construir los datos del mundo real de un mundo de Internet para robots va a ir mucho más lentamente. “A este ritmo actual, tomaremos 100,000 años obtener tantos datos”, dice.

“Diría que estos modelos no van a funcionar de la manera en que están siendo entrenados hoy”, está de acuerdo Pulkit Agrawal, un investigador de robótica en el MIT.

Agrawal es un defensor de la simulación: poner la red neuronal de IA que ejecuta el robot en un mundo virtual y permite que repita tareas una y otra vez.

“El poder de la simulación es que podemos recopilar cantidades muy grandes de datos”, dice. “Por ejemplo, en tres horas de simulación podemos recopilar 100 días de datos”.

Ese enfoque funcionó bien para los investigadores en Suiza que recientemente entrenaron un dron

Cómo competir colocando su cerebro con IA en un simulador y pasando a través de un curso preestablecido una y otra vez. Cuando entró en el mundo real, pudo volar el curso más rápido y mejor que un oponente humano hábil, al menos parte del tiempo.

Pero la simulación tiene sus inconvenientes. El dron funcionó bastante bien para un curso interior. Pero no podía manejar nada que no estaba simulado (viento, lluvia o luz solar, podría arrojar el dron del curso.

Y volar y caminar son tareas relativamente simples para simular. Goldberg dice que realmente recoger objetos o realizar otras tareas manuales que los humanos encuentran que son completamente sencillos son mucho más difíciles de replicar en una computadora. “Básicamente, no hay un simulador que pueda modelar con precisión la manipulación”, dice.

Agarrando el problema

Algunos investigadores piensan que incluso si el problema de los datos puede superarse, los problemas más profundos pueden darle a los robots de IA.

“En mi opinión, la pregunta no es, ¿tenemos suficientes datos … es más lo que es el encuadre del problema”, dice Matthew Johnson-Roberson, investigador de la Universidad Carnegie Mellon en Pittsburgh.

Johnson-Roberson dice que a pesar de todas las increíbles habilidades que muestran los chatbots, la tarea que se les pide que hagan es relativamente simple: mira lo que un usuario humano tipos y luego intenta predecir las próximas palabras que el usuario quiere ver. Los robots tendrán que hacer mucho más que simplemente componer una oración.

“La siguiente mejor predicción de palabras funciona muy bien y es un problema muy simple porque solo está prediciendo la próxima palabra”, dice. Moverse a través del espacio y el tiempo para ejecutar una tarea es un conjunto mucho más grande de variables para que una red neuronal intente procesar.

“No está claro en este momento que puedo tomar 20 horas de imágenes de Go-Pro y producir algo sensato con respecto a cómo un robot se mueve en el mundo”, dice.

Johnson-Roberson dice que cree que se debe hacer una investigación más fundamental sobre cómo las redes neuronales pueden procesar mejor el espacio y el tiempo. Y advierte que el campo debe tener cuidado porque la robótica ha sido quemada antes, por la carrera para construir autos autónomos.

“Tanta capital se apresuró tan rápido”, dice. “Incentivó a las personas para hacer promesas en una línea de tiempo que no podrían cumplir”. Gran parte de la capital dejó el campo, y todavía hay problemas fundamentales para los autos sin conductor que permanecen sin resolver.

Aún así, incluso los escépticos creen que la robótica será cambiada para siempre por AI. Goldberg ha cofundado una compañía de clasificación de paquetes llamada Ambi Robotics que lanzó un nuevo sistema impulsado por la IA conocido como Prime-1 a principios de este año. Utiliza IA para identificar los mejores puntos para que un brazo robótico recoja un paquete. Una vez que tiene el punto de selección establecido por la IA, el brazo, que está controlado por una programación más convencional, hace el agarre.

El nuevo sistema ha reducido drásticamente la cantidad de veces que se eliminan los paquetes, dice. Pero él agrega con una sonrisa: “Si pones esto frente a una pila de ropa, no va a saber qué hacer con eso”.

De vuelta en Stanford, Chelsea Finn dice que está de acuerdo en que las expectativas deben mantenerse bajo control.

“Creo que todavía hay un largo camino para que la tecnología vaya”, dice ella. Tampoco espera que los robots universales reemplacen por completo el trabajo humano, especialmente por tareas complejas.

Pero en un mundo con poblaciones de envejecimiento y escasez de mano de obra proyectada, cree que los robots propulsados ​​por IA podrían cerrar parte de la brecha.

“Estoy imaginando que esto realmente será algo que aumente a las personas y ayude a las personas”, dice ella.

Copyright 2025 NPR

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Por qué un periodista podría obtener las indicaciones de ChatGPT de un ministro, y lo que significa para la transparencia

Published

on

Cuando el nuevo científico reveló que había obtenido las indicaciones de ChatGPT de un ministro del Gobierno del Reino Unido a través de una solicitud de Libertad de Información (FOI), muchos en periodismo y política hicieron una doble toma. El ministro de Ciencia y Tecnología, Peter Kyle, aparentemente le había pedido al AI Chatbot que redactara un discurso, explique una política compleja y, más memorablemente, le diga en qué podcasts aparecer.

Lo que una vez parecía reflexiones privadas o uso experimental de IA ahora está firmemente en el dominio público, porque se realizó en un dispositivo gubernamental.

Es un ejemplo sorprendente de cómo se estiran las leyes de FOI en la era de la inteligencia artificial. Pero también plantea una pregunta más grande y más incómoda: ¿qué más en nuestras vidas digitales cuenta como un registro público? Si se pueden publicar indicaciones de IA, ¿deberían las búsquedas de Google las siguientes?

La Ley de Libertad de Información de Gran Bretaña se aprobó en 2000 y entró en vigor en 2005. Desde entonces, han surgido dos usos distintos de FOI. El primero, y posiblemente el más exitoso, se aplica a los registros personales. Esto le ha dado a las personas el derecho de acceder a la información que se mantiene sobre ellos, desde archivos de vivienda hasta registros de bienestar social. Es una historia de éxito tranquila que ha empoderado a los ciudadanos en sus tratos con el estado.

El segundo es lo que los periodistas usan para interrogar el funcionamiento del gobierno. Aquí, los resultados han sido irregulares en el mejor de los casos. Si bien FOI ha producido cucharadas y escándalos, también ha sido socavado por exenciones radicales, retrasos crónicos y una cultura de Whitehall que considera que la transparencia es opcional en lugar de esencial.

Tony Blair, quien presentó el acto como primer ministro, lo describió como el mayor error de su tiempo en el gobierno. Más tarde argumentó que FOI convirtió la política en “una conversación realizada con los medios de comunicación”.

Los sucesivos gobiernos se han roto contra FOI. Pocos casos ilustran esto mejor que la batalla sobre los notas de las arañas negras: cartas escritas por el entonces Príncipe (ahora Rey) Carlos a los ministros, presionando sobre temas, desde la agricultura hasta la arquitectura. El gobierno luchó durante una década para mantenerlos en secreto, citando el derecho del príncipe a los consejos confidenciales.



Leer más: contenido aburrido, pero el lanzamiento de Prince Charles Letters es un momento histórico


Cuando finalmente fueron liberados en 2015 después de un fallo de la Corte Suprema, el resultado fue ligeramente vergonzoso pero políticamente explosivo. Probó que lo que los ministros consideran la correspondencia “privada” pueden estar sujetas a escrutinio público.

El caso ChatGPT se siente como una versión moderna de ese debate. Si un político redacta ideas a través de AI, ¿es un pensamiento privado o un registro público? Si esos indican que la política de forma, seguramente el público tiene derecho a saber.

¿Las búsquedas de Google son las siguientes?

La ley de FOI es clara en el documento: cualquier información en poder de un organismo público está sujeta a liberación a menos que esté exenta. A lo largo de los años, los tribunales han dictaminado que la plataforma es irrelevante. Correo electrónico, whatsapp o notas escritas a mano: si el contenido se relaciona con los negocios oficiales y está en manos de un organismo público, es potencialmente divulgable.

El precedente se estableció en Dublín en 2017 cuando la Oficina del Primer Ministro irlandés publicó mensajes de WhatsApp al emisor de servicio público RTÉ. La Oficina del Comisionado de Información del Reino Unido también ha publicado una guía detallada que confirma que la información oficial mantenida en canales no corporativos, como correo electrónico privado, WhatsApp o Signal, está sujeta a solicitudes de FOI si se relaciona con los negocios de la autoridad pública.

La consulta en curso Covid-19 ha demostrado cómo los grupos de WhatsApp, una vez considerados backannels informales, se convirtieron en ámbitos de toma de decisiones clave en el gobierno, con mensajes de Boris Johnson, Matt Hancock y asesores principales como Dominic Cummings ahora revelados como registros oficiales.

En Australia, los mensajes de WhatsApp entre los ministros fueron examinados durante el escándalo de RobodeBT, una búsqueda ilegal de bienestar que se extendió entre 2016 y 19, mientras que la investigación de Canadá sobre las protestas del “convoy de libertad” en 2022 reveló textos y chats privados entre altos funcionarios como evidencia crucial de cómo se tomaron las decisiones.

El principio es simple: si se está haciendo el trabajo del gobierno, el público tiene derecho a verlo.

Los registros de chat de IA ahora caen en esta misma área gris. Si un funcionario o ministro usa ChatGPT para explorar las opciones de política o redactar un discurso en un dispositivo gubernamental, ese registro puede ser un registro, como lo demostraron las indicaciones de Peter Kyle.

Gobierno de WhatsApp.
Andy Rain/Epa-Efe

Esto abre un precedente fascinante (y ligeramente desconcertante). Si las indicaciones de AI son fáciles, ¿qué pasa con las búsquedas de Google? Si un funcionario civil tipos “cómo privatizar el NHS” en Chrome en una computadora portátil gubernamental, ¿es una consulta privada o un registro oficial?

La respuesta honesta es: no lo sabemos (todavía). FOI no ha alcanzado por completo la era digital. Las búsquedas de Google suelen ser efímeras y no se almacenan de manera rutinaria. Pero si las búsquedas se registran o se capturan en pantalla como parte del trabajo oficial, entonces podrían solicitarse.

Del mismo modo, ¿qué pasa con los borradores escritos en el asistente de escritura de IA gramatal o ideas de lluvia de ideas con Siri? Si esas herramientas se usan en dispositivos oficiales y existen registros, podrían revelarse.

Por supuesto, no hay nada que evite que este o cualquier gobierno futuro cambie la ley o apriete las reglas de FOI para excluir material como este.

Foi, periodismo y democracia

Si bien este tipo de revelaciones son fascinantes, corren el riesgo de distraer de un problema más profundo: FOI está cada vez más politizado. Las negativas ahora a menudo se basan en consideraciones políticas en lugar de la carta de la ley, con solicitudes rutinariamente retrasadas o rechazadas para evitar vergüenza. En muchos casos, el uso de los grupos de WhatsApp por parte de los ministros fue un intento deliberado de evitar el escrutinio en primer lugar.

Existe una cultura creciente de evitación de transparencia entre el gobierno y los servicios públicos, una que se extiende más allá de los ministros. Las empresas privadas que entregan contratos públicos a menudo están protegidos de FOI por completo. Mientras tanto, algunos gobiernos, incluidos Irlanda y Australia, han debilitado la ley misma.

Las herramientas de IA ya no son experimentos, se están convirtiendo en parte de cómo se desarrolla la política y se toman decisiones. Sin una supervisión adecuada, corren el riesgo de convertirse en el próximo punto ciego en la responsabilidad democrática.

Para los periodistas, este es un posible cambio de juego. Los sistemas como ChatGPT pronto pueden integrarse en los flujos de trabajo del gobierno, redactar discursos, resumir informes e incluso una estrategia de lluvia de ideas. Si las decisiones están cada vez más formadas por sugerencias algorítmicas, el público merece saber cómo y por qué.

Pero también revive un viejo dilema. La democracia depende de la transparencia, sin embargo, los funcionarios deben tener espacio para pensar, experimentar y explorar ideas sin temor a que cada consulta o borrador de IA termine en la portada. No todos los solicitantes de búsqueda o chatbot son una posición de política final.

Blair puede haber llamado a Foi un error, pero en verdad, obligó al poder a enfrentar la realidad de la responsabilidad. El verdadero desafío ahora es actualizar FOI para la era digital.

Continue Reading

Noticias

Una nueva investigación revela la brecha de género “asombrosa” en la adopción de chatgpt

Published

on

Un nuevo estudio publicado en el Actas de la Academia Nacional de Ciencias ha descubierto que la adopción de ChatGPT en el lugar de trabajo ha sido generalizada pero desigual. Los trabajadores más jóvenes, menos experimentados y de mayores ingresos tienen más probabilidades de usar la herramienta, mientras que los trabajadores y mujeres de bajos ingresos la han adoptado a tasas significativamente más bajas. Incluso entre los trabajadores en la misma ocupación que manejan tareas laborales similares, los hombres tienen mucho más probabilidades de usar ChatGPT que las mujeres. Los hallazgos destacan cómo las barreras para la adopción pueden estar reforzando las desigualdades existentes en el mercado laboral.

CHATGPT es una de las herramientas de inteligencia artificiales generativas más utilizadas, capaz de producir texto similar al humano en respuesta a las indicaciones del usuario. Desde su lanzamiento, se ha integrado en varios lugares de trabajo para ayudar con tareas como la escritura, la codificación e investigación. Dado su potencial para transformar cómo se realiza el trabajo, los investigadores estaban interesados ​​en comprender quién está utilizando ChatGPT, cómo esperan que impacte sus trabajos y qué factores influyen en la adopción.

Si bien la IA generativa tiene el potencial de ayudar a los trabajadores mediante la automatización de tareas repetitivas y aumentando la eficiencia, algunos estudios sugieren que podría beneficiar a los trabajadores menos experimentados al nivelar las brechas de habilidades. Sin embargo, los patrones de adopción no siempre son uniformes en diferentes datos demográficos. Al examinar cómo los trabajadores en diversas ocupaciones usan ChatGPT, los investigadores pretendían descubrir si ciertos grupos estaban siendo dejados en el proceso de adopción.

“Soy un economista laboral que estudia cómo el cambio tecnológico afecta el empleo y el salario.

Para investigar la adopción de ChatGPT en la fuerza laboral, los investigadores colaboraron con estadísticas de Dinamarca para encuestar a 18,000 trabajadores de 11 ocupaciones entre noviembre de 2023 y enero de 2024. La encuesta se dirigió a trabajos dirigidos a los expertos que consideraron altamente expuestos a ChatGPT, lo que significa que la herramienta podría reducir significativamente el tiempo requerido para completar las tareas de trabajo clave. Estas ocupaciones incluyeron profesionales de marketing, asesores financieros, desarrolladores de software, periodistas y profesionales legales.

Las respuestas de la encuesta se vincularon a los registros del mercado laboral nacionales, que proporcionaban información detallada sobre las ganancias, la educación, el historial laboral y los antecedentes demográficos de cada trabajador. Los investigadores analizaron qué trabajadores usaban ChatGPT, sus expectativas sobre cómo afectaría su trabajo y las barreras que impiden que algunos empleados adopten la herramienta.

Humlum y sus colegas descubrieron que ChatGPT ha sido ampliamente adoptado en ocupaciones expuestas, con el 41% de los trabajadores que lo usan para tareas relacionadas con el trabajo. Sin embargo, las tasas de adopción variaron significativamente por la profesión. Los profesionales y periodistas de marketing, que a menudo participan en tareas intensivas en escritura, tenían más probabilidades de usar ChatGPT, con un 65% informando que habían usado la herramienta. Por el contrario, los asesores financieros, cuyo trabajo implica manejar información confidencial, tuvieron la tasa de adopción más baja en solo el 12%.

Al examinar las diferencias demográficas, los investigadores descubrieron una brecha de género. Las mujeres tenían 16 puntos porcentuales menos propensos que los hombres de usar ChatGPT, incluso cuando se comparan a los trabajadores en la misma ocupación con responsabilidades laborales similares. Esta disparidad de género persistió en todos los indicadores medidos de adopción, lo que sugiere que las mujeres enfrentan barreras adicionales para usar la tecnología.

“La asombrosa brecha de género en la adopción de ChatGPT, incluso entre los trabajadores en las mismas ocupaciones que manejan tareas laborales similares, fue una gran sorpresa para nosotros”, dijo Humlum a PSYPOST.

La edad y la experiencia también jugaron un papel en la adopción. Los trabajadores más jóvenes y menos experimentados tenían más probabilidades de usar ChatGPT, con cada año adicional asociado con una disminución de 0.7 puntos porcentuales en la probabilidad de usar la herramienta.

Curiosamente, a pesar de tener menos tenencia en sus campos, los trabajadores que usaron ChatGPT tendían a ganar un poco más antes de que la herramienta estuviera disponible. Esto sugiere que las personas de mayor rendimiento dentro de sus grupos de pares profesionales tenían más probabilidades de experimentar y adoptar la tecnología.

“Nuestro hallazgo clave es que han surgido desigualdades sustanciales en la adopción de ChatGPT”, dijo Humlum. “Los hombres más jóvenes y con mayor ingreso tienen significativamente más probabilidades de usar estas herramientas en comparación con otros trabajadores dentro de la misma ocupación”.

Los trabajadores en las ocupaciones expuestas a ChatGPT vieron un potencial de productividad significativo en la herramienta, estimando que podría reducir los tiempos de trabajo en aproximadamente un tercio de sus tareas laborales. Sin embargo, los empleados con mayor experiencia en sus campos tendieron a informar ganancias de productividad más pequeñas, lo que indica que ChatGPT es más beneficioso para aquellos que tienen un conocimiento menos especializado.

A pesar de reconocer la eficiencia de la herramienta, muchos trabajadores dudaron en cambiar la forma en que asignaron su tiempo. Alrededor del 40% de los encuestados declaró que incluso si ChatGPT les ahorraba tiempo en ciertas tareas, no aumentarían la cantidad de trabajo que hicieron en esas áreas.

Uno de los hallazgos más sorprendentes del estudio fue que las expectativas de los trabajadores sobre el ahorro de tiempo no predecían fuertemente si realmente usaban ChatGPT. Por ejemplo, entre aquellos que creían que la herramienta podría reducir el tiempo de finalización de la tarea a la mitad, solo el 23% planeó usarla en las próximas dos semanas.

En cambio, la adopción a menudo se vio obstaculizada por barreras estructurales, como las restricciones del empleador en el uso de la IA o la necesidad percibida de capacitación. Cuando los investigadores informaron al azar a los trabajadores sobre el potencial de ahorro de tiempo de ChatGPT, no cambió significativamente su probabilidad de usar la herramienta, lo que refuerza la idea de que los factores externos están limitando la adopción.

La encuesta se centró en los trabajadores daneses, por lo que los hallazgos pueden no reflejar completamente los patrones de adopción en otros países. Además, si bien el estudio identifica las tendencias en la adopción, no explora si el uso de ChatGPT conduce a mejoras medibles en el desempeño laboral o los resultados profesionales.

“Los patrones que documentamos reflejan efectos a corto plazo, capturando la adopción desigual de ChatGPT en su primer año”, señaló Humlum. “Estas desigualdades podrían reducirse o ampliarse con el tiempo a medida que más trabajadores adoptan las herramientas y las empresas comienzan a reorganizar los flujos de trabajo en torno a esta nueva tecnología.

La investigación futura podría investigar si los primeros usuarios obtienen ventajas a largo plazo en ganancias o promociones y si los programas de capacitación específicos pueden ayudar a cerrar las brechas existentes en la adopción. “Nuestro objetivo a largo plazo es comprender cómo la IA generativa está remodelando los mercados laborales”, dijo Humlum.

El estudio, “La adopción desigual de ChatGPT exacerba las desigualdades existentes entre los trabajadores”, fue escrita por Anders Humlum y Emilie Vestergaard.

Continue Reading

Noticias

¿Qué es Sora? Todo lo que sabemos sobre el generador de videos AI de Openai

Published

on

Sora es el último modelo de IA de OpenAI diseñado para generar videos de alta fidelidad a partir de descripciones de texto, lo que lleva la creación de contenido con IA a nuevas alturas.

A diferencia de las herramientas tradicionales de generación de videos, Sora puede producir escenas complejas y dinámicas con movimiento realista, entornos detallados y personajes consistentes.

Continue Reading

Trending