Connect with us

Noticias

¿Qué quieren los líderes tecnológicos del agente de inteligencia artificial de $ 20KA de Operai?

Published

on

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Por qué un periodista podría obtener las indicaciones de ChatGPT de un ministro, y lo que significa para la transparencia

Published

on

Cuando el nuevo científico reveló que había obtenido las indicaciones de ChatGPT de un ministro del Gobierno del Reino Unido a través de una solicitud de Libertad de Información (FOI), muchos en periodismo y política hicieron una doble toma. El ministro de Ciencia y Tecnología, Peter Kyle, aparentemente le había pedido al AI Chatbot que redactara un discurso, explique una política compleja y, más memorablemente, le diga en qué podcasts aparecer.

Lo que una vez parecía reflexiones privadas o uso experimental de IA ahora está firmemente en el dominio público, porque se realizó en un dispositivo gubernamental.

Es un ejemplo sorprendente de cómo se estiran las leyes de FOI en la era de la inteligencia artificial. Pero también plantea una pregunta más grande y más incómoda: ¿qué más en nuestras vidas digitales cuenta como un registro público? Si se pueden publicar indicaciones de IA, ¿deberían las búsquedas de Google las siguientes?

La Ley de Libertad de Información de Gran Bretaña se aprobó en 2000 y entró en vigor en 2005. Desde entonces, han surgido dos usos distintos de FOI. El primero, y posiblemente el más exitoso, se aplica a los registros personales. Esto le ha dado a las personas el derecho de acceder a la información que se mantiene sobre ellos, desde archivos de vivienda hasta registros de bienestar social. Es una historia de éxito tranquila que ha empoderado a los ciudadanos en sus tratos con el estado.

El segundo es lo que los periodistas usan para interrogar el funcionamiento del gobierno. Aquí, los resultados han sido irregulares en el mejor de los casos. Si bien FOI ha producido cucharadas y escándalos, también ha sido socavado por exenciones radicales, retrasos crónicos y una cultura de Whitehall que considera que la transparencia es opcional en lugar de esencial.

Tony Blair, quien presentó el acto como primer ministro, lo describió como el mayor error de su tiempo en el gobierno. Más tarde argumentó que FOI convirtió la política en “una conversación realizada con los medios de comunicación”.

Los sucesivos gobiernos se han roto contra FOI. Pocos casos ilustran esto mejor que la batalla sobre los notas de las arañas negras: cartas escritas por el entonces Príncipe (ahora Rey) Carlos a los ministros, presionando sobre temas, desde la agricultura hasta la arquitectura. El gobierno luchó durante una década para mantenerlos en secreto, citando el derecho del príncipe a los consejos confidenciales.



Leer más: contenido aburrido, pero el lanzamiento de Prince Charles Letters es un momento histórico


Cuando finalmente fueron liberados en 2015 después de un fallo de la Corte Suprema, el resultado fue ligeramente vergonzoso pero políticamente explosivo. Probó que lo que los ministros consideran la correspondencia “privada” pueden estar sujetas a escrutinio público.

El caso ChatGPT se siente como una versión moderna de ese debate. Si un político redacta ideas a través de AI, ¿es un pensamiento privado o un registro público? Si esos indican que la política de forma, seguramente el público tiene derecho a saber.

¿Las búsquedas de Google son las siguientes?

La ley de FOI es clara en el documento: cualquier información en poder de un organismo público está sujeta a liberación a menos que esté exenta. A lo largo de los años, los tribunales han dictaminado que la plataforma es irrelevante. Correo electrónico, whatsapp o notas escritas a mano: si el contenido se relaciona con los negocios oficiales y está en manos de un organismo público, es potencialmente divulgable.

El precedente se estableció en Dublín en 2017 cuando la Oficina del Primer Ministro irlandés publicó mensajes de WhatsApp al emisor de servicio público RTÉ. La Oficina del Comisionado de Información del Reino Unido también ha publicado una guía detallada que confirma que la información oficial mantenida en canales no corporativos, como correo electrónico privado, WhatsApp o Signal, está sujeta a solicitudes de FOI si se relaciona con los negocios de la autoridad pública.

La consulta en curso Covid-19 ha demostrado cómo los grupos de WhatsApp, una vez considerados backannels informales, se convirtieron en ámbitos de toma de decisiones clave en el gobierno, con mensajes de Boris Johnson, Matt Hancock y asesores principales como Dominic Cummings ahora revelados como registros oficiales.

En Australia, los mensajes de WhatsApp entre los ministros fueron examinados durante el escándalo de RobodeBT, una búsqueda ilegal de bienestar que se extendió entre 2016 y 19, mientras que la investigación de Canadá sobre las protestas del “convoy de libertad” en 2022 reveló textos y chats privados entre altos funcionarios como evidencia crucial de cómo se tomaron las decisiones.

El principio es simple: si se está haciendo el trabajo del gobierno, el público tiene derecho a verlo.

Los registros de chat de IA ahora caen en esta misma área gris. Si un funcionario o ministro usa ChatGPT para explorar las opciones de política o redactar un discurso en un dispositivo gubernamental, ese registro puede ser un registro, como lo demostraron las indicaciones de Peter Kyle.

Gobierno de WhatsApp.
Andy Rain/Epa-Efe

Esto abre un precedente fascinante (y ligeramente desconcertante). Si las indicaciones de AI son fáciles, ¿qué pasa con las búsquedas de Google? Si un funcionario civil tipos “cómo privatizar el NHS” en Chrome en una computadora portátil gubernamental, ¿es una consulta privada o un registro oficial?

La respuesta honesta es: no lo sabemos (todavía). FOI no ha alcanzado por completo la era digital. Las búsquedas de Google suelen ser efímeras y no se almacenan de manera rutinaria. Pero si las búsquedas se registran o se capturan en pantalla como parte del trabajo oficial, entonces podrían solicitarse.

Del mismo modo, ¿qué pasa con los borradores escritos en el asistente de escritura de IA gramatal o ideas de lluvia de ideas con Siri? Si esas herramientas se usan en dispositivos oficiales y existen registros, podrían revelarse.

Por supuesto, no hay nada que evite que este o cualquier gobierno futuro cambie la ley o apriete las reglas de FOI para excluir material como este.

Foi, periodismo y democracia

Si bien este tipo de revelaciones son fascinantes, corren el riesgo de distraer de un problema más profundo: FOI está cada vez más politizado. Las negativas ahora a menudo se basan en consideraciones políticas en lugar de la carta de la ley, con solicitudes rutinariamente retrasadas o rechazadas para evitar vergüenza. En muchos casos, el uso de los grupos de WhatsApp por parte de los ministros fue un intento deliberado de evitar el escrutinio en primer lugar.

Existe una cultura creciente de evitación de transparencia entre el gobierno y los servicios públicos, una que se extiende más allá de los ministros. Las empresas privadas que entregan contratos públicos a menudo están protegidos de FOI por completo. Mientras tanto, algunos gobiernos, incluidos Irlanda y Australia, han debilitado la ley misma.

Las herramientas de IA ya no son experimentos, se están convirtiendo en parte de cómo se desarrolla la política y se toman decisiones. Sin una supervisión adecuada, corren el riesgo de convertirse en el próximo punto ciego en la responsabilidad democrática.

Para los periodistas, este es un posible cambio de juego. Los sistemas como ChatGPT pronto pueden integrarse en los flujos de trabajo del gobierno, redactar discursos, resumir informes e incluso una estrategia de lluvia de ideas. Si las decisiones están cada vez más formadas por sugerencias algorítmicas, el público merece saber cómo y por qué.

Pero también revive un viejo dilema. La democracia depende de la transparencia, sin embargo, los funcionarios deben tener espacio para pensar, experimentar y explorar ideas sin temor a que cada consulta o borrador de IA termine en la portada. No todos los solicitantes de búsqueda o chatbot son una posición de política final.

Blair puede haber llamado a Foi un error, pero en verdad, obligó al poder a enfrentar la realidad de la responsabilidad. El verdadero desafío ahora es actualizar FOI para la era digital.

Continue Reading

Noticias

Una nueva investigación revela la brecha de género “asombrosa” en la adopción de chatgpt

Published

on

Un nuevo estudio publicado en el Actas de la Academia Nacional de Ciencias ha descubierto que la adopción de ChatGPT en el lugar de trabajo ha sido generalizada pero desigual. Los trabajadores más jóvenes, menos experimentados y de mayores ingresos tienen más probabilidades de usar la herramienta, mientras que los trabajadores y mujeres de bajos ingresos la han adoptado a tasas significativamente más bajas. Incluso entre los trabajadores en la misma ocupación que manejan tareas laborales similares, los hombres tienen mucho más probabilidades de usar ChatGPT que las mujeres. Los hallazgos destacan cómo las barreras para la adopción pueden estar reforzando las desigualdades existentes en el mercado laboral.

CHATGPT es una de las herramientas de inteligencia artificiales generativas más utilizadas, capaz de producir texto similar al humano en respuesta a las indicaciones del usuario. Desde su lanzamiento, se ha integrado en varios lugares de trabajo para ayudar con tareas como la escritura, la codificación e investigación. Dado su potencial para transformar cómo se realiza el trabajo, los investigadores estaban interesados ​​en comprender quién está utilizando ChatGPT, cómo esperan que impacte sus trabajos y qué factores influyen en la adopción.

Si bien la IA generativa tiene el potencial de ayudar a los trabajadores mediante la automatización de tareas repetitivas y aumentando la eficiencia, algunos estudios sugieren que podría beneficiar a los trabajadores menos experimentados al nivelar las brechas de habilidades. Sin embargo, los patrones de adopción no siempre son uniformes en diferentes datos demográficos. Al examinar cómo los trabajadores en diversas ocupaciones usan ChatGPT, los investigadores pretendían descubrir si ciertos grupos estaban siendo dejados en el proceso de adopción.

“Soy un economista laboral que estudia cómo el cambio tecnológico afecta el empleo y el salario.

Para investigar la adopción de ChatGPT en la fuerza laboral, los investigadores colaboraron con estadísticas de Dinamarca para encuestar a 18,000 trabajadores de 11 ocupaciones entre noviembre de 2023 y enero de 2024. La encuesta se dirigió a trabajos dirigidos a los expertos que consideraron altamente expuestos a ChatGPT, lo que significa que la herramienta podría reducir significativamente el tiempo requerido para completar las tareas de trabajo clave. Estas ocupaciones incluyeron profesionales de marketing, asesores financieros, desarrolladores de software, periodistas y profesionales legales.

Las respuestas de la encuesta se vincularon a los registros del mercado laboral nacionales, que proporcionaban información detallada sobre las ganancias, la educación, el historial laboral y los antecedentes demográficos de cada trabajador. Los investigadores analizaron qué trabajadores usaban ChatGPT, sus expectativas sobre cómo afectaría su trabajo y las barreras que impiden que algunos empleados adopten la herramienta.

Humlum y sus colegas descubrieron que ChatGPT ha sido ampliamente adoptado en ocupaciones expuestas, con el 41% de los trabajadores que lo usan para tareas relacionadas con el trabajo. Sin embargo, las tasas de adopción variaron significativamente por la profesión. Los profesionales y periodistas de marketing, que a menudo participan en tareas intensivas en escritura, tenían más probabilidades de usar ChatGPT, con un 65% informando que habían usado la herramienta. Por el contrario, los asesores financieros, cuyo trabajo implica manejar información confidencial, tuvieron la tasa de adopción más baja en solo el 12%.

Al examinar las diferencias demográficas, los investigadores descubrieron una brecha de género. Las mujeres tenían 16 puntos porcentuales menos propensos que los hombres de usar ChatGPT, incluso cuando se comparan a los trabajadores en la misma ocupación con responsabilidades laborales similares. Esta disparidad de género persistió en todos los indicadores medidos de adopción, lo que sugiere que las mujeres enfrentan barreras adicionales para usar la tecnología.

“La asombrosa brecha de género en la adopción de ChatGPT, incluso entre los trabajadores en las mismas ocupaciones que manejan tareas laborales similares, fue una gran sorpresa para nosotros”, dijo Humlum a PSYPOST.

La edad y la experiencia también jugaron un papel en la adopción. Los trabajadores más jóvenes y menos experimentados tenían más probabilidades de usar ChatGPT, con cada año adicional asociado con una disminución de 0.7 puntos porcentuales en la probabilidad de usar la herramienta.

Curiosamente, a pesar de tener menos tenencia en sus campos, los trabajadores que usaron ChatGPT tendían a ganar un poco más antes de que la herramienta estuviera disponible. Esto sugiere que las personas de mayor rendimiento dentro de sus grupos de pares profesionales tenían más probabilidades de experimentar y adoptar la tecnología.

“Nuestro hallazgo clave es que han surgido desigualdades sustanciales en la adopción de ChatGPT”, dijo Humlum. “Los hombres más jóvenes y con mayor ingreso tienen significativamente más probabilidades de usar estas herramientas en comparación con otros trabajadores dentro de la misma ocupación”.

Los trabajadores en las ocupaciones expuestas a ChatGPT vieron un potencial de productividad significativo en la herramienta, estimando que podría reducir los tiempos de trabajo en aproximadamente un tercio de sus tareas laborales. Sin embargo, los empleados con mayor experiencia en sus campos tendieron a informar ganancias de productividad más pequeñas, lo que indica que ChatGPT es más beneficioso para aquellos que tienen un conocimiento menos especializado.

A pesar de reconocer la eficiencia de la herramienta, muchos trabajadores dudaron en cambiar la forma en que asignaron su tiempo. Alrededor del 40% de los encuestados declaró que incluso si ChatGPT les ahorraba tiempo en ciertas tareas, no aumentarían la cantidad de trabajo que hicieron en esas áreas.

Uno de los hallazgos más sorprendentes del estudio fue que las expectativas de los trabajadores sobre el ahorro de tiempo no predecían fuertemente si realmente usaban ChatGPT. Por ejemplo, entre aquellos que creían que la herramienta podría reducir el tiempo de finalización de la tarea a la mitad, solo el 23% planeó usarla en las próximas dos semanas.

En cambio, la adopción a menudo se vio obstaculizada por barreras estructurales, como las restricciones del empleador en el uso de la IA o la necesidad percibida de capacitación. Cuando los investigadores informaron al azar a los trabajadores sobre el potencial de ahorro de tiempo de ChatGPT, no cambió significativamente su probabilidad de usar la herramienta, lo que refuerza la idea de que los factores externos están limitando la adopción.

La encuesta se centró en los trabajadores daneses, por lo que los hallazgos pueden no reflejar completamente los patrones de adopción en otros países. Además, si bien el estudio identifica las tendencias en la adopción, no explora si el uso de ChatGPT conduce a mejoras medibles en el desempeño laboral o los resultados profesionales.

“Los patrones que documentamos reflejan efectos a corto plazo, capturando la adopción desigual de ChatGPT en su primer año”, señaló Humlum. “Estas desigualdades podrían reducirse o ampliarse con el tiempo a medida que más trabajadores adoptan las herramientas y las empresas comienzan a reorganizar los flujos de trabajo en torno a esta nueva tecnología.

La investigación futura podría investigar si los primeros usuarios obtienen ventajas a largo plazo en ganancias o promociones y si los programas de capacitación específicos pueden ayudar a cerrar las brechas existentes en la adopción. “Nuestro objetivo a largo plazo es comprender cómo la IA generativa está remodelando los mercados laborales”, dijo Humlum.

El estudio, “La adopción desigual de ChatGPT exacerba las desigualdades existentes entre los trabajadores”, fue escrita por Anders Humlum y Emilie Vestergaard.

Continue Reading

Noticias

¿Qué es Sora? Todo lo que sabemos sobre el generador de videos AI de Openai

Published

on

Sora es el último modelo de IA de OpenAI diseñado para generar videos de alta fidelidad a partir de descripciones de texto, lo que lleva la creación de contenido con IA a nuevas alturas.

A diferencia de las herramientas tradicionales de generación de videos, Sora puede producir escenas complejas y dinámicas con movimiento realista, entornos detallados y personajes consistentes.

Continue Reading

Trending