Noticias
New York Times borra el primer obstáculo legal en la demanda de IA
Published
2 meses agoon

La última ronda en una creciente batalla legal entre las principales compañías de medios y los gigantes tecnológicos sobre el uso de contenido protegido por derechos de autor para entrenar modelos de inteligencia artificial produjo una victoria parcial para los editores. En una opinión recientemente emitida, el juez Sidney H. Stein, del Tribunal de Distrito de los Estados Unidos, para el Distrito Sur de Nueva York, permitió reclamos clave en la demanda centrada en la IA presentada por el New York Times, Daily News LP y el Centro de Informes de Investigación (colectivamente, los “demandantes”) avanzar en sus demandas contra Microsoft y Openai.
La opinión niega las mociones para desestimar los reclamos de los demandantes de infracción directa y contributiva de derechos de autor, así como la dilución de marcas registradas federales y estatales. Mientras que el tribunal recortó otras afirmaciones, incluida la apropiación indebida de “noticias calientes” y partes de la Ley de Derechos de Autor del Milenio Digital de los Demandantes (“DMCA”), la decisión asegura que el corazón de la demanda: el uso no autorizado del contenido periodístico para capacitar y impulsar modelos AI – permanezca sobre la tabla.
El fondo en breve: El New York Times presentó una demanda en diciembre de 2023, alegando que Operai y su socio y inversor clave Microsoft infringieron sus derechos de autor utilizando millones de sus artículos para capacitar a los sistemas de IA basados en GPT sin permiso o compensación. Según la queja, los modelos de OpenAI, incluidos GPT-3, GPT-3.5 y GPT-4, regurgitan el contenido de los tiempos en respuesta a las indicaciones del usuario y eliminan la información de gestión de derechos de autor en el proceso. El Times se unió más tarde una variedad de editores regionales (Daily News, Chicago Tribune, San José Mercury News, entre otros) y el Centro sin fines de lucro para los informes de investigación, que también presentó una demanda contra Openi y Microsoft.
Los demandantes alegan que Openai y Microsoft no solo usaron sus trabajos durante la etapa de entrenamiento de IA, sino que también permitieron a los usuarios finales generar resultados infractores, que van desde reproducciones casi verbatianas hasta extractos alucinados atribuidos a la salida equivocada. En resumen: Operai y Microsoft crearon herramientas potentes de generación de ganancias utilizando un periodismo costoso creado por otros, sin pagar un centavo por ello. En este contexto, los demandantes buscan un alivio cautelar y daños monetarios en relación con sus reclamos de infracción directa y contribuyente de derechos de autor, violaciones de DMCA, dilución de marcas registradas y competencia injusta.
Una victoria parcial para los editores
En su opinión del 4 de abril, el juez Stein permitió que se realizaran varias de las reclamaciones más consecuentes libradas por los demandantes. En particular, rechazó el intento de Openai de esquivar las reclamaciones de infracción vinculadas a la conducta que ocurrieron más de tres años antes de que se presentaran las demandas, incluida la capacitación de GPT-2 y GPT-3. Operai había argumentado que esas afirmaciones estaban en tiempo bajo el estatuto de limitaciones de tres años de la Ley de Derechos de Autor de los derechos de autor. Pero el tribunal se puso del lado de los demandantes, descubriendo que no estaban en “aviso de investigación” de la supuesta infracción hasta que los productos de OpenAi obtuvieron atención generalizada.
“La regla de descubrimiento no impone a los titulares de derechos de autor el deber general de vigilar Internet”, enfatizó el tribunal, lo que respalda la idea de que los editores deberían haber sabido sobre las prácticas de capacitación de IA ya en 2019.
El Tribunal también se negó a desestimar los reclamos de infracción contributivos de Times y CO. Según el juez Stein, los demandantes habían alegado plausiblemente que Openai y Microsoft “sabían o tenían razones para saber” que sus modelos podrían usarse para reproducir contenido con derechos de autor sin autorización. El tribunal señaló ejemplos en las quejas que muestran que los sistemas con motor GPT devolvieron resultados casi idénticos a artículos con derechos de autor, a menudo con atribuciones engañosas. Y a pesar de los argumentos de que los modelos GPT son capaces de “usos sustanciales no infractores”, el tribunal determinó que tales defensas (inspiradas en la doctrina de Sony) eran prematuras en la etapa de movimiento a Dississ.
Resultados mixtos en DMCA, apropiación indebida
El tribunal era más escéptico sobre los reclamos de DMCA de los demandantes, particularmente los que presentan el New York Times. Si bien el juez descubrió que CIR y los demandantes del Daily News habían alegado plausiblemente que OpenAi eliminó la información de gestión de derechos de autor con conocimiento de que hacerlo facilitaría la infracción, desestimó el reclamo correspondiente en el caso del Times ‘. Microsoft, por su parte, escapó por completo de los reclamos de DMCA, por ahora.
La pérdida más decisiva se produjo en el frente de la competencia injusta. El tribunal desestimó los reclamos de apropiación indebidamente de apropiación de “noticias” de los demandantes con prejuicio, encontrando que la supuesta copy no cumplió con los requisitos limitados para dicho reclamo bajo la ley consuetudinario de Nueva York. También se lanzó: la teoría de “abreviatura” de CIR, un argumento de que los resúmenes y los resultados truncados de OpenAi constituían versiones ilegales de sus artículos. El tribunal sostuvo que estos resultados no fueron lo suficientemente similares a los trabajos originales para mantener un reclamo de derechos de autor solo sobre esa base.
Media v. AI: algunas conclusiones
El fallo es una validación temprana pero significativa de la teoría central de los medios: que capacitar y desplegar modelos de IA en periodismo con derechos de autor, sin consentimiento, podría constituir una violación de las largas leyes de derechos de autor y marcas registradas. También reafirma la aplicabilidad de las teorías de infracción contribuyentes a las herramientas generativas de IA, especialmente cuando las herramientas están capacitadas en contenido protegido y luego se usan para producir salidas infractoras. El tribunal estaba claro: la mera capacidad para uso legítimo no inmuniza a las empresas tecnológicas cuando sus herramientas se usan regularmente para reproducir obras con derechos de autor.
Al mismo tiempo, la negativa del tribunal a resucitar la apropiación indebida de “noticias calientes” subraya la dificultad de utilizar doctrinas obsoletas para la policía nuevas tecnologías. Y su enfoque selectivo de las afirmaciones de DMCA sugiere que probar la intención y el conocimiento en el contexto de la IA serán un alto obstáculo.
Lo más significativo es que el fallo del tribunal deja la puerta abierta para el descubrimiento, y potencialmente un juicio, sobre las grandes preguntas: ya sea la capacitación y el despliegue de herramientas de IA generativos de OpenAI y Microsoft violan las leyes de derechos de autor, y si deben una compensación a los medios de comunicación cuyos informes ayudaron a construir estos productos.
Vale la pena señalar que el Tribunal no alcanzó el tema del uso justo, una defensa clave en la que se espera que Operai y Microsoft confíen en el caso (y ha argumentado en otras demandas similares).
Los casos son New York Times Company v. Microsoft Corporation, et al., 1: 23-CV-11195 (SDNY); Daily News LP, et al. v. Microsoft Corporation, et al., 24-CV-3285; y Centro de Investigación Informes, Inc. v. Microsoft Corporation, et al., No. 24-CV-4872.
You may like
Noticias
Una nueva IA prepara proteínas de diseñador con solo un mensaje de texto
Published
4 horas agoon
27 mayo, 2025
“Escríbeme un resumen conciso de Misión imposible Personajes y tramas hasta la fecha ”, recientemente le pregunté a ChatGPT antes de atrapar la última entrada de franquicia. Se entregó. No necesitaba entender su código o conocer su conjunto de datos de capacitación. Todo lo que tenía que hacer era preguntar.
ChatGPT y otros chatbots impulsados por modelos de idiomas grandes, o LLM, son más populares que nunca. Los científicos están tomando nota. Las proteínas, los caballos de batalla moleculares de las células, mantienen nuestros cuerpos corriendo suavemente. También tienen un idioma propio. Los científicos asignan una letra abreviada a cada uno de los 20 aminoácidos que componen proteínas. Al igual que las palabras, las cadenas de estas letras se unen para formar proteínas de trabajo, su secuencia determina la forma y la función.
Inspirados en LLM, los científicos ahora están construyendo modelos de lenguaje de proteínas que diseñan proteínas desde cero. Algunos de estos algoritmos están disponibles públicamente, pero requieren habilidades técnicas. ¿Qué pasaría si su investigador promedio podría simplemente pedirle a una IA que diseñe una proteína con un solo mensaje?
El mes pasado, los investigadores dieron a Protein Design AI el tratamiento con chatgpt. De una descripción del tipo, estructura o funcionalidad de una proteína que está buscando, el algoritmo produce posibles candidatos. En un ejemplo, la IA, denominada pinal, hizo con éxito múltiples proteínas que podrían descomponer el alcohol cuando se analizó dentro de las células vivas. Puedes probarlo aquí.
Pinal es el último en un creciente conjunto de algoritmos que traducen el inglés cotidiano en nuevas proteínas. Estos diseñadores de proteínas entienden el lenguaje sencillo y la biología estructural, y actúan como guías para los científicos que exploran proteínas personalizadas, con poca experiencia técnica.
Es un “enfoque ambicioso y general”, el equipo internacional detrás de Pinal escribió en una preimpresión publicada en Biorxiv. La IA aprovecha el “poder descriptivo y la flexibilidad del lenguaje natural” para hacer que las proteínas de diseñador sean más accesibles para los biólogos.
Enfrentados contra los algoritmos de diseño de proteínas existentes, Pinal entendió mejor el objetivo principal de una proteína objetivo y aumentó las posibilidades de que funcionaría en las células vivas.
“Somos los primeros en diseñar una enzima funcional usando solo texto”, dijo Fajie Yuan, científica de IA de la Universidad de Westlake en China que dirigió el equipo. Naturaleza. “Es como la ciencia ficción”.
Más allá de la evolución
Las proteínas son los componentes básicos de la vida. Forman nuestros cuerpos, el metabolismo del combustible y son el objetivo de muchos medicamentos. Estas intrincadas moléculas comienzan a partir de una secuencia de “letras” de aminoácidos, que se unen entre sí y eventualmente se doblan en intrincadas estructuras 3D. Muchos elementos estructurales, un bucle aquí, un tejido o bolsillo allí, son esenciales para su función.
Los científicos han intentado durante mucho tiempo diseñar proteínas con nuevas habilidades, como enzimas que descomponen de manera eficiente los plásticos. Tradicionalmente, han personalizado las proteínas existentes para un cierto uso biológico, químico o médico. Estas estrategias “están limitadas por su dependencia de las plantillas de proteínas existentes y las limitaciones evolutivas naturales”, escribieron los autores. Los modelos de lenguaje de proteínas, en contraste, pueden soñar con un universo de nuevas proteínas sin ataduras de la evolución.
En lugar de absorber el texto, la imagen o los archivos de video, como LLMS, estos algoritmos aprenden el lenguaje de las proteínas entrenando en secuencias y estructuras de proteínas. ESM3 de EvolutionaryScale, por ejemplo, entrenó en más de 2.700 millones de secuencias de proteínas, estructuras y funciones. Los modelos similares ya se han utilizado para diseñar anticuerpos que luchan contra ataques virales y nuevas herramientas de edición de genes.
Pero estos algoritmos son difíciles de usar sin experiencia. Pinal, por el contrario, apunta al científico promedio-joe. Al igual que una cámara DSLR en Auto, el modelo “evita las especificaciones estructurales manuales”, escribió el equipo, lo que hace que sea más simple hacer su proteína deseable.
Háblame
Para usar Pinal, un usuario le pide a la IA que construya una proteína con una solicitud de varias palabras clave, frases o un párrafo completo. En la parte delantera, la IA analiza los requisitos específicos en el aviso. En el back -end, transforma estas instrucciones en una proteína funcional.
Es un poco como pedirle a ChatGTP que le escriba una reseña de restaurante o un ensayo. Pero, por supuesto, las proteínas son más difíciles de diseñar. Aunque también están formados por “letras”, su forma final determina cómo (o si) funcionan. Un enfoque, denominado entrenamiento de extremo a extremo, traduce directamente un aviso en secuencias de proteínas. Pero esto abre la IA a un vasto mundo de secuencias potenciales, lo que hace que sea más difícil marcar las secuencias precisas de las proteínas de trabajo. En comparación con las secuencias, la estructura de proteínas, la forma 3D final, es más fácil para el algoritmo generar y descifrar.
Luego está el dolor de cabeza de los datos de entrenamiento. Aquí, el equipo recurrió a las bases de datos de proteínas existentes y usó LLM para etiquetarlas. El resultado final fue una vasta biblioteca de 1.700 millones de pares de texto proteico, en el que las estructuras de proteínas coinciden con descripciones de texto de lo que hacen.
El algoritmo completado utiliza 16 mil millones de parámetros, estas son las conexiones internas de una IA, para traducir el inglés simple al idioma de la biología.
Pinal sigue dos pasos. Primero traduce las indicaciones en información estructural. Este paso divide una proteína en elementos estructurales, o “fichas”, que son más fáciles de procesar. En el segundo paso, un modelo en idioma proteico llamado Saprot considera la intención del usuario y la funcionalidad de proteínas para diseñar secuencias de proteínas con mayor probabilidad de doblar en una proteína de trabajo que satisfaga las necesidades del usuario.
En comparación con los algoritmos de diseño de proteínas de última generación que también usan el texto como entrada, incluida ESM3, el pinal superó la precisión y la novedad, es decir, generar proteínas no conocidas por la naturaleza. Usando algunas palabras clave para diseñar una proteína, “la mitad de las proteínas de pinal exhiben funciones predecibles, solo alrededor del 10 por ciento de las proteínas generadas por ESM3 lo hacen”.
En una prueba, el equipo le dio a la IA un breve aviso: “Por favor, diseñe una proteína que sea una alcohol deshidrogenasa”. Estas enzimas descomponen el alcohol. De más de 1.600 proteínas candidatas, el equipo eligió los ocho más prometedores y las probó en células vivas. Dos rompieron con éxito el alcohol a temperatura corporal, mientras que otros fueron más activos a un sudor de 158 grados Fahrenheit.
Las indicaciones más elaboradas que incluían la función de una proteína y los ejemplos de moléculas similares, arrojaron candidatos a antibióticos y proteínas para ayudar a las células a recuperarse de la infección.
Pinal no es el único IA de texto a proteína. El Startup 310 AI ha desarrollado una IA denominada MP4 para generar proteínas a partir del texto, con los resultados que la compañía dice que podría beneficiar la enfermedad cardíaca.
El enfoque no es perfecto. Al igual que los LLM, que a menudo “alucinan”, los modelos de lenguaje de proteínas también sueñan secuencias poco confiables o repetitivas que reducen las posibilidades de un resultado final de trabajo. La redacción precisa de las indicaciones también afecta la estructura de proteína final. Aún así, la IA es como la primera versión de Dall-E: juega con ella y luego valida la proteína resultante usando otros métodos.
Noticias
¿Demasiado chatgpt? Estudia lazos de IA de IA a los grados inferiores y la motivación
Published
9 horas agoon
27 mayo, 2025

Un estudio publicado en la revista Tecnologías de educación e información Encuentra que los estudiantes que son más conscientes tienden a usar herramientas de IA generativas como ChatGPT con menos frecuencia, y que usar tales herramientas para tareas académicas se asocia con una mayor autoeficacia, un peor rendimiento académico y mayores sentimientos de impotencia. Los hallazgos destacan la dinámica psicológica detrás de la adopción de la IA y plantean preguntas sobre cómo puede dar forma al aprendizaje y la motivación de los estudiantes.
La IA generativa se refiere a sistemas informáticos que pueden crear contenido original en respuesta a las indicaciones del usuario. Los modelos de idiomas grandes, como ChatGPT, son un ejemplo común. Estas herramientas pueden producir ensayos, resúmenes, explicaciones e incluso simular la conversación, lo que los hace atractivos para los estudiantes que buscan ayuda rápida con tareas académicas. Pero su ascenso también ha provocado un debate entre los educadores, que están preocupados por el plagio, el aprendizaje reducido y el uso ético de la IA en las aulas.
“Ser testigo de la dependencia excesiva entre algunos de mis estudiantes en herramientas generativas de IA como ChatGPT me hizo preguntarme si estas herramientas tenían implicaciones para los resultados de aprendizaje a largo plazo de los estudiantes y su capacidad cognitiva”, dijo el autor de estudio Sundas Azeem, profesor asistente de gestión y comportamiento organizacional en la Universidad Szabist.
“Era particularmente evidente que para aquellas actividades y tareas en las que los estudiantes se basaban en herramientas generativas de IA, la participación y el debate en el aula fue considerablemente menor ya que las respuestas similares de estas herramientas aumentaron el acuerdo de los estudiantes sobre los temas de discusión. Con un compromiso reducido en la clase, estas observaciones provocaron mi preocupación si realmente se cumplían objetivos de aprendizaje.
“En el momento en que comenzamos este estudio, la mayoría de los estudios sobre el uso de la IA generativo por parte de los estudiantes estaban basados en la opinión o teóricos, explorando la ética del uso generativo de la IA”, continuó Azeem. “Los estudios que exploran el rendimiento académico rara vez consideran las calificaciones académicas (CGPA) para los resultados académicos, y también ignoraron las diferencias individuales como los rasgos de personalidad.
“A pesar del uso generalizado, no todos los estudiantes se basaron en el uso generativo de la IA por igual. Los estudiantes que de otro modo eran más responsables, puntuales y participativos en la clase parecían confiar menos en las herramientas generativas de IA. Esto me llevó a investigar si hubo diferencias de personalidad en el uso de estas herramientas. Esta brecha, acoplada con inquietudes enriquecidas sobre la equidad en el grado de la justicia y la integridad académica inspirada para este estudio”.
Para explorar cómo los estudiantes realmente se involucran con la IA generativa y cómo sus rasgos de personalidad influyen en este comportamiento, los investigadores encuestaron a 326 estudiantes universitarios de tres universidades principales en Pakistán. Los estudiantes se inscribieron en programas relacionados con los negocios y abarcaron de segundo a octavo semestre. Es importante destacar que el estudio utilizó un diseño de encuesta de tres ondas y retrasado en el tiempo para recopilar datos con el tiempo y minimizar los sesgos comunes en las respuestas autoinformadas.
En el primer momento, los estudiantes informaron sus rasgos de personalidad y sus percepciones de equidad en el sistema de calificación de su universidad. Específicamente, los investigadores se centraron en tres rasgos de personalidad del modelo Big Five: conciencia, apertura a la experiencia y neuroticismo. Estos rasgos fueron seleccionados debido a su relevancia para el rendimiento académico y el uso de la tecnología. Por ejemplo, los estudiantes concienzñosos tienden a ser organizados, autodisciplinados y orientados a los logros. La apertura refleja la curiosidad intelectual y la creatividad, mientras que el neuroticismo se asocia con ansiedad e inestabilidad emocional.
En el segundo punto, los participantes informaron con qué frecuencia usaban herramientas de IA generativas, especialmente ChatGPT, para fines académicos. En la tercera y última ola, los estudiantes completaron medidas que evaluaron su autoeficacia académica (cuán capaces se sintieron de tener éxito académicamente), su experiencia de impotencia aprendida (la creencia de que los esfuerzos no conducirán al éxito) e informaron su promedio acumulativo de calificaciones.
Entre los tres rasgos de personalidad estudiados, solo la conciencia estaba significativamente vinculada al uso de la IA. Los estudiantes que obtuvieron puntajes más altos en la conciencia tenían menos probabilidades de usar IA generativa para el trabajo académico. Este hallazgo sugiere que las personas concienzudas pueden preferir confiar en sus propios esfuerzos y están menos inclinados a tomar atajos, alineándose con investigaciones previas que demuestran que este rasgo de personalidad está asociado con la honestidad académica y el aprendizaje autodirigido.
“Nuestro estudio encontró que los estudiantes que son más conscientes tienen menos probabilidades de confiar en la IA generativa para tareas académicas debido a una mayor autodisciplina y tal vez también estándares éticos más altos”, dijo Azeem a PSYPOST. “Pueden preferir explorar múltiples fuentes de información y otras actividades de aprendizaje más cognitivamente atractivas como investigaciones y discusiones”.
Contrariamente a las expectativas, la apertura a la experiencia y el neuroticismo no se relacionó significativamente con el uso de IA. Si bien investigaciones anteriores han vinculado la apertura con una mayor disposición a probar nuevas tecnologías, los investigadores sugieren que los estudiantes con alto contenido de apertura también pueden valorar la originalidad y el pensamiento independiente, lo que potencialmente reduce su dependencia del contenido generado por IA. Del mismo modo, los estudiantes con un alto nivel de neuroticismo pueden sentirse incómodos con la precisión o la ética de las herramientas de IA, lo que lleva a la ambivalencia sobre su uso.
Los investigadores también examinaron cómo las percepciones de la justicia en la clasificación podrían dar forma a estas relaciones. Pero solo una interacción, entre la apertura y la equidad de calificación, fue marginalmente significativa. Para los estudiantes con alto contenido de apertura, percibir el sistema de calificación como justo se asoció con un menor uso de IA. Los investigadores no encontraron interacciones significativas que involucraban la conciencia o neuroticismo.
“Un hallazgo sorprendente fue que la justicia en la calificación solo influyó marginalmente en el uso generativo de la IA, y solo para la apertura del rasgo de personalidad a la experiencia, mostrando que, independientemente de la justicia de calificación, la IA generativa está ganando una popularidad generalizada”, dijo Azeem. “Esto es revelador, dado que habíamos anticipado que los estudiantes confiarían más en las herramientas generativas de IA con el objetivo de obtener calificaciones más altas, cuando la calificación percibió que la calificación era injusta. Además, mientras que las personas con una apertura a la experiencia de la experiencia son generalmente adoptantes de tecnologías que nuestro estudio no informó tales hallazgos”.
En términos más generales, los investigadores encontraron que un mayor uso de la IA generativa en las tareas académicas se asoció con varios resultados negativos. Los estudiantes que se basaron más en IA informaron una mayor autoeficacia académica. En otras palabras, se sintieron menos capaces de tener éxito por su cuenta. También experimentaron mayores sentimientos de impotencia aprendida, un estado en el que las personas creen que el esfuerzo es inútil y los resultados están fuera de su control. Además, un mayor uso de IA se vinculó con un rendimiento académico ligeramente más bajo medido por GPA.
Estos patrones sugieren que, si bien la IA generativa puede ofrecer conveniencia a corto plazo, su uso excesivo podría socavar el sentido de agencia de los estudiantes y reducir su motivación para participar profundamente con sus cursos. Con el tiempo, esta confianza podría erosionar el pensamiento crítico y las habilidades de resolución de problemas que son esenciales para el éxito a largo plazo.
Un análisis posterior reveló que el uso de IA generativo también medió el vínculo entre la conciencia y los resultados académicos. Específicamente, los estudiantes que eran más conscientes tenían menos probabilidades de usar IA, y este menor uso se asoció con un mejor rendimiento académico, una mayor autoeficacia y menos impotencia.
“Una conclusión clave para los estudiantes, los maestros, así como el liderazgo académico es el impacto de la dependencia de los estudiantes en las herramientas generativas de IA en sus resultados psicológicos y de aprendizaje”, dijo Azeem a PSYPOST. “Por ejemplo, nuestros hallazgos de que el uso generativo de la IA se asocia con una autoeficacia académica reducida y una mayor impotencia aprendida lo considera, ya que los estudiantes pueden comenzar a creer que sus propios esfuerzos no importan. Esto puede llevar a una agencia reducida cuando los estudiantes pueden creer que el éxito académico depende de las herramientas externas en lugar de la competencia interna. Como el uso excesivo de la AI generativa es la autoefficacia, los estudiantes pueden creer que su capacidad completa o desafiante los problemas sin problemas de los estudiantes en lugar de la ayuda de los estudiantes. Aprendedores pasivos, dudando en intentar tareas sin apoyo.
“Cuando se sienten menos control o dudan durante mucho tiempo, puede conducir a los hábitos de aprendizaje distorsionados, ya que pueden creer que la IA generativa siempre proporcionará la respuesta. Esto también puede hacer que las tareas académicas sean aburridas en lugar de desafiar, retraso aún más la resiliencia y el crecimiento intelectual. Nuestros hallazgos implican que la IA generativa está aquí aquí, su integración responsable en la academia a través de la formación de políticas, así como los maestros y el crecimiento intelectual es clave, nuestros hallazgos son clave.
“Nuestros hallazgos no respaldaron la idea común de que las herramientas generativas de IA ayudan a funcionar mejor académicamente”, explicó Azeem. “Esto tiene sentido dados nuestros hallazgos de que el uso generativo de la IA aumenta la impotencia aprendida. El rendimiento académico (indicado por CGPA en nuestro estudio) se basa más en las habilidades cognitivas individuales y el conocimiento de la materia, que puede afectar negativamente con una reducción de la autoeficacia académica reducida en exceso”.
El estudio, como todas las investigaciones, incluye algunas limitaciones. La muestra se limitó a estudiantes de negocios de universidades paquistaníes, lo que puede limitar la generalización de los hallazgos a otras culturas o disciplinas académicas. Los investigadores se basaron en medidas autoinformadas, aunque tomaron medidas para reducir el sesgo al separar las encuestas y usar escalas establecidas.
“Los datos autoinformados pueden ser susceptibles al sesgo de deseabilidad social”, señaló Azeem. “Además, si bien nuestro estudio siguió un diseño de tiempo de tiempo que permite la separación temporal entre la recopilación de datos, las instrucciones causales entre el uso generativo de la IA y sus resultados pueden mapear mejor a través de un diseño longitudinal. Del mismo modo, para diseñar las intervenciones y planes de capacitación necesarios, puede ayudar a futuros estudios a investigar las condiciones bajo las cuales el uso generativo de la IA lidera a los medios de aprendizaje más positivos y menos negativos”.
“A largo plazo, su objetivo es realizar estudios longitudinales que investiguen el desarrollo de los estudiantes a largo plazo, como la creatividad, la autorregulación y la empleabilidad en los semestres múltiples. Esto puede ayudar a cerrar las diferencias emergentes en la literatura con respecto al positivo versus los efectos dañinos de la IA generativa para los estudiantes. También tengo la intención de explorar otros rasgos motivacionales para que la personalidad sea de la personalidad, que puede influenciar la IA Generación. y razonamiento ético para el uso efectivo de IA generativo entre los estudiantes a largo plazo ”.
Los hallazgos plantean preguntas más grandes sobre el futuro de la educación en una era de IA accesible y poderosa. Si las herramientas generativas pueden completar muchas tareas académicas con un esfuerzo mínimo, los estudiantes pueden perder los procesos de aprendizaje que generan confianza, resistencia y pensamiento crítico. Por otro lado, las herramientas de IA también podrían usarse para apoyar el aprendizaje, por ejemplo, ayudando a los estudiantes a hacer una lluvia de ideas, explorar nuevas perspectivas o refinar sus escritos.
“Si bien nuestro estudio nos alarma a los posibles efectos adversos de la IA generativa para los estudiantes, la literatura también está disponible que respalda sus resultados positivos”, dijo Azeem. “Por lo tanto, a medida que las herramientas de IA se integran cada vez más en la educación, es vital que los responsables políticos, los educadores y los desarrolladores de EDTech vayan más allá de las opiniones binarias de la IA generativa como inherentemente bueno o malo. Creo que guiar el uso responsable de la IA generativa mientras mitigan los riesgos tienen la clave del aprendizaje mejorado”.
“Para ser específicos, la capacitación de instructor para diseñar actividades de aprendizaje acuáticas de AI puede ayudar a fomentar el pensamiento crítico. Estos pueden enfatizar la reflexión de los estudiantes alentando sobre el contenido generado por IA para abordar algunas cartas del uso generativo de IA en el aula. De la misma manera, la promoción de los sistemas de clasificación justos y transparentes es probable que se convierta en un mal uso. Con el uso no regulado y no regulado entre los estudiantes generativos entre los estudiantes de AI, los que se aprenden a los estudiantes de AI, lo que puede ser acelerado, se debe convertir en aceleración. Puede afectar las capacidades que la educación está destinada a desarrollar: la independencia, el pensamiento crítico y la curiosidad.
El estudio, “La personalidad se correlaciona del uso académico de la inteligencia artificial generativa y sus resultados: ¿Importa la justicia?”, Fue escrita por Sundas Azeem y Muhammad Abbas.
Noticias
Sueltas de chatgpt y consejos de IA para dibujar correos electrónicos increíbles
Published
19 horas agoon
27 mayo, 2025
Las herramientas de IA como ChatGPT y Copilot están revolucionando en silencio cómo escribimos correos electrónicos, ahorrando tiempo y … Más Mejora del impacto
Stock de adobe
El correo electrónico ha existido durante 50 años, y durante la mayor parte de ese tiempo, se ha mantenido relativamente sin cambios. Hasta ahora, al menos.
En los dos años transcurridos desde el lanzamiento de CHATGPT, el correo electrónico ha recibido un dramático lavado de cara generativo de IA.
Herramientas como Outlook y Gmail ahora tienen asistentes de IA incorporados que están listos para ayudar a crear y ajustar sus comunicaciones electrónicas. Con algunos trabajadores del Reino Unido que pasan casi nueve horas por semana escribiendo correos electrónicos, existe la posibilidad de algunas grandes ganancias de eficiencia.
Las herramientas de Genai, incluidos los asistentes incorporados o los chatbots independientes como Gemini y ChatGPT, pueden ayudar a pulir la prosa, alcanzar el tono correcto y persuadir a sus destinatarios para que tomen la acción prevista.
Dominar el arte de la provisión de IA se está convirtiendo rápidamente en una habilidad crítica tanto en la vida diaria como profesional. Entonces, si desea saber cómo pasar menos tiempo descubriendo qué escribir en correos electrónicos o cómo deben diseñarse para diferentes audiencias y ocasiones, aquí hay algunos consejos, ideas y indicaciones de muestra.
¿Qué herramientas de Genai debo usar?
Una nota rápida antes de comenzar: todos estos consejos y indicaciones deben funcionar si está trabajando con un chatbot como chatgpt o un asistente de IA como copilot que está integrado en su software de correo.
Para tareas básicas como escribir un correo electrónico, todos funcionan de manera muy similar, con poca necesidad de características avanzadas como navegación web, capacidad multimodal o capacidad de razonamiento. Donde algunos de los consejos que cubro aquí pueden confiar en estas características, lo mencionaré.
Como se mencionó, Gmail y Outlook tienen asistentes integrados en las versiones gratuitas y pagadas de sus clientes, tanto el navegador como las versiones basadas en aplicaciones. Los chatbots más populares, chatgpt, gemini, claude, etc., todos tienen versiones gratuitas que son perfectamente capaces de recordar correos electrónicos.
Consejos para la solicitud de correo electrónico efectiva
Uno de los consejos más importantes que se aplica a cualquier tipo de indicación es tener siempre una idea de lo que pretende lograr.
Si le da a AI Fuzzy o objetivos poco claros, no hay forma de decir qué le dará a cambio, pero es poco probable que sea lo que desea. La IA es inteligente, pero no puede leer la lectura mental.
Si no está seguro de lo que desea lograr, pídale a la IA que lo ayude a resolverlo. Con cualquier tarea, puede ayudarlo a comprender cuáles deben ser sus objetivos y cómo puede medir el éxito.
Lo siguiente más importante para entender es que puede darle a ChatGPT (o lo que sea) cualquier dato que necesite para ayudar a completar su tarea. Puede adjuntar hojas de cálculo, artículos, imágenes o la mayoría de los tipos de medios y hacer que AI extraan información de él para su uso en sus correos electrónicos.
Por ejemplo, una empresa podría cargar registros de transacciones de los clientes para crear correos electrónicos postventa automatizados y personalizados que preguntaban cómo los compradores disfrutaban de sus últimas compras.
Otro consejo útil es definir siempre a su audiencia. Decirle a ChatGPT que la comunicación está destinada a su jefe, clientes o perspectivas con problemas que puede resolver aumenta las posibilidades de que alcance el tono correcto.
Si desea asegurarse de que sus destinatarios sepan que es usted quien está escribiendo, puede darle ejemplos de la forma en que trabaja (ya sea cargado como archivos o pegados en el chat) para que pueda simular su voz, tono y estilo.
Finalmente, y de manera crucial, está el temido espectro de alucinación de IA. Una peculiaridad de Genai basado en el lenguaje es que no le gusta estar en una posición en la que no puede proporcionar una respuesta, y para evitar esto, a veces literalmente inventará las cosas.
Una forma simple de evitar (o al menos reducir las instancias de) esto es decirle que le solicite cualquier información que no tenga. Agregar “Pregúntame más información que necesite para hacer el trabajo” es una forma segura de hacer que muchas indicaciones sean mucho más efectivas.
Con esos consejos generales en mente, aquí hay algunas indicaciones simples que pueden ayudarlo a elaborar correos electrónicos que hacen el trabajo.
Resumir/ recapitular una reunión
La IA funciona mejor cuando le da datos específicos para trabajar en lugar de obligarlos a confiar en sus datos de capacitación.
Aviso: Use el registro de asistencia, la agenda y las notas proporcionadas para resumir esta reunión, luego crear un correo electrónico de seguimiento personalizado para cada asistente, junto con un plan de acción que detalla los objetivos actuales, la escala de tiempo y los próximos pasos.
Escribir persuasivamente
A menudo, al escribir un correo electrónico, su intención será persuadir a las personas para que actúen de cierta manera, ya sea comprando sus productos, asistir a su evento o apoyar una causa caritativa. Si tiene que crear algún tipo de correo electrónico diseñado para fomentar la acción, ejecutarlo a través de este aviso primero:
Aviso: tome este borrador del correo electrónico y mejore las posibilidades de que alcance su objetivo al estructurar el contenido de una manera clara, concisa y persuasiva, enfatizando oportunidades, beneficios o riesgos. Si su objetivo no es claro para usted, pídeme que aclare lo que está destinado a lograr. Mantenga la misma voz, tono y estilo, y todos los mensajes. Cuando tenga toda la información que necesita, cree un correo electrónico persuasivo, bien escrito y de manera efectiva.
Apelando una multa o boleto
Los procesos de apelación a menudo son altamente técnicos y se ganan o se pierden según las regulaciones. Para este aviso, necesitará una copia de las regulaciones que le acusan de incumplimiento (por ejemplo, términos y condiciones de estacionamiento).
Aviso: Ayúdame a anular esta multa o penalización. He adjuntado una copia de las regulaciones que me acusan de violar. Pregúntame por la razón por la que creo que esta multa o penalización debe ser revocada, luego redactar una carta concisa, educada pero a punto, con referencia a las regulaciones, que convencerá al emisor de que rescindga la multa o la penalización.
Provocando éxito
Estas indicaciones están diseñadas para darle una idea de las diferentes formas en que podemos lograr que la IA nos ayude con las tareas. Todos pueden adaptarse para satisfacer muchas necesidades diferentes.
Al darle a AI la información específica que necesitan, y pedirles que le informen si necesitan más, cualquiera puede hacer que sus indicaciones creen un resultado mucho más personalizado y útil.
No se equivoquen, es probable que el éxito futuro de muchas personas que lean esto dependan de cuán competentes se vuelvan para trabajar y derivar el valor de la IA.
La IA generativa basada en el lenguaje elimina muchos de los obstáculos técnicos que podemos encontrar al tratar de usar la tecnología de manera efectiva, como tener que aprender a escribir código.
Pero sigue siendo una habilidad, y eso significa que se puede mejorar con el conocimiento y la práctica. Y cuanto mejor lo obtengamos, más probabilidades tenemos de beneficiarnos de las oportunidades que AI crea.
Related posts




























































































































































































































































































































Trending
-
Startups1 año ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales1 año ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups11 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos1 año ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups1 año ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos1 año ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Estudiar IA1 año ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Tutoriales1 año ago
Google Gemini: Guía Completa para Comenzar a usarlo y ganar tiempo en nuestras tareas diarias