El uso de ChatGPT tiene un impacto mínimo en el plagio, explicando solo el 3.9% del comportamiento de trampa de los estudiantes.
La cultura engañosa y la falta de motivación son predictores mucho más fuertes de plagio que el uso de la herramienta de IA.
Las universidades deben centrarse en impulsar la motivación de los estudiantes y abordar la influencia de los compañeros en lugar de simplemente restringir las herramientas de IA.
Gasteiz, España – Las herramientas de inteligencia artificial como ChatGPT aún pueden parecer que están en su infancia para muchos, pero las plataformas de IA generativas se han vuelto comunes en las escuelas y universidades. No es sorprendente que muchos maestros se preocupen de que estos asistentes de escritura están creando un problema de plagio. Pero un nuevo estudio parece desacreditar esta opinión, lo que sugiere que el uso de ChatGPT para el trabajo escolar no necesariamente conduce a más trampas. En cambio, la investigación apunta a otros factores que tienen una influencia mucho más fuerte en la deshonestidad académica.
Realizado por investigadores de la Universidad del País Vasco en España, el estudio ofrece nuevas ideas sobre cómo las herramientas de IA se relacionan con la integridad académica.
El equipo de investigación quería responder una pregunta que ha molestado a los educadores desde que apareció ChatGPT: ¿El uso de ChatGPT para el trabajo académico predice el plagio en los estudiantes universitarios? También querían entender si factores personales como las calificaciones, la carga de trabajo, las habilidades de gestión del tiempo, la motivación, las actitudes competitivas, la cultura de trampa y la conciencia de las consecuencias de plagio afectaron esta relación.
Sus hallazgos, publicados en Entornos de aprendizaje interactivossorprenderá a quienes ven las herramientas de escritura de IA como el principal culpable detrás de la deshonestidad académica. Si bien hay alguna conexión entre el uso de ChatGPT y el plagio, la relación de causa y efecto es “prácticamente inexistente”. En términos más simples, los estudiantes que usan CHATGPT con más frecuencia no es necesariamente más probable que plagiaran. En cambio, otros dos factores surgieron como los predictores significativos del plagio: estar rodeados de una “cultura trampa” y la falta de motivación para el trabajo académico.
El estudio involucró a 507 estudiantes universitarios españoles, principalmente de programas de educación, y la mayoría buscaba títulos en la educación infantil (25.64%) y la educación primaria (64.49%). Esta muestra diversa incluyó 155 hombres, 348 mujeres y 4 individuos que se identificaron de manera diferente. Los participantes vinieron de diferentes años académicos, y la mayoría se encuentra en su primer (33.92%), segundo (27.02%) o tercer año (33.12%) de los estudios universitarios.
Los estudiantes respondieron cuestionarios que miden con qué frecuencia usaban ChatGPT para fines académicos, comportamientos de plagio, calificaciones, carga de trabajo, habilidades de gestión del tiempo, falta de motivación, competitividad, exposición a trampas y conciencia de consecuencias de plagio.
Resultados sorprendentes: lo que realmente impulsa el plagio
Los análisis iniciales mostraron que el uso más frecuente de ChatGPT se asoció de hecho con niveles más altos de plagio, así como con una mayor falta de motivación, competitividad, exposición a la cultura en trampa y menos conciencia de las consecuencias de plagio. Los estudiantes que usaron CHATGPT con más frecuencia también tendían a tener calificaciones más bajas y habilidades más débiles de gestión del tiempo.
Sin embargo, cuando los investigadores utilizaron métodos estadísticos avanzados, descubrieron que el uso de ChatGPT representaba solo el 3.9% de la varianza en el comportamiento de plagio, un efecto relativamente pequeño. Por el contrario, la combinación de uso de ChatGPT, cultura en trampa y falta de motivación juntos explicó el 28% de la varianza de plagio, ya que la cultura de trampa es el factor más fuerte.
La cultura de trampa se refiere a un entorno donde los comportamientos académicos deshonestos se normalizan entre los compañeros. Cuando los estudiantes ven regularmente a sus compañeros de clase que plagiaron sin consecuencias, es más probable que vean dicho comportamiento como aceptable. Esto se conecta a cómo las personas justifican el comportamiento poco ético al señalar su prevalencia entre otros (“todos lo hacen”).
La falta de motivación, sin impulsar las actividades académicas, también surgió como un factor clave. Los estudiantes que no entienden por qué están cursando sus estudios o se sienten desconectados de su camino académico son más propensos a tomar atajos, incluido el plagio.
Cuando se trata de hacer trampa, la falta de motivación es uno de los desencadenantes clave. (Crédito: Elisa Ventur en Unsplash)
Lo que esto significa para la educación
Para los maestros, el mensaje es claro: culpar a ChatGPT por un mayor plagio es demasiado simple. En cambio, abordar la cultura de hacer trampa y trabajar para impulsar la motivación de los estudiantes puede ser mucho más efectivo para promover un trabajo académico honesto.
Las universidades deberían considerar revisar sus políticas de integridad académica para garantizar que aborden estas causas raíz en lugar de centrarse únicamente en controlar el uso de la herramienta de IA. Crear espacios para discusiones abiertas sobre el uso ético de la IA en la academia podría ayudar a los estudiantes a desarrollar prácticas responsables mientras se benefician de estas herramientas de aprendizaje.
Desde el lanzamiento de ChatGPT, muchas escuelas se han apresurado a desarrollar políticas que restringan su uso o implementando métodos de detección de plagio más sofisticados. Si bien estos enfoques tienen su lugar, este estudio sugiere que solo están abordando una pequeña parte de un problema mucho mayor.
Algunas estrategias efectivas para prevenir el plagio incluyen proporcionar a los estudiantes instrucciones claras sobre las tareas, el uso de rúbricas detalladas de calificación, enseñar a los estudiantes sobre el plagio y sus consecuencias, solicitar proyectos de presentación para comentarios, diseñar tareas que fomenten el pensamiento crítico y estableciendo pautas claras para el uso de la IA. Los estudios han demostrado que incluso las lecciones simples que enseñan métodos de cita adecuados pueden reducir significativamente las tasas de plagio.
Avanzar con IA en educación
Naturalmente, las herramientas de IA continuarán evolucionando y se integrarán más en entornos educativos. En lugar de ver la IA como una amenaza para ser controlada, tal vez deberíamos verla como una oportunidad para reimaginar la educación: enfatizar el pensamiento crítico, el uso ético de los recursos y la motivación interna sobre la memorización y la regurgitación.
Así como las calculadoras no eliminaron la necesidad de comprender los conceptos matemáticos, las herramientas de escritura de IA no eliminan la necesidad de pensamiento original e integridad académica. Simplemente cambian el panorama en el que estos valores deben aplicarse y confirmarse.
Abordar la cultura trampa y los factores de motivación destacados en esta investigación puede resultar mucho más efectivo que las restricciones tecnológicas en el fomento de la integridad académica genuina. Después de todo, un estudiante que valora la educación y existe en una cultura que premia el aprendizaje auténtico probablemente usará cualquier herramienta, AI o de otra manera, para mejorar el aprendizaje, no para evitarla.
Resumen de papel
Metodología
Los investigadores recopilaron datos de 507 estudiantes universitarios españoles que usan varios cuestionarios. Para medir el uso de CHATGPT, utilizaron una sola pregunta preguntando a los estudiantes con qué frecuencia usaron ChatGPT o IA similar para el trabajo académico, calificado en una escala de 5 puntos de “nunca” a “siempre”. Medieron el plagio utilizando cinco preguntas sobre comportamientos como copiar ideas sin citas. También recopilaron información sobre calificaciones, carga de trabajo, habilidades de gestión del tiempo, falta de motivación, competitividad, cultura de trampa y comprensión de las consecuencias de plagio. Los investigadores utilizaron métodos estadísticos para determinar las relaciones entre estas variables e identificar qué factores predijeron mejor el comportamiento de plagio.
Resultados
Los resultados desafían los supuestos comunes sobre la IA y el plagio. Cuando los investigadores buscaron relaciones de causa y efecto, descubrieron que el uso de ChatGPT era un predictor débil del plagio, explicando solo el 3.9% de las diferencias en el comportamiento de plagio. Un análisis posterior reveló que la combinación de uso de ChatGPT, cultura de trampa y falta de motivación juntos explicó el 28% de las diferencias en el plagio, siendo la cultura de trampa el predictor más fuerte, seguido de la falta de motivación y luego el uso de ChatGPT.
Limitaciones
Los investigadores notaron varias limitaciones a considerar. La mayoría de los participantes estudiaron educación, limitando qué tan bien los resultados podrían aplicarse a los estudiantes en otros campos como ciencias o salud. Los análisis solo analizaron los factores relacionados con los estudiantes, dejando de lado factores de maestro o institucionales potencialmente importantes. Todos los datos se recopilaron en un momento, lo que limita las conclusiones sobre la causa y el efecto.
Discusión y comida llave
Para los maestros, los resultados muestran que el uso de ChatGPT no es un impulsor principal del plagio y sugiere centrarse en factores que predicen más fuertemente la deshonestidad académica, como la cultura de trampa y los problemas de motivación. Los investigadores recomiendan utilizar métodos de enseñanza interactivos, criterios de evaluación claros y conectar material del curso a aplicaciones del mundo real para impulsar la participación de los estudiantes. Para las universidades y los formuladores de políticas, los hallazgos resaltan la necesidad de revisar las políticas de integridad académica para abordar las causas raíz en lugar de simplemente restringir las herramientas de IA.
Información de publicación
Este estudio, “La relación entre el uso de ChatGPT para fines académicos y plagio: la influencia de las variables relacionadas con los estudiantes en el comportamiento en trampa”, fue escrita por Hécor Galindo-Domínguez, Lucía Campo, Nahia Delgado y Martín Sainz de la Maza de la Universidad del país de la base de la base. Fue publicado en la revista Entornos de aprendizaje interactivos El 27 de enero de 2025, y está disponible en línea con el identificador doi: 10.1080/10494820.2025.2457351. El artículo se publica como acceso abierto, lo que permite que cualquier persona use, distribuya y reproduzca el contenido proporcionado que se proporciona una cita adecuada.
¿Operai está desarrollando una plataforma de redes sociales?
Según los informes, Openai está desarrollando una plataforma de redes sociales similar a X, con un prototipo interno que integra las capacidades de generación de imágenes de ChatGPT.
queso Cheddar
La competencia para los principales investigadores de IA se ha intensificado en niveles sin precedentes en Silicon Valley.
Empresas como OpenAI y Google están ofreciendo paquetes de compensación exorbitantes, incluidos bonos y capital multimillonarios, para atraer y retener talento.
La escasez de personas con experiencia en modelos de idiomas grandes es impulsar las tácticas de reclutamiento agresivas.
SAN FRANCISCO – El concurso en Silicon Valley para dominar la inteligencia artificial se está desarrollando en una nueva corte: los investigadores superestrella.
Si bien la lucha para atraer el mejor talento y mantenerlos felices siempre ha sido un sello distintivo de la industria tecnológica, desde que ChatGPT se lanzó a fines de 2022, el reclutamiento se ha intensificado a los niveles profesionales de atletas, una docena de personas que han estado involucradas en el reclutamiento de investigadores de IA dijeron a Reuters.
“Los laboratorios de IA se acercan a la contratación como un juego de ajedrez”, dijo Ariel Herbert-Voss, CEO de la startup de ciberseguridad Runsybil y un ex investigador de Operai que ingresó a la pelea de talentos después de lanzar su propia compañía. “Quieren moverse lo más rápido posible, por lo que están dispuestos a pagar mucho por candidatos con experiencia especializada y complementaria, al igual que las piezas del juego. Son como, ‘¿Tengo suficientes torres?
Empresas, incluidas OpenAi y Google, ansiosas por obtener o mantenerse por delante en la carrera para crear los mejores modelos de IA, cortan a estos llamados “IC”: los contribuyentes individuales cuyo trabajo puede hacer o romper empresas.
Noam Brown, uno de los investigadores detrás de los recientes avances de IA de OpenAi en el razonamiento complejo de matemáticas y ciencias, dijo que cuando exploró las oportunidades de trabajo en 2023, se encontró siendo cortejado por la élite de Tech: el almuerzo con el fundador de Google Sergey Brin, póker de Sam Altman’s y una visita de avión privado de un ansioso inversor. Elon Musk también hará llamadas para cerrar candidatos para Xai, su compañía de IA, dijeron que dos personas que han hablado con él. Xai no respondió a una solicitud de comentarios.
Finalmente, dijo Brown, eligió OpenAi porque OpenAi estaba dispuesto a poner recursos, tanto las personas como el cálculo, detrás del trabajo que estaba entusiasmado.
“En realidad, no era financieramente la mejor opción que tenía”, dijo, explicando que la compensación no es lo más importante para muchos investigadores. Eso no ha impedido que las empresas arrojen millones de dólares en bonos y paquetes de paquetes a los investigadores STAR, según siete fuentes familiarizadas con el asunto.
Algunos investigadores de los principales abiertos que han indicado interés en unirse a la nueva compañía de la ex científica jefe Ilya Sutskever, SSI, se les ofreció bonos de retención de $ 2 millones, además de aumentos de capital de $ 20 millones o más, si se quedaron, a dos fuentes le dijeron a Reuters. Algunos solo se les ha requerido que se queden durante un año para obtener la bonificación completa. SSI y OpenAi declinaron hacer comentarios.
Otros investigadores de Operai que han presentado ofertas de once laboratorios han recibido bonos de al menos $ 1 millón para quedarse en OpenAI, dijeron dos fuentes a Reuters. Los principales investigadores de OpenAI reciben regularmente paquetes de compensación de más de $ 10 millones al año, dijeron las fuentes.
Noticias de Xai: El Dux de Elon Musk expandiendo Grok Ai en el gobierno de los Estados Unidos, planteando conflictos y preocupaciones de privacidad
Google Deepmind ha ofrecido a los principales investigadores $ 20 millones por año paquetes de compensación, otorgados con subvenciones de capital fuera del ciclo específicamente a los investigadores de IA, y también ha reducido la adjudicación de algunos paquetes de valores a 3 años, en lugar de los 4 años normales, dijeron las fuentes. Google declinó hacer comentarios.
Por el contrario, los principales ingenieros de Big Tech Companies reciben una compensación anual promedio de $ 281,000 en salario y $ 261,000 en capital, según CompreHensive.io, una compañía que rastrea la compensación de la industria tecnológica.
La guerra de talentos de IA
Si bien el talento siempre ha sido importante en Silicon Valley, la diferencia con el auge de la IA es cuán pocas personas están en este grupo de élite, dependiendo de a quién le pregunte, el número podría variar de unas pocas docenas a alrededor de mil, ocho fuentes dijeron a Reuters.
Eso se basa en la creencia de que este pequeño número de “IC” ha hecho contribuciones de gran tamaño al desarrollo de grandes modelos de idiomas, la tecnología en la que se basa el auge de IA de hoy y, por lo tanto, podría hacer o romper el éxito de un modelo de IA.
“Seguro que los ingenieros 10X son geniales, pero maldita sea esos 10,000x ingenieros/investigadores …”, tuiteó el CEO de OpenAI, Sam Altman, a finales de 2023, aludiendo a una máxima larga que los mejores ingenieros de software fueron 10 veces más buenos que el promedio (10X), pero ahora en la industria de la IA, los mejores investigadores son 10,000 veces (10,000x) tan efectivos que el promedio.
Noticias de FedEx: ¿Quién liderará la carga de FedEx después del spin-off? CEO y presidente de la junta nombrado
La partida de septiembre del director de tecnología de OpenAi, Mira Murati, quien luego fundó una startup rival de IA, ha intensificado la Guerra de Talento AI. Murati, conocido en Operai por sus habilidades de gestión y destreza de ejecución, reclutó a 20 empleados de Operai antes de anunciar su empresa en febrero. Ahora ha atraído aún más investigadores de Operai y otros laboratorios, y el equipo ahora tiene alrededor de 60 personas, dijeron dos fuentes a Reuters. Aunque la compañía no tiene ningún producto en el mercado, Murati está en medio de cerrar una ronda de semillas récord que se basa en la fuerza del equipo. Un representante de Murati declinó hacer comentarios.
La escasez de talento ha obligado a las empresas a acercarse a la contratación creativamente. Zeki Data, una empresa de datos centrada en identificar el talento de IA de los mejores IA, dijo que está empleando técnicas de análisis de datos de la industria del deporte como la popularizada por la película “Moneyball” para identificar talento prometedor pero no descubierto. Por ejemplo, los datos de Zeki descubrieron que Anthrope ha estado contratando investigadores con antecedentes de física teórica, y otras compañías de inteligencia artificial han contratado individuos con antecedentes de computación cuántica.
Anthrope no respondió a una solicitud de comentarios.
“En mi equipo, tengo matemáticos extraordinariamente talentosos que no habrían venido a este campo si no fuera por el rápido progreso que estamos viendo ahora”, dijo Sébastien Bubeck, quien dejó su papel como vicepresidente de investigación de Genai en Microsoft el año pasado para unirse a Openi. “Estamos viendo una afluencia de talento de todos los campos que están en IA ahora. Y algunas de estas personas son muy, muy inteligentes, y marcan la diferencia”.
Informes de Anna Tong en San Francisco; Edición de Kenneth Li y Claudia Parsons
Los chatbots de IA avanzan rápidamente y los probando hasta sus límites es lo que hago para vivir. El soneto Claude 4 de Anthrope y el chatgpt-4o de OpenAI son dos de las herramientas más inteligentes disponibles en este momento. Pero, ¿cómo se comparan realmente en el uso diario?
Para averiguarlo, le di a ambos modelos el mismo conjunto de 7 indicaciones; Cubriendo todo, desde narración de cuentos y productividad hasta apoyo emocional y pensamiento crítico.
“Escríbeme un resumen conciso de Misión imposible Personajes y tramas hasta la fecha ”, recientemente le pregunté a ChatGPT antes de atrapar la última entrada de franquicia. Se entregó. No necesitaba entender su código o conocer su conjunto de datos de capacitación. Todo lo que tenía que hacer era preguntar.
ChatGPT y otros chatbots impulsados por modelos de idiomas grandes, o LLM, son más populares que nunca. Los científicos están tomando nota. Las proteínas, los caballos de batalla moleculares de las células, mantienen nuestros cuerpos corriendo suavemente. También tienen un idioma propio. Los científicos asignan una letra abreviada a cada uno de los 20 aminoácidos que componen proteínas. Al igual que las palabras, las cadenas de estas letras se unen para formar proteínas de trabajo, su secuencia determina la forma y la función.
Inspirados en LLM, los científicos ahora están construyendo modelos de lenguaje de proteínas que diseñan proteínas desde cero. Algunos de estos algoritmos están disponibles públicamente, pero requieren habilidades técnicas. ¿Qué pasaría si su investigador promedio podría simplemente pedirle a una IA que diseñe una proteína con un solo mensaje?
El mes pasado, los investigadores dieron a Protein Design AI el tratamiento con chatgpt. De una descripción del tipo, estructura o funcionalidad de una proteína que está buscando, el algoritmo produce posibles candidatos. En un ejemplo, la IA, denominada pinal, hizo con éxito múltiples proteínas que podrían descomponer el alcohol cuando se analizó dentro de las células vivas. Puedes probarlo aquí.
Pinal es el último en un creciente conjunto de algoritmos que traducen el inglés cotidiano en nuevas proteínas. Estos diseñadores de proteínas entienden el lenguaje sencillo y la biología estructural, y actúan como guías para los científicos que exploran proteínas personalizadas, con poca experiencia técnica.
Es un “enfoque ambicioso y general”, el equipo internacional detrás de Pinal escribió en una preimpresión publicada en Biorxiv. La IA aprovecha el “poder descriptivo y la flexibilidad del lenguaje natural” para hacer que las proteínas de diseñador sean más accesibles para los biólogos.
Enfrentados contra los algoritmos de diseño de proteínas existentes, Pinal entendió mejor el objetivo principal de una proteína objetivo y aumentó las posibilidades de que funcionaría en las células vivas.
“Somos los primeros en diseñar una enzima funcional usando solo texto”, dijo Fajie Yuan, científica de IA de la Universidad de Westlake en China que dirigió el equipo. Naturaleza. “Es como la ciencia ficción”.
Más allá de la evolución
Las proteínas son los componentes básicos de la vida. Forman nuestros cuerpos, el metabolismo del combustible y son el objetivo de muchos medicamentos. Estas intrincadas moléculas comienzan a partir de una secuencia de “letras” de aminoácidos, que se unen entre sí y eventualmente se doblan en intrincadas estructuras 3D. Muchos elementos estructurales, un bucle aquí, un tejido o bolsillo allí, son esenciales para su función.
Los científicos han intentado durante mucho tiempo diseñar proteínas con nuevas habilidades, como enzimas que descomponen de manera eficiente los plásticos. Tradicionalmente, han personalizado las proteínas existentes para un cierto uso biológico, químico o médico. Estas estrategias “están limitadas por su dependencia de las plantillas de proteínas existentes y las limitaciones evolutivas naturales”, escribieron los autores. Los modelos de lenguaje de proteínas, en contraste, pueden soñar con un universo de nuevas proteínas sin ataduras de la evolución.
En lugar de absorber el texto, la imagen o los archivos de video, como LLMS, estos algoritmos aprenden el lenguaje de las proteínas entrenando en secuencias y estructuras de proteínas. ESM3 de EvolutionaryScale, por ejemplo, entrenó en más de 2.700 millones de secuencias de proteínas, estructuras y funciones. Los modelos similares ya se han utilizado para diseñar anticuerpos que luchan contra ataques virales y nuevas herramientas de edición de genes.
Pero estos algoritmos son difíciles de usar sin experiencia. Pinal, por el contrario, apunta al científico promedio-joe. Al igual que una cámara DSLR en Auto, el modelo “evita las especificaciones estructurales manuales”, escribió el equipo, lo que hace que sea más simple hacer su proteína deseable.
Háblame
Para usar Pinal, un usuario le pide a la IA que construya una proteína con una solicitud de varias palabras clave, frases o un párrafo completo. En la parte delantera, la IA analiza los requisitos específicos en el aviso. En el back -end, transforma estas instrucciones en una proteína funcional.
Es un poco como pedirle a ChatGTP que le escriba una reseña de restaurante o un ensayo. Pero, por supuesto, las proteínas son más difíciles de diseñar. Aunque también están formados por “letras”, su forma final determina cómo (o si) funcionan. Un enfoque, denominado entrenamiento de extremo a extremo, traduce directamente un aviso en secuencias de proteínas. Pero esto abre la IA a un vasto mundo de secuencias potenciales, lo que hace que sea más difícil marcar las secuencias precisas de las proteínas de trabajo. En comparación con las secuencias, la estructura de proteínas, la forma 3D final, es más fácil para el algoritmo generar y descifrar.
Luego está el dolor de cabeza de los datos de entrenamiento. Aquí, el equipo recurrió a las bases de datos de proteínas existentes y usó LLM para etiquetarlas. El resultado final fue una vasta biblioteca de 1.700 millones de pares de texto proteico, en el que las estructuras de proteínas coinciden con descripciones de texto de lo que hacen.
El algoritmo completado utiliza 16 mil millones de parámetros, estas son las conexiones internas de una IA, para traducir el inglés simple al idioma de la biología.
Pinal sigue dos pasos. Primero traduce las indicaciones en información estructural. Este paso divide una proteína en elementos estructurales, o “fichas”, que son más fáciles de procesar. En el segundo paso, un modelo en idioma proteico llamado Saprot considera la intención del usuario y la funcionalidad de proteínas para diseñar secuencias de proteínas con mayor probabilidad de doblar en una proteína de trabajo que satisfaga las necesidades del usuario.
En comparación con los algoritmos de diseño de proteínas de última generación que también usan el texto como entrada, incluida ESM3, el pinal superó la precisión y la novedad, es decir, generar proteínas no conocidas por la naturaleza. Usando algunas palabras clave para diseñar una proteína, “la mitad de las proteínas de pinal exhiben funciones predecibles, solo alrededor del 10 por ciento de las proteínas generadas por ESM3 lo hacen”.
En una prueba, el equipo le dio a la IA un breve aviso: “Por favor, diseñe una proteína que sea una alcohol deshidrogenasa”. Estas enzimas descomponen el alcohol. De más de 1.600 proteínas candidatas, el equipo eligió los ocho más prometedores y las probó en células vivas. Dos rompieron con éxito el alcohol a temperatura corporal, mientras que otros fueron más activos a un sudor de 158 grados Fahrenheit.
Las indicaciones más elaboradas que incluían la función de una proteína y los ejemplos de moléculas similares, arrojaron candidatos a antibióticos y proteínas para ayudar a las células a recuperarse de la infección.
Pinal no es el único IA de texto a proteína. El Startup 310 AI ha desarrollado una IA denominada MP4 para generar proteínas a partir del texto, con los resultados que la compañía dice que podría beneficiar la enfermedad cardíaca.
El enfoque no es perfecto. Al igual que los LLM, que a menudo “alucinan”, los modelos de lenguaje de proteínas también sueñan secuencias poco confiables o repetitivas que reducen las posibilidades de un resultado final de trabajo. La redacción precisa de las indicaciones también afecta la estructura de proteína final. Aún así, la IA es como la primera versión de Dall-E: juega con ella y luego valida la proteína resultante usando otros métodos.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.