Connect with us

Noticias

China de código abierto AI Deepseek R1 coincide con el O1 de Openai con un costo 98% más bajo

Published

on

Los investigadores chinos de IA han logrado lo que muchos pensaban que estaban a años de distancia: un modelo de IA de código abierto gratuito que puede igualar o superar el rendimiento de los sistemas de razonamiento más avanzados de OpenAI. Lo que hace que esto sea aún más notable fue cómo lo hicieron: al dejar que la IA se enseñe a través de prueba y error, similar a cómo aprenden los humanos.

“Deepseek-r1-cero, un modelo entrenado a través de un aprendizaje de refuerzo a gran escala (RL) sin ajustar (SFT) supervisado como un paso preliminar, demuestra notables capacidades de razonamiento”. El trabajo de investigación dice.

El “aprendizaje de refuerzo” es un método en el que un modelo es recompensado por tomar buenas decisiones y castigado por tomar malas, sin saber cuál es cuál. Después de una serie de decisiones, aprende a seguir un camino que fue reforzado por esos resultados.

Inicialmente, durante la fase supervisada de ajuste fino, un grupo de humanos le dice al modelo el resultado deseado que desean, dándole un contexto para saber qué es bueno y qué no. Esto lleva a la siguiente fase, el aprendizaje de refuerzo, en el que un modelo proporciona diferentes resultados y los humanos clasifican los mejores. El proceso se repite una y otra vez hasta que el modelo sepa cómo proporcionar resultados satisfactorios constantemente.

Imagen: Deepseek

Deepseek R1 es una dirección en el desarrollo de IA porque los humanos tienen una parte mínima en la capacitación. A diferencia de otros modelos que están capacitados en grandes cantidades de datos supervisados, Deepseek R1 aprende principalmente a través del aprendizaje de refuerzo mecánico, lo que esencialmente resuelve las cosas experimentando y recibiendo comentarios sobre lo que funciona.

“A través de RL, Deepseek-R1-Zero emerge naturalmente con numerosos comportamientos de razonamiento poderosos e interesantes”, dijeron los investigadores en su artículo. El modelo incluso desarrolló capacidades sofisticadas como la autoverificación y la reflexión sin ser programado explícitamente para hacerlo.

A medida que el modelo pasó por su proceso de entrenamiento, naturalmente aprendió a asignar más “tiempo de pensamiento” a problemas complejos y desarrolló la capacidad de captar sus propios errores. Los investigadores destacaron un “A-ha momento” Cuando el modelo aprendió a reevaluar sus enfoques iniciales de los problemas, algo que no estaba explícitamente programado para hacer.

Los números de rendimiento son impresionantes. En el punto de referencia de Matemáticas AIME 2024, Deepseek R1 alcanzó una tasa de éxito del 79.8%, superando el modelo de razonamiento O1 de OpenAI. En las pruebas de codificación estandarizadas, demostró el rendimiento del “nivel de expertos”, logrando una calificación ELO de 2.029 en CodeForces y superó al 96.3% de los competidores humanos.

Imagen: Deepseek

Pero lo que realmente distingue a Deepseek R1 es su costo, o la falta de él. El modelo ejecuta consultas a solo $ 0.14 por millón de tokens en comparación con los $ 7.50 de OpenAi, lo que lo hace 98% más barato. Y a diferencia de los modelos propietarios, el código y los métodos de entrenamiento de Deepseek R1 son de código abierto por completo bajo la licencia MIT, lo que significa que cualquiera puede tomar el modelo, usarlo y modificarlo sin restricciones.

Imagen: Deepseek

Los líderes de IA reaccionan

El lanzamiento de Deepseek R1 ha desencadenado una avalancha de respuestas de los líderes de la industria de la IA, y muchos destacan la importancia de un modelo de código abierto que coinciden con líderes propietarios en capacidades de razonamiento.

El principal investigador de Nvidia, el Dr. Jim Fan, entregó quizás el comentario más puntiagudo, atrayendo un paralelo directo a la misión original de OpenAI. “Estamos viviendo en una línea de tiempo en la que una empresa no estadounidense mantiene viva la misión original de Operai, una investigación fronteriza realmente abierta que empodera a todos”, señaló Fan, alabando la transparencia sin precedentes de Deepseek.

Fan gritó la importancia del enfoque de aprendizaje de refuerzo de Deepseek: “Ellos son quizás los primeros [open source software] proyecto que muestra un gran crecimiento sostenido de [a reinforcement learning] volante. También elogió el intercambio directo de Deepseek de “algoritmos crudos y curvas de aprendizaje de matplotlib” en comparación con los anuncios impulsados ​​por exageración más comunes en la industria.

El investigador de Apple, Awni Hannun, mencionó que las personas pueden ejecutar una versión cuantificada del modelo localmente en sus Mac.

Tradicionalmente, los dispositivos Apple han sido débiles en la IA debido a su falta de compatibilidad con el software CUDA de Nvidia, pero eso parece estar cambiando. Por ejemplo, el investigador de IA Alex Cheema fue capaz de ejecutar el modelo completo después de aprovechar la potencia de 8 mini unidades de Apple Mac que se ejecutan juntas, que todavía es más barata que los servidores necesarios para ejecutar los modelos de IA más potentes actualmente disponibles.

Dicho esto, los usuarios pueden ejecutar versiones más ligeras de Deepseek R1 en sus Mac con buenos niveles de precisión y eficiencia.

Sin embargo, las reacciones más interesantes se produjeron después de reflexionar sobre qué tan cerca está la industria de código abierto a los modelos patentados, y el impacto potencial que este desarrollo puede tener para OpenAi como líder en el campo de los modelos de IA de razonamiento.

El fundador de Stability Ai, Emad Mostaque, tomó una postura provocativa, lo que sugiere que el lanzamiento ejerce presión sobre los competidores mejor financiados: “¿Te imaginas ser un laboratorio fronterizo que se recauda como mil millones de dólares y ahora no puedes lanzar tu último modelo porque no puede hacerlo? ¿Beat Deepseek? “

Siguiendo el mismo razonamiento pero con una argumentación más seria, el empresario tecnológico Arnaud Bertrand explicó que la aparición de un modelo competitivo de código abierto puede ser potencialmente perjudicial para OpenAi, ya que eso hace que sus modelos sean menos atractivos para los usuarios eléctricos que de otro modo podrían estar dispuestos a gastar un mucho dinero por tarea.

“Es esencialmente como si alguien hubiera lanzado un móvil a la par con el iPhone, pero lo vendía por $ 30 en lugar de $ 1000. Es tan dramático “.

El CEO de Perplexity AI, Arvind Srinivas, enmarcó el lanzamiento en términos de su impacto en el mercado: “Deepseek ha replicado en gran medida O1 Mini y lo ha obtenido abierto”. En una observación de seguimiento, señaló el rápido ritmo de progreso: “Es un poco salvaje ver que el razonamiento se comercializa tan rápido”.

Srinivas dijo que su equipo trabajará para llevar las capacidades de razonamiento de Deepseek R1 a la perplejidad profesional en el futuro.

Práctico

Hicimos algunas pruebas rápidas para comparar el modelo con OpenAI O1, comenzando con una pregunta bien conocida para este tipo de puntos de referencia: “¿Cuántas RS hay en la palabra Strawberry?”

Por lo general, los modelos luchan por proporcionar la respuesta correcta porque no funcionan con palabras: trabajan con tokens, representaciones digitales de conceptos.

GPT-4O falló, OpenAi O1 tuvo éxito, y también lo hizo Deepseek R1.

Sin embargo, O1 fue muy conciso en el proceso de razonamiento, mientras que Deepseek aplicó una gran producción de razonamiento. Curiosamente, la respuesta de Deepseek se sintió más humana. Durante el proceso de razonamiento, el modelo parecía hablar consigo mismo, usando argot y palabras poco comunes en máquinas pero más ampliamente utilizadas por los humanos.

Por ejemplo, mientras reflexiona sobre el número de Rs, el modelo se dijo a sí mismo: “Está bien, déjame resolver (esto)”. También usó “Hmmm”, mientras debatía, e incluso dijo cosas como “Espera, no. Espera, descoméalo “.

El modelo finalmente alcanzó los resultados correctos, pero pasó mucho tiempo razonando y escupiendo fichas. En condiciones de precios típicas, esto sería una desventaja; Pero dado el estado actual de las cosas, puede generar más fichas que OpenAI O1 y aún así ser competitivo.

Otra prueba para ver qué tan bien eran los modelos en el razonamiento de los “espías” e identificar a los perpetradores en una historia corta. Elegimos una muestra del conjunto de datos Big-Bench en GitHub. (La historia completa está disponible aquí e involucra un viaje escolar a una ubicación remota y nevada, donde los estudiantes y los maestros enfrentan una serie de desapariciones extrañas y el modelo debe descubrir quién era el acosador).

Ambos modelos lo pensaron por más de un minuto. Sin embargo, Chatgpt se estrelló antes de resolver el misterio:

Pero Deepseek dio la respuesta correcta después de “pensar” en ello durante 106 segundos. El proceso de pensamiento era correcto, e incluso el modelo era capaz de corregirse después de llegar a conclusiones incorrectas (pero aún lo suficientemente lógicas).

La accesibilidad de versiones más pequeñas impresionó particularmente a los investigadores. Para el contexto, un modelo de 1.5B es tan pequeño que teóricamente podría ejecutarlo localmente en un poderoso teléfono inteligente. E incluso una versión cuantificada de Deepseek R1 que Small pudo pararse cara a cara contra GPT-4O y Claude 3.5 Sonnet, según el científico de datos de Hugging Face, Vaibhav Srivastav.

Hace solo una semana, Skynove de UC Berkeley lanzó Sky T1, un modelo de razonamiento también capaz de competir contra Operai O1 Preview.

Aquellos interesados ​​en ejecutar el modelo localmente pueden descargarlo desde GitHub o Huggingf Face. Los usuarios pueden descargarlo, ejecutarlo, eliminar la censura o adaptarlo a diferentes áreas de experiencia al ajustarlo.

O si desea probar el modelo en línea, vaya a abrazar el chat o el portal web de Deepseek, que es una buena alternativa a ChatGPT, especialmente ya que es gratuita, de código abierto y la única interfaz de chatbot AI con un modelo creado para razonamiento además de chatgpt.

Editado por Andrew Hayward

Generalmente inteligente Hoja informativa

Un viaje semanal de IA narrado por Gen, un modelo de IA generativo.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Operai, Google y Xai trabajan para reclutar Top AI Talent: A continuación se muestra cómo

Published

on

jugar

  • La competencia para los principales investigadores de IA se ha intensificado en niveles sin precedentes en Silicon Valley.
  • Empresas como OpenAI y Google están ofreciendo paquetes de compensación exorbitantes, incluidos bonos y capital multimillonarios, para atraer y retener talento.
  • La escasez de personas con experiencia en modelos de idiomas grandes es impulsar las tácticas de reclutamiento agresivas.

SAN FRANCISCO – El concurso en Silicon Valley para dominar la inteligencia artificial se está desarrollando en una nueva corte: los investigadores superestrella.

Si bien la lucha para atraer el mejor talento y mantenerlos felices siempre ha sido un sello distintivo de la industria tecnológica, desde que ChatGPT se lanzó a fines de 2022, el reclutamiento se ha intensificado a los niveles profesionales de atletas, una docena de personas que han estado involucradas en el reclutamiento de investigadores de IA dijeron a Reuters.

“Los laboratorios de IA se acercan a la contratación como un juego de ajedrez”, dijo Ariel Herbert-Voss, CEO de la startup de ciberseguridad Runsybil y un ex investigador de Operai que ingresó a la pelea de talentos después de lanzar su propia compañía. “Quieren moverse lo más rápido posible, por lo que están dispuestos a pagar mucho por candidatos con experiencia especializada y complementaria, al igual que las piezas del juego. Son como, ‘¿Tengo suficientes torres?

Empresas, incluidas OpenAi y Google, ansiosas por obtener o mantenerse por delante en la carrera para crear los mejores modelos de IA, cortan a estos llamados “IC”: los contribuyentes individuales cuyo trabajo puede hacer o romper empresas.

Noam Brown, uno de los investigadores detrás de los recientes avances de IA de OpenAi en el razonamiento complejo de matemáticas y ciencias, dijo que cuando exploró las oportunidades de trabajo en 2023, se encontró siendo cortejado por la élite de Tech: el almuerzo con el fundador de Google Sergey Brin, póker de Sam Altman’s y una visita de avión privado de un ansioso inversor. Elon Musk también hará llamadas para cerrar candidatos para Xai, su compañía de IA, dijeron que dos personas que han hablado con él. Xai no respondió a una solicitud de comentarios.

Finalmente, dijo Brown, eligió OpenAi porque OpenAi estaba dispuesto a poner recursos, tanto las personas como el cálculo, detrás del trabajo que estaba entusiasmado.

“En realidad, no era financieramente la mejor opción que tenía”, dijo, explicando que la compensación no es lo más importante para muchos investigadores. Eso no ha impedido que las empresas arrojen millones de dólares en bonos y paquetes de paquetes a los investigadores STAR, según siete fuentes familiarizadas con el asunto.

Algunos investigadores de los principales abiertos que han indicado interés en unirse a la nueva compañía de la ex científica jefe Ilya Sutskever, SSI, se les ofreció bonos de retención de $ 2 millones, además de aumentos de capital de $ 20 millones o más, si se quedaron, a dos fuentes le dijeron a Reuters. Algunos solo se les ha requerido que se queden durante un año para obtener la bonificación completa. SSI y OpenAi declinaron hacer comentarios.

Otros investigadores de Operai que han presentado ofertas de once laboratorios han recibido bonos de al menos $ 1 millón para quedarse en OpenAI, dijeron dos fuentes a Reuters. Los principales investigadores de OpenAI reciben regularmente paquetes de compensación de más de $ 10 millones al año, dijeron las fuentes.

Google Deepmind ha ofrecido a los principales investigadores $ 20 millones por año paquetes de compensación, otorgados con subvenciones de capital fuera del ciclo específicamente a los investigadores de IA, y también ha reducido la adjudicación de algunos paquetes de valores a 3 años, en lugar de los 4 años normales, dijeron las fuentes. Google declinó hacer comentarios.

Por el contrario, los principales ingenieros de Big Tech Companies reciben una compensación anual promedio de $ 281,000 en salario y $ 261,000 en capital, según CompreHensive.io, una compañía que rastrea la compensación de la industria tecnológica.

La guerra de talentos de IA

Si bien el talento siempre ha sido importante en Silicon Valley, la diferencia con el auge de la IA es cuán pocas personas están en este grupo de élite, dependiendo de a quién le pregunte, el número podría variar de unas pocas docenas a alrededor de mil, ocho fuentes dijeron a Reuters.

Eso se basa en la creencia de que este pequeño número de “IC” ha hecho contribuciones de gran tamaño al desarrollo de grandes modelos de idiomas, la tecnología en la que se basa el auge de IA de hoy y, por lo tanto, podría hacer o romper el éxito de un modelo de IA.

“Seguro que los ingenieros 10X son geniales, pero maldita sea esos 10,000x ingenieros/investigadores …”, tuiteó el CEO de OpenAI, Sam Altman, a finales de 2023, aludiendo a una máxima larga que los mejores ingenieros de software fueron 10 veces más buenos que el promedio (10X), pero ahora en la industria de la IA, los mejores investigadores son 10,000 veces (10,000x) tan efectivos que el promedio.

La partida de septiembre del director de tecnología de OpenAi, Mira Murati, quien luego fundó una startup rival de IA, ha intensificado la Guerra de Talento AI. Murati, conocido en Operai por sus habilidades de gestión y destreza de ejecución, reclutó a 20 empleados de Operai antes de anunciar su empresa en febrero. Ahora ha atraído aún más investigadores de Operai y otros laboratorios, y el equipo ahora tiene alrededor de 60 personas, dijeron dos fuentes a Reuters. Aunque la compañía no tiene ningún producto en el mercado, Murati está en medio de cerrar una ronda de semillas récord que se basa en la fuerza del equipo. Un representante de Murati declinó hacer comentarios.

La escasez de talento ha obligado a las empresas a acercarse a la contratación creativamente. Zeki Data, una empresa de datos centrada en identificar el talento de IA de los mejores IA, dijo que está empleando técnicas de análisis de datos de la industria del deporte como la popularizada por la película “Moneyball” para identificar talento prometedor pero no descubierto. Por ejemplo, los datos de Zeki descubrieron que Anthrope ha estado contratando investigadores con antecedentes de física teórica, y otras compañías de inteligencia artificial han contratado individuos con antecedentes de computación cuántica.

Anthrope no respondió a una solicitud de comentarios.

“En mi equipo, tengo matemáticos extraordinariamente talentosos que no habrían venido a este campo si no fuera por el rápido progreso que estamos viendo ahora”, dijo Sébastien Bubeck, quien dejó su papel como vicepresidente de investigación de Genai en Microsoft el año pasado para unirse a Openi. “Estamos viendo una afluencia de talento de todos los campos que están en IA ahora. Y algunas de estas personas son muy, muy inteligentes, y marcan la diferencia”.

Informes de Anna Tong en San Francisco; Edición de Kenneth Li y Claudia Parsons

Continue Reading

Noticias

Probé Claude 4 soneto vs chatgpt-4o con 7 indicaciones: los resultados fueron sorprendentes

Published

on

Los chatbots de IA avanzan rápidamente y los probando hasta sus límites es lo que hago para vivir. El soneto Claude 4 de Anthrope y el chatgpt-4o de OpenAI son dos de las herramientas más inteligentes disponibles en este momento. Pero, ¿cómo se comparan realmente en el uso diario?

Para averiguarlo, le di a ambos modelos el mismo conjunto de 7 indicaciones; Cubriendo todo, desde narración de cuentos y productividad hasta apoyo emocional y pensamiento crítico.

Continue Reading

Noticias

Una nueva IA prepara proteínas de diseñador con solo un mensaje de texto

Published

on

“Escríbeme un resumen conciso de Misión imposible Personajes y tramas hasta la fecha ”, recientemente le pregunté a ChatGPT antes de atrapar la última entrada de franquicia. Se entregó. No necesitaba entender su código o conocer su conjunto de datos de capacitación. Todo lo que tenía que hacer era preguntar.

ChatGPT y otros chatbots impulsados ​​por modelos de idiomas grandes, o LLM, son más populares que nunca. Los científicos están tomando nota. Las proteínas, los caballos de batalla moleculares de las células, mantienen nuestros cuerpos corriendo suavemente. También tienen un idioma propio. Los científicos asignan una letra abreviada a cada uno de los 20 aminoácidos que componen proteínas. Al igual que las palabras, las cadenas de estas letras se unen para formar proteínas de trabajo, su secuencia determina la forma y la función.

Inspirados en LLM, los científicos ahora están construyendo modelos de lenguaje de proteínas que diseñan proteínas desde cero. Algunos de estos algoritmos están disponibles públicamente, pero requieren habilidades técnicas. ¿Qué pasaría si su investigador promedio podría simplemente pedirle a una IA que diseñe una proteína con un solo mensaje?

El mes pasado, los investigadores dieron a Protein Design AI el tratamiento con chatgpt. De una descripción del tipo, estructura o funcionalidad de una proteína que está buscando, el algoritmo produce posibles candidatos. En un ejemplo, la IA, denominada pinal, hizo con éxito múltiples proteínas que podrían descomponer el alcohol cuando se analizó dentro de las células vivas. Puedes probarlo aquí.

Pinal es el último en un creciente conjunto de algoritmos que traducen el inglés cotidiano en nuevas proteínas. Estos diseñadores de proteínas entienden el lenguaje sencillo y la biología estructural, y actúan como guías para los científicos que exploran proteínas personalizadas, con poca experiencia técnica.

Es un “enfoque ambicioso y general”, el equipo internacional detrás de Pinal escribió en una preimpresión publicada en Biorxiv. La IA aprovecha el “poder descriptivo y la flexibilidad del lenguaje natural” para hacer que las proteínas de diseñador sean más accesibles para los biólogos.

Enfrentados contra los algoritmos de diseño de proteínas existentes, Pinal entendió mejor el objetivo principal de una proteína objetivo y aumentó las posibilidades de que funcionaría en las células vivas.

“Somos los primeros en diseñar una enzima funcional usando solo texto”, dijo Fajie Yuan, científica de IA de la Universidad de Westlake en China que dirigió el equipo. Naturaleza. “Es como la ciencia ficción”.

Más allá de la evolución

Las proteínas son los componentes básicos de la vida. Forman nuestros cuerpos, el metabolismo del combustible y son el objetivo de muchos medicamentos. Estas intrincadas moléculas comienzan a partir de una secuencia de “letras” de aminoácidos, que se unen entre sí y eventualmente se doblan en intrincadas estructuras 3D. Muchos elementos estructurales, un bucle aquí, un tejido o bolsillo allí, son esenciales para su función.

Los científicos han intentado durante mucho tiempo diseñar proteínas con nuevas habilidades, como enzimas que descomponen de manera eficiente los plásticos. Tradicionalmente, han personalizado las proteínas existentes para un cierto uso biológico, químico o médico. Estas estrategias “están limitadas por su dependencia de las plantillas de proteínas existentes y las limitaciones evolutivas naturales”, escribieron los autores. Los modelos de lenguaje de proteínas, en contraste, pueden soñar con un universo de nuevas proteínas sin ataduras de la evolución.

En lugar de absorber el texto, la imagen o los archivos de video, como LLMS, estos algoritmos aprenden el lenguaje de las proteínas entrenando en secuencias y estructuras de proteínas. ESM3 de EvolutionaryScale, por ejemplo, entrenó en más de 2.700 millones de secuencias de proteínas, estructuras y funciones. Los modelos similares ya se han utilizado para diseñar anticuerpos que luchan contra ataques virales y nuevas herramientas de edición de genes.

Pero estos algoritmos son difíciles de usar sin experiencia. Pinal, por el contrario, apunta al científico promedio-joe. Al igual que una cámara DSLR en Auto, el modelo “evita las especificaciones estructurales manuales”, escribió el equipo, lo que hace que sea más simple hacer su proteína deseable.

Háblame

Para usar Pinal, un usuario le pide a la IA que construya una proteína con una solicitud de varias palabras clave, frases o un párrafo completo. En la parte delantera, la IA analiza los requisitos específicos en el aviso. En el back -end, transforma estas instrucciones en una proteína funcional.

Es un poco como pedirle a ChatGTP que le escriba una reseña de restaurante o un ensayo. Pero, por supuesto, las proteínas son más difíciles de diseñar. Aunque también están formados por “letras”, su forma final determina cómo (o si) funcionan. Un enfoque, denominado entrenamiento de extremo a extremo, traduce directamente un aviso en secuencias de proteínas. Pero esto abre la IA a un vasto mundo de secuencias potenciales, lo que hace que sea más difícil marcar las secuencias precisas de las proteínas de trabajo. En comparación con las secuencias, la estructura de proteínas, la forma 3D final, es más fácil para el algoritmo generar y descifrar.

Luego está el dolor de cabeza de los datos de entrenamiento. Aquí, el equipo recurrió a las bases de datos de proteínas existentes y usó LLM para etiquetarlas. El resultado final fue una vasta biblioteca de 1.700 millones de pares de texto proteico, en el que las estructuras de proteínas coinciden con descripciones de texto de lo que hacen.

El algoritmo completado utiliza 16 mil millones de parámetros, estas son las conexiones internas de una IA, para traducir el inglés simple al idioma de la biología.

Pinal sigue dos pasos. Primero traduce las indicaciones en información estructural. Este paso divide una proteína en elementos estructurales, o “fichas”, que son más fáciles de procesar. En el segundo paso, un modelo en idioma proteico llamado Saprot considera la intención del usuario y la funcionalidad de proteínas para diseñar secuencias de proteínas con mayor probabilidad de doblar en una proteína de trabajo que satisfaga las necesidades del usuario.

En comparación con los algoritmos de diseño de proteínas de última generación que también usan el texto como entrada, incluida ESM3, el pinal superó la precisión y la novedad, es decir, generar proteínas no conocidas por la naturaleza. Usando algunas palabras clave para diseñar una proteína, “la mitad de las proteínas de pinal exhiben funciones predecibles, solo alrededor del 10 por ciento de las proteínas generadas por ESM3 lo hacen”.

En una prueba, el equipo le dio a la IA un breve aviso: “Por favor, diseñe una proteína que sea una alcohol deshidrogenasa”. Estas enzimas descomponen el alcohol. De más de 1.600 proteínas candidatas, el equipo eligió los ocho más prometedores y las probó en células vivas. Dos rompieron con éxito el alcohol a temperatura corporal, mientras que otros fueron más activos a un sudor de 158 grados Fahrenheit.

Las indicaciones más elaboradas que incluían la función de una proteína y los ejemplos de moléculas similares, arrojaron candidatos a antibióticos y proteínas para ayudar a las células a recuperarse de la infección.

Pinal no es el único IA de texto a proteína. El Startup 310 AI ha desarrollado una IA denominada MP4 para generar proteínas a partir del texto, con los resultados que la compañía dice que podría beneficiar la enfermedad cardíaca.

El enfoque no es perfecto. Al igual que los LLM, que a menudo “alucinan”, los modelos de lenguaje de proteínas también sueñan secuencias poco confiables o repetitivas que reducen las posibilidades de un resultado final de trabajo. La redacción precisa de las indicaciones también afecta la estructura de proteína final. Aún así, la IA es como la primera versión de Dall-E: juega con ella y luego valida la proteína resultante usando otros métodos.

Continue Reading

Trending