Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Operai ha lanzado un nuevo modelo de IA patentado a tiempo para contrarrestar el rápido ascenso del rival de código abierto Deepseek R1, pero ¿será suficiente para afectar el éxito de este último?
Hoy, después de varios días de rumores y una anticipación creciente entre los usuarios de IA en las redes sociales, Openal está debutando a O3-Mini, el segundo modelo en su nueva familia de “razonadores”, modelos que tardan un poco más en “pensar”, analizar su propios procesos y reflexionar sobre sus propias “cadenas de pensamiento” antes de responder a las consultas y entradas de los usuarios con nuevas salidas.
El resultado es un modelo que puede funcionar a nivel de un estudiante de doctorado o incluso titular de titulares para responder preguntas difíciles en matemáticas, ciencias, ingeniería y muchos otros campos.
El modelo O3-Mini ya está disponible en ChatGPT, incluido el nivel gratuito y la interfaz de programación de aplicaciones de OpenAI (API), y en realidad es menos costoso, más rápido y más desempeñada que el modelo de alta gama anterior, OpenAi’s O1 y su más rápido, su Hermano de recuento de parámetros inferiores, O1-Mini.
Si bien inevitablemente se comparará con Deepseek R1, y la fecha de lanzamiento se ve como una reacción, es importante recordar que O3 y O3-Mini se anunciaron bien antes del lanzamiento de enero de Deepseek R1, en diciembre de 2024, y que el CEO de Operai Sam Altman declaró anteriormente en X que, debido a los comentarios de desarrolladores e investigadores, llegaría a ChatGPT y la API de OpenAI al mismo tiempo.
A diferencia de Deepseek R1, O3-Mini no estará disponible como modelo de código abierto, lo que significa que el código no se puede tomar y descargar para el uso fuera de línea, ni personalizado en la misma medida, lo que puede limitar su atractivo en comparación con Deepseek R1 para algunas aplicaciones.
Operai no proporcionó más detalles sobre el (presunto) modelo O3 más grande anunciado en diciembre junto con O3-Mini. En ese momento, el formulario desplegable de opción de OpenAI para probar O3 declaró que se sometería a un “retraso de varias semanas” antes de que los terceros pudieran probarlo.
Rendimiento y características
Similar a O1, Operai O3-Mini está optimizado para el razonamiento en matemáticas, codificación y ciencia.
Su rendimiento es comparable a OpenAI O1 cuando se usa un esfuerzo de razonamiento medio, pero ofrece las siguientes ventajas:
Tiempos de respuesta del 24% más rápidos en comparación con O1-Mini (OpenAi no proporcionó un número específico aquí, pero buscando pruebas de análisis artificial del grupo de evaluación de terceros, el tiempo de respuesta de O1-Mini es de 12.8 segundos para recibir y producir 100 tokens. Entonces, para O3-Mini, un aumento de velocidad del 24% reduciría el tiempo de respuesta a 10.32 segundos).
Precisión mejorada, con probadores externos que prefieren las respuestas de O3-Mini el 56% del tiempo.
39% menos errores importantes en preguntas complejas del mundo real.
Un mejor rendimiento en la codificación y las tareas STEM, particularmente cuando se usa un esfuerzo de razonamiento.
Tres niveles de esfuerzo de razonamiento (bajo, medio y alto), lo que permite a los usuarios y desarrolladores equilibrar la precisión y la velocidad.
También cuenta con impresionantes puntos de referencia, incluso superando a O1 en algunos casos, según la tarjeta del sistema O3-Mini OpenAi lanzado en línea (y que se publicó antes del anuncio oficial de disponibilidad del modelo).
La ventana de contexto de O3-Mini, el número de tokens combinados que puede ingresar/salir en una sola interacción, es de 200,000, con un máximo de 100,000 en cada salida. Eso es lo mismo que el modelo O1 completo y supera la ventana de contexto de Deepseek R1 de alrededor de 128,000/130,000 tokens. Pero está muy por debajo de la ventana de contexto de Google Gemini 2.0 Flash Thinking de hasta 1 millón de tokens.
Si bien O3-Mini se centra en las capacidades de razonamiento, todavía no tiene capacidades de visión. Los desarrolladores y usuarios que buscan cargar imágenes y archivos deben seguir usando O1 mientras tanto.
La competencia se calienta
La llegada de las marcas O3-Mini la primera vez OpenAI está haciendo que un modelo de razonamiento esté disponible para los usuarios gratuitos de ChatGPT. La familia de modelos O1 anteriores solo estaba disponible para pagar a los suscriptores de los planes ChatGPT Plus, Pro y otros planes, así como a través de la interfaz de programación de aplicaciones pagas de OpenAI.
Como lo hizo con los chatbots con el modelo de idioma grande (LLM) a través del lanzamiento de ChatGPT en noviembre de 2022, Operai esencialmente creó toda la categoría de modelos de razonamiento en septiembre de 2024 cuando presentó O1 por primera vez, una nueva clase de modelos con una nueva capacitación régimen y arquitectura.
Pero OpenAi, de acuerdo con su historia reciente, no hizo O1 Open Source, contrario a su nombre y misión de fundación original. En cambio, mantuvo el código del modelo propietario.
Y en las últimas dos semanas, O1 ha sido eclipsado por la startup china de IA Deepseek, que lanzó R1, un modelo de razonamiento de código abierto rival, altamente eficiente, en gran medida abierto, disponible gratuitamente para tomar, volver a entrenar y personalizar por cualquier persona en todo el mundo, así como Como uso de forma gratuita en el sitio web y la aplicación móvil de Deepseek, un modelo, según los informes, capacitado a una fracción del costo de O1 y otros LLM de los mejores laboratorios.
Los términos de licencia del MIT permisivos de Deepseek R1, la aplicación/sitio web gratuitos para los consumidores y la decisión de poner en código de código de R1 a disposición de la base y modificarlo a la vez que lo ha llevado a una verdadera explosión de uso tanto en los mercados de consumo como en las empresas, incluso el inversor de OpenAi Microsoft y el patrocinador antrópico Amazon se apresura a agregar variantes a sus mercados de nubes. La perplejidad, la compañía de búsqueda de IA, también agregó rápidamente una variante para los usuarios.
También destronó la aplicación ChatGPT iOS para el lugar número uno en la tienda de aplicaciones de Apple de EE. UU., Y es notable por superar a OpenAI conectando Deepseek R1 a la búsqueda web, algo que OpenAI aún no ha hecho para O1, lo que lleva a una mayor ansiedad techno entre tecnología. Los trabajadores y otros en línea que China se está poniendo al día o ha superado a los Estados Unidos en la innovación de IA, incluso la tecnología en general.
Sin embargo, muchos investigadores de IA y científicos y los principales VC como Marc Andreessen han acogido con beneplácito el aumento de Deepseek y su abastecimiento abierto en particular como una marea que levanta todos los barcos en el campo de la IA, aumentando la inteligencia disponible para todos al tiempo que reduce los costos.
Disponibilidad en chatgpt
El modelo ahora se está implementando a nivel mundial para usuarios gratuitos, además de Team, y Pro, con acceso a la empresa y la educación que llegará la próxima semana.
Los usuarios gratuitos pueden probar O3-Mini por primera vez seleccionando el botón “Razón” en la barra de chat o regenerando una respuesta.
Los límites de mensajes han aumentado 3 veces para los usuarios más y del equipo, de 50 a 150 mensajes por día.
Los usuarios profesionales obtienen acceso ilimitado tanto a O3-Mini como a una nueva variante, incluso de mayor condición, O3-Mini-High.
Además, O3-Mini ahora admite la integración de búsqueda dentro de ChatGPT, proporcionando respuestas con enlaces web relevantes. Esta característica todavía se encuentra en sus primeras etapas, ya que OpenAI refina las capacidades de búsqueda en sus modelos de razonamiento.
Integración y precios de API
Para los desarrolladores, O3-Mini está disponible a través de la API de finalización de chat, la API de asistentes y la API por lotes. El modelo admite llamadas de función, salidas estructuradas y mensajes de desarrollador, lo que facilita la integración en aplicaciones del mundo real.
Una de las ventajas más notables de O3-Mini es su eficiencia de costo: es un 63% más barato que OpenAI O1-Mini y 93% más barato que el modelo O1 completo, con un precio de $ 1.10/$ 4.40 por millón de tokens In/Out (con un descuento de 50% en caché ).
Sin embargo, todavía palidece en comparación con la asequibilidad de la oferta oficial de R1 de la API de DeepSeek a $ 0.14/$ 0.55 por millón de tokens. Pero Dado Deepseek se basa en China y viene con conciencia geopolítica y preocupaciones de seguridad sobre los datos del usuario/empresa que fluyen dentro y fuera del modelo, es probable que Operai siga siendo la API preferida para algunos clientes y empresas centradas en la seguridad en los Estados Unidos. y Europa.
Los desarrolladores también pueden ajustar el nivel de esfuerzo de razonamiento (bajo, medio, alto) en función de sus necesidades de aplicación, lo que permite un mayor control sobre las compensaciones de latencia y precisión.
Sobre seguridad, Operai dice que usó algo llamado “alineación deliberativa” con O3-Mini. Esto significa que se le pidió al modelo que razonara sobre las pautas de seguridad de autorización humana que se le dio, comprenden más de su intención y los daños que están diseñados para prevenir, y se les ocurre sus propias formas de garantizar que se eviten esos daños. Operai dice que permite que el modelo sea menos censurado cuando se discute temas delicados al tiempo que preserva la seguridad.
Operai dice que el modelo supera a GPT-4O en el manejo de los desafíos de seguridad y jailbreak, y que realizó una amplia prueba de seguridad externa antes de su lanzamiento hoy.
Un informe reciente cubierto en Cableado (Donde trabaja mi esposa) demostró que Deepseek sucumbió a cada aviso de jailbreak e intento de 50 probados por investigadores de seguridad, lo que puede darle a OpenAI O3-Mini la ventaja sobre Deepseek R1 en los casos en que la seguridad y la seguridad son primordiales.
Qué próximo?
El lanzamiento de O3-Mini representa el esfuerzo más amplio de Openai para hacer que el razonamiento avanzado AI sea más accesible y rentable frente a una competencia más intensa que nunca de R1 y otros de Deepseek, como Google, que recientemente lanzó una versión gratuita propia propia. Modelo de razonamiento rival Gemini 2 Flash Pensamiento con un contexto de entrada ampliado de hasta 1 millón de tokens.
Con su enfoque en el razonamiento y la asequibilidad STEM, OpenAI tiene como objetivo expandir el alcance de la resolución de problemas impulsada por la IA en aplicaciones de consumidores y desarrolladores.
Pero a medida que la compañía se vuelve más ambiciosa que nunca en sus objetivos, recientemente anunciando un proyecto de infraestructura de centros de datos de $ 500 mil millones llamado Stargate con el respaldo de SoftBank, la pregunta sigue siendo si su estrategia valdrá lo suficientemente bien como para justificar los multibonos hundidos en él. Inversores de bolsillo profundamente como Microsoft y otros VC.
A medida que los modelos de código abierto cierran cada vez más la brecha con OpenAi en el rendimiento y lo superan en el costo, según los informes, sus medidas de seguridad superiores, capacidades potentes, API fácil de usar e interfaces fáciles de usar ser suficientes para mantener a los clientes, especialmente en la empresa, en la empresa, ¿Quién puede priorizar el costo y la eficiencia sobre estos atributos? Informaremos sobre los desarrollos a medida que se desarrollen.
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
¿Operai está desarrollando una plataforma de redes sociales?
Según los informes, Openai está desarrollando una plataforma de redes sociales similar a X, con un prototipo interno que integra las capacidades de generación de imágenes de ChatGPT.
queso Cheddar
La competencia para los principales investigadores de IA se ha intensificado en niveles sin precedentes en Silicon Valley.
Empresas como OpenAI y Google están ofreciendo paquetes de compensación exorbitantes, incluidos bonos y capital multimillonarios, para atraer y retener talento.
La escasez de personas con experiencia en modelos de idiomas grandes es impulsar las tácticas de reclutamiento agresivas.
SAN FRANCISCO – El concurso en Silicon Valley para dominar la inteligencia artificial se está desarrollando en una nueva corte: los investigadores superestrella.
Si bien la lucha para atraer el mejor talento y mantenerlos felices siempre ha sido un sello distintivo de la industria tecnológica, desde que ChatGPT se lanzó a fines de 2022, el reclutamiento se ha intensificado a los niveles profesionales de atletas, una docena de personas que han estado involucradas en el reclutamiento de investigadores de IA dijeron a Reuters.
“Los laboratorios de IA se acercan a la contratación como un juego de ajedrez”, dijo Ariel Herbert-Voss, CEO de la startup de ciberseguridad Runsybil y un ex investigador de Operai que ingresó a la pelea de talentos después de lanzar su propia compañía. “Quieren moverse lo más rápido posible, por lo que están dispuestos a pagar mucho por candidatos con experiencia especializada y complementaria, al igual que las piezas del juego. Son como, ‘¿Tengo suficientes torres?
Empresas, incluidas OpenAi y Google, ansiosas por obtener o mantenerse por delante en la carrera para crear los mejores modelos de IA, cortan a estos llamados “IC”: los contribuyentes individuales cuyo trabajo puede hacer o romper empresas.
Noam Brown, uno de los investigadores detrás de los recientes avances de IA de OpenAi en el razonamiento complejo de matemáticas y ciencias, dijo que cuando exploró las oportunidades de trabajo en 2023, se encontró siendo cortejado por la élite de Tech: el almuerzo con el fundador de Google Sergey Brin, póker de Sam Altman’s y una visita de avión privado de un ansioso inversor. Elon Musk también hará llamadas para cerrar candidatos para Xai, su compañía de IA, dijeron que dos personas que han hablado con él. Xai no respondió a una solicitud de comentarios.
Finalmente, dijo Brown, eligió OpenAi porque OpenAi estaba dispuesto a poner recursos, tanto las personas como el cálculo, detrás del trabajo que estaba entusiasmado.
“En realidad, no era financieramente la mejor opción que tenía”, dijo, explicando que la compensación no es lo más importante para muchos investigadores. Eso no ha impedido que las empresas arrojen millones de dólares en bonos y paquetes de paquetes a los investigadores STAR, según siete fuentes familiarizadas con el asunto.
Algunos investigadores de los principales abiertos que han indicado interés en unirse a la nueva compañía de la ex científica jefe Ilya Sutskever, SSI, se les ofreció bonos de retención de $ 2 millones, además de aumentos de capital de $ 20 millones o más, si se quedaron, a dos fuentes le dijeron a Reuters. Algunos solo se les ha requerido que se queden durante un año para obtener la bonificación completa. SSI y OpenAi declinaron hacer comentarios.
Otros investigadores de Operai que han presentado ofertas de once laboratorios han recibido bonos de al menos $ 1 millón para quedarse en OpenAI, dijeron dos fuentes a Reuters. Los principales investigadores de OpenAI reciben regularmente paquetes de compensación de más de $ 10 millones al año, dijeron las fuentes.
Noticias de Xai: El Dux de Elon Musk expandiendo Grok Ai en el gobierno de los Estados Unidos, planteando conflictos y preocupaciones de privacidad
Google Deepmind ha ofrecido a los principales investigadores $ 20 millones por año paquetes de compensación, otorgados con subvenciones de capital fuera del ciclo específicamente a los investigadores de IA, y también ha reducido la adjudicación de algunos paquetes de valores a 3 años, en lugar de los 4 años normales, dijeron las fuentes. Google declinó hacer comentarios.
Por el contrario, los principales ingenieros de Big Tech Companies reciben una compensación anual promedio de $ 281,000 en salario y $ 261,000 en capital, según CompreHensive.io, una compañía que rastrea la compensación de la industria tecnológica.
La guerra de talentos de IA
Si bien el talento siempre ha sido importante en Silicon Valley, la diferencia con el auge de la IA es cuán pocas personas están en este grupo de élite, dependiendo de a quién le pregunte, el número podría variar de unas pocas docenas a alrededor de mil, ocho fuentes dijeron a Reuters.
Eso se basa en la creencia de que este pequeño número de “IC” ha hecho contribuciones de gran tamaño al desarrollo de grandes modelos de idiomas, la tecnología en la que se basa el auge de IA de hoy y, por lo tanto, podría hacer o romper el éxito de un modelo de IA.
“Seguro que los ingenieros 10X son geniales, pero maldita sea esos 10,000x ingenieros/investigadores …”, tuiteó el CEO de OpenAI, Sam Altman, a finales de 2023, aludiendo a una máxima larga que los mejores ingenieros de software fueron 10 veces más buenos que el promedio (10X), pero ahora en la industria de la IA, los mejores investigadores son 10,000 veces (10,000x) tan efectivos que el promedio.
Noticias de FedEx: ¿Quién liderará la carga de FedEx después del spin-off? CEO y presidente de la junta nombrado
La partida de septiembre del director de tecnología de OpenAi, Mira Murati, quien luego fundó una startup rival de IA, ha intensificado la Guerra de Talento AI. Murati, conocido en Operai por sus habilidades de gestión y destreza de ejecución, reclutó a 20 empleados de Operai antes de anunciar su empresa en febrero. Ahora ha atraído aún más investigadores de Operai y otros laboratorios, y el equipo ahora tiene alrededor de 60 personas, dijeron dos fuentes a Reuters. Aunque la compañía no tiene ningún producto en el mercado, Murati está en medio de cerrar una ronda de semillas récord que se basa en la fuerza del equipo. Un representante de Murati declinó hacer comentarios.
La escasez de talento ha obligado a las empresas a acercarse a la contratación creativamente. Zeki Data, una empresa de datos centrada en identificar el talento de IA de los mejores IA, dijo que está empleando técnicas de análisis de datos de la industria del deporte como la popularizada por la película “Moneyball” para identificar talento prometedor pero no descubierto. Por ejemplo, los datos de Zeki descubrieron que Anthrope ha estado contratando investigadores con antecedentes de física teórica, y otras compañías de inteligencia artificial han contratado individuos con antecedentes de computación cuántica.
Anthrope no respondió a una solicitud de comentarios.
“En mi equipo, tengo matemáticos extraordinariamente talentosos que no habrían venido a este campo si no fuera por el rápido progreso que estamos viendo ahora”, dijo Sébastien Bubeck, quien dejó su papel como vicepresidente de investigación de Genai en Microsoft el año pasado para unirse a Openi. “Estamos viendo una afluencia de talento de todos los campos que están en IA ahora. Y algunas de estas personas son muy, muy inteligentes, y marcan la diferencia”.
Informes de Anna Tong en San Francisco; Edición de Kenneth Li y Claudia Parsons
Los chatbots de IA avanzan rápidamente y los probando hasta sus límites es lo que hago para vivir. El soneto Claude 4 de Anthrope y el chatgpt-4o de OpenAI son dos de las herramientas más inteligentes disponibles en este momento. Pero, ¿cómo se comparan realmente en el uso diario?
Para averiguarlo, le di a ambos modelos el mismo conjunto de 7 indicaciones; Cubriendo todo, desde narración de cuentos y productividad hasta apoyo emocional y pensamiento crítico.
“Escríbeme un resumen conciso de Misión imposible Personajes y tramas hasta la fecha ”, recientemente le pregunté a ChatGPT antes de atrapar la última entrada de franquicia. Se entregó. No necesitaba entender su código o conocer su conjunto de datos de capacitación. Todo lo que tenía que hacer era preguntar.
ChatGPT y otros chatbots impulsados por modelos de idiomas grandes, o LLM, son más populares que nunca. Los científicos están tomando nota. Las proteínas, los caballos de batalla moleculares de las células, mantienen nuestros cuerpos corriendo suavemente. También tienen un idioma propio. Los científicos asignan una letra abreviada a cada uno de los 20 aminoácidos que componen proteínas. Al igual que las palabras, las cadenas de estas letras se unen para formar proteínas de trabajo, su secuencia determina la forma y la función.
Inspirados en LLM, los científicos ahora están construyendo modelos de lenguaje de proteínas que diseñan proteínas desde cero. Algunos de estos algoritmos están disponibles públicamente, pero requieren habilidades técnicas. ¿Qué pasaría si su investigador promedio podría simplemente pedirle a una IA que diseñe una proteína con un solo mensaje?
El mes pasado, los investigadores dieron a Protein Design AI el tratamiento con chatgpt. De una descripción del tipo, estructura o funcionalidad de una proteína que está buscando, el algoritmo produce posibles candidatos. En un ejemplo, la IA, denominada pinal, hizo con éxito múltiples proteínas que podrían descomponer el alcohol cuando se analizó dentro de las células vivas. Puedes probarlo aquí.
Pinal es el último en un creciente conjunto de algoritmos que traducen el inglés cotidiano en nuevas proteínas. Estos diseñadores de proteínas entienden el lenguaje sencillo y la biología estructural, y actúan como guías para los científicos que exploran proteínas personalizadas, con poca experiencia técnica.
Es un “enfoque ambicioso y general”, el equipo internacional detrás de Pinal escribió en una preimpresión publicada en Biorxiv. La IA aprovecha el “poder descriptivo y la flexibilidad del lenguaje natural” para hacer que las proteínas de diseñador sean más accesibles para los biólogos.
Enfrentados contra los algoritmos de diseño de proteínas existentes, Pinal entendió mejor el objetivo principal de una proteína objetivo y aumentó las posibilidades de que funcionaría en las células vivas.
“Somos los primeros en diseñar una enzima funcional usando solo texto”, dijo Fajie Yuan, científica de IA de la Universidad de Westlake en China que dirigió el equipo. Naturaleza. “Es como la ciencia ficción”.
Más allá de la evolución
Las proteínas son los componentes básicos de la vida. Forman nuestros cuerpos, el metabolismo del combustible y son el objetivo de muchos medicamentos. Estas intrincadas moléculas comienzan a partir de una secuencia de “letras” de aminoácidos, que se unen entre sí y eventualmente se doblan en intrincadas estructuras 3D. Muchos elementos estructurales, un bucle aquí, un tejido o bolsillo allí, son esenciales para su función.
Los científicos han intentado durante mucho tiempo diseñar proteínas con nuevas habilidades, como enzimas que descomponen de manera eficiente los plásticos. Tradicionalmente, han personalizado las proteínas existentes para un cierto uso biológico, químico o médico. Estas estrategias “están limitadas por su dependencia de las plantillas de proteínas existentes y las limitaciones evolutivas naturales”, escribieron los autores. Los modelos de lenguaje de proteínas, en contraste, pueden soñar con un universo de nuevas proteínas sin ataduras de la evolución.
En lugar de absorber el texto, la imagen o los archivos de video, como LLMS, estos algoritmos aprenden el lenguaje de las proteínas entrenando en secuencias y estructuras de proteínas. ESM3 de EvolutionaryScale, por ejemplo, entrenó en más de 2.700 millones de secuencias de proteínas, estructuras y funciones. Los modelos similares ya se han utilizado para diseñar anticuerpos que luchan contra ataques virales y nuevas herramientas de edición de genes.
Pero estos algoritmos son difíciles de usar sin experiencia. Pinal, por el contrario, apunta al científico promedio-joe. Al igual que una cámara DSLR en Auto, el modelo “evita las especificaciones estructurales manuales”, escribió el equipo, lo que hace que sea más simple hacer su proteína deseable.
Háblame
Para usar Pinal, un usuario le pide a la IA que construya una proteína con una solicitud de varias palabras clave, frases o un párrafo completo. En la parte delantera, la IA analiza los requisitos específicos en el aviso. En el back -end, transforma estas instrucciones en una proteína funcional.
Es un poco como pedirle a ChatGTP que le escriba una reseña de restaurante o un ensayo. Pero, por supuesto, las proteínas son más difíciles de diseñar. Aunque también están formados por “letras”, su forma final determina cómo (o si) funcionan. Un enfoque, denominado entrenamiento de extremo a extremo, traduce directamente un aviso en secuencias de proteínas. Pero esto abre la IA a un vasto mundo de secuencias potenciales, lo que hace que sea más difícil marcar las secuencias precisas de las proteínas de trabajo. En comparación con las secuencias, la estructura de proteínas, la forma 3D final, es más fácil para el algoritmo generar y descifrar.
Luego está el dolor de cabeza de los datos de entrenamiento. Aquí, el equipo recurrió a las bases de datos de proteínas existentes y usó LLM para etiquetarlas. El resultado final fue una vasta biblioteca de 1.700 millones de pares de texto proteico, en el que las estructuras de proteínas coinciden con descripciones de texto de lo que hacen.
El algoritmo completado utiliza 16 mil millones de parámetros, estas son las conexiones internas de una IA, para traducir el inglés simple al idioma de la biología.
Pinal sigue dos pasos. Primero traduce las indicaciones en información estructural. Este paso divide una proteína en elementos estructurales, o “fichas”, que son más fáciles de procesar. En el segundo paso, un modelo en idioma proteico llamado Saprot considera la intención del usuario y la funcionalidad de proteínas para diseñar secuencias de proteínas con mayor probabilidad de doblar en una proteína de trabajo que satisfaga las necesidades del usuario.
En comparación con los algoritmos de diseño de proteínas de última generación que también usan el texto como entrada, incluida ESM3, el pinal superó la precisión y la novedad, es decir, generar proteínas no conocidas por la naturaleza. Usando algunas palabras clave para diseñar una proteína, “la mitad de las proteínas de pinal exhiben funciones predecibles, solo alrededor del 10 por ciento de las proteínas generadas por ESM3 lo hacen”.
En una prueba, el equipo le dio a la IA un breve aviso: “Por favor, diseñe una proteína que sea una alcohol deshidrogenasa”. Estas enzimas descomponen el alcohol. De más de 1.600 proteínas candidatas, el equipo eligió los ocho más prometedores y las probó en células vivas. Dos rompieron con éxito el alcohol a temperatura corporal, mientras que otros fueron más activos a un sudor de 158 grados Fahrenheit.
Las indicaciones más elaboradas que incluían la función de una proteína y los ejemplos de moléculas similares, arrojaron candidatos a antibióticos y proteínas para ayudar a las células a recuperarse de la infección.
Pinal no es el único IA de texto a proteína. El Startup 310 AI ha desarrollado una IA denominada MP4 para generar proteínas a partir del texto, con los resultados que la compañía dice que podría beneficiar la enfermedad cardíaca.
El enfoque no es perfecto. Al igual que los LLM, que a menudo “alucinan”, los modelos de lenguaje de proteínas también sueñan secuencias poco confiables o repetitivas que reducen las posibilidades de un resultado final de trabajo. La redacción precisa de las indicaciones también afecta la estructura de proteína final. Aún así, la IA es como la primera versión de Dall-E: juega con ella y luego valida la proteína resultante usando otros métodos.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.