Noticias
OpenAI abre el modo más potente o1 a desarrolladores externos
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información
En el noveno día de sus anuncios de productos con temas navideños conocidos como “12 días de OpenAI”, OpenAI está lanzando su modelo más avanzado, o1, a desarrolladores externos a través de su interfaz de programación de aplicaciones (API).
Esto marca un gran paso adelante para los desarrolladores que buscan crear nuevas aplicaciones avanzadas de IA o integrar la tecnología OpenAI más avanzada en sus aplicaciones y flujos de trabajo existentes, ya sean empresariales o orientados al consumidor.
Si aún no está familiarizado con la serie o1 de OpenAI, aquí está el resumen: se anunció en septiembre de 2024, la primera de una nueva “familia” de modelos de la compañía ChatGPT, que va más allá de los modelos de lenguajes grandes (LLM) del Serie de la familia GPT, que ofrece capacidades de “razonamiento”.
Básicamente, la familia de modelos o1 (o1 y o1 mini) tardan más en responder a las indicaciones del usuario, pero comprueban por sí mismos. mientras formulan una respuesta para ver si son correctas y evitar alucinaciones. En ese momento, OpenAI dijo que podía manejar problemas más complejos, a nivel de doctorado, algo que también confirmaron los usuarios del mundo real.
Si bien los desarrolladores anteriormente tenían acceso a una versión preliminar de o1 que podían usar para crear sus propias aplicaciones sobre (por ejemplo, un asesor de doctorado o un asistente de laboratorio), el lanzamiento listo para producción del modelo o1 completo a través de la API ofrece un rendimiento mejorado, menor latencia y nuevas funciones que facilitan la integración en aplicaciones del mundo real.
OpenAI anteriormente puso o1 a disposición de los consumidores a través de sus planes ChatGPT Plus y Pro hace aproximadamente dos semanas y media, y también agregó la capacidad de los modelos para analizar y responder a imágenes y archivos cargados por los usuarios.
Junto con el lanzamiento de hoy, OpenAI anunció importantes actualizaciones de su API en tiempo real, reducciones de precios y un nuevo método de ajuste que proporciona a los desarrolladores un mayor control sobre sus modelos.
El modelo o1 completo ahora está disponible para los desarrolladores a través de la API de OpenAI
El nuevo modelo o1, disponible como o1-2024-12-17, está diseñado para sobresalir en tareas complejas de razonamiento de varios pasos. En comparación con la versión previa de o1, esta versión mejora la precisión, la eficiencia y la flexibilidad.
OpenAI informa ganancias significativas en una variedad de puntos de referencia, incluidas tareas de codificación, matemáticas y razonamiento visual.
Por ejemplo, los resultados de codificación en SWE-bench Verified aumentaron de 41,3 a 48,9, mientras que el rendimiento en la prueba AIME centrada en matemáticas saltó de 42 a 79,2. Estas mejoras hacen que o1 sea muy adecuado para crear herramientas que agilicen la atención al cliente, optimicen la logística o resuelvan problemas analíticos desafiantes.
Varias características nuevas mejoran la funcionalidad de o1 para los desarrolladores. Las salidas estructuradas permiten que las respuestas coincidan de manera confiable con formatos personalizados, como esquemas JSON, lo que garantiza la coherencia al interactuar con sistemas externos. La llamada a funciones simplifica el proceso de conexión de o1 a API y bases de datos, mientras que la capacidad de razonar sobre entradas visuales abre casos de uso en fabricación, ciencia y codificación.
Los desarrolladores también pueden ajustar el comportamiento de o1 utilizando el nuevo parámetro Reasoning_effort, que controla cuánto tiempo dedica el modelo a una tarea para equilibrar el rendimiento y el tiempo de respuesta.
La API en tiempo real de OpenAI recibe un impulso para potenciar asistentes inteligentes de IA de voz/audio conversacionales
OpenAI también anunció actualizaciones de su API en tiempo real, diseñada para impulsar experiencias de conversación naturales y de baja latencia, como asistentes de voz, herramientas de traducción en vivo o tutores virtuales.
Una nueva integración WebRTC simplifica la creación de aplicaciones basadas en voz al brindar soporte directo para transmisión de audio, supresión de ruido y control de congestión. Los desarrolladores ahora pueden integrar capacidades en tiempo real con una configuración mínima, incluso en condiciones de red variables.
OpenAI también está introduciendo nuevos precios para su API en tiempo real, reduciendo los costos en un 60% para el audio GPT-4o a $40 por 1 millón de tokens de entrada y $80 por 1 millón de tokens de salida.
Los costos de entrada de audio en caché se reducen en un 87,5% y ahora tienen un precio de 2,50 dólares por millón de tokens de entrada. Para mejorar aún más la asequibilidad, OpenAI está agregando GPT-4o mini, un modelo más pequeño y rentable con un precio de 10 dólares por millón de tokens de entrada y 20 dólares por 1 millón de tokens de salida.
Las tarifas de los tokens de texto para GPT-4o mini también son significativamente más bajas, comenzando en $0,60 para los tokens de entrada y $2,40 para los tokens de salida.
Más allá de los precios, OpenAI ofrece a los desarrolladores más control sobre las respuestas en la API en tiempo real. Funciones como las respuestas simultáneas fuera de banda permiten que se ejecuten tareas en segundo plano, como la moderación de contenido, sin interrumpir la experiencia del usuario. Los desarrolladores también pueden personalizar los contextos de entrada para centrarse en partes específicas de una conversación y controlar cuándo se activan las respuestas de voz para lograr interacciones más precisas y fluidas.
El ajuste fino de preferencias ofrece nuevas opciones de personalización
Otra incorporación importante es el ajuste preciso de preferencias, un método para personalizar modelos según las preferencias del usuario y del desarrollador.
A diferencia del ajuste fino supervisado, que se basa en pares exactos de entrada y salida, el ajuste fino de preferencia utiliza comparaciones por pares para enseñarle al modelo qué respuestas se prefieren. Este enfoque es particularmente eficaz para tareas subjetivas, como resúmenes, escritura creativa o escenarios donde el tono y el estilo importan.
Las primeras pruebas con socios como Rogo AI, que crea asistentes para analistas financieros, muestran resultados prometedores. Rogo informó que el ajuste fino de preferencias ayudó a su modelo a manejar consultas complejas fuera de distribución mejor que el ajuste fino tradicional, mejorando la precisión de las tareas en más de un 5 %. La función ahora está disponible para gpt-4o-2024-08-06 y gpt-4o-mini-2024-07-18, y hay planes de ampliar la compatibilidad con modelos más nuevos a principios del próximo año.
Nuevos SDK para desarrolladores de Go y Java
Para agilizar la integración, OpenAI está ampliando sus ofertas de SDK oficiales con versiones beta para Go y Java. Estos SDK se unen a las bibliotecas Python, Node.js y .NET existentes, lo que facilita a los desarrolladores la interacción con los modelos de OpenAI en más entornos de programación. El SDK de Go es particularmente útil para crear sistemas backend escalables, mientras que el SDK de Java está diseñado para aplicaciones de nivel empresarial que dependen de una escritura sólida y ecosistemas robustos.
Con estas actualizaciones, OpenAI ofrece a los desarrolladores un conjunto de herramientas ampliado para crear aplicaciones avanzadas y personalizables basadas en IA. Ya sea a través de las capacidades de razonamiento mejoradas de o1, mejoras de la API en tiempo real u opciones de ajuste, las últimas ofertas de OpenAI tienen como objetivo ofrecer rendimiento y rentabilidad para las empresas que superan los límites de la integración de la IA.