Connect with us

Noticias

O3 de OpenAI aún no es AGI, pero simplemente hizo algo que ninguna otra IA ha hecho

Published

on

Sam Altman y los diputados de OpenAI analizan el rendimiento del nuevo modelo o3 en la prueba ARC-AGI.

OpenAI/ZDNET

El último modelo de lenguaje grande de OpenAI aún no está disponible, pero ya tenemos algunas formas de saber qué puede y qué no puede hacer.

El lanzamiento “o3” de OpenAI se dio a conocer el 20 de diciembre en forma de un video infomercial, lo que significa que la mayoría de las personas ajenas a la empresa no tienen idea de lo que realmente es capaz de hacer. (Se está dando acceso anticipado a los grupos externos de pruebas de seguridad).

Además: 15 formas en que la IA me ahorró tiempo en el trabajo en 2024

Aunque el video presentó mucha discusión sobre varios logros de referencia, el mensaje del cofundador y director ejecutivo de OpenAI, Sam Altman, en el video fue muy breve. Su afirmación más importante, y además vaga, fue que o3 “es un modelo increíblemente inteligente”.

ARC-AGI puso a prueba o3

OpenAI planea lanzar la versión “mini” de o3 a finales de enero y la versión completa algún tiempo después, dijo Altman.

Un outsider, sin embargo, ha tenido la oportunidad de poner a prueba a o3, en cierto sentido.

La prueba, en este caso, se llama “Corpus de Abstracción y Razonamiento para la Inteligencia General Artificial” o ARC-AGI. Es una colección de “desafíos para los sistemas inteligentes”, un nuevo punto de referencia. El ARC-AGI se anuncia como “el único punto de referencia diseñado específicamente para medir la adaptabilidad a la novedad”. Eso significa que está destinado a evaluar la adquisición de nuevas habilidades, no sólo el uso de conocimientos memorizados.

Además: ¿Por qué la ética se está convirtiendo en el mayor desafío de la IA?

Algunos consideran la AGI, inteligencia artificial general, como el Santo Grial: el logro de un nivel de inteligencia artificial que podría igualar o superar la inteligencia humana. La idea de ARC-AGI es guiar la IA hacia “sistemas artificiales más inteligentes y más parecidos a los humanos”.

El modelo o3 obtuvo una precisión del 76% en ARC-AGI en una evaluación coordinada formalmente por OpenAI y el autor de ARC-AGI, François Chollet, científico de la unidad de inteligencia artificial de Google.

Un cambio en las capacidades de la IA

En el sitio web de ARC-AGI, Chollet escribió la semana pasada que la puntuación del 76% es la primera vez que la IA supera la puntuación de un humano en el examen, como lo ejemplifican las respuestas de los trabajadores humanos de Mechanical Turk que tomaron la prueba y quienes, en promedio, obtuvo una puntuación ligeramente superior al 75% de aciertos.

francois-chollet.jpg

François Chollet

Chollet escribió que la puntuación alta es “un aumento sorprendente e importante de la función escalonada en las capacidades de la IA, que muestra una capacidad novedosa de adaptación a tareas nunca antes vista en los modelos de la familia GPT”. Y añadió: “Toda la intuición sobre las capacidades de la IA deberá actualizarse para o3”.

El logro marca “un verdadero avance” y “un cambio cualitativo en las capacidades de la IA”, declaró Chollet. Chollet predice que la capacidad de o3 para “adaptarse a tareas que nunca antes había enfrentado” significa que “debe planificar que estas capacidades sean competitivas con el trabajo humano en un plazo bastante corto”.

Los comentarios de Chollet son dignos de mención porque nunca ha sido un defensor de la IA. En 2019, cuando creó ARC-AGI, me dijo en una entrevista que tuvimos para ZDNET que el flujo constante de “artículos de prensa grandilocuentes” de empresas de IA “sugieren engañosamente que la IA a nivel humano quizás esté a unos años de distancia”, mientras que consideraba tal hipérbole “una ilusión”.

Las preguntas ARC-AGI son fáciles de entender para las personas y bastante fáciles de resolver. Cada desafío muestra de tres a cinco ejemplos de la pregunta y la respuesta correcta, y luego al examinado se le presenta una pregunta similar y se le pide que proporcione la respuesta que falta.

muestra-2 de competencia-arc-agi

La forma básica de ARC-AGI es tener de tres a cinco ejemplos de entrada y salida, que representan la pregunta y su respuesta, y luego un ejemplo final de entrada para el cual se debe proporcionar la respuesta proporcionando la imagen de salida correcta. Es bastante fácil para un humano descubrir qué imagen producir tocando píxeles de colores, incluso si no puede articular la regla per se.

Premio ARCP

Las preguntas no están basadas en texto sino en imágenes. Primero se muestra una cuadrícula de píxeles con formas coloreadas, seguida de una segunda versión que ha sido modificada de alguna manera. La pregunta es: ¿Cuál es la regla que cambia la imagen inicial en la segunda imagen?

En otras palabras, el desafío no depende directamente del lenguaje natural, el área célebre de los grandes modelos de lenguaje. En cambio, prueba la formulación de patrones abstractos en el dominio visual.

Pruebe ARC-AGI usted mismo

Puede probar ARC-AGI usted mismo en el sitio web del desafío de Chollet. Respondes al desafío “dibujando” en una cuadrícula vacía, completando cada píxel con el color correcto para crear la cuadrícula correcta de píxeles de colores como “respuesta”.

Es divertido, como jugar al Sudoku o al Tetris. Lo más probable es que, incluso si no puedes articular verbalmente cuál es la regla, descubrirás rápidamente qué cuadros deben colorearse para producir la solución. La parte que lleva más tiempo es tocar cada píxel de la cuadrícula para asignar su color.

Además: Por qué el avance cuántico de Google es “realmente notable” y qué sucederá después

Una respuesta correcta produce una animación de lanzamiento de confeti en la página web y el mensaje: “Has resuelto el rompecabezas diario del premio ARC. Aún eres más (generalmente) inteligente que la IA”.

Tenga en cuenta que cuando o3 o cualquier otro modelo realiza la prueba, no actúa directamente sobre los píxeles. En cambio, el equivalente se introduce en la máquina como una matriz de filas y columnas de números que deben transformarse en una matriz diferente como respuesta. Por lo tanto, los modelos de IA no “ven” la prueba de la misma manera que lo hace un humano.

Lo que aún no está claro

A pesar de los logros de o3, es difícil hacer declaraciones definitivas sobre las capacidades de o3. Debido a que el modelo de OpenAI es de código cerrado, todavía no está claro exactamente cómo el modelo resuelve el desafío.

Al no ser parte de OpenAI, Chollet tiene que especular sobre cómo o3 está haciendo lo que está haciendo.

Conjetura que el logro es el resultado de que OpenAI cambió la “arquitectura” de o3 con respecto a la de sus predecesores. Una arquitectura en IA se refiere a la disposición y relación de los elementos funcionales que dan estructura al código.

Además: si ChatGPT produce código generado por IA para tu aplicación, ¿a quién pertenece realmente?

Chollet especula en el blog que “en el momento de la prueba, el modelo busca en el espacio de posibles Cadenas de Pensamiento (CoT) que describen los pasos necesarios para resolver la tarea, de una manera tal vez no muy diferente a la búsqueda en árbol de Monte Carlo al estilo AlphaZero”.

El término cadena de pensamiento se refiere a un enfoque cada vez más popular en la IA generativa en el que el modelo de IA puede detallar la secuencia de cálculos que realiza en busca de la respuesta final. AlphaZero es el famoso programa de inteligencia artificial de la unidad DeepMind de Google que venció a los humanos en el ajedrez en 2016. Una búsqueda de árboles de Monte Carlo es un enfoque informático que existe desde hace décadas.

En un intercambio de correo electrónico, Chollet me contó un poco más sobre su pensamiento. Le pregunté cómo llegó a esa idea de una búsqueda de cadenas de pensamiento. “Claramente, cuando el modelo está ‘pensando’ durante horas y generando millones de tokens en el proceso de resolver un único rompecabezas, debe estar haciendo algún tipo de búsqueda”, respondió Chollet.

Chollet añadió:

Es completamente obvio por las características de latencia/coste del modelo que está haciendo algo completamente diferente a la serie GPT. No es la misma arquitectura, ni nada remotamente parecido. El factor definitorio del nuevo sistema es una gran cantidad de búsquedas en el momento de la prueba. Anteriormente, 4 años de ampliación de la misma arquitectura (la serie GPT) no habían producido ningún progreso en ARC, y ahora este sistema, que claramente tiene una nueva arquitectura, está creando un cambio funcional gradual en las capacidades, por lo que la arquitectura lo es todo.

Hay una serie de advertencias aquí. OpenAI no reveló cuánto dinero se gastó en una de sus versiones de o3 para resolver ARC-AGI. Esa es una omisión significativa porque un criterio de ARC-AGI es el costo en dólares reales de usar chips GPU como proxy de la “eficiencia” del modelo de IA.

Chollet me dijo en un correo electrónico que el enfoque de o3 no equivale a un enfoque de “fuerza bruta”, pero bromeó: “Por supuesto, también se podría definir la fuerza bruta como ‘lanzar una cantidad excesiva de cómputo a un problema simple’. ‘ en cuyo caso se podría decir que es fuerza bruta”.

Además, Chollet señala que o3 fue entrenado para realizar la prueba ARC-AGI utilizando el conjunto de datos de entrenamiento de la competencia. Eso significa que aún no está claro cómo abordaría el examen una versión limpia de o3, sin preparación para el examen.

También: El generador de vídeo Sora AI de OpenAI ya está aquí: cómo probarlo

Chollet me dijo en un correo electrónico: “Será interesante ver qué puntuación obtiene el sistema base sin información relacionada con ARC, pero en cualquier caso, el hecho de que el sistema esté ajustado para ARC a través del conjunto de entrenamiento no invalida su rendimiento”. “Para eso está el conjunto de entrenamiento. Hasta ahora nadie había podido lograr puntuaciones similares, incluso después de entrenar en millones de tareas ARC generadas”.

o3 todavía falla en algunas tareas fáciles

A pesar de la incertidumbre, una cosa parece muy clara: quienes anhelan AGI se sentirán decepcionados. Chollet enfatiza que la prueba ARC-AGI es “una herramienta de investigación” y que “aprobar ARC-AGI no equivale a alcanzar AGI”.

“De hecho, no creo que o3 sea AGI todavía”, escribe Chollet en el blog ARC-AGI. “O3 todavía falla en algunas tareas muy fáciles, lo que indica diferencias fundamentales con la inteligencia humana”.

Para demostrar que todavía no estamos al nivel de inteligencia humana, Chollet señala algunos de los problemas simples en ARC-AGI que o3 no puede resolver. Uno de esos problemas implica simplemente mover un cuadrado de color en una cantidad determinada, un patrón que rápidamente se vuelve claro para un ser humano.

ejemplo-de-falla-de-arc-agi-2024

Un problema de ejemplo de ARC-AGI donde falló el modelo o3.

Premio ARCP

Chollet planea presentar una nueva versión de ARC-AGI en enero. Predice que reducirá drásticamente los resultados de o3. “Sabrás que AGI está aquí cuando el ejercicio de crear tareas que sean fáciles para los humanos comunes pero difíciles para la IA se vuelva simplemente imposible”, concluye.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

8 características de chatgpt que faltan que la aplicación debe agregar inmediatamente

Published

on

Chatgpt es mi aplicación AI en este momento. Lo uso en Mac, iPhone y iPad, siendo el primero mi forma preferida de interactuar con la IA. También soy un usuario de ChatGPT Plus, ya que quiero un acceso más rápido (al menos tan rápido como lo permite la UE) a las características de IA más recientes y los límites más altos que la cuenta gratuita.

He estado en el nivel más durante más de un año, así que he disfrutado todas las grandes actualizaciones de ChatGPT desde entonces, siendo el operador la única excepción. El operador de ChatGPT es un agente de IA que puede explorar la web para el usuario y tomar medidas en línea por su cuenta. Está disponible para el ChatGpt Pro de nivel.

Como tal, he sido testigo de todas las mejoras que las aplicaciones ChatGPT han recibido en los últimos años, tanto en la web como en el móvil. La interfaz de usuario de ChatGPT ha avanzado considerablemente para adaptarse al creciente número de habilidades de CHATGPT. Ahora es aún más fácil chatear con la IA, cambiar entre modelos y usar muchas de las diversas herramientas que Openai ha ideado hasta ahora.

A lo que estoy recibiendo es que ChatGPT es una aplicación madura que ofrece una gran experiencia. Sin embargo, todavía no estoy perfectamente feliz con eso. A continuación, enumeraré las diversas funciones que quiero ver que OpenAi traiga a Chatgpt, y no todas sean necesariamente a la IA. Algunos se refieren a cosas simples como la configuración del perfil.

Plan familiar de chatgpt

Estoy feliz de pagar $ 20/mes por ChatGpt Plus. Como dije antes, prefiero abandonar Netflix que Chatgpt Plus, ya que este último es más valioso para mí que el acceso a los programas de transmisión.

También estoy listo para los inevitables aumentos de precios, siempre y cuando vengan con un mejor acceso a las herramientas de chatgpt, límites más altos y menos tiempo de inactividad.

En esa nota, también creo que ChatGPT necesita un plan familiar basado en la experiencia positiva. No puede (o no debería) compartir su cuenta de chatgpt premium con nadie. Pero es posible que desee que todo su hogar tenga acceso a las herramientas de IA más avanzadas. Ahí es donde un plan familiar ChatGPT podría ser útil.

Convertir los informes de investigación profundos en podcasts

Aplicación de AI de Google Notebooklm para iPhone. Fuente de la imagen: App Store

Cuando se trata de nuevas funciones de IA, la capacidad de convertir los informes de investigación de ChatGPT en podcasts como Google lo hace con NotebookLM y Gemini es mi solicitud principal de la aplicación.

Sí, puede decirle a la IA que hable sus respuestas en voz alta, pero los informes de investigación profundos son mucho más largos que un chat tradicional. En mi experiencia, ChatGPT no pudo leer en voz alta los profundos informes de investigación que probé.

Además, una experiencia similar a un podcast agrega más dinamismo a la discusión, lo que hace que todo sea más emocionante.

¿Dónde están mis profundos informes de investigación?

Hablando de una investigación profunda, la aplicación CHATGPT debería darme una forma de clasificar automáticamente los chats de investigación profundos. Como usuario de ChatGPT Plus, tengo acceso a 25 informes por mes. Pero no están dispuestos cuidadosamente en una carpeta o sección de la aplicación, como lo están las imágenes generadas por IA.

En cambio, tengo que buscarlos o desplazarse por la lista para encontrarlos. Los informes de investigación profundos son el tipo de chats ChatGPT a los que querré volver.

Podría organizarlos manualmente en carpetas, una función de ChatGpt que ofrece, pero no quiero esa molestia. Esta es una aplicación AI, y debería hacerlo automáticamente.

Ubicación, ubicación, ubicación

Chatgpt me dio un mapa interactivo en una charla sobre planes de viaje.
Chatgpt me dio un mapa interactivo en una charla sobre planes de viaje. Fuente de la imagen: Chris Smith, BGR

Lo único que necesito más en ChatGPT cuando se trata de hablar sobre destinos turísticos y empresas son los datos de ubicación. Es decir, quiero una representación visual que ponga cosas en el mapa para que pueda ver dónde están los lugares de interés.

He atrapado a Chatgpt haciéndolo una vez en la aplicación de escritorio, pero no he podido replicarlo desde entonces. Curiosamente, la aplicación móvil tiene un menú de configuración para elegir el “proveedor de mapas”, donde puedo elegir entre Apple Maps y Google Maps.

La aplicación de escritorio se beneficiaría de una integración similar.

Marcas de tiempo

También he querido poder ver exactamente cuándo me comprometí con ChatGPT en un chat. Quiero ver exactamente cuándo comencé una charla y cuándo continué. Después de todo, las aplicaciones de chat proporcionan marcas de tiempo que se muestran cuando cada persona respondió.

Esta señal visual me ayuda a poner las cosas en perspectiva. Por ejemplo, podría haber comenzado una conversación con la IA sobre el entrenamiento de maratón, y quiero saber exactamente cuándo sucedió eso.

Por separado, estoy interesado en los avances de ChatGPT profesionalmente, por lo que esas marcas de tiempo me ayudan a determinar qué modelos podrían tener respuestas a consultas específicas.

Volviendo a la configuración de ChatGPT, quiero poder cambiar la información de contacto en la aplicación, ya sea la versión de escritorio o la aplicación móvil.

No puedes hacer eso actualmente. La dirección de correo electrónico y los números de teléfono que solía registrarse para CHATGPT están configurados en piedra.

Me gustaría poder cambiarlos libremente por varias razones, ya que sucede con prácticamente cualquier otra aplicación para la que necesite un inicio de sesión. Tal vez quiero actualizar la dirección de correo electrónico a algo específico, o tal vez obtuve un nuevo número de teléfono. ChatGPT tampoco te permite cambiar al momento de escribir este escrito.

Soporte de cuentas múltiples

OpenAI debuta modelos ChatGPT O3 y O4-Mini.
OpenAI debuta modelos ChatGPT O3 y O4-Mini. Fuente de la imagen: OpenAI

En la misma nota, creo que ChatGPT podría admitir múltiples cuentas. Es posible que tenga un perfil para fines relacionados con el trabajo y otro para el acceso personal de IA. No es una característica imprescindible en este momento, pero veo un futuro en el que los chats personales de IA tendrían que separarse de la IA de trabajo.

Esa IA personal se permitiría acceso a datos más personales para operar como asistente personal, mientras que la IA de trabajo manejaría los chats relacionados con el trabajo.

La función sería especialmente útil para los usuarios de ChatGPT que tienen una cuenta empresarial.

Puede usar varias cuentas con CHATGPT en este momento, pero debe iniciar sesión en una e iniciar sesión en otra.

Datos de exportación e importación

La aplicación CHATGPT le permite exportar datos de usuario, como otras aplicaciones que almacenan datos personales. Toque un botón en la configuración y podrá exportar esos datos. No he usado la función (todavía), pero podría hacerlo en el futuro. Ciertamente lo haré si decido abandonar ChatGpt Plus y cambiar a un producto rival.

Pero no hay datos de importación para traer datos de una cuenta de ChatGPT diferente o el producto de IA de un competidor. Creo que tal funcionalidad debería estar disponible en ChatGPT en el futuro, especialmente una vez que las características como planes familiares y soporte de perfil múltiple están disponibles.

Continue Reading

Noticias

Ahora puede ajustar la propia versión de su empresa del modelo de razonamiento O4-Mini de OpenAI con aprendizaje de refuerzo

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai anunció hoy en su cuenta centrada en el desarrollador en la red social X que los desarrolladores de software de terceros fuera de la compañía ahora pueden acceder a un refuerzo de refuerzo (RFT) para su nuevo modelo de razonamiento de lenguaje O4-Mini, que les permite personalizar una nueva versión privada de TI basada en los productos únicos de su empresa, terminología interna, objetivos, empleados, procesos y más.

Esencialmente, esta capacidad permite a los desarrolladores llevar el modelo a disposición del público en general y modificarlo para que se ajuste mejor a sus necesidades utilizando el tablero de plataformas de OpenAI.

Luego, pueden implementarlo a través de la interfaz de programación de aplicaciones (API) de OpenAI, otra parte de su plataforma de desarrollador, y conectarlo a sus computadoras, bases de datos y aplicaciones de empleados internos.

Una vez implementado, si un empleado o líder de la compañía quiere usarlo a través de un chatbot interno personalizado o OpenAi GPT personalizado para obtener conocimiento privado de la empresa propietaria; o para responder preguntas específicas sobre productos y políticas de la empresa; O generar nuevas comunicaciones y garantías en la voz de la compañía, pueden hacerlo más fácilmente con su versión RFT del modelo.

Sin embargo, una nota de advertencia: la investigación ha demostrado que los modelos ajustados pueden ser más propensos a jailbreaks y alucinaciones, ¡así que continúe con cautela!

Este lanzamiento expande las herramientas de optimización de modelos de la compañía más allá del ajuste fino (SFT) supervisado e introduce un control más flexible para tareas complejas y específicas de dominio.

Además, OpenAI anunció que el ajuste superior supervisado ahora es compatible con su modelo GPT-4.1 Nano, la oferta más asequible y más rápida de la compañía hasta la fecha.

¿Cómo ayuda a las organizaciones y empresas del ajuste de refuerzo (RFT)?

RFT crea una nueva versión del modelo de razonamiento O4-Mini de Openai que se adapta automáticamente a los objetivos del usuario, o a los de su empresa/organización.

Lo hace aplicando un circuito de retroalimentación durante la capacitación, que los desarrolladores de las grandes empresas (o incluso los desarrolladores independientes que trabajan por su cuenta) ahora pueden iniciarse de manera relativamente simple, fácil y asequible a través de la plataforma de desarrolladores en línea de OpenAI.

En lugar de capacitar en un conjunto de preguntas con respuestas correctas fijas, que es lo que hace el aprendizaje supervisado tradicional, RFT usa un modelo de grado para calificar múltiples respuestas candidatas por aviso.

El algoritmo de entrenamiento luego ajusta los pesos del modelo para que las salidas de alta puntuación se vuelvan más probables.

Esta estructura permite a los clientes alinear modelos con objetivos matizados, como el “estilo de casa” de comunicación y terminología de una empresa, reglas de seguridad, precisión objetiva o cumplimiento de políticas internas.

Para realizar RFT, los usuarios necesitan:

  1. Definir una función de calificación o usar graduadores basados ​​en modelos Operai.
  2. Cargue un conjunto de datos con indicaciones y divisiones de validación.
  3. Configure un trabajo de capacitación a través de API o el tablero de ajuste fino.
  4. Monitoree el progreso, revise los puntos de control e itera en datos o lógica de calificación.

RFT actualmente admite solo modelos de razonamiento de la serie O y está disponible para el modelo O4-Mini.

Casos de uso empresarial temprano

En su plataforma, Operai destacó a varios clientes tempranos que han adoptado RFT en diversas industrias:

  • Conformidad ai Usó RFT para ajustar un modelo para tareas complejas de análisis de impuestos, logrando una mejora del 39% en la precisión y superando todos los modelos líderes en los puntos de referencia de razonamiento de impuestos.
  • Atención médica del ambiente Aplicó RFT a la asignación de código médico ICD-10, aumentando el rendimiento del modelo en 12 puntos sobre las líneas de base médica en un conjunto de datos de panel de oro.
  • Cascarrabias Usó RFT para el análisis de documentos legales, mejorando las puntuaciones de la extracción de citas F1 en un 20% y coincidiendo con GPT-4O en precisión al tiempo que logran una inferencia más rápida.
  • Runloop Modelos ajustados para generar fragmentos de código API de rayas, utilizando calificadores de sintaxis y lógica de validación AST, logrando una mejora del 12%.
  • Milo Aplicó RFT a tareas de programación, aumentando la corrección en situaciones de alta complejidad por 25 puntos.
  • Kit de seguridad Usó RFT para hacer cumplir las políticas matizadas de moderación de contenido y un mayor modelo F1 del 86% al 90% en la producción.
  • Chipstack, Thomson Reutersy otros socios también demostraron ganancias de rendimiento en la generación de datos estructurados, tareas de comparación legal y flujos de trabajo de verificación.

Estos casos a menudo comparten características: definiciones claras de tareas, formatos de salida estructurados y criterios de evaluación confiables, todos esenciales para un ajuste fino de refuerzo efectivo.

RFT ya está disponible para organizaciones verificadas. Openai ofrece un descuento del 50% a los equipos que eligen compartir sus conjuntos de datos de capacitación con OpenAI para ayudar a mejorar los modelos futuros. Los desarrolladores interesados ​​pueden comenzar a usar la documentación RFT y el tablero de OpenAI.

Estructura de precios y facturación

A diferencia de supervisado o preferencia, ajuste, que se factura por token, RFT se factura en función del tiempo dedicado a la capacitación activa. Específicamente:

  • $ 100 por hora de tiempo de entrenamiento central (tiempo de pared durante el despliegue del modelo, calificación, actualizaciones y validación).
  • El tiempo es prorrateado por el segundo, redondeado a dos decimales (por lo que 1.8 horas de capacitación le costarían al cliente $ 180).
  • Los cargos se aplican solo al trabajo que modifica el modelo. Las colas, los controles de seguridad y las fases de configuración de inactividad no se facturan.
  • Si el usuario emplea modelos Operai como alumnos (por ejemplo, GPT-4.1), los tokens de inferencia consumidos durante la clasificación se facturan por separado a las tarifas de API estándar de OpenAI. De lo contrario, la compañía puede usar modelos externos, incluidos los de código abierto, como calificadores.

Aquí hay un ejemplo de desglose de costos:

GuiónTiempo facturableCosto
4 horas de entrenamiento4 horas$ 400
1.75 horas (prorrateado)1.75 horas$ 175
2 horas de entrenamiento + 1 hora perdida (debido a la falla)2 horas$ 200

Este modelo de precios proporciona transparencia y recompensa un diseño de trabajo eficiente. Para controlar los costos, Openai alienta a los equipos a:

  • Use alumnos livianos o eficientes cuando sea posible.
  • Evite la validación demasiado frecuente a menos que sea necesario.
  • Comience con conjuntos de datos más pequeños o ejecuciones más cortas para calibrar las expectativas.
  • Monitoree la capacitación con API o herramientas de tablero y haga una pausa según sea necesario.

OpenAI utiliza un método de facturación llamado “progreso hacia adelante capturado”, lo que significa que los usuarios solo se facturan por los pasos de capacitación modelo que se completaron y retuvieron con éxito.

Entonces, ¿debería su organización invertir en RFT en una versión personalizada del O4-Mini de OpenAI o no?

El refuerzo de ajuste fino introduce un método más expresivo y controlable para adaptar modelos de lenguaje a casos de uso del mundo real.

Con soporte para salidas estructuradas, calificadores basados ​​en código y basados ​​en modelos, y el control de API completo, RFT permite un nuevo nivel de personalización en la implementación del modelo. El despliegue de Openai enfatiza el diseño de tareas reflexivo y la evaluación robusta como claves para el éxito.

Los desarrolladores interesados ​​en explorar este método pueden acceder a la documentación y ejemplos a través del tablero de ajuste de OpenAI.

Para las organizaciones con problemas claramente definidos y respuestas verificables, RFT ofrece una forma convincente de alinear modelos con objetivos operativos o de cumplimiento, sin construir infraestructura RL desde cero.

Continue Reading

Noticias

CEO de Openai, otros líderes tecnológicos de EE. UU. Testifican al Congreso sobre la competencia de IA con China

Published

on

Washington – El CEO de Openai, Sam Altman, y los ejecutivos de Microsoft y el fabricante de chips Advanced Micro Devices testificaron en Capitol Hill sobre las mayores oportunidades, riesgos y necesidades que enfrentan una industria en la que los legisladores y los tecnólogos están de acuerdo en que podría transformar fundamentalmente las empresas, la cultura y la geopolítica globales.

La audiencia se produce cuando la carrera para controlar el futuro de la inteligencia artificial se está calentando entre empresas y países. Altman’s OpenAI está en una carrera furiosa para desarrollar el mejor modelo de inteligencia artificial contra rivales tecnológicos como Alphabet y Meta, así como contra los desarrollados por competidores chinos.

“Creo que esto será al menos tan grande como Internet, tal vez más grande”, dijo Altman en sus comentarios de apertura sobre el potencial de AI para transformar la sociedad. “Para que eso suceda, la inversión en infraestructura es crítica”. Altman instó a los senadores a ayudar a introducir las “revoluciones duales” de la inteligencia artificial y la producción de energía que “cambiará el mundo en el que vivimos, creo, de maneras increíblemente positivas”.

Los testigos incluyeron a Altman; Lisa Su, directora ejecutiva del fabricante de semiconductores AMD; Michael Intrator, cofundador de AI Cloud Computing Startup CoreWeave; y Brad Smith, vicepresidente y presidente de Microsoft. Ellos cuatro ejecutivos instaron por unanimidad a los legisladores a ayudar a optimizar la política para proyectos relacionados con la IA y la recaudación de fondos.

La audiencia abarcó temas que van desde debates de la industria sobre el rendimiento de los chips, los empleos, las relaciones humanas y la generación de poder hasta preguntas más grandiosas sobre la competencia global con China y la Unión Europea.

“China tiene como objetivo liderar el mundo en la IA para 2030”, dijo el senador Ted Cruz, presidente del Comité de Comercio, Ciencia y Transporte del Senado. “En esta carrera, Estados Unidos se enfrenta a una bifurcación en el camino. ¿Vamos por el camino que abarca nuestra historia de libertad empresarial e innovación tecnológica? ¿O adoptamos las políticas de comando y control de Europa?”

Los senadores estaban ampliamente sobrios en su interrogatorio y se unieron en su preocupación de que Estados Unidos mantenga su dominio en la inteligencia artificial. Los legisladores de ambas partes también plantearon preocupaciones sobre la ciberseguridad, la privacidad de los datos y la capacidad de la IA para crear contenido que pueda confundir o engañar a las personas.

Surgieron algunas peleas partidistas. El senador Bernie Moreno, un republicano de Ohio, presionó a Su y Smith sobre si las políticas energéticas sostenibles de la administración Biden obstaculizaron el objetivo de producir más poder para la infraestructura relacionada con la IA.

Y el senador Tammy Duckworth, un demócrata de Illinois, criticó los recortes del presidente Donald Trump y el multimillonario Elon Musk a fondos federales para la investigación y a agencias como los Laboratorios Nacionales y la Fundación Nacional de Ciencias del Departamento de Energía, pintándolos como “un ataque de auto sabotaje”.

“¿Alguien realmente tiene confianza en que Dege ha existido hace décadas, no habrían reducido el proyecto que creó Internet como un ejemplo de investigación y desarrollo innovador y financiado en público?” preguntó Duckworth.

Pero a pesar de algunas púas, la audiencia mantuvo un tenor discreto y algunas bromas bipartidistas como legisladores y ejecutivos discutieron el potencial de una tecnología que toda presente acordó determinaría el futuro de la humanidad.

“Mira, hay una carrera, pero necesitamos entender para qué estamos corriendo”, dijo el senador Brian Schatz, demócrata de Hawaii, a los testigos. “No es solo una especie de carrera comercial, por lo que podemos superar a nuestro competidor más cercano en el sector público o en el sector privado. Estamos tratando de ganar una carrera para que prevalezcan los valores estadounidenses”.

Varios de los ejecutivos advirtieron contra los controles de exportación de los Estados Unidos que podrían terminar empujando a otros países hacia la tecnología de IA de China.

“Entendemos totalmente como industria la importancia de la seguridad nacional”, dijo Su. Pero agregó, si no puede “adoptar nuestra tecnología en el resto del mundo, habrá otras tecnologías que vendrán a jugar”. Esas tecnologías están menos avanzadas hoy, pero madurará con el tiempo, dijo.

Altman estableció una conexión directa entre la capacidad de los Estados Unidos para atraer el talento global y la capacidad de vender sus productos a nivel mundial a la seguridad nacional y su influencia internacional.

“El apalancamiento y la potencia que los EE. UU. Obtienen al tener iPhones son los dispositivos móviles que la gente más quiere, y Google es el motor de búsqueda que las personas más quieren en todo el mundo es enorme”, dijo Altman. “Hablamos tal vez menos sobre cuánto las personas quieren usar chips y otra infraestructura desarrollada aquí, pero creo que no es menos importante, y debemos tener como objetivo que se adopte toda la pila de los Estados Unidos por la mayor cantidad posible del mundo”.

La rivalidad comercial entre Estados Unidos y China ha pesado mucho en la industria de la IA, incluidos los fabricantes de chips Nvidia y AMD con sede en California.

La administración Trump anunció en abril que restringiría las ventas de los chips H20 de NVIDIA y los chips MI308 de AMD a China.

Nvidia ha dicho que los controles de exportación más estrictos le costarán a la compañía $ 5.5 mil millones adicionales. AMD dijo después de informar sus ganancias trimestrales esta semana que le costará a la empresa $ 1.5 mil millones en ingresos perdidos en los próximos meses.

Todavía son inciertos los efectos en los controles adicionales de ChIP de IA establecidos por la administración del ex presidente Joe Biden que surtirán la próxima semana que se dirige a más de 100 países. La política atrajo una fuerte oposición de Nvidia y otras compañías tecnológicas, mientras que otros fueron respaldados por otros, incluida la compañía de IA Anthrope, como una forma de evitar que las “operaciones sofisticadas de contrabando” de China obtuvieran fichas de compañías shell en terceros países.

El departamento de comercio dijo en un correo electrónico el jueves que Trump planea reemplazar la regla “demasiado compleja y demasiado burocrática” de Biden con una más simple pero no dijo cuándo.

El día antes de la audiencia, Altman visitó el sitio de Abilene, Texas, del Proyecto Masivo del Centro de Datos Stargate que se está construyendo para OpenAI en colaboración con Oracle y otros socios. El sitio fue elegido por su acceso potencial a una variedad de recursos energéticos, incluida la energía eólica y solar.

Altman, durante la audiencia, dijo que Texas había sido “increíble” al incentivar los principales proyectos de IA. “Creo que sería algo bueno para otros estados”, dijo Altman. Él predijo que el sitio de Abilene sería la “instalación de entrenamiento de IA más grande del mundo”.

Pero Altman también advirtió más tarde contra un marco regulatorio de mosaico para la IA.

“Es muy difícil imaginarnos descubrir cómo cumplir con 50 conjuntos diferentes de regulaciones”, dijo Altman. “Un marco federal que es un toque ligero, que podemos entender, y nos permite movernos con la velocidad que requiere este momento, parece importante y bien”.

Si bien la industria tecnológica ha dependido durante mucho tiempo de los centros de datos para ejecutar servicios en línea, desde el correo electrónico y las redes sociales hasta las transacciones financieras, la nueva tecnología de IA detrás de los chatbots populares y las herramientas generativas de IA requieren un cálculo aún más poderoso para construir y operar.

Un informe publicado por el Departamento de Energía a fines del año pasado estimó que la electricidad necesaria para los centros de datos en los Estados Unidos se triplicó durante la última década y se proyecta que se duplique o triplique nuevamente para 2028 cuando podría consumir hasta el 12% de la electricidad de la nación.

——

Associated Press y OpenAI tienen un acuerdo de licencia y tecnología que permite el acceso de OpenAI a parte de los archivos de texto de AP.

——

El escritor de tecnología AP Matt O’Brien contribuyó a este informe de Providence, Rhode Island.

Continue Reading

Trending