Connect with us

Noticias

En el quinto día de OpenAI, ChatGPT se asocia con Apple para iOS 18.2

Published

on

NurPhoto / Colaborador / Getty Images

Ahora que se acerca la temporada navideña, muchas empresas están encontrando formas de aprovecharlas mediante ofertas, promociones u otras campañas. OpenAI ha encontrado una manera de participar con su serie de eventos “12 días de OpenAI”.

El miércoles, OpenAI anunció a través de una publicación X que a partir del 5 de diciembre, la compañía organizaría 12 días de transmisiones en vivo y lanzaría “un montón de cosas nuevas, grandes y pequeñas”, según la publicación.

Además: el generador de vídeo Sora AI de OpenAI ya está aquí: cómo probarlo

Aquí encontrará todo lo que necesita saber sobre la campaña, así como un resumen de las novedades de cada día.

¿Qué son los ’12 días de OpenAI’?

El director ejecutivo de OpenAI, Sam Altman, compartió un poco más de detalles sobre el evento, que comenzó a las 10 a.m. PT del 5 de diciembre y se llevará a cabo diariamente durante 12 días laborables con una transmisión en vivo con un lanzamiento o una demostración. Los lanzamientos serán tanto “grandes” como “de relleno”, según Altman.

¿Qué se ha dejado caer hasta ahora?

Miércoles 11 de diciembre

Apple lanzó iOS 18.2 hoy. El lanzamiento incluye integraciones con ChatGPT en Siri, Herramientas de escritura y Visual Intelligence. Como resultado, la transmisión en vivo de hoy se centró en recorrer la integración.

  • Siri ahora puede reconocer cuando haces preguntas fuera de su alcance que podrían beneficiarse de ser respondidas por ChatGPT. En esos casos, le preguntará si desea procesar la consulta mediante ChatGPT. Antes de enviar cualquier solicitud a ChatGPT, siempre aparecerá un mensaje notificando al usuario y pidiéndole permiso, poniendo el control en manos del usuario tanto como sea posible.
  • Visual Intelligence se refiere a una nueva función para la línea iPhone 16 a la que los usuarios pueden acceder tocando el botón Control de cámara. Una vez que la cámara está abierta, los usuarios pueden apuntar a algo y buscar en la web con Google, o usar ChatGPT para obtener más información sobre lo que están viendo o realizar otras tareas como traducir o resumir texto.
  • Writing Tools ahora presenta una nueva herramienta “Redactar”, que permite a los usuarios crear texto desde cero aprovechando ChatGPT. Con esta función, los usuarios pueden incluso generar imágenes usando DALL-E.

Todas las funciones anteriores están sujetas a los límites de uso diario de ChatGPT, de la misma manera que los usuarios alcanzarían límites al usar la versión gratuita del modelo en ChatGPT. Los usuarios pueden elegir si habilitar o no la integración de ChatGPT en Configuración.

Lea más al respecto aquí: iOS 18.2 se implementa en iPhones: pruebe estas 6 nuevas funciones de IA hoy

Martes 10 de diciembre

  • Canvas llegará a todos los usuarios web, independientemente del plan, en GPT-4o, lo que significa que ya no está disponible solo en versión beta para los usuarios de ChatGPT Plus.
  • Canvas se ha integrado en GPT-4o de forma nativa, lo que significa que puede simplemente llamar a Canvas en lugar de tener que alternar en el selector de modelo.
  • La interfaz de Canvas es la misma que vieron los usuarios en la versión beta de ChatGPT Plus, con una tabla en el lado izquierdo que muestra el intercambio de preguntas y respuestas y una pestaña en el lado derecho que muestra su proyecto, mostrando todas las ediciones a medida que avanzan. , así como atajos.
  • Canvas también se puede utilizar con GPT personalizados. Está activado de forma predeterminada al crear uno nuevo y existe una opción para agregar Canvas a los GPT existentes.
  • Canvas también tiene la capacidad de ejecutar código Python directamente en Canvas, lo que permite a ChatGPT ejecutar tareas de codificación, como corregir errores.

Lea más al respecto aquí: Soy un usuario avanzado de ChatGPT y Canvas sigue siendo mi función de productividad favorita un mes después

Lunes 9 de diciembre

OpenAI se burló del anuncio del tercer día como “algo que estabas esperando”, seguido por la tan esperada caída de su modelo de video: Sora. Esto es lo que necesita saber:

  • Conocido como Sora Turbo, el modelo de video es más inteligente que el modelo de febrero que se mostró en vista previa.
  • El acceso llegará a los EE. UU. más tarde hoy; los usuarios solo necesitan ChatGPT Plus y Pro.
  • Sora puede generar video a video, texto a video y más.
  • Los usuarios de ChatGPT Plus pueden generar hasta 50 videos por mes con una resolución de 480p o menos videos a 720p. El Plan Pro ofrece 10 veces más uso.
  • El nuevo modelo es más inteligente y económico que el modelo presentado en febrero.
  • Sora presenta una página de exploración donde los usuarios pueden ver las creaciones de los demás. Los usuarios pueden hacer clic en cualquier vídeo para ver cómo se creó.
  • Una demostración en vivo mostró el modelo en uso. Los participantes en la demostración ingresaron un mensaje y eligieron la relación de aspecto, la duración e incluso los ajustes preestablecidos. Los resultados del vídeo de demostración en vivo me parecieron realistas e impresionantes.
  • OpenAI también presentó Storyboard, una herramienta que permite a los usuarios generar entradas para cada cuadro de una secuencia.

Viernes 6 de diciembre:

En el segundo día de “shipmas”, OpenAI amplió el acceso a su Programa de investigación de ajuste de refuerzo:

  • El programa Reinforcement Fine-Tuning permite a los desarrolladores e ingenieros de aprendizaje automático ajustar los modelos OpenAI para “destacar en conjuntos específicos de tareas complejas y específicas de un dominio”, según OpenAI.
  • El ajuste fino de refuerzo se refiere a una técnica de personalización en la que los desarrolladores pueden definir el comportamiento de un modelo ingresando tareas y calificando el resultado. Luego, el modelo utiliza esta retroalimentación como guía para mejorar, mejorar el razonamiento a través de problemas similares y mejorar la precisión general.
  • OpenAI alienta a los institutos de investigación, universidades y empresas a postularse al programa, particularmente aquellos que realizan conjuntos reducidos de tareas complejas, podrían beneficiarse de la asistencia de la IA y realizan tareas que tienen una respuesta objetivamente correcta.
  • Las plazas son limitadas; Los solicitantes interesados ​​pueden postularse completando este formulario.
  • OpenAI tiene como objetivo hacer que Reinforcement Fine-Tuning esté disponible públicamente a principios de 2025.

Jueves 5 de diciembre:

OpenAI comenzó con fuerza, presentando dos actualizaciones importantes para su chatbot: un nuevo nivel de suscripción ChatGPT, ChatGPT Pro y la versión completa del modelo o1 de la compañía.

La versión completa de o1:

  • Será mejor para todo tipo de indicaciones, más allá de las matemáticas y las ciencias.
  • Cometerá errores importantes con un 34 % menos de frecuencia que o1-preview, mientras que pensará un 50 % más rápido
  • Se lanza hoy, reemplazando o1-preview para todos los usuarios de ChatGPT Plus y ahora Pro
  • Permite a los usuarios ingresar imágenes, como se ve en la demostración, para proporcionar un razonamiento multimodal (razonamiento tanto en texto como en imágenes).

ChatGPT Pro:

  • Está destinado a superusuarios de ChatGPT Plus, otorgándoles acceso ilimitado a lo mejor que OpenAI tiene para ofrecer, incluido acceso ilimitado a OpenAI o1-mini, GPT-4o y Modo avanzado.
  • Incluye el modo o1 pro, que utiliza más computación para razonar los problemas científicos y matemáticos más difíciles.
  • Cuesta $200 por mes

¿Dónde puedes acceder a la transmisión en vivo?

Las transmisiones en vivo se llevan a cabo en el sitio web de OpenAI y se publican en su canal de YouTube inmediatamente después. Para facilitar el acceso, OpenAI también publicará un enlace a la transmisión en vivo en su cuenta X 10 minutos antes de que comience, que será aproximadamente a las 10 a. m. PT/1 p. m. ET todos los días.

¿Qué puedes esperar?

Los lanzamientos siguen siendo una sorpresa, pero muchos anticipan que Sora, el modelo de vídeo de OpenAI anunciado inicialmente en febrero pasado, se lanzará como parte de uno de los lanzamientos más importantes. Desde ese primer anuncio, el modelo ha estado disponible para un grupo selecto de miembros del equipo rojo y evaluadores y algunos evaluadores lo filtraron la semana pasada por quejas sobre “trabajo no remunerado”, según los informes.

Además: el o1 de OpenAI miente más que cualquier modelo importante de IA. ¿Por qué eso importa?

Otros lanzamientos rumoreados incluyen una versión nueva y más completa del o1 LLM de la compañía con capacidades de razonamiento más avanzadas y una voz de Papá Noel para el modo de voz avanzado de OpenAI. por código detectado por usuarios hace sólo un par de semanas con el nombre en clave “Straw”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Qué modelo de chatgpt es el mejor? Una guía sobre qué modelo usar y cuándo.

Published

on

Chatgpt no es un monolito.

Desde que Operai lanzó por primera vez el Buzzy Chatbot en 2022, ha implementado lo que parece un nuevo modelo cada pocos meses, utilizando una panoplia confusa de nombres.

Varios competidores de Operai tienen populares Alternativas de chatgptcomo Claude, Géminis y perplejidad. Pero los modelos de Openai se encuentran entre los más reconocibles de la industria. Algunos son buenos para tareas cuantitativas, como la codificación. Otros son mejores para hacer una lluvia de ideas sobre nuevas ideas.

Si está buscando una guía sobre qué modelo usar y cuándo, está en el lugar correcto.

GPT-4 y GPT-4O

Openai lanzó por primera vez GPT-4 en 2023 como su modelo de lenguaje grande. El CEO Sam Altman dijo en un podcast de abril que la modelo tomó “cientos de personas, casi todo el esfuerzo de Openi” para construir.

Desde entonces, ha actualizado su modelo insignia a GPT-4O, que lanzó por primera vez el año pasado. Es tan inteligente como GPT-4, que es capaz de acumular el SAT, el GRE y pasar la barra, pero es significativamente más rápido y mejora sus “capacidades entre el texto, la voz y la visión”, dice Openii. El “O” significa Omni.

4O puede traducir rápidamente el habla y ayudar con el álgebra lineal básica, y tiene las capacidades visuales más avanzadas.

Sus imágenes de estilo Studio Ghibli tocaron la emoción en línea. Sin embargo, también planteó preguntas de derechos de autor cuando los críticos argumentaron que Operai se está beneficiando injustamente del contenido de los artistas.

Operai dice que 4O “se destaca en las tareas cotidianas”, como hacer una lluvia de ideas, resumir, escribir correos electrónicos y revisar informes.

GPT-4.5

Altman describió a GPT-4.5 en una publicación sobre X como “el primer modelo que se siente como hablar con una persona reflexiva”.

Es el último avance en el paradigma de “aprendizaje sin supervisión” de OpenAI, que se centra en ampliar los modelos en el “conocimiento de las palabras, la intuición y la reducción de las alucinaciones”, dijo la miembro del personal técnico de Operai, Amelia Glaese, durante su presentación en febrero.

Entonces, si está teniendo una conversación difícil con un colega, GPT-4.5 podría ayudarlo a replantear esas conversaciones en un tono más profesional y tacto.

Operai dice que GPT-4.5 es “ideal para tareas creativas”, como proyectos de colaboración y lluvia de ideas.

O1 y O1-Mini

Openai lanzó una mini versión de O1, su modelo de razonamiento, en septiembre del año pasado y la versión completa en diciembre.

Los investigadores de la compañía dijeron que es el primer modelo capacitado para “pensar” antes de que responda y se adapte bien a las tareas cuantitativas, de ahí el “modelo de razonamiento” del apodo. Esa es una función de su técnica de entrenamiento, conocida como cadena de pensamiento, que alienta a los modelos a razonar a través de problemas descomponiéndolos paso a paso.

En un artículo publicado en la capacitación de seguridad del modelo, la compañía dijo que “los modelos de capacitación para incorporar una cadena de pensamiento antes de responder tienen el potencial de desbloquear beneficios sustanciales, al tiempo que aumentan los riesgos potenciales que provienen de una inteligencia aumentada”.

En un video de una presentación interna de Operai en los mejores casos de uso para O1, Joe Casson, un ingeniero de soluciones en OpenAI, demostró cómo O1-Mini podría resultar útil para analizar el máximo beneficio en una llamada cubierta, una estrategia de negociación financiera. Casson también mostró cómo la versión de vista previa de O1 podría ayudar a alguien razonar a través de cómo crear un plan de expansión de la oficina.

Operai dice que el modo Pro de O1, una “versión de O1 que utiliza más cómputo para pensar más y proporcionar respuestas aún mejores a los problemas más difíciles”, es mejor para un razonamiento complejo, como crear un algoritmo para el pronóstico financiero utilizando modelos teóricos o generar un resumen de investigación de varias páginas en tecnologías emergentes.

O3 y O3-Mini

Los modelos pequeños han estado ganando tracción en la industria durante un tiempo como una alternativa más rápida y rentable a los modelos de base más grandes. Operai lanzó su primer modelo pequeño, O3 Mini, en enero, solo semanas después de que la startup de la startup china Butterfly Effect debutó el R1 de Deepseek, que conmocionó a Silicon Valley, y los mercados, con sus precios asequibles.

Openai dijo que 03 Mini es el “modelo más rentable” en su serie de razonamiento. Está destinado a manejar preguntas complejas, y Openai dijo que es particularmente fuerte en ciencias, matemáticas y codificación.

Julian Goldie, un influencer de las redes sociales que se centra en la estrategia de SEO, dijo en una publicación sobre el medio que O3 “brilla en tareas de desarrollo rápido” y es ideal para tareas de programación básicas en HTML y CSS, funciones simples de JavaScript y la construcción de prototipos rápidos. También hay una versión “mini alta” del modelo que, según él, es mejor para la “codificación y lógica compleja”, aunque tenía algunos problemas de control.

En abril, Openai lanzó una versión completa de O3, que llama “nuestro modelo de razonamiento más poderoso que empuja la frontera a través de la codificación, matemáticas, ciencias, percepción visual y más”.

Operai dice que el O3 se usa mejor para “tareas complejas o de múltiples pasos”, como la planificación estratégica, la codificación extensa y las matemáticas avanzadas.

O4 mini

Operai lanzó otro modelo más pequeño, el O4 Mini, en abril. Dijo que está “optimizado para un razonamiento rápido y rentable”.

La compañía dijo que logra un rendimiento notable para el costo, especialmente en “Matemáticas, codificación y tareas visuales”. Fue el modelo de referencia con mejor rendimiento en el examen de matemáticas de invitación estadounidense en 2024 y 2025.

O4 Mini, y su mini versión, son excelentes para un razonamiento rápido y más sencillo. Son buenos para acelerar cualquier tarea de razonamiento cuantitativo que encuentre durante su día. Si está buscando un trabajo más profundo, opte por O3.

Scott Swingle, alumbre de DeepMind y fundador de la compañía de herramientas de desarrolladores con IA Abante AI, probó O4 con un problema de Euler, una serie de problemas computacionales desafiantes lanzados cada semana más o menos. Dijo en una publicación sobre X que O4 resolvió el problema en 2 minutos y 55 segundos, “Mucho más rápido que cualquier solucionador humano. Solo 15 personas pudieron resolverlo en menos de 30 minutos”.

Operai dice que el O4 Mini se usa mejor para “tareas técnicas rápidas”, como consultas rápidas relacionadas con STEM. Dice que también es ideal para el razonamiento visual, como extraer puntos de datos clave de un archivo CSV o proporcionar un resumen rápido de un artículo científico.