Connect with us

Noticias

Los nuevos modelos GPT-4.1 de OpenAI pueden procesar un millón de tokens y resolver problemas de codificación mejor que nunca

Published

on

Operai lanzó una nueva familia de modelos de IA esta mañana que mejoran significativamente las habilidades de codificación mientras reducen los costos, respondiendo directamente a la creciente competencia en el mercado de IA empresarial.

La compañía AI con sede en San Francisco introdujo tres modelos: GPT-4.1, GPT-4.1 Mini y GPT-4.1 Nano, todos disponibles inmediatamente a través de su API. La nueva alineación funciona mejor en las tareas de ingeniería de software, sigue las instrucciones con mayor precisión y puede procesar hasta un millón de tokens de contexto, equivalente a aproximadamente 750,000 palabras.

“GPT-4.1 ofrece un rendimiento excepcional a un costo más bajo”, dijo Kevin Weil, director de productos de Operai, durante el anuncio del lunes. “Estos modelos son mejores que GPT-4O en casi todas las dimensiones”.

Quizás lo más importante para los clientes empresariales es el precio: GPT-4.1 costará un 26% menos que su predecesor, mientras que la versión nano liviana se convierte en la oferta más asequible de OpenAI en solo 12 centavos por millón de tokens.

https://www.youtube.com/watch?v=ka-p9ood-ce

Cómo las mejoras de GPT-4.1 dirigen los puntos débiles de los desarrolladores empresariales más grandes

En una entrevista sincera con VentureBeat, Michelle Pokrass, el líder de investigación posterior a la capacitación en OpenAI, enfatizó que las aplicaciones comerciales prácticas impulsaron el proceso de desarrollo.

“GPT-4.1 fue entrenado con un objetivo: ser útil para los desarrolladores”, dijo Pokrass a VentureBeat. “Hemos encontrado que GPT-4.1 es mucho mejor para seguir los tipos de instrucciones que las empresas usan en la práctica, lo que hace que sea mucho más fácil implementar aplicaciones listas para la producción”.

Este enfoque en la utilidad del mundo real se refleja en los resultados de referencia. En SWE-Bench Verified, que mide las capacidades de ingeniería de software, GPT-4.1 obtuvo un 54.6%, una mejora sustancial de 21.4 puntos porcentuales sobre GPT-4O.

Para las empresas que desarrollan agentes de IA que trabajan independientemente en tareas complejas, las mejoras en la instrucción siguiente son particularmente valiosas. En el punto de referencia multichallenge de Scale, GPT-4.1 obtuvo un 38.3%, superando a GPT-4O por 10.5 puntos porcentuales.

¿Por qué la estrategia modelo de tres niveles de OpenAI desafía a los competidores como Google y Anthrope?

La introducción de tres modelos distintos a diferentes precios aborda el mercado de IA diversificante. El buque insignia GPT-4.1 se dirige a aplicaciones empresariales complejas, mientras que las versiones Mini y Nano abordan los casos de uso en los que la velocidad y la eficiencia son prioridades.

“No todas las tareas necesitan las capacidades más inteligentes o principales”, dijo Pokrass a VentureBeat. “Nano será un modelo de caballos de batalla para casos de uso como autocompletar, clasificación, extracción de datos o cualquier otra cosa donde la velocidad sea la principal preocupación”.

Simultáneamente, Openai anunció planes para depreciar la vista previa de GPT-4.5, su modelo más grande y caro lanzado hace solo dos meses, desde su API antes del 14 de julio. La compañía posicionó GPT-4.1 como un reemplazo más rentable que ofrece “rendimiento mejorado o similar en muchas capacidades clave a un costo y latencia mucho más bajos”.

Este movimiento le permite a Openai reclamar recursos informáticos al tiempo que proporciona a los desarrolladores una alternativa más eficiente a su oferta más costosa, que había tenido un precio de $ 75 por millón de tokens de entrada y $ 150 por millón de tokens de salida.

Resultados del mundo real: cómo Thomson Reuters, Carlyle y Windsurf están aprovechando GPT-4.1

Varios clientes empresariales que probaron los modelos antes del lanzamiento informaron mejoras sustanciales en sus dominios específicos.

Thomson Reuters vio una mejora del 17% en la precisión de la revisión de documentos múltiples cuando se usa GPT-4.1 con su asistente legal de IA, Cocounsel. Esta mejora es particularmente valiosa para flujos de trabajo legales complejos que involucran largos documentos con relaciones matizadas entre cláusulas.

La firma financiera Carlyle reportó un 50% de mejor rendimiento al extraer datos financieros granulares de documentos densos, una capacidad crítica para el análisis de inversiones y la toma de decisiones.

Varun Mohan, CEO del proveedor de herramientas de codificación Windsurf (anteriormente Codeium), compartió métricas de rendimiento detalladas durante el anuncio.

“Descubrimos que GPT-4.1 reduce la cantidad de veces que necesita leer archivos innecesarios en un 40% en comparación con otros modelos principales, y también modifica archivos innecesarios 70% menos”, dijo Mohan. “El modelo también es sorprendentemente menos detallado … GPT-4.1 es 50% menos detallado que otros modelos principales”.

Contexto del millón de token: lo que las empresas pueden hacer con 8 veces más capacidad de procesamiento

Los tres modelos cuentan con una ventana de contexto de un millón de tokens, ocho veces más grandes que el límite de tokens de GPT-4O. Esta capacidad ampliada permite que los modelos procesen múltiples documentos largos o bases de código enteras a la vez.

En una demostración, OpenAI mostró que GPT-4.1 analizó un archivo de registro del servidor NASA de 450,000 token desde 1995, identificando una entrada anómala que se esconde en lo profundo de los datos. Esta capacidad es particularmente valiosa para tareas que involucran grandes conjuntos de datos, como repositorios de código o colecciones de documentos corporativos.

Sin embargo, Openai reconoce la degradación del rendimiento con entradas extremadamente grandes. En su prueba interna de OpenAI-MRCR, la precisión disminuyó de alrededor del 84% con 8,000 tokens a 50% con un millón de tokens.

Cómo el paisaje de IA Enterprise está cambiando a medida que Google, Anthrope y OpenAI compiten por los desarrolladores

El lanzamiento se produce cuando la competencia en el espacio de IA Enterprise se calienta. Google lanzó recientemente Gemini 2.5 Pro con una ventana de contexto comparable de un millón de token, mientras que el soneto Claude 3.7 de Anthrope ha ganado tracción con las empresas que buscan alternativas a las ofertas de Openi.

La startup china de IA Deepseek también mejoró recientemente sus modelos, ejerciendo presión adicional sobre Operai para mantener su posición de liderazgo.

“Ha sido realmente genial ver cómo las mejoras en la comprensión del contexto largo se han traducido en un mejor rendimiento en verticales específicos como el análisis legal y la extracción de datos financieros”, dijo Pokrass. “Hemos descubierto que es fundamental probar nuestros modelos más allá de los puntos de referencia académicos y asegurarnos de que funcionen bien con las empresas y desarrolladores”.

Al lanzar estos modelos específicamente a través de su API en lugar de ChatGPT, OpenAI señala su compromiso con los desarrolladores y los clientes empresariales. La compañía planea incorporar gradualmente las características de GPT-4.1 al CHATGPT con el tiempo, pero el enfoque principal permanece en proporcionar herramientas sólidas para las empresas que construyen aplicaciones especializadas.

Para fomentar más investigaciones en el procesamiento de contexto a largo plazo, OpenAI está lanzando dos conjuntos de datos de evaluación: OpenAI-MRCR para probar habilidades de coreferencia múltiple y gráficos para evaluar un razonamiento complejo en largos documentos.

Para los tomadores de decisiones empresariales, la familia GPT-4.1 ofrece un enfoque más práctico y rentable para la implementación de IA. A medida que las organizaciones continúan integrando la IA en sus operaciones, estas mejoras en la confiabilidad, la especificidad y la eficiencia podrían acelerar la adopción entre las industrias que aún sopesan los costos de implementación contra los beneficios potenciales.

Si bien los competidores persiguen modelos más grandes y costosos, el pivote estratégico de OpenAI con GPT-4.1 sugiere que el futuro de la IA puede no pertenecer a los modelos más grandes, sino a los más eficientes. El verdadero avance puede no estar en los puntos de referencia, sino en llevar la IA de grado empresarial al alcance de más negocios que nunca.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Qué es la IA generativa? Todo lo que necesitas saber

Published

on

Chatbot de inteligencia artificial insignia de Openai – junto con el Las mejores alternativas de chatgpt Al igual que Google Gemini, Microsoft Copilot y Anthrope’s Claude, son ejemplos de modelos de IA generativos.

El uso de la tecnología de IA generativa se ha convertido en una parte integral de la vida personal y profesional de muchas personas. Pero, ¿qué significa la IA generativa (a menudo abreviada a Genai), qué lo distingue de otros tipos de inteligencia artificial y cómo funciona? Puede encontrar respuestas a todas esas preguntas a continuación, suponiendo que no haya hecho ChatGPT, por supuesto.

¿Qué es la IA generativa?

Continue Reading

Noticias

Google Assistant ya no es lo que solía ser

Published

on

He usado varios altavoces inteligentes impulsados ​​por Google Assistant durante bastante tiempo. El primer dispositivo que recogí fue el nido mini, que fue seguido por el cubo de nidos y el cubo de nido max. Tengo un altavoz en cada habitación, por lo que mi gente y yo podemos usar el Asistente de Google para pedir consultas, reproducir canciones, recibir actualizaciones de noticias y controlar nuestros dispositivos IoT en casa, independientemente de dónde estamos. Hasta el año pasado, estos dispositivos funcionaron bien. Ninguno de nosotros tuvo problemas con ellos, y se desempeñaron como se esperaba.

Sin embargo, hace unos meses, mi madre notó problemas estableciendo recordatorios en el centro de nidos. Las canciones que solía tocar regularmente en el altavoz eran más difíciles de tocar porque Google Assistant tuvo dificultades para reconocer la canción requerida. Entonces, llevé a cabo una resolución de problemas de rutina. Sin embargo, eso no solucionó el problema. Entonces, busqué soluciones en línea. No tardó mucho en darse cuenta de que los usuarios de todo el mundo tenían problemas con el Asistente de Google en sus dispositivos Nest. La línea de tiempo coincidió con el despliegue generalizado de Géminis. Puse dos y dos juntos y descubrí lo que estaba pasando.

Relacionado

5 Limitaciones de Gemini Live que odio ya que el Asistente de Google puede hacerlas bien

Un trabajo en progreso

El inicio de Géminis

Ai en todo

Un gráfico que destaca varias de las nuevas capacidades de Gemini.

Fuente: Google

Regularmente uso el Asistente de Google, no solo en los altavoces inteligentes sino en mi teléfono. Junto con eso, soy uno de los primeros en adoptar nuevas tecnologías. Entonces, cuando Google lanzó Gemini, opté a la versión beta después de recibir el mensaje. Mis impresiones iniciales de Géminis fueron mixtas. Si bien podría darme más información que el Asistente de Google cuando se le preguntó una determinada consulta, no podría realizar tareas básicas, como tomar notas.

He estado haciendo esto todo el tiempo con el Asistente de Google, así que me perdí que no funcionó como se esperaba. Avance rápido hasta unos días, y me di cuenta de que Géminis no podía hacer la mitad de las cosas que Google Assistant podía. Asumí que esto se debió a la construcción beta, pero la tendencia continuó después del lanzamiento estable de Géminis. Esto me frustró, pero me alegré de que mi Galaxy Watch 4 todavía corriera el Asistente de Google.

La caída del Asistente de Google

¿Cuándo se convirtió en Siri?

El Asistente de Google establece un recordatorio en Galaxy Watch 4

Usé mi Galaxy Watch 4 para realizar tareas básicas como configurar recordatorios y tomar notas. Sin embargo, no era tan bueno como solía ser. Pensé que esto se debía al micrófono inferior en el reloj inteligente en comparación con mi teléfono. Cuando vi múltiples publicaciones en foros en línea sobre el Asistente de Google actuando, me di cuenta de que no era un problema con el micrófono, sino más bien con el asistente de salida de Google para priorizar a Gemini.

Los chatbots de IA y los asistentes generativos de IA se han apoderado del mundo. Cada compañía está ocupada construyendo modelos de IA, ya que es la nueva palabra de moda. Cuando Operai exhibió su chatgpt ai chatbot, Google fue criticado por rezagarse en la carrera de IA. Entonces, tuvo que cambiar rápidamente su enfoque en presentar Géminis (entonces Bard) al público. Después de que la compañía hizo eso, parece que asignó todos sus recursos a desarrollar Gemini mientras dejaba de lado el Asistente de Google.

Gracias a esto, el Asistente de Google recibió el tratamiento infantil ignorado. Con la mayoría de los servidores y la potencia de procesamiento dedicada a Gemini, Google Assistant comenzó a perder la trama. En los últimos meses, el asistente dejó de reconocer los nombres de contacto que solía antes, lleva mucho tiempo realizar una tarea básica, como tocar una canción, no detecta qué canción estoy tratando de tocar en los primeros intentos, a menudo reproduce la canción equivocada, me da el clima de una ciudad diferente en lugar de la que pedí, me piden un error para actualizar la aplicación de Google para que actúe una cierta función si la aplicación es la última versión en la última versión en la última versión en la última versión en el fracaso de las ocasiones.

Experimenté estos problemas con configuraciones de idiomas de Google Assistant in English (US) e English (India). Si bien el inglés (India) fue un poco mejor, no introdujo ningún cambio notable en el comportamiento del Asistente de Google.

Estoy frustrado de que no detecte la palabra de vigilia, especialmente cuando usa Google Assistant en Android Auto, el único lugar donde no quiero que falle, ya que las instrucciones de voz son la única forma segura de realizar ciertas acciones al conducir. La única inferencia que se puede extraer de estos problemas es que Google ha perdido interés en mantener el Asistente de Google. Esto se confirmó a través del anuncio de Google sobre el reemplazo del asistente con Gemini. Como resultado, la última versión de Android Auto trae a Gemini a su automóvil en lugar de asistente.

Relacionado

La era del Asistente de Google ha terminado

¿Géminis es el futuro de los asistentes de IA? Google piensa que sí

Dejé de usar dispositivos de nido

En su lugar me cambié a Alexa

Un altavoz de audio nido frente a una pila de libros.

Después de molestarme con las travesuras de Google, reemplacé los altavoces del nido en casa con la alineación de eco de Amazon. No hay tales problemas con Alexa, ya que el asistente entiende todo, desde la palabra de vigilia hasta los comandos. Alexa siempre ha estado ligeramente detrás del Asistente de Google en términos de características, por lo que, si bien eso sigue siendo, estoy feliz de que satisfaga todas las necesidades de mi asistente de voz sin problemas.

Sin embargo, Amazon anunció recientemente un cambio de imagen de IA para Alexa, Alexa Plus, que comenzará a llegar a las masas en breve. Esperaremos para ver cómo funciona. Con suerte, mejora las habilidades de Alexa en lugar de paralizarlas.

Tengo la esperanza de que Gemini mejore con el tiempo

Google no tiene otra opción que arreglarlo

Se abre un teléfono Samsung Galaxy en un teclado portátil con la aplicación Google Gemini

Con el asistente del último participante en el cementerio de Google, supongo que Google lanzará actualizaciones para cambiar los altavoces y las pantallas de Google Assistant a Gemini. No estoy ansioso por eso, ya que Gemini no puede realizar tareas básicas con precisión, que es algo que hemos visto con AI. Aún así, espero que mejore el estado actual de estos dispositivos para que puedan ser útiles una vez más en lugar de ser pisapapeles caros.

Continue Reading

Noticias

Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado

Published

on

Crédito: Markus Winkler de Pexels

Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.

Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.

Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.

Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.

¿Cómo funcionará el chatbot Gemini AI?

Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.

Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.

El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.

Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.

¿Qué tipo de información proporcionará el sistema?

Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.

Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “inmediato”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.

Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso profesionales altamente calificados, como abogados, han sido engañados para usar contenido falso generado por ChatGPT y otros chatbots.

¿El contenido generado será apropiado para la edad?

Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.

Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder a contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.

Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.

¿Qué riesgos plantean los chatbots de IA para los niños?

La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.

El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que sean peligrosos”. El aviso destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas de computadora y qué hacer al respecto”.

Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas basadas en las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.

Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.

Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.

¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?

Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.

Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben educarse en cómo todo tipo de herramientas digitales se pueden usar de manera adecuada y segura.

Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.

Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.

Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Google está implementando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado (2025, 11 de mayo) recuperado el 11 de mayo de 2025 de https://techxplore.com/news/2025-05-google-gemini-ai-chatbot-kids.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Continue Reading

Trending