Connect with us

Noticias

Explicador de Mint: El caso OpenAI y lo que está en juego para la IA y los derechos de autor en la India

Published

on

ANI contra OpenAI: ¿Cuál es el caso?

El 19 de noviembre, ANI presentó una demanda por infracción de derechos de autor contra OpenAI, acusando a la empresa de utilizar su material protegido por derechos de autor para entrenar sus modelos de lenguaje. La demanda, presentada ante el Tribunal Superior de Delhi, busca indemnización por daños y perjuicios $2 millones de rupias y una orden judicial para evitar que OpenAI almacene, publique, reproduzca o utilice las obras protegidas por derechos de autor de ANI.

La declaración de la ANI describió tres causas principales de acción contra OpenAI.

  1. Alegó que OpenAI utilizó el contenido protegido por derechos de autor disponible públicamente de ANI para entrenar sus grandes modelos de lenguaje (LLM) sin obtener autorización.
  2. ANI citó casos en los que ChatGPT generó respuestas textuales o sustancialmente similares a su material protegido por derechos de autor.
  3. La ANI expresó su preocupación por las respuestas “alucinadas”, en las que ChatGPT atribuyó falsamente entrevistas o noticias inventadas a la agencia. La ANI argumentó que este uso indebido de su contenido no solo infringía sus derechos de autor sino que también planteaba importantes preocupaciones de interés público, particularmente en el contexto de falsas políticas. noticias que podrían tener consecuencias de gran alcance.

¿Cómo ha respondido Open AI?

OpenAI ha negado haber actuado mal y afirma que las leyes de derechos de autor protegen la expresión de ideas, no los hechos o las ideas en sí. La compañía destacó que ANI no ha citado casos específicos de que ChatGPT reproduzca su material protegido por derechos de autor.

OpenAI informó al Tribunal Superior de Delhi que había incluido en la lista bloqueada el dominio de ANI a partir de octubre de 2024, asegurando que el material de ANI ya no se utilizara para entrenar sus modelos.

La empresa también enfatizó que sus servidores están ubicados fuera de la India, argumentando que esto hace que la demanda sea jurisdiccionalmente irrelevante. OpenAI también señaló que ninguna de las demandas que ha enfrentado a nivel mundial, incluidos Estados Unidos, Canadá y Alemania, ha dado lugar a medidas cautelares o conclusiones de infracción de derechos de autor.

Un portavoz de OpenAI, en un comunicado, dijo: “… construimos nuestros modelos de IA utilizando datos disponibles públicamente, de una manera protegida por el uso legítimo y principios relacionados, y respaldados por precedentes legales de larga data y ampliamente aceptados”.

¿Qué ha dicho el tribunal hasta ahora?

Un tribunal único del Tribunal Superior de Delhi, encabezado por el juez Amit Bansal, emitió notificaciones y citaciones a OpenAI, pero se negó a conceder una orden judicial provisional a favor de ANI.

El tribunal reconoció la complejidad del caso como el primero de su tipo en la India y subrayó la necesidad de deliberaciones detalladas. El tribunal ha designado un amicus curiae (un experto en la materia para ayudar al tribunal) y ha programado la próxima audiencia para el 28 de enero de 2025.

¿Qué significa este caso para la regulación de la IA en la India?

Los expertos creen que el resultado de este caso podría establecer un marco legal para regular el contenido de IA en la India, particularmente en lo que respecta a las violaciones de derechos de autor. Si el tribunal falla en contra de OpenAI, podría sentar un precedente para reglas más estrictas sobre el uso de contenido protegido por derechos de autor para entrenar modelos de IA.

“La demanda de la ANI contra OpenAI marca un momento crucial para la jurisprudencia sobre IA generativa en la India. El caso subraya la creciente tensión entre la innovación en IA y la protección de la propiedad intelectual”, dijo Amit Panigrahi, socio de Luthra & Luthra Law Offices en India.

El abogado Ayush Jindal, fundador de BeLegal, añadió que el caso debería establecer directrices para el uso ético de contenidos protegidos por derechos de autor para entrenar modelos de IA. “También podría determinar si la ley de derechos de autor de la India considera los productos generados por IA como trabajos derivados”, dijo.

Lea también | ANI vs OpenAI: por qué es poco probable que las ‘alucinaciones’ desaparezcan pronto

Incluso una sentencia provisional del Tribunal Superior de Delhi influirá significativamente en el despliegue de la IA en la India, añadió Ameet Datta, socio del bufete de abogados Saikrishna & Associates. “Este caso solicita a un tribunal indio que decida si el scraping y el uso no autorizados de contenido protegido por derechos de autor para la capacitación en IA constituye una infracción de los derechos de autor y si los resultados de la IA basados ​​en dichos datos también infringen los derechos de autor”.

Latha R. Nair, socia de K&S Partners, explicó que la ley de derechos de autor de la India carece de excepciones para la minería de textos y datos, que es esencial para el aprendizaje automático, y este caso podría impulsar cambios en la ley.

¿Qué cuestiones clave relacionadas con la IA y los derechos de autor puede abordar este caso?

Como primer caso de este tipo en la India, se espera que el fallo aborde varias cuestiones críticas en torno a los derechos de autor y la IA:

  • Si la extracción y el uso de contenido protegido por derechos de autor sin autorización para entrenar modelos de IA constituye una infracción de los derechos de autor.
  • Si dicho uso puede considerarse “trato justo” según la Ley de derechos de autor de la India, que permite excepciones para fines como investigación, crítica o presentación de informes. Esto pondrá a prueba los límites de lo que está permitido dentro del marco de derechos de autor existente.
  • Si el concepto de “uso transformador”, un principio reconocido en la ley de derechos de autor de EE. UU., puede aplicarse en la jurisprudencia india. El uso transformador generalmente permite una defensa cuando la obra original se altera o reutiliza significativamente, lo que plantea preguntas importantes sobre su relevancia para la feria india. utilizar defensas.

Swati Sharma, socio y director de propiedad intelectual de Cyril Amarchand Mangaldas, explicó: “El caso probablemente abordará si descargar y copiar contenido protegido por derechos de autor para la capacitación en IA constituye una infracción, si los modelos de IA o sus resultados pueden considerarse trabajos derivados, y si el uso legítimo puede servir como defensa en tales reclamaciones.”

Ronil Goger, socio director de Blaze Legal, añadió que la legislación y los fallos judiciales deben aclarar los estándares de originalidad para las obras generadas por IA, y añadió que el Reino Unido, Estados Unidos y Canadá priorizan el esfuerzo sobre la novedad, reconociendo el papel colaborativo de la creatividad humana en la producción. Contenido impulsado por IA.

¿Cómo puede este caso empoderar a los editores?

Por un lado, el caso de ANI contra OpenAI “es probable que abra las compuertas para que más editores presenten demandas por violaciones de derechos de autor”, dijo Sharma de Cyril Amarchand Mangaldas. “Muchos también podrían considerar intervenir en los procedimientos actuales”.

Panigrahi de Luthra & Luthra añadió que el resultado del caso podría aumentar el escrutinio regulatorio, sobrecargar a las empresas de inteligencia artificial y fomentar acuerdos de licencia con creadores de contenido.

¿Qué ha funcionado para OpenAI en demandas a nivel mundial?

OpenAI señala que ha sido demandada por infracción de derechos de autor en 13 países, pero ninguno de esos casos ha dado lugar a medidas cautelares.

Por ejemplo, el Tribunal de Distrito de EE. UU. para el Distrito Sur de Nueva York desestimó recientemente los reclamos de la Ley de Copyright del Milenio Digital de Raw Story Media Inc. contra OpenAI. Raw Story había alegado que su periodismo protegido por derechos de autor fue eliminado y utilizado para entrenar ChatGPT, lo que generó un posible plagio en las respuestas.

El tribunal dictaminó que Raw Story no demostró un riesgo sustancial de que ChatGPT produjera copias textuales de su trabajo. El tribunal señaló que ChatGPT sintetiza grandes cantidades de información, lo que hace remota la probabilidad de plagio específico, y desestimó las demandas de infracción de derechos de autor.

Lea también | ¿Qué pasa si el motor de búsqueda de inteligencia artificial de ChatGPT hace clic en los usuarios?

La principal defensa de OpenAI en el caso ANI es jurisdiccional, argumentando que sus operaciones no tienen lugar en India. También es probable que la empresa se base en argumentos de “uso justo” y “uso transformador”, sosteniendo que los resultados de la IA no son reproducciones exactas de las obras originales y, a menudo, añaden nuevos significados o expresiones.

Sohini Mandal, fundadora de Nilaya Legal, explicó: “El uso justo y el uso transformador son fundamentales para la defensa de OpenAI a nivel mundial. Los tribunales pueden concluir que el uso es justo si es suficientemente transformador y no sustituye a la obra original”.

¿Qué pasa con el caso del New York Times contra OpenAI?

El caso más destacado que desafía los modelos lingüísticos de OpenAI es la demanda presentada por el New York Times en Estados Unidos. El Times acusó a OpenAI de utilizar sus artículos protegidos por derechos de autor sin autorización para entrenar sus modelos, alegando apropiación indebida de su contenido con fines de lucro.

Aún está pendiente de sentencia en este caso. Pero la demanda del NYT contra OpenAI y otros casos similares a nivel mundial podrían moldear el futuro de la regulación de la IA y la ley de derechos de autor, sentando un precedente global sobre cómo se entrenan los modelos de IA y cómo se protege la propiedad intelectual en la era digital.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El ex ejecutivo de Operai se une a la IA, el sector público y los líderes de ciberseguridad que encabezan Info-Tech Live 2025 en Las Vegas

Published

on

A medida que Momentum continúa construyendo en las semanas previas a la muy esperada conferencia anual de la industria para CIO y líderes de TI, Info-Tech Research Group ha anunciado tres nuevos oradores destacados para Info-Tech Live 2025 en Las Vegas en junio. Los altavoces recién revelados incluyen Zack Kassex jefe del mercado de ir al mercado en Openai; Bob LeeCIO para Condado de Clark, Nevada; y David TyburskiVicepresidente de Seguridad de la Información y CISO en Wynn Resorts – Voces líderes en IA, innovación del sector público y ciberseguridad. Sus notas clave Ofrezca claridad, estrategia y ideas prácticas sobre los desafíos de TI más urgentes de hoy al proporcionar diversas perspectivas sobre cómo la tecnología está remodelando las industrias, las instituciones y el liderazgo en sí.

Toronto, 14 de mayo de 2025 / PRNewswire/-Info-Tech Research Group, una firma líder mundial de investigación y asesoramiento de TI, ha anunciado tres oradores destacados adicionales para su próximo Info-Tech Live 2025 en Las Vegas Conferencia de TI. Los altavoces son Zack Kassex jefe del mercado de ir al mercado en Openai; Bob LeeCIO para Condado de Clark, Nevada; y David TyburskiVicepresidente de Seguridad de la Información y CISO en Wynn Resorts. Estos oradores compartirán su experiencia en innovación de IA, liderazgo del sector público y ciberseguridad empresarial en el escenario principal del evento insignia de la firma, que tiene lugar. 10-12 de junio, 2025en Bellagio en Las Vegas.

Info-Tech Live 2025 reunirá a miles de CIO, CDO, CISO y líderes de TI durante tres días de notas clave, Insights de analistas y compromiso entre pares. La urgencia y la oportunidad que enfrentan los líderes tecnológicos hoy mientras navegan por la interrupción y la innovación se refleja en el tema de este año “Transformarlo. Transformar todo”.

“Estos altavoces destacados para Info-Tech Live 2025 en Las Vegas Refleja las prioridades y presiones en evolución que enfrentan los líderes de TI hoy, en todas las industrias y mercados “, dice el director de investigación del grupo de investigación de información de información, Gord Harrison. “Desde redefinir cómo las organizaciones se involucran con la IA, hasta la transformación de la prestación de servicios públicos, hasta la defensa de la infraestructura digital en las industrias de alto riesgo, estos líderes aportan información crítica del futuro. Juntos, sus perspectivas ayudarán a los asistentes a ir más allá de la conciencia y tomar una acción estratégica y confidencial”.

Recientemente anunciados oradores destacados para información-tech en vivo 2025 en Las Vegas:

Las últimas incorporaciones a la lista de oradores 2025 de Info-Tech ofrecen a los asistentes una gran cantidad de experiencia en décadas de liderazgo práctico, consultoría e innovación. Sus sesiones proporcionarán nuevas perspectivas sobre los desafíos empresariales actuales, desde la navegación de tecnologías emergentes y las demandas de cumplimiento hasta las estrategias de transformación de escala y alinear las inversiones de TI con el crecimiento empresarial. Los oradores recién anunciados incluyen:

  • Zack Kass, Asesor global de IA, ex jefe de Go To-Mercado, OpenAI
    Zack Kass es un asesor futurista y global que ayuda a Fortune 1000 empresas y gobiernos a adaptarse al panorama de IA que cambia rápidamente. Como ex jefe del mercado de ir a OpenAI, ayudó a construir y liderar a los equipos responsables de traducir la investigación en aplicaciones del mundo real. Kass ahora trabaja para desmitificar la IA y dar forma a un futuro donde la tecnología sirve a las personas y la sociedad.
  • Bob LeeCIO para Condado de Clark, Nevada
    Bob Lee sirve como CIO para Condado de Clark, Nevadaapoyando a más de 2.4 millones de residentes, 90,000 empresas y más de 50 millones de visitantes anualmente. Con más de 25 años de experiencia en los sectores público y privado, Leek se centra en el cambio transformador, el liderazgo inclusivo y el uso de la tecnología para mejorar los resultados para las comunidades a las que sirve.
  • David TyburskiVP de seguridad de la información y director de seguridad de la información para Wynn Resorts
    David Tyburski Lidera la estrategia global de ciberseguridad de Wynn Resorts, supervisando la identidad y el acceso, la gestión de riesgos y la respuesta a los incidentes. Con más de 30 años en TI y seguridad, Tyburski también asesora sobre múltiples juntas de la industria y sirve en la Junta Asesora de Tecnología de la Información del Estado de Nevada.

Info-tech en vivo 2025 en Las Vegas Proporcionará estrategias procesables e información de investigación en profundidad a los líderes y ejecutivos de TI en todas las industrias. Los asistentes tendrán la oportunidad de interactuar con los analistas expertos de Info-Tech, participar en sesiones interactivas y mesas redondas, y obtener un conocimiento crítico sobre el panorama de TI en rápida evolución. La conferencia también contará con una impresionante línea de oradores principales, talleres y eventos de redes diseñados para equipar a los asistentes con las herramientas para impulsar la transformación de TI exponencial. Se publicarán anuncios adicionales en las semanas previas a la conferencia.

Para obtener los últimos detalles, visite el Info-Tech Live 2025 en Las Vegas página, y siga el grupo de investigación de información de información sobre LinkedIn y incógnita.

Media pasa por información-Tech Live 2025 en Las Vegas

Los profesionales de los medios, incluidos periodistas, podcasters e influencers, están invitados a asistir a Info-Tech Live 2025 para obtener acceso exclusivo a la investigación, el contenido y las entrevistas con los líderes de la industria. Para aquellos que no pueden asistir en persona, Info-Tech ofrece una opción de pase digital, proporcionando acceso a notas clave en vivo, sesiones seleccionadas y entrevistas virtuales exclusivas con oradores y analistas.

Los profesionales de los medios que buscan solicitar pases en persona o digitales pueden contactar pr@infotech.com Para asegurar su lugar y cubrir los últimos avances en él para su público.

Oportunidades de expositor

Los expositores también están invitados a formar parte de Info-Tech Live y mostrar sus productos y servicios a un público altamente comprometido de tomadores de decisiones de TI. Para obtener más información sobre cómo convertirse en un expositor de información en vivo, comuníquese con events@infotech.com.

Acerca del grupo de investigación de tecnología de información

Info-Tech Research Group es una de las principales empresas de investigación y asesoramiento del mundo, que atiende con orgullo a más de 30,000 profesionales. La compañía produce una investigación imparcial y altamente relevante y brinda servicios de asesoramiento para ayudar a los líderes a tomar decisiones estratégicas, oportunas y bien informadas. Durante casi 30 años, Info-Tech se ha asociado estrechamente con los equipos para proporcionarles todo lo que necesitan, desde herramientas procesables hasta orientación de analistas, asegurando que brinden resultados medibles para sus organizaciones.

Para obtener más información sobre las divisiones de Info-Tech, visite McLean & Company para obtener servicios de investigación y asesoramiento de recursos humanos y SoftWarReviews para obtener información sobre la compra de software.

Los profesionales de los medios pueden registrarse para un acceso sin restricciones a la investigación a través de TI, recursos humanos y software y cientos de analistas de la industria a través del Programa de Insiders de Medios de la empresa. Para obtener acceso, contactar pr@infotech.com.

Grupo de investigación de tecnología de información de origen

Continue Reading

Noticias

Operai trae GPT-4.1 y 4.1 mini a Chatgpt-Lo que las empresas deben saber

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai está implementando GPT-4.1, su nuevo modelo de lenguaje grande (LLM) no inicial que equilibra el alto rendimiento con menor costo, para los usuarios de ChatGPT. La compañía está comenzando con sus suscriptores que pagan en ChatGPT Plus, Pro y Equipo, con el acceso a los usuarios de la empresa y la educación esperada en las próximas semanas.

También está agregando GPT-4.1 Mini, que reemplaza a GPT-4O Mini como el valor predeterminado para todos los usuarios de ChatGPT, incluidos los de nivel gratuito. La versión “Mini” proporciona un parámetro a menor escala y, por lo tanto, una versión menos potente con estándares de seguridad similares.

Ambos modelos están disponibles a través de la selección desplegable “Más modelos” en la esquina superior de la ventana de chat dentro de ChatGPT, dando a los usuarios flexibilidad para elegir entre modelos GPT-4.1, GPT-4.1 mini y razonamiento como O3, O4-Mini y O4-Mini-High.

Inicialmente destinado a usar solo por el software de terceros y los desarrolladores de IA a través de la interfaz de programación de aplicaciones (API) de OpenAI, se agregó GPT-4.1 a ChatGPT siguiendo fuertes comentarios de los usuarios.

El líder de investigación de la capacitación posterior de Operai, Michelle Pokrass, confirmó en X, el cambio fue impulsado por la demanda, escribiendo: “Inicialmente estábamos planeando mantener esta API de modelo solo, pero todos lo querían en Chatgpt 🙂 ¡feliz codificación!”

El director de productos de Operai, Kevin Weil, publicó en X diciendo: “Lo construimos para los desarrolladores, por lo que es muy bueno para la codificación e instrucciones siguientes, ¡hágalo un intento!”

Un modelo centrado en la empresa

GPT-4.1 fue diseñado desde cero para la practicidad de grado empresarial.

Lanzado en abril de 2025 junto con GPT-4.1 Mini y Nano, esta familia modelo priorizó las necesidades de los desarrolladores y los casos de uso de producción.

GPT-4.1 ofrece una mejora de 21.4 puntos sobre GPT-4O en el punto de referencia de ingeniería de software verificado SWE-Bench, y una ganancia de 10.5 puntos en tareas de seguimiento de instrucciones en el punto de referencia MultiChallenge de Scale. También reduce la verbosidad en un 50% en comparación con otros modelos, un rasgo de los usuarios de la empresa elogió durante las pruebas tempranas.

Contexto, velocidad y acceso al modelo

GPT-4.1 admite el contexto estándar Windows para ChatGPT: 8,000 tokens para usuarios gratuitos, 32,000 tokens para usuarios más y 128,000 tokens para usuarios de Pro.

Según el desarrollador Angel Bogado Publicing en X, estos límites coinciden con los utilizados por los modelos de CHATGPT anteriores, aunque los planes están en marcha para aumentar aún más el tamaño del contexto.

Si bien las versiones API de GPT-4.1 pueden procesar hasta un millón de tokens, esta capacidad ampliada aún no está disponible en ChatGPT, aunque el soporte futuro se ha insinuado.

Esta capacidad de contexto extendida permite a los usuarios de la API alimentar las bases de código enteras o grandes documentos legales y financieros en el modelo, útil para revisar contratos de documentos múltiples o analizar grandes archivos de registro.

Operai ha reconocido cierta degradación del rendimiento con entradas extremadamente grandes, pero los casos de prueba empresarial sugieren un rendimiento sólido de hasta varios cientos de miles de tokens.

Evaluaciones y seguridad

Operai también ha lanzado un sitio web de Safety Evaluations Hub para brindar a los usuarios acceso a métricas clave de rendimiento en todos los modelos.

GPT-4.1 muestra resultados sólidos en estas evaluaciones. En las pruebas de precisión de hecho, obtuvo 0.40 en el punto de referencia SimpleQA y 0.63 en Personqa, superando a varios predecesores.

También obtuvo 0.99 en la medida “no insegura” de OpenAI en las pruebas de rechazo estándar, y 0.86 en indicaciones más desafiantes.

Sin embargo, en la prueba de jailbreak Strongject, un punto de referencia académico para la seguridad en condiciones adversas, GPT-4.1 obtuvo 0.23, detrás de modelos como GPT-4O-Mini y O3.

Dicho esto, obtuvo un fuerte 0.96 en indicaciones de jailbreak de origen humano, lo que indica una seguridad más robusta del mundo real bajo el uso típico.

En la adhesión de instrucciones, GPT-4.1 sigue la jerarquía definida de OpenAI (sistema sobre desarrollador, desarrollador sobre mensajes de usuario) con una puntuación de 0.71 para resolver conflictos de mensajes del sistema frente a usuario. También funciona bien para proteger frases protegidas y evitar regalos de soluciones en escenarios de tutoría.

Contextualización de GPT-4.1 contra predecesores

El lanzamiento de GPT-4.1 se produce después del escrutinio alrededor de GPT-4.5, que debutó en febrero de 2025 como una vista previa de investigación. Ese modelo enfatizó un mejor aprendizaje sin supervisión, una base de conocimiento más rica y alucinaciones reducidas, que caían del 61.8% en GPT-4O al 37.1%. También mostró mejoras en los matices emocionales y la escritura de forma larga, pero muchos usuarios encontraron las mejoras sutiles.

A pesar de estas ganancias, GPT-4.5 generó críticas por su alto precio, hasta $ 180 por millón de tokens de producción a través de API, y por un rendimiento decepcionante en matemáticas y puntos de referencia de codificación en relación con los modelos O-Series O de OpenAi. Las cifras de la industria señalaron que si bien GPT-4.5 era más fuerte en la conversación general y la generación de contenido, tuvo un rendimiento inferior en aplicaciones específicas del desarrollador.

Por el contrario, GPT-4.1 se pretende como una alternativa más rápida y más enfocada. Si bien carece de la amplitud de conocimiento de GPT-4.5 y un modelado emocional extenso, está mejor sintonizado para la asistencia de codificación práctica y se adhiere de manera más confiable a las instrucciones del usuario.

En la API de OpenAI, GPT-4.1 tiene un precio de $ 2.00 por millón de tokens de entrada, $ 0.50 por millón de tokens de entrada en caché y tokens de salida de $ 8.00 por millón.

Para aquellos que buscan un saldo entre velocidad e inteligencia a un costo más bajo, GPT-4.1 Mini está disponible en $ 0.40 por millón de tokens de entrada, $ 0.10 por millón de tokens de entrada en caché y tokens de salida de $ 1.60 por millón.

Los modelos Flash-Lite y Flash de Google están disponibles a partir de $ 0.075– $ 0.10 por millón de tokens de entrada y $ 0.30– $ 0.40 por millón de tokens de salida, menos de una décima parte del costo de las tasas base de GPT-4.1.

Pero si bien GPT-4.1 tiene un precio más alto, ofrece puntos de referencia de ingeniería de software más fuertes y una instrucción más precisa después, lo que puede ser crítico para los escenarios de implementación empresarial que requieren confiabilidad sobre el costo. En última instancia, el GPT-4.1 de OpenAI ofrece una experiencia premium para el rendimiento de precisión y desarrollo, mientras que los modelos Gemini de Google atraen a empresas conscientes de costos que necesitan niveles de modelos flexibles y capacidades multimodales.

Lo que significa para los tomadores de decisiones empresariales

La introducción de GPT-4.1 aporta beneficios específicos a los equipos empresariales que administran la implementación de LLM, la orquestación y las operaciones de datos:

  • Ingenieros de IA Supervisando la implementación de LLM puede esperar una velocidad mejorada e instrucción de adherencia. Para los equipos que administran el ciclo de vida LLM completo, desde el modelo de ajuste hasta la resolución de problemas, GPT-4.1 ofrece un conjunto de herramientas más receptivo y eficiente. Es particularmente adecuado para equipos Lean bajo presión para enviar modelos de alto rendimiento rápidamente sin comprometer la seguridad o el cumplimiento.
  • La orquestación de IA conduce Centrado en el diseño de tuberías escalable apreciará la robustez de GPT-4.1 contra la mayoría de las fallas inducidas por el usuario y su fuerte rendimiento en las pruebas de jerarquía de mensajes. Esto facilita la integración en los sistemas de orquestación que priorizan la consistencia, la validación del modelo y la confiabilidad operativa.
  • Ingenieros de datos Responsable de mantener una alta calidad de datos e integrar nuevas herramientas se beneficiará de la tasa de alucinación más baja de GPT-4.1 y una mayor precisión objetiva. Su comportamiento de salida más predecible ayuda a construir flujos de trabajo de datos confiables, incluso cuando los recursos del equipo están limitados.
  • Profesionales de seguridad de TI La tarea de integrar la seguridad en las tuberías de DevOps puede encontrar valor en la resistencia de GPT-4.1 a jailbreaks comunes y su comportamiento de salida controlado. Si bien su puntaje académico de resistencia de jailbreak deja espacio para mejorar, el alto rendimiento del modelo contra las exploits de origen humano ayuda a apoyar la integración segura en herramientas internas.

En estos roles, el posicionamiento de GPT-4.1 como un modelo optimizado para mayor claridad, cumplimiento y eficiencia de implementación lo convierte en una opción convincente para empresas medianas que buscan equilibrar el rendimiento con las demandas operativas.

Un nuevo paso adelante

Mientras que GPT-4.5 representaba un hito de escala en el desarrollo del modelo, GPT-4.1 se centra en la utilidad. No es el más caro o el más multimodal, pero ofrece ganancias significativas en áreas que importan para las empresas: precisión, eficiencia de implementación y costo.

Este reposicionamiento refleja una tendencia de la industria más amplia, alejada de la construcción de los modelos más grandes a cualquier costo y hacia los modelos capaces más accesibles y adaptables. GPT-4.1 cumple con esa necesidad, ofreciendo una herramienta flexible y lista para la producción para equipos que intentan integrar la IA más profundamente en sus operaciones comerciales.

A medida que OpenAI continúa evolucionando sus ofertas de modelos, GPT-4.1 representa un paso adelante en la democratización de IA avanzada para entornos empresariales. Para la capacidad de equilibrio de los tomadores de decisiones con el ROI, ofrece un camino más claro hacia el despliegue sin sacrificar el rendimiento o la seguridad.

Continue Reading

Noticias

¿Qué es chatgpt? Todo lo que necesitas saber sobre el chatbot de la IA

Published

on

ChatGPT es el chatbot de inteligencia artificial que comenzó toda la revolución generativa de IA. Es una herramienta multimodal que puede realizar una variedad de funciones, desde responder preguntas complejas, y simplificar las respuestas para usted, como si tenga 5 años, hasta codificar el software, crear imágenes y videos e incluso participar en conversaciones casuales.

Lanzado en noviembre de 2022 por OpenAI, la compañía cofundada por Sam Altman, ChatGPT rápidamente se convirtió en la aplicación de IA más popular jamás lanzada, y la que todos intentaron emular y One-Up. Desde entonces, todos los grandes jugadores tecnológicos se han unido a la carrera generativa de IA. Perplexity, Meta AI, Géminis de Google, Copilot de Microsoft y Claude de Anthrope pueden hacer cosas similares. Pero la popularidad de ChatGPT, las capacidades abiertas y el comienzo temprano le dieron una fuerte ventaja.

ChatGPT se convirtió en una de las aplicaciones de más rápido crecimiento en la historia, acumulando cientos de millones de usuarios. ChatGPT a menudo se destaca debido a su versatilidad y facilidad de uso, pero principalmente desde la gran escala de su base de usuarios.

Vamos a profundizar en cómo funciona ChatGPT, cómo usarlo y por qué se ha convertido en la charla de la ciudad en los últimos años, y algunos de sus puntos más controvertidos.

¿Cómo funciona el chatgpt?

ChatGPT se basa en una arquitectura de transformador, específicamente la familia de modelos GPT (transformador generativo previamente provocado), el nombre del nombre chatgpt. Fue capacitado en grandes cantidades de datos de libros e Internet: sitios web, wikipedia, hilos de reddit, sitios de noticias y mucho, mucho más.

(Divulgación: Ziff Davis, la empresa matriz de CNET, en abril presentó una demanda contra OpenAi, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).

Al igual que otros chatbots de IA, utiliza algoritmos de aprendizaje profundo para comprender el contexto y predice la siguiente palabra más probable en una oración basada en patrones que se ha visto antes. Esa es una razón por la cual a veces “alucina” o genera información segura pero incorrecta.

ChatGPT se basa en modelos de idiomas grandes (LLM), lo que permite comprender sus preguntas y proporcionar respuestas similares a los humanos. A veces lo hace de manera tan convincente y natural, podrías olvidar que es no realmente pensando. Y este límite se está empujando más todo el tiempo. Su último modelo, GPT-4.5, actualmente disponible para niveles más y superiores en una vista previa de investigación, muestra una mayor inteligencia emocional y supuestamente alucina menos.

Chatgpt / captura de pantalla por cnet

A partes iguales impresionantes e inquietantes, varios LLM han pasado recientemente la prueba de Turing, donde un evaluador humano habla con una máquina y un humano, y si el evaluador no puede distinguir entre ellos, la máquina pasa. GPT-4.5 fue considerado como el humano el 73% del tiempo.

Sin embargo, Afraz Jaffri, analista director senior de Gartner, argumenta que estos resultados no importan tanto.

“Puedes crear sistemas que puedan engañar a las personas para que piensen que esto con lo que estás hablando es humano”, le dice Jaffri a CNET. “Entiende lo que están diciendo, pero en realidad no entiende lo que está diciendo. Por lo tanto, es realmente una prueba de credulidad humana en lugar de una prueba de inteligencia”.

Cuando le pregunté a Jaffri qué cree que es el mayor defecto de Chatgpt, dijo: “Simplemente no son confiables. Entonces, incluso si pregunto algo y obtengo una respuesta, todavía quiero verificar que eso es realmente cierto, lo que derrota el punto de que lo obtengamos en primer lugar”.

Sin embargo, OpenAI se ha apresurado a actuar sobre los comentarios de los usuarios. Hace solo unos días, anunció en X una nueva característica que mejora las citas al resaltar el texto relevante y mostrar a qué parte se refiere cada cita.

Chatgpt / captura de pantalla por cnet

También volvió a GPT-4O a su versión anterior después de que los usuarios de X se quejaron de que su elogio “Sycophantic” se sintió inquietante y angustiante. Sycophancy es la falsa adulación de alguien en el poder, a menudo se usa para obtener algo de ellos. Operai dice que está trabajando en un enfoque más equilibrado en el futuro.

Accesibilidad e integraciones

Puede acceder fácilmente a ChatGPT a través de un navegador web o a través de sus aplicaciones en los dispositivos Android e iOS.

También se ha integrado en aplicaciones educativas, bots de servicio al cliente e incluso productos de Apple a través de Apple Intelligence y Siri.

Además, OpenAI introdujo la capacidad de interactuar a través de llamadas telefónicas a través del servicio 1-800-CHATGPT, simplificando el uso para aquellos que prefieren la interacción de voz sobre la escritura.

¿Qué puedes hacer con chatgpt?

Hay muchos casos de uso para ChatGPT: por nombrar algunos, puede planificar sus vacaciones, practicar preguntas de entrevista de trabajo con usted, ayudarlo con su presupuesto, escribir su currículum, hacer su planificación de comidas, recordar correos electrónicos, resumir documentos largos, crear estrategias comerciales, o simplemente conversar con usted. Aprenderá de sus consultas y solicitudes, y se adaptará a lo que cree que le gusta.

Si no desea que le recuerde, también puede usar un chat temporal seleccionándolo en la esquina superior derecha. No aparecerá en la historia, actualizará su memoria ni se utilizará para entrenar modelos, aunque se puede mantener hasta 30 días para la seguridad.

El lienzo ChatGPT puede ayudarlo a escribir y codificar, y con la función de tareas, puede configurar recordatorios y programar tareas. Puede redactar copias de marketing e incluso ayudarlo con el autodiagnóstico, aunque siempre debe tener cuidado con los resultados y consultar a su médico.

También es uno de los chatbots más personalizables. Puede crear su propio GPT adaptado a tareas o personalidades específicas, o seleccionar entre los miles de los creados por los usuarios. Se organizan en categorías como educación, productividad, tendencias y programación, etc.

Captura de pantalla por CNET

Más allá del texto, ChatGPT puede generar imágenes y videos originales a través de sus herramientas integradas. El generador de imágenes de GPT-4O ahora es el valor predeterminado en ChatGPT para todos los usuarios, que le ofrece la capacidad de generar imágenes altamente realistas a partir de indicaciones de texto simples. Si prefiere seguir usando Dall-E 3 (su primer generador de imágenes), aún puede acceder a él a través del Dall-E GPT.

Creé esto directamente en Chatgpt con el mensaje: “Haga una imagen de una anciana con arrugas, sentada junto a la ventana, comiendo una manzana y mirando hacia afuera. Sea hiperrealista, use colores de otoño en la imagen”.

Chatgpt / captura de pantalla por cnet

Todos los usuarios de ChatGPT en la web e iOS/Android ahora tienen una biblioteca donde las imágenes se guardan automáticamente, lo que le permite volver a visitarlos, reutilizarlas o editarlas sin cavar en chats antiguos. Puede acceder a él desde la barra lateral izquierda.

Chatgpt / captura de pantalla por cnet

Además, Openai ha introducido Sora, su modelo de texto de texto a video, a planes PLUS y Pro, expandiendo las capacidades multimedia de ChatGPT.

Diferentes modelos para diferentes funciones

Originalmente basado en la arquitectura GPT-3 de Openai, ChatGPT ha evolucionado. Existen diferentes variaciones y limitaciones del modelo basadas en su suscripción y su propósito para usar CHATGPT.

GPT-4O es la versión más avanzada accesible para todos, manejando texto, imágenes y audio como entrada y salida. GPT-4O Mini, el modelo más rápido, está optimizado para las tareas cotidianas y está disponible para todos los usuarios (los usuarios de nivel libre se cambian automáticamente a él al alcanzar los límites de uso en GPT-4O).

Los modelos O3 y O4-Mini son modelos de razonamiento, donde O3 es especialmente fuerte en las tareas de codificación, matemáticas y visuales, mientras que O4-Mini es una versión más ligera y rentable. O4-Mini-High es lo mejor para la codificación y la percepción visual.

Los modelos O1 y O1-Mini están diseñados para “pensar” más tiempo antes de responder y son ideales para resolver problemas complejos. Por último, como se mencionó anteriormente, GPT-4.5 es el modelo más grande y mejor para el chat y está disponible en la vista previa de la investigación para todos los planes de EDU pagados y chatgpt para estudiantes.

Si está en cualquier plan pagado, puede cambiar el modelo antes o durante un chat haciendo clic en el selector de modelos en la esquina superior izquierda de la pantalla.

Chatgpt / captura de pantalla por cnet

Precio de chatgpt

Operai proporciona chatgpt en un modelo freemium. La versión gratuita ofrece acceso básico a GPT-4O Mini y acceso limitado a GPT-4O, O4-Mini e Investigación profunda. La actualización a un plan pagado desbloquea características adicionales.

ChatGPT Plus cuesta $ 20 al mes y proporciona acceso a SORA, investigaciones profundas y modelos de razonamiento múltiples (O3, O4-Mini y O4-Mini-High), tiempos de respuesta más rápidos, acceso limitado a GPT-4.5 y características adicionales como la interacción de voz.

Para los equipos, hay un equipo de ChatGPT que comienza en $ 25 por usuario por mes. Para los usuarios pesados, ChatGPT Pro está disponible por $ 200 al mes con los límites y capacidades más altos. Las empresas también pueden elegir ChatGPT Enterprise con precios personalizados para funciones de nivel empresarial.

Los estudiantes y las organizaciones sin fines de lucro ocasionalmente reciben ofertas especiales. Por ejemplo, ChatGPT Plus Access a menudo es gratuito para estudiantes en los EE. UU. Y Canadá durante los períodos de examen.

Preocupaciones de privacidad, batallas legales y otras controversias

ChatGPT enfrenta desafíos legales continuos relacionados con las preocupaciones de la industria con respecto a la ética y la legalidad del abastecimiento de datos para la capacitación de IA. Las demandas de alto perfil incluyen las principales editoriales como The New York Times, Dow Jones y la empresa matriz de CNET Ziff Davis (ver divulgación anterior), que alegan el uso no autorizado de su contenido para capacitar a ChatGPT, al igual que muchos autores individuales.

No olvidemos cuándo la modelo de voz “Sky” de OpenAi imitó a Scarlett Johansson sin permiso, lo que llevó a su equipo a amenazar las acciones legales sobre el uso no autorizado de su voz. Operai eliminó la voz, dijo que provenía de una actriz diferente y prometió revelaciones de AI más claras.

La privacidad es otra preocupación. Los expertos y los defensores de la privacidad han planteado preguntas continuas sobre la protección de los datos, cómo se almacena y usa la información personal, y qué los usuarios deben o no compartir. Incluso Openai aconseja que no ingresen información confidencial como números de tarjetas de crédito, historial médico o números de Seguro Social.

Jaffri enfatizó que el despliegue malicioso o descuidado, no los modelos en sí, es la raíz de la mayoría de los riesgos.

“Ahora cualquiera puede crear estas cosas y puede difundirlas mucho más fáciles y mucho más rápidas, así que ese es el tipo de preocupación”, dijo a CNET. “Se trata más de cómo se usa en lugar de ser algo de qué preocuparse”.

Operai ha intentado abordar estos problemas con medidas de protección de datos mejoradas. Sus indicaciones (en planes gratuitos, Plus y Pro) pueden usarse para capacitar al modelo a menos que opte por no participar en la configuración. Los planes de Equipo y Enterprise están diseñados para no recopilar datos del usuario de forma predeterminada. Openai no respondió a una solicitud de comentarios sobre posibles preocupaciones de copyright y plagio sobre los datos de capacitación o sobre la privacidad del usuario y la protección de datos.

Desarrollos recientes y nuevas características

Desde su comienzo, ChatGPT ha crecido en características y capacidades. OpenAI amplió la función de memoria de ChatGPT, lo que permite que el chatbot recupere las interacciones anteriores (que puede administrar o eliminar), creando una experiencia de usuario más personalizada.

Recientemente, Operai hizo las capacidades de generación de imágenes de Chatgpt gratis para todos los usuarios, aunque con un número limitado de usos mensuales. Además, en respuesta a la competencia de rivales como la compañía china de IA Deepseek R1, Operai lanzó pruebas para su nuevo modelo liviano e investigación profunda, accesible incluso para usuarios de nivel libre (con acceso limitado).

ChatGPT se está convirtiendo en una interfaz predeterminada de cómo las personas interactúan con la IA e incluso cómo obtienen información de Internet. A través de su función de búsqueda ChatGPT, compite más directamente con Google Search (incluso eliminando los requisitos de inicio de sesión obligatorios para que sea mucho más fácil para los usuarios casuales).

ChatGPT sigue siendo un jugador influyente en la IA. A medida que las herramientas generativas de IA se integran más en la vida diaria, las mejoras continuas en la usabilidad, la protección de la privacidad y las capacidades de generación de contenido determinarán el éxito a largo plazo de ChatGPT.

“Todo el tipo de tecnología en sí misma será transformador para muchas áreas diferentes, lo que tendrá un impacto directo en nuestras vidas”, dice Jaffri. “Con suerte para mejor”.

Continue Reading

Trending