Un acontecimiento reciente en la batalla legal en curso entre OpenAI y los principales medios de comunicación, incluidos Los New York Times y Noticias diariasha llamado la atención en las comunidades tecnológica y legal.
Los abogados que representan a estos editores afirman que los ingenieros de OpenAI eliminaron accidentalmente datos cruciales que podrían haber respaldado su caso en una demanda que acusa a la empresa de inteligencia artificial de extraer contenido protegido por derechos de autor para entrenar sus modelos sin permiso.
Este incidente pone de relieve la tensión entre las tecnologías emergentes de IA y los derechos de propiedad intelectual. Esto es lo que sucedió y por qué es importante.
¿Qué pasó? El incidente de eliminación de datos
En un giro inusual, los ingenieros de OpenAI borraron los datos almacenados en una máquina virtual configurada para que los editores buscaran su material protegido por derechos de autor.
La demanda gira en torno a afirmaciones de que OpenAI utilizó artículos con derechos de autor, incluidos los de The New York Times y Daily News, para entrenar sus modelos de IA, como GPT-4, sin obtener los permisos o licencias necesarios.
En otoño, OpenAI acordó proporcionar dos máquinas virtuales a los equipos legales de los demandantes. Estas máquinas permitirían a los expertos buscar en los vastos conjuntos de entrenamiento de IA de OpenAI para ver si el contenido de las empresas se había utilizado sin consentimiento.
Después de semanas de búsqueda, los expertos habían acumulado más de 150 horas de trabajo, hasta que los datos fueron eliminados el 14 de noviembre.
Los abogados de los editores presentaron una carta en el Tribunal de Distrito de EE. UU. para el Distrito Sur de Nueva York, explicando que los ingenieros de OpenAI habían borrado accidentalmente datos críticos que podrían haber ayudado a rastrear dónde y cómo se utilizaron los artículos de los editores en el entrenamiento de los modelos.
Si bien se recuperaron algunos datos, las estructuras de carpetas y los nombres de los archivos se perdieron “irremediablemente”, lo que hizo que los datos recuperados fueran inútiles para la investigación. Este error obliga a los demandantes a recrear su trabajo desde cero.
¿Por qué es importante esto?
Esta eliminación podría tener un impacto significativo en el caso legal. Si los demandantes no pueden probar su afirmación de que OpenAI utilizó sus artículos sin permiso, puede resultar difícil responsabilizar a la empresa.
Aunque OpenAI intentó recuperar los datos, el incidente generó preocupaciones sobre la integridad de la gestión de datos de la empresa y su capacidad para cumplir con las obligaciones legales en lo que respecta al respeto de los derechos de propiedad intelectual.
Además, el equipo legal de los editores enfatizó que, si bien no creen que la eliminación haya sido intencional, subraya una cuestión crítica: OpenAI es la única entidad con acceso a sus propios conjuntos de datos.
La empresa podría estar mejor posicionada para realizar búsquedas exhaustivas para localizar cualquier contenido infractor. Sin embargo, sin una cooperación transparente, el proceso podría verse gravemente obstaculizado.
La defensa de OpenAI: uso legítimo frente a infracción de derechos de autor
En respuesta a estas demandas, OpenAI ha defendido constantemente su posición, argumentando que utilizar datos disponibles públicamente, incluidos artículos de noticias, para entrenar modelos de IA es una forma de “uso justo”.
Según esta doctrina legal, las empresas pueden utilizar material protegido por derechos de autor sin permiso si se utiliza con fines como investigación, educación o comentarios.
OpenAI cree que, dado que sus modelos, como GPT-4, se basan en grandes cantidades de contenido disponible públicamente, no necesita compensar a los titulares de derechos de autor, incluso si su tecnología genera ingresos al proporcionar servicios basados en IA.
Sin embargo, la legalidad de esta defensa sigue siendo un área gris. Si bien OpenAI ha firmado acuerdos de licencia con varios editores destacados, incluidos La prensa asociada, Información privilegiada sobre negociosy Tiempos financieroslos términos de estos acuerdos no han sido revelados.
Los informes sugieren que editores como Dotdash Meredith, la empresa matriz de Gentepodría estar recibiendo pagos sustanciales y, según se informa, Dotdash consiguió un acuerdo anual de 16 millones de dólares.
Estas asociaciones parecen ser parte de la estrategia de OpenAI para mitigar posibles riesgos de infracción de derechos de autor, pero la cuestión más amplia del uso de contenido protegido por derechos de autor sin consentimiento sigue siendo importante.
Las implicaciones legales y éticas
El caso OpenAI es un recordatorio de que los límites entre la innovación y la ley de propiedad intelectual siguen siendo turbios, especialmente en el campo de la IA en rápida evolución.
También destaca una preocupación más amplia: a medida que las tecnologías de inteligencia artificial se vuelven más sofisticadas, la línea entre lo que constituye “uso legítimo” y la infracción de derechos de autor es cada vez más difícil de trazar.
Para los editores, este caso plantea preguntas importantes sobre si deberían ser compensados por su trabajo utilizado en la capacitación en IA o si las empresas de IA deberían tener más libertad para construir modelos utilizando la gran cantidad de datos disponibles en Internet.
Si el argumento de OpenAI de que extraer datos disponibles públicamente constituye un uso legítimo se sostiene en los tribunales, podría sentar un precedente que cambie el panorama tanto para los creadores de contenido como para las empresas de tecnología.
¿Qué sigue en el caso?
Por ahora, la batalla legal está lejos de terminar. Si bien OpenAI no ha confirmado ni negado que haya utilizado ninguna obra específica protegida por derechos de autor, se espera que la demanda se prolongue durante algún tiempo.
Los próximos meses probablemente serán críticos para determinar cómo las empresas de IA manejarán las cuestiones de derechos de autor en el futuro. Los editores están siguiendo de cerca este caso, ya que su resultado podría remodelar la forma en que se utiliza el contenido para entrenar la IA y cómo se compensa a los creadores por su trabajo.
Un debate creciente sobre la IA y los derechos de autor
Este caso es parte de un debate más amplio sobre cómo debería evolucionar la ley de propiedad intelectual en la era de la inteligencia artificial.
Muchos creadores y editores de contenido están preocupados por las implicaciones de que la IA elimine su trabajo sin permiso, mientras que los desarrolladores de IA argumentan que tales prácticas son esenciales para construir tecnologías innovadoras que beneficien a la sociedad.
En los próximos años, es posible que veamos más casos como este, a medida que el mundo de la IA siga expandiéndose. Es probable que los tribunales tengan que decidir cómo equilibrar los intereses de los creadores, los consumidores y las empresas de tecnología de una manera que respalde tanto la innovación como la equidad.
Ejemplos del mundo real: ¿quién se ve afectado?
El impacto de este caso no se limita a las grandes editoriales como Los New York Times y Noticias diarias. Los creadores de contenidos más pequeños, los blogueros y los periodistas independientes también pueden sentir los efectos dominó del resultado.
Si a las empresas de inteligencia artificial se les permite extraer contenido sin licenciarlo, podría socavar el valor del trabajo original y la propiedad intelectual para todos los creadores.
Por otro lado, si los tribunales deciden que las empresas de inteligencia artificial deben pagar por el contenido que utilizan, esto podría proporcionar nuevas fuentes de ingresos para aquellos cuyo trabajo impulsa los algoritmos. Este es un momento crítico en la intersección de la tecnología, el derecho y la creatividad.
Al profundizar en esta disputa legal, podemos ver que el camino a seguir requerirá una cuidadosa consideración tanto de los principios legales como de las consideraciones éticas que rodean a la IA. Queda por ver si se exigirá a OpenAI que compense a los medios de comunicación por su contenido o si sus acciones se considerarán “uso justo”.
Pero una cosa está clara: la relación entre las empresas de IA y los creadores de contenido está entrando en un territorio inexplorado, y su resolución podría sentar las bases para la forma en que las futuras generaciones de IA interactuarán con el contenido que da forma a nuestro mundo digital.
La lucha entre los creadores y los titanes tecnológicos de IA por la ley de derechos de autor y la licencia se está calentando. En una carta presentada a la Oficina de Política de Ciencia y Tecnología de la Administración Trump el 15 de marzo, más de 400 actores, escritores y directores pidieron al gobierno que defendiera la ley actual de derechos de autor.
Los firmantes incluyen a Paul McCartney, Guillermo del Toro, Ava Duvernay, Cynthia Erivo, Phoebe Waller-Bridge, Ayo Edebiri, Chris Rock y Mark Ruffalo. La carta solicita específicamente al gobierno que no otorgue excepciones de uso justo a las compañías tecnológicas que capacitan la IA.
El uso justo es un concepto fundamental en la ley de derechos de autor que brinda a las personas una excepción para usar contenido protegido, incluso si no son el titular de los derechos de autor, en casos limitados y específicos. Anteriormente, las compañías de IA, hambrientas por el contenido generado por los humanos para capacitar y mejorar sus modelos de IA, han necesitado pagar a los editores y catálogos de contenido por el acceso a ese material. Una excepción de uso justo facilitaría que las compañías tecnológicas accedan a contenido sin obstáculos legales.
Google y Openai propusieron cambios similares a la ley actual de derechos de autor en sus propuestas para el plan de acción de IA de la administración. Google escribió que tales excepciones le permiten “evitar negociaciones a menudo altamente impredecibles, desequilibradas y largas con los titulares de datos durante el desarrollo del modelo”. Operai escribió que las protecciones de uso justo para la IA son necesarias para proteger la seguridad nacional estadounidense.
Parte del reciente impulso gubernamental alrededor de la IA es una preocupación por la pérdida de la posición global y una ventaja tecnológica sobre el desarrollo de IA a adversarios como China. La IA china, como el rival de chatgpt Deepseek, continúa procesando, pero las preocupaciones abundan sobre su seguridad y falta de barandillas.
En otras palabras, compañías tecnológicas como Google y OpenAI, cada una valorada por la capitalización de mercado en los cientos de miles de millones y billones de dólares, no quieren pasar por el proceso legal establecido y pagar los derechos del contenido que necesitan para que su AIS sea competitivo con los desarrollados por China. Y quieren que la administración Trump codifique las protecciones para ellos como parte de su plan de acción de IA.
Los firmantes de Hollywood se oponen firmemente a la posibilidad de tal reescritura de la ley de derechos de autor. “Estados Unidos no se convirtió en una potencia cultural global por accidente”, dice la carta. “Nuestro éxito se deriva directamente de nuestro respeto fundamental por la IP y los derechos de autor que recompensa la toma de riesgos creativos por estadounidenses talentosos y trabajadores de todos los estados y territorio”.
La Oficina de Derechos de Autor de EE. UU. Ha estado desarrollando orientación sobre cómo manejar los reclamos de derechos de autor por contenido generado por IA. Pero la gente ha estado preocupada durante años, e incluso demandó, cómo los modelos de IA están entrenados de una manera que potencialmente viola los derechos de los titulares de derechos de autor. El doble huelga en el verano de 2023 por miembros del Guild de Escritores de América y el Gremio de Actores de Screen y la Federación Americana de Artistas de Televisión y Radio, o Sag-Aftra, incluyó a la IA como una de sus principales preocupaciones. Ni Openai ni Google han compartido exactamente qué contenido constituye sus bases de datos de capacitación para ChatGPT y Gemini.
La ecuación de derechos de autor se vuelve aún más complicada, ya que sabemos al menos una compañía que recibió un reclamo de derechos de autor para una imagen cuya IA genera cada parte. Deja espacio para la incertidumbre en cada lado del desastre que es los derechos de autor y la IA.
La administración Trump y la IA
Hasta este punto, no ha habido un progreso mucho significativo en la supervisión del gobierno o la legislación que regula cómo los gigantes tecnológicos como OpenAI y Google desarrollan IA. El ex presidente Biden consiguió que muchas de las principales compañías tecnológicas se comprometieran voluntariamente a desarrollar AI de manera responsable e intentó promulgar algunas barandillas en torno al desarrollo de la IA a través de la orden ejecutiva. Pero a las pocas horas de ser inaugurado, Trump retrocedió la orden ejecutiva de AI de Biden con una de las suyas.
En su propia orden ejecutiva sobre IA, Trump dijo que quiere “mantener y mejorar el dominio global de IA de Estados Unidos”. El Plan de Acción de AI es cómo planea promulgar su versión de la política tecnológica. El vicepresidente Vance presentó el plan, y más ampliamente la opinión de la administración sobre la tecnología, en una cumbre internacional sobre IA en enero.
Vance dijo: “Cuando conferencias como esta se convierten en discutir una tecnología de vanguardia, a menudo, creo que nuestra respuesta es ser demasiado consciente de sí misma, demasiado requerida por el riesgo. Pero nunca he encontrado un gran avance en la tecnología que claramente nos llama a hacer precisamente lo contrario”.
Además del llamado a los comentarios, una orden ejecutiva de enero del presidente Trump pidió que American AI estuviera “libre de sesgos ideológicos o agendas sociales diseñadas”.
Al mismo tiempo, los líderes tecnológicos como Sundar Pichai de Google y Sam Altman de Openai se han acercado a la nueva administración. Altman donó un millón de dólares de su propio dinero al Fondo de inauguración de Trump, y Google como compañía donó lo mismo. Altman y Pichai obtuvieron asientos de primera fila para la ceremonia de juramentación, junto con Mark Zuckerberg de Meta, Elon Musk de X y Jeff Bezos de Amazon. Es probable que los ejecutivos esperen que llegar al lado bueno de Trump los ayude a allanar el camino para el futuro de su empresa tecnológica, incluso si, en este caso, molestaría décadas de ley establecida de derechos de autor.
Muchos grupos de personas, no solo creadores, están preocupados de que el desarrollo y el uso no regulado de la IA puedan ser desastrosos.
¿Qué viene después para los derechos de autor y la IA?
Se espera que la Oficina de Derechos de Autor de los Estados Unidos publique un informe más sobre AI, específicamente sobre “implicaciones legales de capacitar a los modelos de IA en trabajos con derechos de autor, consideraciones de licencia y la asignación de cualquier posible responsabilidad”.
Mientras tanto, una serie de demandas activas podrían establecer precedentes importantes para la rama judicial. Thomson Reuters acaba de ganar su caso que dijo que una compañía de IA no tenía un caso de uso justo para usar su contenido para construir IA. La legislación como la Ley No Fakes también se está abriendo camino a través del Congreso, pero no está claro qué tipo de legislación futura de IA tendrá.
Para obtener más información, consulte cómo AI y Art Clash en SXSW y por qué la promesa anti-AI de una compañía resuena con los creadores.
Como Openai introdujo lo que todos los demás llaman a los agentes SDK, admitió que usar las capacidades existentes de manera unida “puede ser un desafío, a menudo requerir una amplia iteración rápida y una lógica de orquestación personalizada sin suficiente visibilidad o soporte incorporado”. En resumen, el uso de agentes necesitaba bastante programación, y esa no es la historia que cualquier proveedor de IA quiere vender.
Para devolver la narración a la idea de que gastar dinero en IA eventualmente erradicará la necesidad de un costoso desarrollo de software humano, o de hecho humanos, Openai está implementando una estructura para permitir una orquestación simple.
Primero resumamos cuáles son los problemas. Las tareas de agente implican al menos dos procesos que funcionan individualmente, con una tarea que comienza otra y con los resultados que se informan a un proceso de informes finales al final, con suerte en momentos similares. Los “resultados” también deben estar en un formato conocido (por ejemplo, una oración, un archivo, una imagen, una base de datos), pero esto no es fácil de generalizar. Incluso el camino feliz es un buen equilibrio: lidiar y explicar errores es otro problema. Todos estos son problemas de orquestación familiares. Pero como industria, nadie cree que la orquestación es un problema “resuelto”. Heavy LLM Uso también agrega la necesidad de controlar el uso del token; Las fichas son el nuevo oro negro.
Para comenzar el viaje de orquestación, OpenAI ha agregado algunas API nuevas a su plataforma central. En particular, ha introducido un básico Respuestas API Eso limpia algunos de los supuestos hechos por los agentes de chat.
En el sentido más simple, esto puede capturar la salida:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O”,
aporte=“Escribe una historia de una oración a la hora de dormir sobre un unicornio”.
)
imprimir(respuesta.output_text)
Puede analizar imágenes en este nivel; y agregue una de las herramientas a continuación. Cuidado: es probable que los nuevos modelos dejen de admitir la API de finalización de chat existente: muchas características nuevas solo admiten la API de nuevas respuestas.
Veamos estas nuevas herramientas. Búsqueda web Permite que un agente rastree la web para tareas simples. El breve script de Python a continuación muestra cómo se le da a un modelo la opción de usar esta herramienta:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O”,
herramientas=[{“type”:“web_search_preview”}],
aporte=“¿Qué historia de Kubernetes apareció hoy?”
)
imprimir(respuesta.output_text)
El reesponse También contendrá referencias a cualquier artículo citado. Estas consultas se pueden definir por tiempo o ubicación. También puede sopesar el costo, la calidad y la latencia.
Búsqueda de archivos es efectivamente una tienda vectorial alojada. Usted indica que la búsqueda de archivos es una herramienta disponible e identifica su tienda vectorial:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O-Mini”,
aporte=“¿Qué es la investigación profunda de Operai?”,
herramientas=[{
“type”:“file_search”,
“vector_store_ids”:[“<vector_store_id>”]
}]
)
imprimir(respuesta)
Si es necesario, un agente lo usará. La respuesta citará los documentos utilizados en la respuesta. Puede limitar las respuestas a controlar el uso y la latencia del token. Hay límites para el tamaño total del archivo, los archivos buscados y el tamaño de la tienda Vector. Los tipos de documentos que se pueden buscar (por tipo de archivo) parecen extensos.
El Uso de la computadora La herramienta es interesante:
“La herramienta de uso de la computadora funciona en un bucle continuo. Envía acciones de la computadora, como click(x,y) o type(text)que su código se ejecuta en un entorno de computadora o navegador y luego devuelve capturas de pantalla de los resultados al modelo “.
Parece que está fingiendo ser selenio, la herramienta que usamos para probar las interfaces web a través de scripts. Obviamente, esto reconoce que todavía no estamos en el AIS solo hablando con otro mundo de AIS todavía. Pero al menos es un guiño a la idea de que no todo es un sitio web.
Probar agentes
Usaré los ejemplos de Python (definitivamente es un producto de Python-First, pero los documentos también muestran el script equivalente de JavaScript). Hemos ejecutado Python varias veces en mis publicaciones, pero en mi nuevo MacBook, solo verificaré que tenga Python instalado:
El resultado fue que python@3.13 3.13.2 ya está instalado y actualizado.
Mi pip también está allí (como PIP3).
Así que ahora puedo instalar los paquetes Operai:
Ah, recuerdo esto. Necesitamos un virtual:
Luego activo el virtual:
Y estamos listos para proceder.
Ahora, por supuesto, deberá usar y establecer un OpenAI_API_KEY. Me creé una nueva clave en la página de mi cuenta y establecí el opanai_api_key (no te preocupes, es mucho más largo que esto):
Y tienes que asegurarte de tener un poco de oro negro, me refiero a las fichas. He presentado algunas de las formas de evitar pagar OpenAi usando modelos locales, pero para esta publicación asumiré que está pagando por los tokens.
Como es tradicional, comencemos con una verificación de que los conceptos básicos anteriores están en su lugar a través de una simple solicitud con lo siguiente Haiku.py:
deagentes importarAgente,Corredor
agente=Agente(nombre=“Asistente”,instrucciones=“Eres un asistente útil”)
resultado=Corredor.run_sync(agente,“Escribe un haiku sobre la recursión en la programación”.)
imprimir(resultado.final_output)
Y obtenemos una buena respuesta:
(Un buen haiku tradicional debería mencionar las temporadas que pasan, pero no es por eso que estamos aquí). Por lo general, también verificaría mi equilibrio, pero no ha sido perturbado.
Nido de agentes
Como puede ver, ya hemos usado un agente. No es que interviniera de ninguna manera, pero llegaremos a eso.
OpenAI ha simplificado el proceso de orquestación con algunos términos simples. A manos libres es una introducción al mundo asincrónico, donde algo tiene que esperar algo más. Desglosemos su ejemplo, que ejecutaré como hola.py:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
deagentes importarAgente,Corredor
importarasincio
español_agent=Agente(
nombre=“Agente español”,
instrucciones=“Solo hablas español”.,
)
inglés_agent=Agente(
nombre=“Agente inglés”,
instrucciones=“Solo hablas inglés”,
)
triaje_agent=Agente(
nombre=“Agente de triaje”,
instrucciones=“Se transmite al agente apropiado basado en el idioma de la solicitud”.,
Esto muestra dos cosas básicas. En primer lugar, la configuración de roles para los agentes en inglés simple a los que estamos acostumbrados, pero también estableciendo la interacción entre los agentes. El agente de transferencia mantiene una lista de agentes disponibles para responder respuestas.
Ahora, esto implica que mi solicitud alemana no obtendrá la respuesta correcta. Entonces, si cambiamos la consulta dentro hola.py:
…
asíncrata defensorprincipal():
resultado=esperar Corredor.correr(triaje_agent,
aporte=“Wie Geht es Ihnen?”)
…
Y ejecutar nuestro nido de agentes:
Entonces, aunque OpenAi no tuvo problemas para traducir alemán, el agente de triaje no tenía un agente de idiomas relevante a la mano, por lo que hizo el trabajo y respondió en inglés. Es poco probable que nuestros clientes alemanes estén demasiado molestos, pero podemos mejorar.
Entonces, si finalmente agregamos el agente alemán y lo ponemos en la lista de transferencias a hola.py:
…
German_agent=Agente(
nombre=“Agente alemán”,
instrucciones=“Solo hablas alemán”,
)
triaje_agent=Agente(
nombre=“Agente de triaje”,
instrucciones=“Se transmite al agente apropiado basado en el idioma de la solicitud”.,
Podemos intentar esa solicitud alemana nuevamente:
Esta vez se llama al agente correcto y responde. Nuestros clientes alemanes ahora están más felices: ¡Ausgezeichnet! No olvides que mi terminal de urdimbre también te está dando los tiempos para estas respuestas.
Conclusión
Primero observamos el bucle de respuesta, que puede incluir más llamadas de herramientas. Si la respuesta tiene una transferencia, establecemos el agente en el nuevo agente y volvemos al inicio.
Hay opciones de registro debajo de esto, pero como de costumbre, OpenAI está dando una API de alto nivel en esta etapa, lo que debería fomentar la experimentación sin la necesidad de involucrarse demasiado con la orquestación.
Si bien he introducido agentes aquí, en publicaciones posteriores, veré más partes del SDK.
Vía Sahin Ahmed
Youtube.com/thenewstack
La tecnología se mueve rápidamente, no te pierdas un episodio. Suscríbase a nuestro canal de YouTube para transmitir todos nuestros podcasts, entrevistas, demostraciones y más.
David ha sido un desarrollador de software profesional con sede en Londres con Oracle Corp. y British Telecom, y un consultor que ayuda a los equipos a trabajar de una manera más ágil. Escribió un libro sobre diseño de la interfaz de usuario y ha estado escribiendo artículos técnicos desde entonces …
Géminis todavía está lejos de ser perfecto, pero lentamente se cultiva en mí. Específicamente, sin embargo, es el modo de conversación en vivo el que más me atrae porque es todo lo que siempre quise del Asistente de Google, y algo más. Puedo hablar con la IA, interrumpirlo, pedirle que lo repita, corregirlo y pedir más detalles, todo en una conversación muy natural y relajada.
Pero si eres alguien como yo y estás acostumbrado a hablar tres idiomas al mismo tiempo, a menudo en la misma oración, y tu cerebro funciona así de forma predeterminada, lo que hace que sea difícil mantener una conversación completa en un idioma, entonces probablemente hayas estado mordiendo en los bits, esperando que Gemini vive para apoyar varios idiomas. Con la caída del píxel de marzo, la función ahora está aquí, y oh. Mi. Cielos. ¿Es mucho mejor de lo que esperaba o qué?
¿Has intentado hablar con Gemini en varios idiomas?
2 votos
Más intuitivo y confiable que el varios idiomas de Google Assistant
Cuando Google lo anunció, pensé que el soporte de varios idiomas en Géminis Live significaba que podría tener una conversación en inglés y luego otra conversación en francés sin cambiar manualmente el idioma. Este ha sido el caso con el Asistente de Google durante años, excepto que tuve que configurar manualmente exactamente qué idiomas quería usar en el Asistente, y nunca funcionó tan bien como se esperaba.
Con Gemini Live, como puede ver en el video de arriba, ese no es el caso:
No tuve que elegir el idioma cada vez; Acabo de comenzar una nueva charla, y me entendió.
Fuera de la caja, funciona con todos los idiomas compatibles con Live. No tengo que limitarme a solo dos como con el asistente.
Aunque tuve algunos silencios incómodos de Géminis y tuve que repetir algunas oraciones, la tasa de éxito de la IA para reconocer diferentes idiomas ha superado el 90% en mis pruebas, y eso es más de lo que el asistente podría soñar.
Hablo tres idiomas casi nativamente (inglés, francés, árabe) y puedo entender y hablar (con un acento grueso) algunos español, italiano y alemán. Entonces, puse esto a prueba e probé diferentes chats con Gemini en vivo en todo esto. Me consiguió todos mis acentos nativos y gruesos cada vez.
El único con el que tuve problemas es, por extraño que parezca, mi lengua materna árabe. Podría hablar en árabe formal escrito, pero eso no es algo natural para mí. En cambio, cuando hablo, está en el dialecto libanés informal. Géminis, sin embargo, parece hablar una mezcla entre un dialecto levantino informal no descriptivo y el árabe formal escrito. Culpo esto a los millones de dialectos regionales y cuán complicados y ampliamente diferentes son, pero incluso entonces, la tasa de éxito fue más alta de lo que esperaba o había experimentado con Asistente en árabe.
Todo esto ya fue una victoria, pero luego decidí avanzar más. Y ahí es donde Gemini vive en sentido figurado me voló los calcetines.
¡Las habilidades de varios idiomas de Gemini Live funcionan a mitad de chat y a mitad de oración!
Rita El Khoury / Android Authority
Como tenía una experiencia tan positiva con diferentes chats en diferentes idiomas, quería ver si Gemini podía manejarme cambiando idiomas a mitad de chat. Así que comencé una simple discusión en inglés, luego cambié al francés, árabe, español, italiano, alemán, y me siguió a través de los seis, nunca sudando. Puedes verlo en el video a continuación.
Mirando hacia atrás en la transcripción, pude ver que realmente entendía cada palabra que dije en cada idioma y cambió sus respuestas en consecuencia.
Pero no pude parar allí, ¿verdad? Ahora, tenía curiosidad por ver si podía manejar el cambio a mitad de la oración. Así que comencé una oración en inglés, la terminé en francés y esperé con la respiración con la respuesta. ¡Y lo consiguió! Probé para otro lado. ¡Éxito!
Honestamente, en este punto, estaba gritando internamente: “¡Hechicería!” Después de vivir con el Asistente de Google durante 10 años y ver que lucha saber la diferencia entre “Bonjour” y “Bone Joke”, había perdido toda esperanza en los algoritmos de reconocimiento de voz y AIS. Pero Géminis Live restauró esa fe. Compruébalo en acción:
Comencé a mezclarme en árabe y español y seguí cambiando a mitad de la oración, y obtuvo todos ellos. A menudo respondía en el primer idioma con el que comencé mi oración, pero su respuesta era una prueba de que entendía toda la pregunta, no solo la primera parte. Incluso abrió mi herida sobre la última falla de Randal Kolo Muani en la última Copa Mundial de la FIFA y me burló de mí sobre la excelente salvación de Emiliano Martínez. Oh, bueno.
Rita El Khoury / Android Authority
Más allá de eso, quería intentar desestabilizar a Gemini en vivo aún más y llevarlo a su límite. Entonces, comencé a hablar como normalmente lo hago con mi familia y amigos, mezclando inglés, francés y árabe en la misma oración: la verdadera forma de hablar libanese, por así decirlo. Para mi sorpresa absoluta de mordisco, recibió a nuestro famoso “Hola, Kifak, CA VA?” Y siguió bien (aparte de la incómoda limitación de acento árabe que mencioné anteriormente).
¿Una palabra en un idioma diferente en medio de toda una oración en inglés? Ningún problema
Finalmente, simplemente fui por el ejemplo más extremo que se me ocurrió: hablar una oración completa en un idioma pero poner una palabra en otra. Para ser justos, así es como hablo con mi esposo el 90% del tiempo. Si estamos usando inglés, algunas palabras nos eludirán, y en el medio de nuestro flujo, solo usamos la palabra francesa o árabe. O si hablamos árabe o francés, intercalamos algunas palabras en los otros idiomas sin pensarlo mucho. Es cómo nuestros cerebros funcionan normalmente, y es por eso que nunca me siento muy cómodo hablando con asistentes de voz porque tengo que forzarme a usar un idioma. Pero Géminis Live lo consiguió.
Le pregunté: “Se llama una planta habaq En árabe, ¿qué es eso en inglés? Me dijo que es Basilio. cibuleta ¿en Inglés?” Dijo cebollino. roquettes“Mientras rodaba mi R, entendía que estaba hablando de hojas de cohetes/rúcula. Y finalmente, cuando pregunté qué”Jozt El Tib“Estaba en inglés, dijo correctamente que es una nuez moscada (sí, estaba en mi cocina e intentaba obtener ideas para las pruebas de Géminis).
Rita El Khoury / Android Authority
Mirando hacia atrás en el registro de chat durante todo esto, la transcripción no es 100% precisa o en el idioma correcto. Está “Haba” y “Rocket” y “Rose to Tibe”, mientras que “Ciboulette” ni siquiera está escrito de ninguna manera. Pero la respuesta demuestra que Gemini Live recibió la palabra correcta en el idioma correcto cada vez.
Y estos no son solo casos extremos. Todas son preguntas que realmente me he hecho o usé el traductor de Google en un momento de mi vida. No puedes creer cuántas veces quiero buscar recetas con calabacín y todo lo que mi cerebro quiere escribir es “calabacín recetas “. Así que solía traducirlo primero, recuerda que es calabacín, luego regresa para hacer mi búsqueda. sfouf (Curcuma Cake) Receta con 3e2de safra (curcuma) y busque lugares para comprar granos para la recomendación de mi padre ba2le (Verde) Planta sin sudar.
Regresé a mis pruebas e intenté las mismas preguntas con el modo de chat de voz de Chatgpt. Mientras consiguió los franceses roquettes y cibuletafalló con el árabe habaq y Jozt El Tibdiciéndome que son fenogrecidos y cominos. Oof. No querría fenogreco en mi pesto.
Después de todas estas pruebas, no puedo, pero no puedo inclinar mi sombrero al equipo de Géminis por clavar el soporte de varios idiomas y hacer que funcione tan impresionantemente bien desde el primer momento. Cada vez que lo empujaba más, me sorprendía ver que todavía me mantenía al día. Este es el primer agente de IA que me entiende de la forma en que hablo naturalmente, por lo que ya no tengo que recordar la palabra exacta en inglés si quiero continuar una conversación con ella. Todavía tengo que transformar un poco mi acento árabe para que me entienda, pero ese es un pequeño precio a pagar por un agente de voz de IA tan versátil. Sin embargo, una vez que comprenda el dialecto libanés como es, será una perfección absoluta.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.