John J. Hopfield y Geoffrey E. Hinton recibieron el Premio Nobel de Física el 8 de octubre de 2024 por su investigación sobre algoritmos de aprendizaje automático y redes neuronales que ayudan a las computadoras a aprender. Su trabajo ha sido fundamental en el desarrollo de teorías de redes neuronales que sustentan la inteligencia artificial generativa.
Una red neuronal es un modelo computacional que consta de capas de neuronas interconectadas. Al igual que las neuronas del cerebro, estas neuronas procesan y envían información. Cada capa neuronal recibe un dato, lo procesa y pasa el resultado a la siguiente capa. Al final de la secuencia, la red ha procesado y refinado los datos para convertirlos en algo más útil.
Si bien puede parecer sorprendente que Hopfield y Hinton recibieran el premio de física por sus contribuciones a las redes neuronales, que se utilizan en informática, su trabajo está profundamente arraigado en los principios de la física, particularmente en un subcampo llamado mecánica estadística.
Como científico de materiales computacionales, me emocionó ver que esta área de investigación fuera reconocida con el premio. El trabajo de Hopfield y Hinton nos ha permitido a mis colegas y a mí estudiar un proceso llamado aprendizaje generativo para las ciencias de materiales, un método que está detrás de muchas tecnologías populares como ChatGPT.
¿Qué es la mecánica estadística?
La mecánica estadística es una rama de la física que utiliza métodos estadísticos para explicar el comportamiento de sistemas formados por una gran cantidad de partículas.
En lugar de centrarse en partículas individuales, los investigadores que utilizan la mecánica estadística observan el comportamiento colectivo de muchas partículas. Ver cómo actúan todos juntos ayuda a los investigadores a comprender las propiedades macroscópicas a gran escala del sistema, como la temperatura, la presión y la magnetización.
Por ejemplo, el físico Ernst Ising desarrolló un modelo de mecánica estadística para el magnetismo en la década de 1920. Ising imaginó el magnetismo como el comportamiento colectivo de los espines atómicos que interactúan con sus vecinos.
En el modelo de Ising, hay estados de energía más altos y más bajos para el sistema, y es más probable que el material exista en el estado de energía más bajo.
Una idea clave en mecánica estadística es la distribución de Boltzmann, que cuantifica la probabilidad de que se produzca un estado determinado. Esta distribución describe la probabilidad de que un sistema se encuentre en un estado particular (como sólido, líquido o gaseoso) en función de su energía y temperatura.
Ising predijo exactamente la transición de fase de un imán utilizando la distribución de Boltzmann. Calculó la temperatura a la que el material pasaba de ser magnético a no magnético.
Los cambios de fase ocurren a temperaturas predecibles. El hielo se derrite hasta convertirse en agua a una temperatura específica porque la distribución de Boltzmann predice que cuando se calienta, es más probable que las moléculas de agua adopten un estado desordenado (o líquido).
La mecánica estadística informa a los investigadores sobre las propiedades de un sistema más grande y cómo los objetos individuales de ese sistema actúan colectivamente.
En los materiales, los átomos se organizan en estructuras cristalinas específicas que utilizan la menor cantidad de energía. Cuando hace frío, las moléculas de agua se congelan formando cristales de hielo con estados de baja energía.
De manera similar, en biología, las proteínas se pliegan en formas de baja energía, lo que les permite funcionar como anticuerpos específicos (como una cerradura y una llave) dirigidos a un virus.
Redes neuronales y mecánica estadística.
Básicamente, todas las redes neuronales funcionan según un principio similar: minimizar la energía. Las redes neuronales utilizan este principio para resolver problemas informáticos.
Por ejemplo, imagina una imagen formada por píxeles donde solo puedes ver una parte de la imagen. Algunos píxeles son visibles, mientras que el resto están ocultos. Para determinar qué es la imagen, considere todas las formas posibles en que los píxeles ocultos podrían encajar con las piezas visibles. A partir de ahí, elegirías entre los que la mecánica estadística diría que son los estados más probables entre todas las opciones posibles.
En mecánica estadística, los investigadores intentan encontrar la estructura física más estable de un material. Las redes neuronales utilizan el mismo principio para resolver problemas informáticos complejos.
Veera Sundararaghavan
Hopfield y Hinton desarrollaron una teoría de redes neuronales basada en la idea de la mecánica estadística. Al igual que Ising antes que ellos, que modeló la interacción colectiva de espines atómicos para resolver el problema de la fotografía con una red neuronal, Hopfield y Hinton imaginaron interacciones colectivas de píxeles. Representaron estos píxeles como neuronas.
Al igual que en física estadística, la energía de una imagen se refiere a la probabilidad de que exista una configuración particular de píxeles. Una red de Hopfield resolvería este problema encontrando las disposiciones de energía más baja de los píxeles ocultos.
Sin embargo, a diferencia de la mecánica estadística (donde la energía está determinada por interacciones atómicas conocidas), las redes neuronales aprenden estas energías a partir de los datos.
Hinton popularizó el desarrollo de una técnica llamada retropropagación. Esta técnica ayuda al modelo a determinar las energías de interacción entre estas neuronas, y este algoritmo sustenta gran parte del aprendizaje moderno de la IA.
La máquina de Boltzmann
Basándose en el trabajo de Hopfield, Hinton imaginó otra red neuronal llamada máquina de Boltzmann. Consta de neuronas visibles, que podemos observar, y neuronas ocultas, que ayudan a la red a aprender patrones complejos.
En una máquina de Boltzmann, puedes determinar la probabilidad de que la imagen se vea de cierta manera. Para calcular esta probabilidad, puede resumir todos los estados posibles en los que podrían estar los píxeles ocultos. Esto le brinda la probabilidad total de que los píxeles visibles estén en una disposición específica.
Mi grupo ha trabajado en la implementación de máquinas Boltzmann en computadoras cuánticas para el aprendizaje generativo.
En el aprendizaje generativo, la red aprende a generar nuevas muestras de datos que se asemejan a los datos que los investigadores alimentaron a la red para entrenarla. Por ejemplo, podría generar nuevas imágenes de números escritos a mano después de haber sido entrenado con imágenes similares. La red puede generarlos mediante muestreo de la distribución de probabilidad aprendida.
El aprendizaje generativo sustenta la IA moderna: es lo que permite la generación de arte, vídeos y textos de IA.
Hopfield y Hinton han influido significativamente en la investigación de la IA aprovechando herramientas de la física estadística. Su trabajo establece paralelismos entre cómo la naturaleza determina los estados físicos de un material y cómo las redes neuronales predicen la probabilidad de soluciones a problemas complejos de informática.
Este artículo fue publicado originalmente en The Conversation por Veera Sundararaghavan de la Universidad de Michigan. Lea el artículo original aquí.
La lucha entre los creadores y los titanes tecnológicos de IA por la ley de derechos de autor y la licencia se está calentando. En una carta presentada a la Oficina de Política de Ciencia y Tecnología de la Administración Trump el 15 de marzo, más de 400 actores, escritores y directores pidieron al gobierno que defendiera la ley actual de derechos de autor.
Los firmantes incluyen a Paul McCartney, Guillermo del Toro, Ava Duvernay, Cynthia Erivo, Phoebe Waller-Bridge, Ayo Edebiri, Chris Rock y Mark Ruffalo. La carta solicita específicamente al gobierno que no otorgue excepciones de uso justo a las compañías tecnológicas que capacitan la IA.
El uso justo es un concepto fundamental en la ley de derechos de autor que brinda a las personas una excepción para usar contenido protegido, incluso si no son el titular de los derechos de autor, en casos limitados y específicos. Anteriormente, las compañías de IA, hambrientas por el contenido generado por los humanos para capacitar y mejorar sus modelos de IA, han necesitado pagar a los editores y catálogos de contenido por el acceso a ese material. Una excepción de uso justo facilitaría que las compañías tecnológicas accedan a contenido sin obstáculos legales.
Google y Openai propusieron cambios similares a la ley actual de derechos de autor en sus propuestas para el plan de acción de IA de la administración. Google escribió que tales excepciones le permiten “evitar negociaciones a menudo altamente impredecibles, desequilibradas y largas con los titulares de datos durante el desarrollo del modelo”. Operai escribió que las protecciones de uso justo para la IA son necesarias para proteger la seguridad nacional estadounidense.
Parte del reciente impulso gubernamental alrededor de la IA es una preocupación por la pérdida de la posición global y una ventaja tecnológica sobre el desarrollo de IA a adversarios como China. La IA china, como el rival de chatgpt Deepseek, continúa procesando, pero las preocupaciones abundan sobre su seguridad y falta de barandillas.
En otras palabras, compañías tecnológicas como Google y OpenAI, cada una valorada por la capitalización de mercado en los cientos de miles de millones y billones de dólares, no quieren pasar por el proceso legal establecido y pagar los derechos del contenido que necesitan para que su AIS sea competitivo con los desarrollados por China. Y quieren que la administración Trump codifique las protecciones para ellos como parte de su plan de acción de IA.
Los firmantes de Hollywood se oponen firmemente a la posibilidad de tal reescritura de la ley de derechos de autor. “Estados Unidos no se convirtió en una potencia cultural global por accidente”, dice la carta. “Nuestro éxito se deriva directamente de nuestro respeto fundamental por la IP y los derechos de autor que recompensa la toma de riesgos creativos por estadounidenses talentosos y trabajadores de todos los estados y territorio”.
La Oficina de Derechos de Autor de EE. UU. Ha estado desarrollando orientación sobre cómo manejar los reclamos de derechos de autor por contenido generado por IA. Pero la gente ha estado preocupada durante años, e incluso demandó, cómo los modelos de IA están entrenados de una manera que potencialmente viola los derechos de los titulares de derechos de autor. El doble huelga en el verano de 2023 por miembros del Guild de Escritores de América y el Gremio de Actores de Screen y la Federación Americana de Artistas de Televisión y Radio, o Sag-Aftra, incluyó a la IA como una de sus principales preocupaciones. Ni Openai ni Google han compartido exactamente qué contenido constituye sus bases de datos de capacitación para ChatGPT y Gemini.
La ecuación de derechos de autor se vuelve aún más complicada, ya que sabemos al menos una compañía que recibió un reclamo de derechos de autor para una imagen cuya IA genera cada parte. Deja espacio para la incertidumbre en cada lado del desastre que es los derechos de autor y la IA.
La administración Trump y la IA
Hasta este punto, no ha habido un progreso mucho significativo en la supervisión del gobierno o la legislación que regula cómo los gigantes tecnológicos como OpenAI y Google desarrollan IA. El ex presidente Biden consiguió que muchas de las principales compañías tecnológicas se comprometieran voluntariamente a desarrollar AI de manera responsable e intentó promulgar algunas barandillas en torno al desarrollo de la IA a través de la orden ejecutiva. Pero a las pocas horas de ser inaugurado, Trump retrocedió la orden ejecutiva de AI de Biden con una de las suyas.
En su propia orden ejecutiva sobre IA, Trump dijo que quiere “mantener y mejorar el dominio global de IA de Estados Unidos”. El Plan de Acción de AI es cómo planea promulgar su versión de la política tecnológica. El vicepresidente Vance presentó el plan, y más ampliamente la opinión de la administración sobre la tecnología, en una cumbre internacional sobre IA en enero.
Vance dijo: “Cuando conferencias como esta se convierten en discutir una tecnología de vanguardia, a menudo, creo que nuestra respuesta es ser demasiado consciente de sí misma, demasiado requerida por el riesgo. Pero nunca he encontrado un gran avance en la tecnología que claramente nos llama a hacer precisamente lo contrario”.
Además del llamado a los comentarios, una orden ejecutiva de enero del presidente Trump pidió que American AI estuviera “libre de sesgos ideológicos o agendas sociales diseñadas”.
Al mismo tiempo, los líderes tecnológicos como Sundar Pichai de Google y Sam Altman de Openai se han acercado a la nueva administración. Altman donó un millón de dólares de su propio dinero al Fondo de inauguración de Trump, y Google como compañía donó lo mismo. Altman y Pichai obtuvieron asientos de primera fila para la ceremonia de juramentación, junto con Mark Zuckerberg de Meta, Elon Musk de X y Jeff Bezos de Amazon. Es probable que los ejecutivos esperen que llegar al lado bueno de Trump los ayude a allanar el camino para el futuro de su empresa tecnológica, incluso si, en este caso, molestaría décadas de ley establecida de derechos de autor.
Muchos grupos de personas, no solo creadores, están preocupados de que el desarrollo y el uso no regulado de la IA puedan ser desastrosos.
¿Qué viene después para los derechos de autor y la IA?
Se espera que la Oficina de Derechos de Autor de los Estados Unidos publique un informe más sobre AI, específicamente sobre “implicaciones legales de capacitar a los modelos de IA en trabajos con derechos de autor, consideraciones de licencia y la asignación de cualquier posible responsabilidad”.
Mientras tanto, una serie de demandas activas podrían establecer precedentes importantes para la rama judicial. Thomson Reuters acaba de ganar su caso que dijo que una compañía de IA no tenía un caso de uso justo para usar su contenido para construir IA. La legislación como la Ley No Fakes también se está abriendo camino a través del Congreso, pero no está claro qué tipo de legislación futura de IA tendrá.
Para obtener más información, consulte cómo AI y Art Clash en SXSW y por qué la promesa anti-AI de una compañía resuena con los creadores.
Como Openai introdujo lo que todos los demás llaman a los agentes SDK, admitió que usar las capacidades existentes de manera unida “puede ser un desafío, a menudo requerir una amplia iteración rápida y una lógica de orquestación personalizada sin suficiente visibilidad o soporte incorporado”. En resumen, el uso de agentes necesitaba bastante programación, y esa no es la historia que cualquier proveedor de IA quiere vender.
Para devolver la narración a la idea de que gastar dinero en IA eventualmente erradicará la necesidad de un costoso desarrollo de software humano, o de hecho humanos, Openai está implementando una estructura para permitir una orquestación simple.
Primero resumamos cuáles son los problemas. Las tareas de agente implican al menos dos procesos que funcionan individualmente, con una tarea que comienza otra y con los resultados que se informan a un proceso de informes finales al final, con suerte en momentos similares. Los “resultados” también deben estar en un formato conocido (por ejemplo, una oración, un archivo, una imagen, una base de datos), pero esto no es fácil de generalizar. Incluso el camino feliz es un buen equilibrio: lidiar y explicar errores es otro problema. Todos estos son problemas de orquestación familiares. Pero como industria, nadie cree que la orquestación es un problema “resuelto”. Heavy LLM Uso también agrega la necesidad de controlar el uso del token; Las fichas son el nuevo oro negro.
Para comenzar el viaje de orquestación, OpenAI ha agregado algunas API nuevas a su plataforma central. En particular, ha introducido un básico Respuestas API Eso limpia algunos de los supuestos hechos por los agentes de chat.
En el sentido más simple, esto puede capturar la salida:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O”,
aporte=“Escribe una historia de una oración a la hora de dormir sobre un unicornio”.
)
imprimir(respuesta.output_text)
Puede analizar imágenes en este nivel; y agregue una de las herramientas a continuación. Cuidado: es probable que los nuevos modelos dejen de admitir la API de finalización de chat existente: muchas características nuevas solo admiten la API de nuevas respuestas.
Veamos estas nuevas herramientas. Búsqueda web Permite que un agente rastree la web para tareas simples. El breve script de Python a continuación muestra cómo se le da a un modelo la opción de usar esta herramienta:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O”,
herramientas=[{“type”:“web_search_preview”}],
aporte=“¿Qué historia de Kubernetes apareció hoy?”
)
imprimir(respuesta.output_text)
El reesponse También contendrá referencias a cualquier artículo citado. Estas consultas se pueden definir por tiempo o ubicación. También puede sopesar el costo, la calidad y la latencia.
Búsqueda de archivos es efectivamente una tienda vectorial alojada. Usted indica que la búsqueda de archivos es una herramienta disponible e identifica su tienda vectorial:
deopadai importarOpadai
cliente=Opadai()
respuesta=cliente.respuestas.crear(
modelo=“GPT-4O-Mini”,
aporte=“¿Qué es la investigación profunda de Operai?”,
herramientas=[{
“type”:“file_search”,
“vector_store_ids”:[“<vector_store_id>”]
}]
)
imprimir(respuesta)
Si es necesario, un agente lo usará. La respuesta citará los documentos utilizados en la respuesta. Puede limitar las respuestas a controlar el uso y la latencia del token. Hay límites para el tamaño total del archivo, los archivos buscados y el tamaño de la tienda Vector. Los tipos de documentos que se pueden buscar (por tipo de archivo) parecen extensos.
El Uso de la computadora La herramienta es interesante:
“La herramienta de uso de la computadora funciona en un bucle continuo. Envía acciones de la computadora, como click(x,y) o type(text)que su código se ejecuta en un entorno de computadora o navegador y luego devuelve capturas de pantalla de los resultados al modelo “.
Parece que está fingiendo ser selenio, la herramienta que usamos para probar las interfaces web a través de scripts. Obviamente, esto reconoce que todavía no estamos en el AIS solo hablando con otro mundo de AIS todavía. Pero al menos es un guiño a la idea de que no todo es un sitio web.
Probar agentes
Usaré los ejemplos de Python (definitivamente es un producto de Python-First, pero los documentos también muestran el script equivalente de JavaScript). Hemos ejecutado Python varias veces en mis publicaciones, pero en mi nuevo MacBook, solo verificaré que tenga Python instalado:
El resultado fue que python@3.13 3.13.2 ya está instalado y actualizado.
Mi pip también está allí (como PIP3).
Así que ahora puedo instalar los paquetes Operai:
Ah, recuerdo esto. Necesitamos un virtual:
Luego activo el virtual:
Y estamos listos para proceder.
Ahora, por supuesto, deberá usar y establecer un OpenAI_API_KEY. Me creé una nueva clave en la página de mi cuenta y establecí el opanai_api_key (no te preocupes, es mucho más largo que esto):
Y tienes que asegurarte de tener un poco de oro negro, me refiero a las fichas. He presentado algunas de las formas de evitar pagar OpenAi usando modelos locales, pero para esta publicación asumiré que está pagando por los tokens.
Como es tradicional, comencemos con una verificación de que los conceptos básicos anteriores están en su lugar a través de una simple solicitud con lo siguiente Haiku.py:
deagentes importarAgente,Corredor
agente=Agente(nombre=“Asistente”,instrucciones=“Eres un asistente útil”)
resultado=Corredor.run_sync(agente,“Escribe un haiku sobre la recursión en la programación”.)
imprimir(resultado.final_output)
Y obtenemos una buena respuesta:
(Un buen haiku tradicional debería mencionar las temporadas que pasan, pero no es por eso que estamos aquí). Por lo general, también verificaría mi equilibrio, pero no ha sido perturbado.
Nido de agentes
Como puede ver, ya hemos usado un agente. No es que interviniera de ninguna manera, pero llegaremos a eso.
OpenAI ha simplificado el proceso de orquestación con algunos términos simples. A manos libres es una introducción al mundo asincrónico, donde algo tiene que esperar algo más. Desglosemos su ejemplo, que ejecutaré como hola.py:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
deagentes importarAgente,Corredor
importarasincio
español_agent=Agente(
nombre=“Agente español”,
instrucciones=“Solo hablas español”.,
)
inglés_agent=Agente(
nombre=“Agente inglés”,
instrucciones=“Solo hablas inglés”,
)
triaje_agent=Agente(
nombre=“Agente de triaje”,
instrucciones=“Se transmite al agente apropiado basado en el idioma de la solicitud”.,
Esto muestra dos cosas básicas. En primer lugar, la configuración de roles para los agentes en inglés simple a los que estamos acostumbrados, pero también estableciendo la interacción entre los agentes. El agente de transferencia mantiene una lista de agentes disponibles para responder respuestas.
Ahora, esto implica que mi solicitud alemana no obtendrá la respuesta correcta. Entonces, si cambiamos la consulta dentro hola.py:
…
asíncrata defensorprincipal():
resultado=esperar Corredor.correr(triaje_agent,
aporte=“Wie Geht es Ihnen?”)
…
Y ejecutar nuestro nido de agentes:
Entonces, aunque OpenAi no tuvo problemas para traducir alemán, el agente de triaje no tenía un agente de idiomas relevante a la mano, por lo que hizo el trabajo y respondió en inglés. Es poco probable que nuestros clientes alemanes estén demasiado molestos, pero podemos mejorar.
Entonces, si finalmente agregamos el agente alemán y lo ponemos en la lista de transferencias a hola.py:
…
German_agent=Agente(
nombre=“Agente alemán”,
instrucciones=“Solo hablas alemán”,
)
triaje_agent=Agente(
nombre=“Agente de triaje”,
instrucciones=“Se transmite al agente apropiado basado en el idioma de la solicitud”.,
Podemos intentar esa solicitud alemana nuevamente:
Esta vez se llama al agente correcto y responde. Nuestros clientes alemanes ahora están más felices: ¡Ausgezeichnet! No olvides que mi terminal de urdimbre también te está dando los tiempos para estas respuestas.
Conclusión
Primero observamos el bucle de respuesta, que puede incluir más llamadas de herramientas. Si la respuesta tiene una transferencia, establecemos el agente en el nuevo agente y volvemos al inicio.
Hay opciones de registro debajo de esto, pero como de costumbre, OpenAI está dando una API de alto nivel en esta etapa, lo que debería fomentar la experimentación sin la necesidad de involucrarse demasiado con la orquestación.
Si bien he introducido agentes aquí, en publicaciones posteriores, veré más partes del SDK.
Vía Sahin Ahmed
Youtube.com/thenewstack
La tecnología se mueve rápidamente, no te pierdas un episodio. Suscríbase a nuestro canal de YouTube para transmitir todos nuestros podcasts, entrevistas, demostraciones y más.
David ha sido un desarrollador de software profesional con sede en Londres con Oracle Corp. y British Telecom, y un consultor que ayuda a los equipos a trabajar de una manera más ágil. Escribió un libro sobre diseño de la interfaz de usuario y ha estado escribiendo artículos técnicos desde entonces …
Géminis todavía está lejos de ser perfecto, pero lentamente se cultiva en mí. Específicamente, sin embargo, es el modo de conversación en vivo el que más me atrae porque es todo lo que siempre quise del Asistente de Google, y algo más. Puedo hablar con la IA, interrumpirlo, pedirle que lo repita, corregirlo y pedir más detalles, todo en una conversación muy natural y relajada.
Pero si eres alguien como yo y estás acostumbrado a hablar tres idiomas al mismo tiempo, a menudo en la misma oración, y tu cerebro funciona así de forma predeterminada, lo que hace que sea difícil mantener una conversación completa en un idioma, entonces probablemente hayas estado mordiendo en los bits, esperando que Gemini vive para apoyar varios idiomas. Con la caída del píxel de marzo, la función ahora está aquí, y oh. Mi. Cielos. ¿Es mucho mejor de lo que esperaba o qué?
¿Has intentado hablar con Gemini en varios idiomas?
2 votos
Más intuitivo y confiable que el varios idiomas de Google Assistant
Cuando Google lo anunció, pensé que el soporte de varios idiomas en Géminis Live significaba que podría tener una conversación en inglés y luego otra conversación en francés sin cambiar manualmente el idioma. Este ha sido el caso con el Asistente de Google durante años, excepto que tuve que configurar manualmente exactamente qué idiomas quería usar en el Asistente, y nunca funcionó tan bien como se esperaba.
Con Gemini Live, como puede ver en el video de arriba, ese no es el caso:
No tuve que elegir el idioma cada vez; Acabo de comenzar una nueva charla, y me entendió.
Fuera de la caja, funciona con todos los idiomas compatibles con Live. No tengo que limitarme a solo dos como con el asistente.
Aunque tuve algunos silencios incómodos de Géminis y tuve que repetir algunas oraciones, la tasa de éxito de la IA para reconocer diferentes idiomas ha superado el 90% en mis pruebas, y eso es más de lo que el asistente podría soñar.
Hablo tres idiomas casi nativamente (inglés, francés, árabe) y puedo entender y hablar (con un acento grueso) algunos español, italiano y alemán. Entonces, puse esto a prueba e probé diferentes chats con Gemini en vivo en todo esto. Me consiguió todos mis acentos nativos y gruesos cada vez.
El único con el que tuve problemas es, por extraño que parezca, mi lengua materna árabe. Podría hablar en árabe formal escrito, pero eso no es algo natural para mí. En cambio, cuando hablo, está en el dialecto libanés informal. Géminis, sin embargo, parece hablar una mezcla entre un dialecto levantino informal no descriptivo y el árabe formal escrito. Culpo esto a los millones de dialectos regionales y cuán complicados y ampliamente diferentes son, pero incluso entonces, la tasa de éxito fue más alta de lo que esperaba o había experimentado con Asistente en árabe.
Todo esto ya fue una victoria, pero luego decidí avanzar más. Y ahí es donde Gemini vive en sentido figurado me voló los calcetines.
¡Las habilidades de varios idiomas de Gemini Live funcionan a mitad de chat y a mitad de oración!
Rita El Khoury / Android Authority
Como tenía una experiencia tan positiva con diferentes chats en diferentes idiomas, quería ver si Gemini podía manejarme cambiando idiomas a mitad de chat. Así que comencé una simple discusión en inglés, luego cambié al francés, árabe, español, italiano, alemán, y me siguió a través de los seis, nunca sudando. Puedes verlo en el video a continuación.
Mirando hacia atrás en la transcripción, pude ver que realmente entendía cada palabra que dije en cada idioma y cambió sus respuestas en consecuencia.
Pero no pude parar allí, ¿verdad? Ahora, tenía curiosidad por ver si podía manejar el cambio a mitad de la oración. Así que comencé una oración en inglés, la terminé en francés y esperé con la respiración con la respuesta. ¡Y lo consiguió! Probé para otro lado. ¡Éxito!
Honestamente, en este punto, estaba gritando internamente: “¡Hechicería!” Después de vivir con el Asistente de Google durante 10 años y ver que lucha saber la diferencia entre “Bonjour” y “Bone Joke”, había perdido toda esperanza en los algoritmos de reconocimiento de voz y AIS. Pero Géminis Live restauró esa fe. Compruébalo en acción:
Comencé a mezclarme en árabe y español y seguí cambiando a mitad de la oración, y obtuvo todos ellos. A menudo respondía en el primer idioma con el que comencé mi oración, pero su respuesta era una prueba de que entendía toda la pregunta, no solo la primera parte. Incluso abrió mi herida sobre la última falla de Randal Kolo Muani en la última Copa Mundial de la FIFA y me burló de mí sobre la excelente salvación de Emiliano Martínez. Oh, bueno.
Rita El Khoury / Android Authority
Más allá de eso, quería intentar desestabilizar a Gemini en vivo aún más y llevarlo a su límite. Entonces, comencé a hablar como normalmente lo hago con mi familia y amigos, mezclando inglés, francés y árabe en la misma oración: la verdadera forma de hablar libanese, por así decirlo. Para mi sorpresa absoluta de mordisco, recibió a nuestro famoso “Hola, Kifak, CA VA?” Y siguió bien (aparte de la incómoda limitación de acento árabe que mencioné anteriormente).
¿Una palabra en un idioma diferente en medio de toda una oración en inglés? Ningún problema
Finalmente, simplemente fui por el ejemplo más extremo que se me ocurrió: hablar una oración completa en un idioma pero poner una palabra en otra. Para ser justos, así es como hablo con mi esposo el 90% del tiempo. Si estamos usando inglés, algunas palabras nos eludirán, y en el medio de nuestro flujo, solo usamos la palabra francesa o árabe. O si hablamos árabe o francés, intercalamos algunas palabras en los otros idiomas sin pensarlo mucho. Es cómo nuestros cerebros funcionan normalmente, y es por eso que nunca me siento muy cómodo hablando con asistentes de voz porque tengo que forzarme a usar un idioma. Pero Géminis Live lo consiguió.
Le pregunté: “Se llama una planta habaq En árabe, ¿qué es eso en inglés? Me dijo que es Basilio. cibuleta ¿en Inglés?” Dijo cebollino. roquettes“Mientras rodaba mi R, entendía que estaba hablando de hojas de cohetes/rúcula. Y finalmente, cuando pregunté qué”Jozt El Tib“Estaba en inglés, dijo correctamente que es una nuez moscada (sí, estaba en mi cocina e intentaba obtener ideas para las pruebas de Géminis).
Rita El Khoury / Android Authority
Mirando hacia atrás en el registro de chat durante todo esto, la transcripción no es 100% precisa o en el idioma correcto. Está “Haba” y “Rocket” y “Rose to Tibe”, mientras que “Ciboulette” ni siquiera está escrito de ninguna manera. Pero la respuesta demuestra que Gemini Live recibió la palabra correcta en el idioma correcto cada vez.
Y estos no son solo casos extremos. Todas son preguntas que realmente me he hecho o usé el traductor de Google en un momento de mi vida. No puedes creer cuántas veces quiero buscar recetas con calabacín y todo lo que mi cerebro quiere escribir es “calabacín recetas “. Así que solía traducirlo primero, recuerda que es calabacín, luego regresa para hacer mi búsqueda. sfouf (Curcuma Cake) Receta con 3e2de safra (curcuma) y busque lugares para comprar granos para la recomendación de mi padre ba2le (Verde) Planta sin sudar.
Regresé a mis pruebas e intenté las mismas preguntas con el modo de chat de voz de Chatgpt. Mientras consiguió los franceses roquettes y cibuletafalló con el árabe habaq y Jozt El Tibdiciéndome que son fenogrecidos y cominos. Oof. No querría fenogreco en mi pesto.
Después de todas estas pruebas, no puedo, pero no puedo inclinar mi sombrero al equipo de Géminis por clavar el soporte de varios idiomas y hacer que funcione tan impresionantemente bien desde el primer momento. Cada vez que lo empujaba más, me sorprendía ver que todavía me mantenía al día. Este es el primer agente de IA que me entiende de la forma en que hablo naturalmente, por lo que ya no tengo que recordar la palabra exacta en inglés si quiero continuar una conversación con ella. Todavía tengo que transformar un poco mi acento árabe para que me entienda, pero ese es un pequeño precio a pagar por un agente de voz de IA tan versátil. Sin embargo, una vez que comprenda el dialecto libanés como es, será una perfección absoluta.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.