Connect with us

Noticias

¿Por qué Operai y Google están presionando para un uso justo?

Published

on

Las potencias de inteligencia artificial OpenAi y Google están presionando agresivamente al gobierno de los Estados Unidos para clasificar la capacitación de IA en datos con derechos de autor como “uso justo”. Su objetivo, enmarcado como una cuestión de seguridad nacional, está posicionado para asegurar una ventaja competitiva contra los rivales internacionales, particularmente China. Sin embargo, esta propuesta plantea preguntas legales, éticas y económicas profundas, ilustrada fuertemente por casos recientes de alto perfil que involucran compañías como meta y demandas recientes por parte de editores franceses.

El cabildeo estratégico de Openai y la ‘edad de inteligencia’

Openai y Google presentaron recientemente propuestas de políticas extensas en respuesta a una solicitud de comentarios públicos de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca. La presentación es parte del plan de acción de inteligencia artificial más amplio del gobierno de los Estados Unidos, iniciado bajo una orden ejecutiva de la administración Trump. Sus propuestas argumentan que limitar la capacitación de IA en materiales con derechos de autor podría debilitar la ventaja tecnológica de Estados Unidos y reducir la innovación, posicionando la seguridad nacional como una justificación central para una amplia protección de uso justo. Sam Altman, CEO de Openai, etiqueta el período actual como una “edad de inteligencia”, lo que sugiere que las leyes restrictivas de derechos de autor podrían empoderar inadvertidamente a rivales geopolíticos como China. Argumenta que el liderazgo estadounidense en IA se correlaciona directamente con la seguridad nacional, la prosperidad económica y los ideales democráticos.

Google refuerza esta narración, enfatizando cómo las restricciones actuales de derechos de autor son excesivamente cautelosas, inspiradas en modelos europeos estrictos. La postura de Google es que el uso justo y las excepciones mineras de texto y datos son vitales, y afirman que las restricciones crean complejidad innecesaria, imprevisibilidad y retrasos, lo que finalmente obstaculiza la innovación tecnológica estadounidense.

Ambas compañías presentan una narrativa clara: si las empresas estadounidenses no pueden capacitar libremente los sistemas de IA, el liderazgo tecnológico estadounidense podría perderse, principalmente a China, donde las empresas operan con menos restricciones regulatorias.

El meta escándalo: una advertencia sobre los límites del uso justo

Las implicaciones de ampliar la interpretación del uso justo se destacan en la reciente controversia meta. Meta enfrentó acusaciones de torrenciar libros con derechos de autor, sin permiso, para capacitar a los modelos de IA, lo que llevó a los autores a lanzar una demanda histórica. Los documentos revelaron estrategias de ocultación deliberadas por Meta, incluido el uso de servicios web de Amazon para enmascarar sus acciones.

Los autores demandaron a Meta por infracción de derechos de autor, afirmando que estas acciones constituyeron una piratería directa, no un uso justo. La demanda de los autores introdujo un argumento particularmente condenatorio, invocando la “defensa de Bob Dylan”, que hace referencia irónicamente a las letras que ilustran el tratamiento inequitativo, donde las grandes corporaciones aparentemente evitan las leyes con impunidad.

Además, los editores franceses, dirigidos por la Unión Nacional de Publicaciones, la Unión Nacional de Autores y Compositores, y la Sociedad de Men of Letters, han emprendido acciones legales contra Meta. Estas organizaciones, que defienden los intereses de los autores y editores, presentaron una queja en un tribunal de París alegando que meta participó en infracción sistemática de derechos de autor y “parasitismo” económico mediante el uso de trabajos con derechos de autor para capacitar a sus modelos de IA. Este caso destaca la creciente resistencia global al uso no controlado de obras creativas en la capacitación de IA y establece un precedente para futuras batallas legales más allá de los Estados Unidos.

La realidad de la capacitación de IA: los datos, no el modelo, impulsa el valor

Las compañías de IA a menudo afirman que sus modelos no replican obras con derechos de autor, sino que “aprenden” de ellos extrayendo patrones, estructuras lingüísticas e ideas contextuales. Sin embargo, la función central de los modelos generativos es imitar estadísticamente el sistema que produjo los datos de entrenamiento. Esto significa que se puede solicitar a un modelo de idioma que escriba al estilo de un autor específico o imiten el trabajo de un artista porque ha codificado patrones del material original.

Desde una perspectiva técnica, el aprendizaje automático no es “aprendizaje” en la forma en que lo hace un humano, es principalmente un mecanismo de compresión de datos a gran escala. Durante el entrenamiento, los modelos de IA codifican patrones estadísticos de sus conjuntos de datos, reteniendo una parte significativa de esos patrones incluso después del ajuste fino. Esto permite que los modelos regeneran los datos de capacitación dentro de márgenes razonables de error, reproduciendo efectivamente los trabajos con derechos de autor de manera que requieren atribución o licencia.

Los críticos como Chomba Bupe, emprendedor tecnológico y experto en inteligencia de máquinas, argumentan que esto socava las afirmaciones de uso justo porque los modelos de IA no crean contenido verdaderamente novedoso, sino que recombinan versiones comprimidas de materiales con derechos de autor. Esto fortalece el argumento de que las compañías de IA deben compensar o buscar el consentimiento explícito de los creadores de contenido cuyas obras se incluyen en los conjuntos de datos de capacitación.

Además, las demandas en curso contra las empresas de IA podrían servir como una corrección necesaria para empujar a la industria hacia modelos de aprendizaje automático genuinamente inteligentes en lugar de generadores basados ​​en compresión de datos disfrazados de inteligencia. Si los desafíos legales obligan a las empresas de IA a repensar su dependencia del contenido con derechos de autor, podría estimular la innovación para crear sistemas de IA más avanzados y de origen ético.

Doctrina de uso justo: incertidumbre legal y tensiones de la industria

Central para el argumento de Openai y Google es la doctrina legal del uso justo, lo que históricamente permite usos transformadores limitados de los materiales con derechos de autor. Las compañías de IA afirman que sus algoritmos no reproducen los trabajos con derechos de autor directamente para el consumo público, sino que analizan patrones, contexto y estructuras, creando resultados transformadores.

Sin embargo, las recientes decisiones de la corte histórica ponen en duda sobre esta interpretación. En particular, el caso de Thomson-Reuters y Westlaw demostraron que los resultados generados por IA podrían socavar significativamente los mercados establecidos, no simplemente complementarlos o mejorarlos. Además, Operai enfrenta múltiples demandas significativas, incluso de los principales editores como el New York Times, destacando la contención continua en torno a la aplicabilidad de uso justo en la era de la IA.

Confiar solo en uso justo como escudo legal es un modelo de negocio precario. Si su modelo de negocio se basa en obtener materias primas de forma gratuita, materiales que probablemente estén protegidos por los derechos de autor, entonces supone un pasivo desde el principio. Los inversores pueden ver este riesgo legal como un defecto estructural, especialmente dado el creciente número de demandas presentadas contra las empresas de IA.

Evaluación de reclamos de seguridad nacional: ¿Riesgo real o laguna reguladora?

Tanto Operai como Google enfatizan las preocupaciones de seguridad nacional, advirtiendo que las leyes de derechos de autor demasiado restrictivas podrían permitir a China superar las capacidades tecnológicas de los Estados Unidos. Con frecuencia citan los rápidos avances de IA de China, ejemplificados por Deepseek AI, que recientemente llamó la atención del presidente chino Xi Jinping.

Sin embargo, se puede argumentar que las justificaciones de seguridad nacional corren el riesgo de convertirse en una laguna reguladora conveniente. La invocación de riesgos geopolíticos podría servir como influencia para otorgar a las empresas de IA privilegios excesivamente amplios, potencialmente socavando las protecciones de la propiedad intelectual y los derechos de los creadores.

Recomendaciones: Encontrar un equilibrio sostenible

Una solución sostenible debe conciliar la innovación tecnológica con los intereses económicos de los creadores. Los formuladores de políticas deben desarrollar estándares federales claros que especifiquen parámetros de uso justo para la capacitación de IA, considerando soluciones como:

  • Licencias y regalías: Acuerdos de licencia transparente que compensan a los creadores cuyo trabajo es parte integral de los conjuntos de datos de IA.
  • Conjuntos de datos curados: Los conjuntos de datos gubernamentales o administrados por la industria aprobaron explícitamente para la capacitación de IA, asegurando una compensación justa.
  • Excepciones reguladas: Definiciones legales claras que distinguen el uso transformador en contextos de capacitación de IA.

Estas políticas matizadas podrían fomentar la innovación sin sacrificar los derechos de los creadores.

El cabildeo de Openai y Google revela tensiones más amplias entre el rápido crecimiento tecnológico y la responsabilidad ética. Si bien las preocupaciones de seguridad nacional justifican una consideración cuidadosa, no deben justificar la regulación irresponsable o los compromisos éticos. Un enfoque equilibrado, preservar la innovación, proteger los derechos de los creadores y garantizar el desarrollo sostenible y ético de la IA, es fundamental para futuras competitividad global y justicia social.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

AI Empire de Nvidia: una mirada a sus principales inversiones de inicio

Published

on

Ninguna compañía ha capitalizado la revolución de IA de manera más dramática que NVIDIA. Sus ingresos, rentabilidad y reservas de efectivo se han disparado desde la introducción de ChatGPT hace más de dos años, y los muchos servicios de IA generativos competitivos que se han lanzado desde entonces. Y su precio de acciones se disparó.

Durante ese período, el principal fabricante de GPU de alto rendimiento del mundo ha utilizado sus fortunas de globo para aumentar significativamente las inversiones en todo tipo de nuevas empresas, pero particularmente en las nuevas empresas de IA.

El gigante de chips aumentó su actividad de capital de riesgo en 2024, participando en 49 rondas de financiación para compañías de IA, un fuerte aumento de 34 en 2023, según los datos de Pitchbook. Es un aumento dramático en la inversión en comparación con los cuatro años anteriores combinados, durante el cual Nvidia financió solo 38 acuerdos de IA. Tenga en cuenta que estas inversiones excluyen las realizadas por su Fondo Corporativo de VC formal, Nventures, que también aumentó significativamente su inversión en los últimos dos años. (Pitchbook dice que las nventures participaron en 24 acuerdos en 2024, en comparación con solo 2 en 2022.)

En 2025, Nvidia ya ha participado en siete rondas.

Nvidia ha declarado que el objetivo de su inversión corporativa es expandir el ecosistema de IA al respaldo de las nuevas empresas que considera “cambiadores de juegos y fabricantes de mercado”.

A continuación se muestra una lista de nuevas empresas que elevaron rondas superiores a $ 100 millones donde Nvidia es un participante nombrado desde 2023, incluidas las nuevas que ha respaldado hasta ahora en 2025, organizado desde la cantidad más alta hasta la más baja en la ronda.

El club de ronda de mil millones de dólares

OpenAi: Nvidia respaldó al fabricante de chatgpt por primera vez en octubre, según los informes, escribiendo un cheque de $ 100 millones para una colosal ronda de $ 6.6 mil millones que valoraba a la compañía en $ 157 mil millones. La inversión del fabricante de chips fue eclipsada por los otros patrocinadores de OpenAi, en particular, que según el New York Times invirtió $ 1.3 mil millones.

xai: Nvidia participó en la ronda de $ 6 mil millones de XAI de Elon Musk. El acuerdo reveló que no todos los inversores de Openai siguieron su solicitud de abstenerse de respaldar a cualquiera de sus competidores directos. Después de invertir en el fabricante de chatgpt en octubre, Nvidia se unió a la mesa del capital de Xai unos meses después.

Inflexión: Una de las primeras inversiones significativas de IA de Nvidia también tuvo uno de los resultados más inusuales. En junio de 2023, Nvidia fue uno de los varios inversores principales en la ronda de $ 1.3 mil millones de la inflexión, una compañía fundada por Mustafa Suleyman, quien anteriormente fundó Deepmind. Menos de un año después, Microsoft contrató a los fundadores de IA Inflexión, pagando $ 620 millones por una licencia de tecnología no exclusiva, dejando a la compañía con una fuerza laboral significativamente disminuida y un futuro menos definido.

Wayve: En mayo, Nvidia participó en una ronda de $ 1.05 mil millones para la startup con sede en el Reino Unido, que está desarrollando un sistema de autoaprendizaje para la conducción autónoma. La compañía está probando sus vehículos en el Reino Unido y el Área de la Bahía de San Francisco.

Escala ai: En mayo de 2024, Nvidia se unió a Accel y otros gigantes tecnológicos Amazon y Meta para invertir $ 1 mil millones en IA de escala, que proporciona servicios de fabricación de datos a empresas para capacitar a los modelos de IA. La ronda valoró a la compañía con sede en San Francisco en casi $ 14 mil millones.

El club de muchos cientos de millones de dólares

Crusoe: Según los informes, los centros de datos de construcción de startup serán arrendados a Oracle, Microsoft y OpenAI recaudaron $ 686 millones a fines de noviembre, según una presentación de la SEC. La inversión fue dirigida por Founders Fund, y la larga lista de otros inversores incluía NVIDIA.

Figura AI: En febrero de 2024, La cifra de inicio de AI Robotics recaudó una serie B de $ 675 millones de NVIDIA, Operai Startup Fund, Microsoft y otros. La ronda valoró la compañía en $ 2.6 mil millones.

Mistral AI: Nvidia invirtió en Mistral por segunda vez cuando el desarrollador de modelos de idiomas grandes con sede en Francia recaudó una serie B de $ 640 millones a una valoración de $ 6 mil millones en junio.

Lambda: El proveedor de AI Cloud Lambda, que brinda servicios para capacitación modelo, recaudó una serie D de $ 480 millones en una valoración de $ 2.5 mil millones en febrero. La ronda fue dirigida por SGW y Andra Capital Lambda, y se unió a Nvidia, Ark Invest y otros. Una parte importante del negocio de Lambda implica alquilar servidores impulsados ​​por las GPU de NVIDIA.

Adherirse: En junio, Nvidia invirtió en la ronda de $ 500 millones de Cohere, un proveedor de modelos de idiomas grandes que sirven a las empresas. El fabricante de chips respaldó por primera vez la startup con sede en Toronto en 2023.

Perplejidad: Nvidia invirtió por primera vez en perplejidad en noviembre de 2023 y ha participado en cada ronda posterior de la inicio del motor de búsqueda de IA, incluida la ronda de $ 500 millones en diciembre, que valora a la compañía en $ 9 mil millones, según los datos de Pitchbook.

Junto a la piscina: En octubre, el AI La startups de codificación de la piscina anunció que recaudó $ 500 millones liderados por Bain Capital Ventures. Nvidia participó en la ronda, que valoró la startup de IA en $ 3 mil millones.

CoreWeave: NVIDIA invirtió en el proveedor de computación en la nube AI en abril de 2023, cuando CoreWeave recaudó $ 221 millones en fondos. Desde entonces, la valoración de CoreWeave ha aumentado de aproximadamente $ 2 mil millones a $ 19 mil millones, y la compañía ha solicitado una OPI. CoreWeave permite a sus clientes alquilar GPU NVIDIA por hora.

Juntos ai: En febrero, NVIDIA participó en la Serie B de $ 305 millones de esta compañía, que ofrece infraestructura basada en la nube para construir modelos de IA. La ronda valorada en Tesai en $ 3.3 mil millones, y fue dirigido por Prosperity7, una empresa de riesgo de Arabia Saudita y un catalizador general. Nvidia respaldó a la compañía por primera vez en 2023.

Sakana AI: En septiembre, Nvidia invirtió en el Startup con sede en Japón, que entrena modelos de IA generativos de bajo costo utilizando pequeños conjuntos de datos. La startup recaudó una ronda masiva de la Serie A de aproximadamente $ 214 millones a una valoración de $ 1.5 mil millones.

Imbuir: El laboratorio de investigación de IA que Las afirmaciones de desarrollar sistemas de IA que pueden razonar y código recaudaron una ronda de $ 200 millones en septiembre de 2023 de los inversores, incluidos Nvidia, Astera Institute y el ex CEO de Cruise Kyle Vogt.

Waabi: En junio, la startup autónoma de camiones recaudó una ronda Serie B de $ 200 millones dirigida por los inversores existentes Uber y Khosla Ventures. Otros inversores incluyeron NVIDIA, Volvo Group Venture Capital y Porsche Automobil Holding SE.

Ofertas de más de $ 100 millones

Ayar Labs: En diciembre, Nvidia invirtió en la ronda de $ 155 millones de Ayar Labs, A Compañía que desarrolla interconexiones ópticas para mejorar el cálculo de IA y la eficiencia energética. Esta fue la tercera vez que Nvidia respaldó la startup.

Kore.ai: La startup que desarrolla los chatbots de IA centrados en la empresa recaudó $ 150 millones en diciembre de 2023. Además de NVIDIA, los inversores que participan en la financiación incluyeron FTV Capital, Vistara Growth y Sweetwater Private Equity.

AI hipocrática: Esta startup, que está desarrollando grandes modelos de idiomas para la atención médica, anunció en enero que recaudó una serie B de $ 141 millones a una valoración de $ 1.64 mil millones dirigida por Kleiner Perkins. Nvidia participó en la ronda, junto con los inversores que regresan Andreessen Horowitz, Catalyst General y otros. La compañía afirma que sus soluciones de IA pueden manejar tareas no diagnósticas orientadas al paciente, como procedimientos preoperantes, monitoreo remoto del paciente y preparación de citas.

Weka: En mayo, Nvidia invirtió en una ronda de $ 140 millones para la plataforma de gestión de datos nativa de AI Weka. La ronda valoró la compañía Silicon Valley en $ 1.6 mil millones.

Pista: En junio de 2023, Runway, una startup construyendo herramientas de IA generativas para creadores de contenido multimedia, recaudó una extensión de la Serie C de $ 141 millones de inversores, incluidos Nvidia, Google y Salesforce.

Máquinas brillantes: En junio de 2024, NVIDIA participó en una serie C de $ 126 millones de máquinas Bright, una robótica inteligente y un inicio de software impulsado por IA.

Enfabrica: En septiembre de 2023, NVIDIA invirtió en la serie de $ 125 millones del diseñador de chips de redes Enfabrica B. Aunque la startup recaudó otros $ 115 millones en noviembre, Nvidia no participó en la ronda.

Nota del editor: la versión anterior de esta historia declaró incorrectamente que NVIDIA es un patrocinador de Superinteligence Safe y un inversor en la Ronda E Serie E de Vast Data. Nvidia no ha invertido en vastas datos desde la serie de la compañía D.

Continue Reading

Noticias

Asistente de viaje para el viaje de Tokio

Published

on

Hace dos años, decidí cuidarme mejor y (re) comenzar a correr a larga distancia. Entrené para correr las carreras de media maratón nuevamente, y luego me di cuenta de que las carreras de maratón estaban al alcance. Ahora he corrido varias carreras de media maratón, y esa distancia ahora es parte de mi horario regular de fin de semana. He completado tres maratones y no voy a parar.

Siempre podría correr sin entrar en carreras, pero hay un gran efecto secundario de unir competencias que me encantan: el viaje que lo acompaña. Con las carreras de maratón, reservé unos días de recuperación justo después de la carrera, que solía hacer turismo.

Te digo todo eso porque acabo de correr el maratón de Tokio, que fue increíble y un poco más duro de lo que había planeado. Pero no estoy a punto de decirte qué salió bien e mal y qué tipo de tecnología usé. Lo hice con carreras anteriores.

Te mostraré cómo utilicé ChatGpt Deep Investigating para visitar Tokio la semana después de la carrera y aprovecharlo al máximo. Ahora que he usado el agente de IA de Operai como asistente de viaje, me doy cuenta de lo increíble que es tener IA a su alcance para ayudarlo a planificar su próximo viaje de esa manera.

Usé ChatGPT para prepararme para el viaje mucho antes de obtener un acceso profundo de investigación. La función se lanzó hace solo unas semanas y era exclusivo de los usuarios de ChatGPT Pro. Esa es la suscripción CHATGPT de $ 200/mes, que no puedo justificar para mis necesidades actuales. Esperé a que Operai lo pusiera a disposición del ChatGpt Plus Tier, que cuesta una décima parte de eso.

Cuando un amigo preguntó qué visitaría en Japón, le dije que ya tenía chats con chatgpt al respecto, pero no tenía un plan específico. Todo dependía de cómo iría la carrera de maratón y cómo me sentiría en los días siguientes.

En ese momento, no tenía idea de que la investigación profunda estaría disponible durante mi estadía en Tokio. Pero sabía que integraría las visitas al museo en mi viaje, ya que eso es algo que siempre hago cuando viajo.

Mi chat Chatgpt sobre Tokyo Travel comenzó con una simple solicitud para GPT-4O. Fuente de la imagen: Chris Smith, BGR

Mi primer aviso para chatgpt (GPT-4O) fue extremadamente simple. Pedí una lista de los mejores museos de Tokio. Quería todos los detalles sobre cada uno de ellos, incluido su tamaño. En los días posteriores a las carreras de maratón, reduciré mi caminar significativamente para darle tiempo a mis piernas para recuperarme, por lo que mi prioridad era visitar lugares que no requerirían tanta caminata.

Como puede ver arriba, ChatGpt me dio las respuestas que necesitaba. Enumeró 20 sugerencias, aunque no solicité un número específico.

Antes de que los programas de IA generativos como ChatGPT fueran una cosa, habría abordado este problema comprando una guía (en impresión o aplicación) y buscando blogs de viajes para sugerencias. Pero ahora que ChatGPT existe, ignoré todo eso y confié en la IA para que surgiera la información que necesitaba.

Estaba trabajando con este chat en Tokio cuando las investigaciones profundas estuvieron disponibles para mi cuenta. Una vez más, soy un usuario de Chatgpt Plus en Europa, así que tuve que esperar un tiempo para que Operai trajo una investigación profunda a mi cuello del bosque.

Hablando de ubicación, ChatGPT no está disponible en Japón. Use una VPN mientras esté allí, y no tendrá problemas para acceder a la IA.

Mi solicitud inicial de investigación de investigación de chatgpt profunda.
Mi solicitud inicial de investigación de investigación de chatgpt profunda. Fuente de la imagen: Chris Smith, BGR

Cuando apareció el botón de investigación profunda en el compositor de chatgpt, cambié mi estrategia. Comencé una charla diferente y le di a la IA un aviso más detallado.

Le pedí a ChatGPT que me proporcionara una lista de 20 museos para visitar durante un viaje de 7 días. La distancia a pie era una prioridad, pero también le dije a la IA que considerara pases de viaje locales que me darían acceso gratuito o más barato a estos museos. También le dije a ChatGPT que incluyera atracciones que no están cubiertas por pases para no perder otras opciones emocionantes.

Chatgpt se fue a trabajar después de responder a sus preguntas.
Chatgpt se fue a trabajar después de responder a sus preguntas. Fuente de la imagen: Chris Smith, BGR

La investigación profunda se puso a trabajar, pero solo después de hacer algunas preguntas adicionales. Chatgpt quería saber qué tipo de museos prefería, si quería exhibiciones interactivas y si el pase de viaje debería cubrir el transporte público además de las tarifas de los museos. Respondí las preguntas y una investigación profunda se puso a trabajar mientras me preparaba para mi día.

La investigación tardó 17 minutos en completarse, con ChatGPT inspeccionando 52 fuentes para darme una guía detallada del Museo de Tokio que satisfaga mis necesidades.

El informe detallado estaba disponible después de 17 minutos de investigación.
El informe detallado estaba disponible después de 17 minutos de investigación. Fuente de la imagen: Chris Smith, BGR

El informe resultante fue increíble y abrumador al mismo tiempo. Revisé las recomendaciones sobre el desayuno, tratando de descubrir cómo hacerlas en buen estado.

¿Adivina lo que debes hacer una vez que ChatGPT te compila una guía de viaje de este tipo? Haga más preguntas. Eso es lo que hice. Primero, le dije a la IA que organizara los museos por tipo de pase. Luego, comencé a hacer preguntas sobre ubicaciones. También quería ser lo más eficiente posible cuando me mudé de un lugar a otro.

Por ejemplo, quería visitar los Jardines Imperiales, así que le dije a la IA que me diera los museos más cercanos clasificados al descender el tiempo de cierre de la lista de investigación profunda.

Seguí charlando con Chatgpt sobre los datos en el informe de investigación profunda.
Seguí charlando con Chatgpt sobre los datos en el informe de investigación profunda. Fuente de la imagen: Chris Smith, BGR

También le pedí a ChatGPT que organizara los museos cerca del otro para poder descubrir itinerarios diarios. Nuevamente, quería ser lo más eficiente posible y aprovechar al máximo cada día. No quería caminar más de lo necesario entre lugares, especialmente en una ciudad masiva como Tokio.

Podría haberle dicho al ChatGPT que creara itinerarios para mí, pero no quería que la IA dictara completamente cómo pasaría mis días en Tokio.

Mi punto es que la investigación de ChatGPT profunda puede ser un recurso inesperado para todo tipo de cosas. La mejor parte es que Deep Research ofrece muchos enlaces, que usé para obtener boletos e información sobre algunos de los museos de la lista.

Me di cuenta de que quería agrupar museos por Promixity.
Me di cuenta de que quería agrupar museos por Promixity. Fuente de la imagen: Chris Smith, BGR

ChatGPT también puede continuar con la conversación sobre ese profundo informe de investigación para todas sus preguntas de seguimiento. Esa es en realidad una característica clave para aprovechar. El informe inicial debe ser solo un punto de partida.

Piense en ello como poder hacer una guía de viaje o un blog preguntas específicas sobre la información que acaba de leer sobre el país o la ciudad que está a punto de visitar.

Esa es solo una forma de usar investigaciones profundas, y solo comencé a explorar este agente de IA ChatGPT. Convertir el chatgpt en un agente de viajes improvisado es algo que tendré en cuenta para todos mis futuros viajes en ejecución.

Por cierto, ChatGPT es una de las razones por las que he podido ejecutar tantos medios maratones y maratones en los últimos dos años. Usé AI para crear planes de entrenamiento mucho antes de que los agentes de IA fueran una cosa.

Continue Reading

Noticias

5 razones por las cuales los propietarios de Android deben quedarse con Gemini Assistant

Published

on

Los asistentes de IA están de moda en estos días. La mayoría de los nuevos lanzamientos de teléfonos inteligentes insignia se centran más en lo que pueden hacer sus asistentes de IA incluidos que el nuevo hardware o las características físicas. Si bien hay muchos chatbots de IA, como ChatGPT, Claude y Meta AI, Gemini parece ser la mejor opción general para los usuarios de Android. Mientras que los demás pueden ser mejores que Géminis para responder ciertas preguntas o hacer ciertas tareas, Gemini eclipsa el resto cuando se usa en Android. Estas son las razones por las cuales.

Relacionado

7 razones por las que Google Gemini es mejor que Chatgpt

Por qué Google Gemini podría ser la mejor opción

5

Integración profunda con los servicios de Google

Muchos usuarios de Android también usan servicios de Google adicionales, que van desde Gmail hasta Google Drive y Google Calendar. Es fácil de hacer ya que están integrados con Android y gratis. Si usa alguno de estos servicios, solo hay un asistente que se integra con ellos, y ese es Géminis. Gemini está disponible en muchos servicios de Google y puede obtener información de todos los servicios integrados de Google para responder mejor sus preguntas o consultas.

Usar Gemini para buscar en Google Drive

Cuando se le preguntó, Gemini puede encontrar un correo electrónico de Gmail y decirle información al respecto o encontrarse dentro de él. Puede encontrar un documento en Google Drive y decirle cuántas páginas es, o encontrar información del documento. Puede consultar un evento para usted en Google Calendar y encontrar su ubicación o tiempo. Estos se aplican a todas las demás aplicaciones de Google, en su mayoría aplicaciones de espacio de trabajo, con la integración de Gemini configurada.

Estas integraciones son útiles y solo se pueden hacer con Gemini, lo que le da una ventaja sobre la competencia. Los asistentes alternativos pueden tener sus propios calendarios o aplicaciones que se integran con su asistente. Aún así, ninguno se integra con tantos servicios o Gemini con los servicios de Google.

4

Más fácil de invocar

Parte del uso de un asistente en un teléfono es asegurarse de que pueda acceder fácilmente. Muchos asistentes virtuales solo se pueden usar abriendo su aplicación correspondiente, al menos sin algunas soluciones. Géminis se puede invocar de varias maneras. Puede abrir la aplicación como sus competidores, pero también puede decir “Hey Google”, deslizar desde la esquina de la pantalla, mantener presionado el botón de inicio, mantener presionado el botón de encendido o tocar un botón de widget, para mencionar Gemini. Son muchas maneras de activarlo, y facilita la activación sin importar lo que esté haciendo en su teléfono. Gemini también tiene un botón dedicado en muchas aplicaciones de Google que encontrará en su teléfono, como Google Drive, Google Menses y Gmail, si no desea utilizar una de las formas mencionadas de activarlo.

Android es un sistema operativo personalizable. Esa es una de las principales cosas que los entusiastas les encanta. Puede intercambiar a otro asistente virtual en la configuración e invocarlos de la misma manera, a veces con la ayuda de aplicaciones adicionales como Tasker que le permiten crear tareas personalizadas. Algunos asistentes alternativos también están mejorando cómo se pueden invocar sin soluciones. Sin embargo, ninguno de ellos puede abrirse de tantas maneras como Géminis.

3

Disponibilidad

Es importante que un asistente sea fácil de invocar y esté disponible en varios lugares. Gemini está por delante del juego en términos de disponibilidad, especialmente dentro de las aplicaciones y servicios de Google. Gemini tiene una aplicación dedicada que se puede instalar en cualquier dispositivo Android o iOS para acceder a ella. Tiene un sitio web al que se puede acceder en cualquier dispositivo con una conexión a Internet. También tiene una aplicación web que se puede instalar en dispositivos Windows, MacOS y Chromebook. Si bien esto es cierto para la mayoría de los asistentes, Gemini tiene una disponibilidad adicional que lo separa de la competencia.

Gemini está disponible como asistente virtual en su teléfono Android. Esto no es exclusivo de Gemini, pero solo hay un número selecto de asistentes disponibles para su teléfono. Gemini está disponible en muchas aplicaciones de Google. Hay un botón Géminis en todas las aplicaciones de Google Workspace, incluidas las documentos de Google, las hojas de Google, las diapositivas de Google, Google Drive, Gmail y más. En los mensajes de Google, un botón invoca a Gemini para ayudarlo a escribir textos. Todo esto juntos significa que Gemini está disponible en más lugares que otros asistentes, lo que facilita el uso de todos sus dispositivos, incluido su teléfono Android.

Relacionado

Google Gemini: 5 maneras de usar el asistente a día a día de Google con IA

Puede hacer que muchas tareas cotidianas sean mucho más fáciles

2

Modo de conversación útil

Los asistentes deben ser lo más útiles posible, y hablar con un asistente es útil. Si bien no reemplaza a una persona real, hablar con un asistente de IA puede ayudarlo a hacer numerosas tareas que la generación anterior de asistentes, como Google Assistant o Alexa, no podría hacer. Otros asistentes de IA, como ChatGPT, tienen modos de conversación, pero el modo de conversación de Gemini, llamado Gemini Live, es uno de los más útiles que he encontrado.

Alguien sosteniendo un Samsung Galaxy S25 Ultra con Gemini Live activado frente a una pared con numerosos marcos de imágenes

Gemini Live te permite tener una conversación con Gemini sobre cualquier cosa que puedas escribir sobre él. En ciertas situaciones, podría ser más útil hablar sobre una consulta o mantener una sesión de lluvia de ideas en lugar de escribir preguntas y consultas. Es más natural y es similar a hablar con otra persona sobre algo. También puede ser más eficiente que escribir cosas. También puede interrumpirlo en medio de hablar para redirigirlo o continuar en su tren de pensamiento. He encontrado que Gemini en vivo es conversacional, fácilmente interrumpible y el sonido más natural de los chatbots que he usado, por lo que sobresale de la competencia.

Relacionado

¿Qué es el Géminis de Google en vivo?

El nuevo asistente de voz de Google

1

Menos fricción

Es menos probable que usemos un servicio si es difícil o molesto de usar, o generalmente inútil. Si tiene que abrir una aplicación o hablar de manera específica para que algo funcione, es probable que no lo haga. Gemini tiene muchas capacidades incorporadas que ayudan a evitar cualquiera de estos pasos en falso. Dado que Gemini tiene una integración profunda con otros servicios de Google, puede ser más útil para usted con consultas en sus servicios. También puede hacer un seguimiento de esas consultas utilizando la conciencia contextual para continuar la misma conversación con todo el fondo que necesita. Viene estándar en todos los nuevos dispositivos Android y funciona bien con el sistema operativo, por lo que no tiene que instalar aplicaciones adicionales o configurar tareas para que funcione.

El Samsung Galaxy S25 con Google Gemini activado en una mesa de madera

También puede usarlo en cualquier dispositivo. Incluso si lo usa en otro dispositivo y desea continuar la conversación o la idea en su teléfono, es fácil de hacer. También se puede usar en otras aplicaciones, por lo que no tiene que cambiar de una y otra vez entre aplicaciones para que lo ayude. Puede hablar o escribir con Gemini en numerosas aplicaciones y servicios. Gemini puede ver su pantalla y ayudar con el contexto de lo que está sucediendo en ella, por lo que puede ser más útil que otros asistentes. En general, Gemini tiene muchas características que lo hacen ampliamente disponible y útil, que es lo que desea en un asistente.

Un asistente de IA para todos

Los asistentes virtuales ayudan a realizar tareas, especialmente en su teléfono. Gemini hace un gran trabajo al facilitar la búsqueda y usar una multitud de dispositivos y servicios, lo que lo convierte en el asistente virtual óptimo para su teléfono Android. Géminis puede hacer mucho, incluidas algunas capacidades poco conocidas.

Continue Reading

Trending