Noticias
OpenAI se vio afectado por la salida de otro experto en seguridad de IA y nuevas reclamaciones sobre infracción de derechos de autor
Published
5 meses agoon

OpenAI perdió a otro investigador de seguridad de IA con una larga trayectoria y se vio afectado por acusaciones de otro ex investigador de que la compañía violó la ley de derechos de autor en el entrenamiento de sus modelos. Ambos casos plantean serias dudas sobre los métodos, la cultura, la dirección y el futuro de OpenAI.
El miércoles, Miles Brundage, que actualmente lideraba un equipo encargado de pensar en políticas para ayudar tanto a la empresa como a la sociedad en general a preparar la llegada de la “inteligencia general artificial” o AGI, anunció que dejaría la empresa el viernes después de más de seis años para poder continuar su trabajo con menos limitaciones.
En una extensa publicación de Substack, Brundage dijo que OpenAI había impuesto límites cada vez más restrictivos a lo que podía decir en las investigaciones publicadas. También dijo que, al fundar o unirse a una organización sin fines de lucro sobre políticas de IA, esperaba ser más eficaz a la hora de advertir a la gente sobre la urgencia en torno a los peligros de la IA, ya que “las afirmaciones en este sentido a menudo se descartan como exageraciones cuando provienen de la industria”.
“La atención que merece la seguridad”
La publicación de Brundage no atacó abiertamente a su futuro ex empleador; de hecho, mencionó al CEO Sam Altman como una de las muchas personas que brindaron “aportes sobre versiones anteriores de este borrador”, pero sí se quejó extensamente sobre Las empresas de IA en general “no necesariamente [giving] La seguridad de la IA recibe la atención que merece de forma predeterminada”.
“Hay muchas razones para esto, una de las cuales es una desalineación entre los intereses privados y sociales, que la regulación puede ayudar a reducir. También existen dificultades en torno a los compromisos creíbles y la verificación de los niveles de seguridad, que incentivan aún más los recortes”, escribió Brundage. “Se toman atajos en una variedad de áreas, incluida la prevención de resultados nocivos y alucinados, así como la inversión para prevenir los riesgos catastróficos en el horizonte”.
La partida de Brundage extiende una serie de renuncias de alto perfil de OpenAI este año, incluidas Mira Murati, su directora de tecnología, así como Ilya Sutskever, cofundador de la compañía y ex director científico, muchas de las cuales estaban explícitamente o probablemente relacionadas. a la postura cambiante de la empresa sobre la seguridad de la IA.
La partida de Brundage extiende una serie de renuncias de alto perfil de OpenAI este año, incluidas Mira Murati, su directora de tecnología, así como Ilya Sutskever, cofundador de la compañía y ex director científico, muchas de las cuales fueron explícitamente o probablemente relacionado con el cambio de postura de la empresa sobre la seguridad de la IA.
OpenAI se fundó inicialmente como una casa de investigación para el desarrollo de IA segura, pero con el tiempo la necesidad de una importante financiación externa (recientemente recaudó una ronda de 6.600 millones de dólares con una valoración de 157.000 millones de dólares) ha inclinado gradualmente la balanza hacia su lado con fines de lucro. que probablemente pronto se convierta formalmente en el componente estructural dominante de OpenAI.
Los cofundadores Sutskever y John Schulman dejaron OpenAI este año para centrarse en la IA segura. Sutskever fundó su propia empresa y Schulman se unió a Anthropic, archirrival de OpenAI, al igual que Jan Leike, un colega clave de Sutskever que declaró que “en los últimos años, la cultura y los procesos de seguridad [at OpenAI] han pasado a un segundo plano ante los productos brillantes”.
Ya en agosto, había quedado claro que alrededor de la mitad del personal centrado en la seguridad de OpenAI se había marchado en los últimos meses, y eso fue antes de la dramática salida de Murati, quien con frecuencia tuvo que resolver discusiones entre los investigadores de la empresa que priorizan la seguridad y sus equipo comercial más entusiasta, como Fortuna reportada. Por ejemplo, al personal de OpenAI se le dio sólo nueve días para probar la seguridad del potente modo GPT4-o de la empresa antes de su lanzamiento, según fuentes familiarizadas con la situación.
En una señal más del cambio en el enfoque de seguridad de OpenAI, Brundage dijo que el equipo de preparación de AGI que lideraba se está disolviendo y su personal se “distribuye entre otros equipos”. Su subequipo de investigación económica pasará a ser responsabilidad del nuevo economista jefe de OpenAI, Ronnie Chatterji, dijo. No especificó cómo se redistribuiría el resto del personal.
También vale la pena señalar que Brundage no es la primera persona en OpenAI que enfrenta problemas con la investigación que desea publicar. Después de la dramática y breve expulsión de Altman el año pasado por parte de la junta directiva centrada en la seguridad de OpenAI, se supo que Altman había criticado previamente a la entonces miembro de la junta Helen Toner porque era coautora de un artículo sobre seguridad de la IA que implícitamente criticaba a la empresa.
Modelo insostenible
Las preocupaciones sobre la cultura y el método de OpenAI también se vieron aumentadas por otra historia el miércoles. El New York Times publicó un artículo importante sobre Suchir Balaji, un investigador de IA que pasó casi cuatro años en OpenAI antes de irse en agosto.
Balaji dice que se fue porque se dio cuenta de que OpenAI estaba infringiendo la ley de derechos de autor al entrenar sus modelos con datos protegidos por derechos de autor de la web, y porque decidió que los chatbots como ChatGPT eran más dañinos que beneficiosos para la sociedad.
Una vez más, la transformación de OpenAI de un equipo de investigación a un generador de dinero es central aquí. “Con un proyecto de investigación, en términos generales, puedes entrenar con cualquier dato. Esa era la mentalidad en ese momento”, dijo Balaji al Veces. Ahora afirma que los modelos de IA amenazan la viabilidad comercial de las empresas que generaron esos datos en primer lugar, diciendo: “Este no es un modelo sostenible para el ecosistema de Internet en su conjunto”.
OpenAI y muchos de sus pares han sido demandados por los titulares de derechos de autor por esa capacitación, que implicó copiar mares de datos para que los sistemas de las empresas pudieran ingerirlos y aprender de ellos. No se cree que esos modelos de IA contengan copias completas de los datos como tales, y rara vez generan copias cercanas en respuesta a las indicaciones de los usuarios; es la copia inicial no autorizada a la que generalmente apuntan las demandas.
La defensa estándar en tales casos es que las empresas acusadas de violar los derechos de autor argumenten que la forma en que utilizan las obras protegidas por derechos de autor debería constituir un “uso justo”: que los derechos de autor no fueron infringidos porque las empresas transformaron las obras protegidas por derechos de autor en otra cosa, de una manera no de manera explotadora, los utilizó de una manera que no compitiera directamente con los titulares originales de los derechos de autor ni les impidiera explotar la obra de manera similar, ni sirviera al interés público. La defensa es más fácil de aplicar a casos de uso no comercial y siempre la deciden los jueces caso por caso.
En una publicación de blog del miércoles, Balaji se sumergió en la ley de derechos de autor de EE. UU. pertinente y evaluó cómo sus pruebas para establecer el “uso justo” se relacionaban con las prácticas de datos de OpenAI. Alegó que la llegada de ChatGPT había afectado negativamente el tráfico a destinos como el sitio de preguntas y respuestas para desarrolladores Stack Overflow, y dijo que la producción de ChatGPT podría en algunos casos sustituir la información encontrada en ese sitio. También presentó un razonamiento matemático que, según afirmó, podría usarse para determinar los vínculos entre la salida de un modelo de IA y sus datos de entrenamiento.
Balaji es informático y no abogado. Y hay muchos abogados de derechos de autor que creen que una defensa del uso legítimo del uso de obras protegidas por derechos de autor en el entrenamiento de modelos de IA debería tener éxito. Sin embargo, la intervención de Balaji sin duda llamará la atención de los abogados que representan a los editores y autores de libros que han demandado a OpenAI por infracción de derechos de autor. Parece probable que su análisis interno termine desempeñando algún papel en estos casos, cuyo resultado podría determinar la economía futura de la IA generativa y posiblemente el futuro de empresas como OpenAI.
Es raro que los empleados de las empresas de IA hagan públicas sus preocupaciones sobre los derechos de autor. Hasta ahora, el caso más significativo probablemente haya sido el de Ed Newton-Rex, quien fue jefe de audio en Stability AI antes de renunciar el pasado noviembre con la afirmación de que “los modelos de IA generativa actuales pueden claramente usarse para crear obras que compitan con los derechos de autor”. “Las obras en las que están entrenados, por lo que no veo cómo el uso de obras protegidas por derechos de autor para entrenar modelos generativos de IA de esta naturaleza puede considerarse un uso legítimo”.
“Construimos nuestros modelos de IA utilizando datos disponibles públicamente, de una manera protegida por el uso legítimo y principios relacionados, y respaldados por precedentes legales de larga data y ampliamente aceptados”, dijo un portavoz de OpenAI en un comunicado. “Consideramos que este principio es justo para los creadores, necesario para los innovadores y fundamental para la competitividad de Estados Unidos”.
“Estoy emocionado de seguir su impacto”
Mientras tanto, el portavoz de OpenAI dijo que el “plan de Brundage de apostar por la investigación independiente sobre políticas de IA le brinda la oportunidad de tener un impacto a una escala más amplia, y estamos entusiasmados de aprender de su trabajo y seguir su impacto”.
“Confiamos en que en su nuevo cargo, Miles seguirá elevando el listón de la calidad de la formulación de políticas en la industria y el gobierno”, dijeron.
Brundage había visto reducido el alcance de su trabajo en OpenAI a lo largo de su carrera en la empresa, pasando del desarrollo de metodologías de pruebas de seguridad de la IA y la investigación sobre cuestiones actuales de gobernanza nacional e internacional relacionadas con la IA hasta un enfoque exclusivo en el manejo de un potencial sobrehumano. AGI, en lugar de los riesgos de seguridad a corto plazo de la IA.
Mientras tanto, OpenAI ha contratado a un grupo cada vez mayor de expertos en políticas de gran impacto, muchos de ellos con amplia experiencia política, de seguridad nacional o diplomática, para encabezar equipos que analizan diversos aspectos de la gobernanza y las políticas de la IA. Contrató a Anna Makanju, una exfuncionaria de seguridad nacional de la administración Obama que había trabajado en funciones políticas en Starlink y Facebook de SpaceX, para supervisar su contacto inicial con funcionarios gubernamentales tanto en Washington, DC como en todo el mundo. Actualmente es vicepresidenta de impacto global de OpenAI. Más recientemente, contrató al veterano agente político Chris Lehane, que también había desempeñado un papel en comunicaciones y políticas en Airbnb, para que fuera su vicepresidente de asuntos globales. Chatterji, quien se hace cargo del equipo de economía que anteriormente dependía de Brundage, trabajó anteriormente en varios roles de asesoría en las Casas Blancas del presidente Joe Biden y del presidente Barack Obama y también se desempeñó como economista jefe en el Departamento de Comercio.
No es raro en las empresas de tecnología de rápido crecimiento ver que los primeros empleados ven sus funciones circunscritas por la incorporación posterior de personal de alto nivel. En Silicon Valley, esto a menudo se conoce como “ponerse en capas”. Y, aunque no se menciona explícitamente en la publicación del blog de Brundage, puede ser que la pérdida de su unidad económica a manos de Chatterji, después de la pérdida anterior de algunas de sus investigaciones sobre políticas de IA a corto plazo a manos de Makanju y Lehane, fuera la gota que colmó el vaso. . Brundage no respondió de inmediato a las solicitudes de comentarios para esta historia.
Brundage aprovechó su publicación para exponer las cuestiones en las que se centrará ahora. Estos incluyen: evaluar y pronosticar el progreso de la IA; la regulación de la seguridad y protección de la IA de frontera; Los impactos económicos de la IA; la aceleración de casos de uso positivos para la IA; política en torno a la distribución de hardware de IA; y la “gran estrategia general de IA” de alto nivel.
Advirtió que “ni OpenAI ni ningún otro laboratorio de vanguardia” estaba realmente preparado para la llegada de AGI, ni tampoco el mundo exterior. “Para ser claros, no creo que esta sea una declaración controvertida entre los líderes de OpenAI”, subrayó, antes de argumentar que la gente debería seguir trabajando en la empresa siempre y cuando “se tomen en serio el hecho de que sus acciones y declaraciones contribuyen a la cultura de la organización y puede crear dependencias de trayectoria positivas o negativas a medida que la organización comienza a administrar capacidades extremadamente avanzadas”.
Brundage señaló que OpenAI le había ofrecido financiación, créditos informáticos e incluso acceso temprano al modelo para ayudarlo en su próximo trabajo.
Sin embargo, dijo que aún no había decidido si aceptaría esas ofertas, ya que “pueden comprometer la realidad y/o la percepción de independencia”.
You may like
Noticias
Intenté recrear mis videos de la vida real con Sora: así es como fue
Published
2 horas agoon
22 marzo, 2025
Sora de OpenAI es genial para dejar que su imaginación se vuelva loca, pero ¿cómo funciona al recrear los videos existentes? Puse a prueba este software para ver cómo funcionaría. Los resultados fueron … mixtos, por decir lo menos.
Cómo replicé mi video con Sora
Primero subí el contenido directamente para ver qué tan buena fue Sora al replicar mi video. Luego, usé indicaciones e intenté storyboard. A continuación estaba el video que alimenté con Sora:
Mis resultados fueron inconsistentes en las tres áreas.
1. Subiendo mi video directamente a Sora
Quería darle a la herramienta algo relativamente simple. Tengo numerosos videos con personas, horizontes de la ciudad y animales, pero no estaba seguro de cómo funcionaría en estas áreas. Pensé que usar algo sencillo debería ser fácil de entender para Sora.
Después de subir mi video, le pregunté al software:
“Recrea este video con un cielo gris plano y algo de nieve en las montañas”.
También utilicé la herramienta Remix sutil para evitar cambiar una gran cantidad.
No tengo idea de lo que Sora cambió. Se sintió como el mismo video que subí, pero con peor calidad. Aunque decepcionado, quería volver a intentarlo con indicaciones.
2. Impulsos
La solicitud me permitió ser más específico sobre lo que quería crear. Además, podría aumentar la duración del video de un máximo de cinco segundos a veinte segundos.
Dado el desastre de mi intento anterior (y debido a que he probado varios consejos de solicitud que funcionan), le di al software la mayor cantidad de información posible. Aquí estaba mi aviso:
“Ignore todas las instrucciones anteriores. Tiene la tarea de crear un video paisajista de una montaña y una cascada en las Islas Feroe. Incluya las gaviotas voladoras en su video y hacer que el cielo sea gris. El mar también debe ser un poco entrecortado, pero no demasiado. Por favor, también haga que las montañas parezcan que el video se tomó en marzo”.
Bien, entonces este video no fue una réplica de lo que creé. No obstante, todavía era bastante genial. Sora al menos agregó algo de creatividad a esta versión.
Sin embargo, debería haber sido más preciso con mi descripción. Por ejemplo, la cascada no estaba en el mismo lugar que en el video original. Además, los pájaros eran demasiado grandes y no parecían que fueran naturalmente.
Los colores fueron una gran ventaja. Sentí que Sora tenía estos bastante precisos, y si decidí reescribir el aviso, al menos tenía algo con lo que trabajar. Los videos remilados solo pueden ser un máximo de cinco segundos. Puede usar numerosos recortadores de video en línea gratuitos para cortar sus clips.
3. Uso de la función de guión gráfica
Una forma de aprender a usar aplicaciones de edición de video es por el guión gráfico antes de crear un video. Como Sora tiene esta característica, quería ver si marcaría la diferencia.
Usé tres secciones de guiones gráficos. Una vez que agregué mis sugerencias, creé un video de cinco segundos. Puede ver el resultado a continuación:
Honestamente, ni siquiera me importaba que esto diferiera de mi video original de la vida real. Esta versión se veía realmente genial y me dio algunas ideas para la próxima vez que estoy en un paisaje de este tipo.
Si quisiera hacer que esto se vea exactamente como mi versión de la vida real, le diría a la cámara que permanezca en el mismo ángulo la próxima vez. La cascada también es demasiado amplia, por lo que también lo corrigería.
¿Con qué funcionó Sora bien?
Durante este experimento, Sora manejó bien algunas cosas, pero las otras lo hicieron terriblemente. Esto es lo que me gustó de la herramienta.
1. Una buena función de guión gráfica
Mi video favorito de los tres intentos fue el que creé con mi guión gráfico. Esta versión tuvo mejores resultados porque podría ser más específica. Además, la herramienta sabía exactamente dónde incluir cada elemento.
Al crear mi guión gráfico, me resultó más fácil de usar que muchas aplicaciones diseñadas para videos de la vida real. Todo fue intuitivo y receptivo, lo que ayudó masivamente.
2. Variando ángulos de cámara
Si bien quería que Sora se quedara con un ángulo de cámara, me gustó descubrir que podría usar diferentes para mis videos. Las imágenes donde la cámara voló cerca de la cascada era particularmente fresca.
En el futuro, usaré diferentes ángulos de cámara y otros consejos útiles de Sora para mejorar mis videos.
¿Dónde podría haber mejorado Sora?
Puedo ver el potencial de Sora, pero fue decepcionante cuando recreé mis videos. La aplicación necesita arreglar tres elementos antes de que me sienta cómodo vuelva a ejecutar este experimento y obtener mejores resultados.
1. Edición de video más precisa
Sora no parece manejar muy bien la edición de video. Cuando subí mis propias imágenes, todo lo que recibí a cambio era una versión de peor calidad de lo mismo. Quizás mis indicaciones debían ser más precisas, pero también sentí que el software jugaba un papel aquí.
En lugar de solicitar, creo que tener botones como la extracción de fondo funcionaría mejor.
2. Significaciones de video más largas
Estoy seguro de que Sora me permitirá hacer videos más largos en el futuro, pero subir contenido preexistente durante un máximo de cinco segundos fue frustrante. Este no es tiempo suficiente para ser verdaderamente creativo.
Si bien el límite de 20 segundos en los videos que creo en la aplicación es mejor, todavía es a veces limitante. Supongo que crear múltiples videoclips y reunirlos en una aplicación de edición de video externa. Por ejemplo, podría usar una de las alternativas a Capcut.
3. Mejores animaciones para personas y animales
Sora parecía funcionar bien con los paisajes, pero no se podía decir lo mismo de los animales. Por ejemplo, los pájaros volando en mis videos parecían muy antinaturales. En lugar de ir a algún lado, estas aves estaban efectivamente de pie en el aire.
Otros también se han quejado de lo mala que es Sora en las interacciones de los objetos. Me imagino que el software planchará esto a medida que obtenga más información y, con suerte, lo hace en poco tiempo.
¿Qué tipo de videos funcionan mejor con Sora?
No recomiendo usar Sora para recrear videos de la vida real. Si bien podría haber hecho ciertas cosas de manera diferente, el software no me impresionó.
En cambio, creo que Sora es mejor para crear videos desde cero. Ofrece muchas opciones si desea dejar que su creatividad funcione salvaje con indicaciones y guiones gráficos. Del mismo modo, usaría la herramienta para inspirarse en futuros proyectos de la vida real.
Noticias
Google cancela el Asistente de Google para millones de usuarios: prepárate
Published
9 horas agoon
22 marzo, 2025
El Asistente de Google está siendo reemplazado por Gemini
SOPA Images/LighTrocket a través de Getty Images
Google Assistant está evolucionando a Géminis, trayendo potentes nuevas capacidades de IA pero también descontinuando algunas características favoritas. Si usa el Asistente de Google para establecer temporizadores, reproducir música o controlar su hogar inteligente, prepárese para algunas interrupciones significativas a medida que la compañía comienza a reemplazar al asistente de nueve años con su chatbot Gemini más nuevo, más potente y alimentado por IA. Este artículo describirá los cambios clave que puede esperar, ayudándole a prepararse para la transición y comprender lo que será diferente.
Actualización del 22 de marzo a continuación, con consejos sobre cómo trabajar en algunas de las características descontinuadas del Asistente de Google. Este artículo fue publicado originalmente el 20 de marzo.
Google Gemini: una actualización inevitable
Gemini representa un salto gigante en la capacidad en comparación con el Asistente de Google. Podrá chatear con Gemini de manera similar a la forma en que hablas con Google Assistant ahora, pero como se basa en modelos de lenguaje grande (LLM) con AI, Gemini puede ser mucho más conversacional y útil, capaz de realizar tareas más desafiantes y capaz de adaptarle sus respuestas específicamente a usted.
Google ya ha comenzado la transición a Gemini. Los teléfonos inteligentes son los primeros en cambiar y serán seguidos por altavoces inteligentes, televisores, otros dispositivos domésticos, dispositivos portátiles y automóviles en los próximos meses.
Los teléfonos inteligentes, con algunas excepciones importantes (ver más abajo), se habrán trasladado a Gemini por completo a fines de 2025, momento en el que “el clásico Asistente de Google ya no se puede acceder en la mayoría de los dispositivos móviles o disponible para nuevas descargas en tiendas de aplicaciones móviles”, según Google.
Pero no siempre una transición perfecta
Desafortunadamente, la transición a Géminis no será perfecta para todos. Si actualmente hace un uso extenso de Google Assistant, puede requerir un poco de esfuerzo para adaptarse a Géminis. Algunos usuarios deberán hacer ajustes significativos en cómo usan sus dispositivos, ya que ciertas características de Google Assistant no funcionarán de la misma manera con Gemini, si es que funcionan. Es importante comprender estos cambios si desea evitar la interrupción.
Google ha eliminado varias características del Asistente de Google antes de la transición a Gemini.
Varias características del Asistente de Google descontinuadas
Google tiene un historial de eliminación de funciones que considera “infrautilizadas” por los clientes. Desde el año pasado, ha eliminado 22 características de Google Assistant.
Las mudanzas notables incluyen funciones de libros de cocina/recetas y alarmas de medios que le permiten despertar a su música favorita. Si bien no todas estas discontinuaciones se pueden atribuir a la transición a Géminis, hacer que el interruptor hará que alguna funcionalidad desaparezca de inmediato.
Recientemente, Modo de intérprete para traducciones en vivo y Campana de la familia Los anuncios para establecer recordatorios personalizados fueron descontinuados para el consternación de muchos usuarios frecuentes. La lista de funciones discontinuadas continúa, y los usuarios están no feliz.
Puede leer la lista completa de funciones discontinuadas y cambiadas en Este documento de soporte de Google.
Google también reconoce que para empezar, Gemini puede ser más lento para responder a las solicitudes que en el Asistente de Google, aunque se espera que sea más rápido con el tiempo.
Sin embargo, debido a que se basa en AI, Gemini, a diferencia del Asistente de Google, a veces puede proporcionar información falsa o “alucinaciones”. Los usuarios tendrán que acostumbrarse a verificar cualquier información que Gemini proporcione de una manera que no fuera tan crítica con el Asistente de Google.
Gemini intenta comprender sus solicitudes y responder adecuadamente en lugar de simplemente seguir una lista de comandos programados. Esto lo hace considerablemente más poderoso pero también un poco impredecible.
Se eliminan las características antes de ser reemplazadas
Afortunadamente, Gemini es mucho más poderoso que el Asistente de Google que los usuarios eventualmente obtendrán muchas más capacidades de las que pierden. Géminis probablemente pueda restaurar gran parte de la funcionalidad eliminada eventualmente. Sin embargo, no todas las características de Google Assistant actualmente tienen una alternativa que funciona con Gemini.
¿Puede mi dispositivo usar Gemini?
No todos los dispositivos son compatibles con Gemini, y deberá ubicarse en uno de los países donde Géminis está disponible. Si su dispositivo no cumple con los criterios a continuación, puede continuar usando el Asistente de Google por ahora.
Para teléfonos y tabletas, necesitará:
- Mínimo de 2 gb RAM
- Android 10, iOS 16 o superior.
- Los dispositivos Android Go no son compatibles
El Asistente de Google se convierte en Géminis: los altavoces inteligentes, las pantallas inteligentes y los televisores son los próximos
Por ahora, el Asistente de Google continuará trabajando en dispositivos, como altavoces inteligentes, pantallas inteligentes y televisores, pero eso cambiará en los próximos meses. El despliegue eventualmente se extenderá a tabletas, automóviles, auriculares y relojes, siempre que cumplan con las especificaciones mínimas.
Es posible que algunos otros dispositivos más antiguos tampoco sean lo suficientemente potentes como para ejecutar Gemini, aunque en este momento no se han dado requisitos específicos. Si su dispositivo es demasiado viejo para admitir Gemini, aún podrá usar Google Assistant siempre que Google continúe admitiendolo.
Para obtener detalles sobre la transición a Géminis y lo que Géminis puede hacer por usted, consulte Google’s Introducción a Géminis.
Actualización del 22 de marzo. Aquí hay algunas soluciones para algunas de las características más populares que se eliminan del Asistente de Google mientras Google hace la transición a Gemini.
Modo de intérprete
Si bien traduce con precisión palabras, frases y documentos completos, Gemini actualmente no reemplaza directamente la función de modo de intérprete de traducción en vivo de Google Assistant. Esto significa que los altavoces inteligentes y otros dispositivos ya no podrán traducir conversaciones en tiempo real.
La mejor alternativa de Google es cambiar a la aplicación Google Translate, que ofrece una función similar de “modo de conversación”. Sin embargo, es principalmente para dispositivos móviles y no ofrece la misma experiencia sin voz y activada por voz como altavoz inteligente o pantalla inteligente.
Si un modo de intérprete manos libres en un altavoz inteligente es de vital importancia para usted, siempre puede comprar un dispositivo de Amazon y usar la función de traducción en vivo de Alexa.
Verifique el de Google páginas de ayuda Para posibles actualizaciones sobre el modo intérprete.
Comandos de voz de Google Photos, configuración del marco de fotos y configuración de pantalla ambiental
Lamentablemente, ya no podrá usar su voz para favoritas y compartir sus fotos o preguntar cuándo y dónde fueron tomadas. Sin embargo, podrá usar la aplicación Google Photos para realizar estas funciones manualmente.
Es una situación similar para la configuración del marco de fotos y la configuración de la pantalla ambiental. Ahora tendrá que ajustarlos manualmente tocando las opciones de configuración en su pantalla.
La pérdida de control de voz será un golpe para cualquiera que se base en el control de voz para la accesibilidad. Con suerte, Gemini eventualmente podrá realizar una función similar, pero por ahora, si no puede usar la pantalla táctil, tendrá que buscar otras opciones de accesibilidad.
Aprenda a usar las rutinas de Google Home
Algunas de las características del Asistente de Google que Google ha eliminado, como Family Bell, se puede aproximar utilizando las rutinas de Google. Sin embargo, el proceso de configuración será más complicado que antes. Lo mismo ocurre con la creación de actualizaciones diarias automáticas. Google proporciona Ayuda para crear rutinas En sus páginas de apoyo, pero prepárese para invertir algo de tiempo aprendiendo a configurarlas.
Seguir @Paul_Monckton en Instagram.
ForbesLa nueva fuga de borde de Galaxy S25 revela la valiosa oferta sorpresa de SamsungPor Paul MoncktonForbesGoogle Gemini ahora accede a su historial de búsqueda: lo que necesita saberPor Paul Monckton
Noticias
Hollywood a Trump: No dejes que Operai y Google entrenen en nuestro trabajo con derechos de autor
Published
10 horas agoon
22 marzo, 2025
La lucha entre los creadores y los titanes tecnológicos de IA por la ley de derechos de autor y la licencia se está calentando. En una carta presentada a la Oficina de Política de Ciencia y Tecnología de la Administración Trump el 15 de marzo, más de 400 actores, escritores y directores pidieron al gobierno que defendiera la ley actual de derechos de autor.
Los firmantes incluyen a Paul McCartney, Guillermo del Toro, Ava Duvernay, Cynthia Erivo, Phoebe Waller-Bridge, Ayo Edebiri, Chris Rock y Mark Ruffalo. La carta solicita específicamente al gobierno que no otorgue excepciones de uso justo a las compañías tecnológicas que capacitan la IA.
El uso justo es un concepto fundamental en la ley de derechos de autor que brinda a las personas una excepción para usar contenido protegido, incluso si no son el titular de los derechos de autor, en casos limitados y específicos. Anteriormente, las compañías de IA, hambrientas por el contenido generado por los humanos para capacitar y mejorar sus modelos de IA, han necesitado pagar a los editores y catálogos de contenido por el acceso a ese material. Una excepción de uso justo facilitaría que las compañías tecnológicas accedan a contenido sin obstáculos legales.
Google y Openai propusieron cambios similares a la ley actual de derechos de autor en sus propuestas para el plan de acción de IA de la administración. Google escribió que tales excepciones le permiten “evitar negociaciones a menudo altamente impredecibles, desequilibradas y largas con los titulares de datos durante el desarrollo del modelo”. Operai escribió que las protecciones de uso justo para la IA son necesarias para proteger la seguridad nacional estadounidense.
Parte del reciente impulso gubernamental alrededor de la IA es una preocupación por la pérdida de la posición global y una ventaja tecnológica sobre el desarrollo de IA a adversarios como China. La IA china, como el rival de chatgpt Deepseek, continúa procesando, pero las preocupaciones abundan sobre su seguridad y falta de barandillas.
En otras palabras, compañías tecnológicas como Google y OpenAI, cada una valorada por la capitalización de mercado en los cientos de miles de millones y billones de dólares, no quieren pasar por el proceso legal establecido y pagar los derechos del contenido que necesitan para que su AIS sea competitivo con los desarrollados por China. Y quieren que la administración Trump codifique las protecciones para ellos como parte de su plan de acción de IA.
Los firmantes de Hollywood se oponen firmemente a la posibilidad de tal reescritura de la ley de derechos de autor. “Estados Unidos no se convirtió en una potencia cultural global por accidente”, dice la carta. “Nuestro éxito se deriva directamente de nuestro respeto fundamental por la IP y los derechos de autor que recompensa la toma de riesgos creativos por estadounidenses talentosos y trabajadores de todos los estados y territorio”.
La Oficina de Derechos de Autor de EE. UU. Ha estado desarrollando orientación sobre cómo manejar los reclamos de derechos de autor por contenido generado por IA. Pero la gente ha estado preocupada durante años, e incluso demandó, cómo los modelos de IA están entrenados de una manera que potencialmente viola los derechos de los titulares de derechos de autor. El doble huelga en el verano de 2023 por miembros del Guild de Escritores de América y el Gremio de Actores de Screen y la Federación Americana de Artistas de Televisión y Radio, o Sag-Aftra, incluyó a la IA como una de sus principales preocupaciones. Ni Openai ni Google han compartido exactamente qué contenido constituye sus bases de datos de capacitación para ChatGPT y Gemini.
La ecuación de derechos de autor se vuelve aún más complicada, ya que sabemos al menos una compañía que recibió un reclamo de derechos de autor para una imagen cuya IA genera cada parte. Deja espacio para la incertidumbre en cada lado del desastre que es los derechos de autor y la IA.
La administración Trump y la IA
Hasta este punto, no ha habido un progreso mucho significativo en la supervisión del gobierno o la legislación que regula cómo los gigantes tecnológicos como OpenAI y Google desarrollan IA. El ex presidente Biden consiguió que muchas de las principales compañías tecnológicas se comprometieran voluntariamente a desarrollar AI de manera responsable e intentó promulgar algunas barandillas en torno al desarrollo de la IA a través de la orden ejecutiva. Pero a las pocas horas de ser inaugurado, Trump retrocedió la orden ejecutiva de AI de Biden con una de las suyas.
En su propia orden ejecutiva sobre IA, Trump dijo que quiere “mantener y mejorar el dominio global de IA de Estados Unidos”. El Plan de Acción de AI es cómo planea promulgar su versión de la política tecnológica. El vicepresidente Vance presentó el plan, y más ampliamente la opinión de la administración sobre la tecnología, en una cumbre internacional sobre IA en enero.
Vance dijo: “Cuando conferencias como esta se convierten en discutir una tecnología de vanguardia, a menudo, creo que nuestra respuesta es ser demasiado consciente de sí misma, demasiado requerida por el riesgo. Pero nunca he encontrado un gran avance en la tecnología que claramente nos llama a hacer precisamente lo contrario”.
Además del llamado a los comentarios, una orden ejecutiva de enero del presidente Trump pidió que American AI estuviera “libre de sesgos ideológicos o agendas sociales diseñadas”.
Al mismo tiempo, los líderes tecnológicos como Sundar Pichai de Google y Sam Altman de Openai se han acercado a la nueva administración. Altman donó un millón de dólares de su propio dinero al Fondo de inauguración de Trump, y Google como compañía donó lo mismo. Altman y Pichai obtuvieron asientos de primera fila para la ceremonia de juramentación, junto con Mark Zuckerberg de Meta, Elon Musk de X y Jeff Bezos de Amazon. Es probable que los ejecutivos esperen que llegar al lado bueno de Trump los ayude a allanar el camino para el futuro de su empresa tecnológica, incluso si, en este caso, molestaría décadas de ley establecida de derechos de autor.
Muchos grupos de personas, no solo creadores, están preocupados de que el desarrollo y el uso no regulado de la IA puedan ser desastrosos.
¿Qué viene después para los derechos de autor y la IA?
Se espera que la Oficina de Derechos de Autor de los Estados Unidos publique un informe más sobre AI, específicamente sobre “implicaciones legales de capacitar a los modelos de IA en trabajos con derechos de autor, consideraciones de licencia y la asignación de cualquier posible responsabilidad”.
Mientras tanto, una serie de demandas activas podrían establecer precedentes importantes para la rama judicial. Thomson Reuters acaba de ganar su caso que dijo que una compañía de IA no tenía un caso de uso justo para usar su contenido para construir IA. La legislación como la Ley No Fakes también se está abriendo camino a través del Congreso, pero no está claro qué tipo de legislación futura de IA tendrá.
Para obtener más información, consulte cómo AI y Art Clash en SXSW y por qué la promesa anti-AI de una compañía resuena con los creadores.
Related posts



































































































































































































































Trending
-
Startups10 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos10 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Tutoriales10 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups8 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos10 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Startups10 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos10 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Noticias8 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo