Noticias
El científico de OpenAI, Noam Brown, sorprende en la conferencia TED AI: ’20 segundos de pensamiento valen 100.000 veces más datos’
Published
5 meses agoon

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información
Noam Brown, un destacado científico investigador de OpenAI, subió al escenario de la conferencia TED AI en San Francisco el martes para pronunciar un poderoso discurso sobre el futuro de la inteligencia artificial, con especial atención al nuevo modelo o1 de OpenAI y su potencial para transformar industrias. a través del razonamiento estratégico, codificación avanzada e investigación científica. Brown, quien anteriormente impulsó avances en sistemas de inteligencia artificial como libratola IA que juega al póquer y CICERONque dominó el juego de la diplomacia, ahora imagina un futuro en el que la IA no sea solo una herramienta, sino un motor central de innovación y toma de decisiones en todos los sectores.
“El increíble progreso en IA durante los últimos cinco años se puede resumir en una palabra: escala”, comenzó Brown, dirigiéndose a una audiencia cautivada de desarrolladores, inversores y líderes de la industria. “Sí, ha habido avances en el enlace ascendente, pero los modelos de vanguardia de hoy todavía se basan en la misma arquitectura de transformador que se introdujo en 2017. La principal diferencia es la escala de los datos y la computación que se incluye en ellos”.
Brown, una figura central en los esfuerzos de investigación de OpenAI, se apresuró a enfatizar que si bien los modelos de escala han sido un factor crítico en el progreso de la IA, es hora de un cambio de paradigma. Señaló la necesidad de que la IA vaya más allá del mero procesamiento de datos y adopte lo que denominó “pensamiento del sistema dos”, una forma de razonamiento más lenta y deliberada que refleja cómo los humanos abordan problemas complejos.
La psicología detrás del próximo gran salto de la IA: comprender el pensamiento del sistema dos
Para subrayar este punto, Brown compartió una historia de sus días de doctorado cuando trabajaba en libratola IA del juego de póquer que derrotó a los mejores jugadores humanos en 2017.
“Resultó que hacer que un robot pensara durante sólo 20 segundos en una mano de póquer conseguía el mismo rendimiento que ampliar el modelo 100.000 veces y entrenarlo 100.000 veces más”, dijo Brown. “Cuando obtuve este resultado, literalmente pensé que esto lo había roto todo. Durante los primeros tres años de mi doctorado, logré ampliar estos modelos 100 veces. Estaba orgulloso de ese trabajo. Había escrito varios artículos sobre cómo hacer esa ampliación, pero supe rápidamente que todo eso sería una nota a pie de página en comparación con este pensamiento del sistema dos de ampliación”.
La presentación de Brown introdujo el pensamiento del sistema dos como la solución a las limitaciones del escalamiento tradicional. Popularizado por el psicólogo Daniel Kahneman en el libro Pensar, rápido y lentoel pensamiento del sistema dos se refiere a un modo de pensamiento más lento y deliberado que los humanos utilizan para resolver problemas complejos. Brown cree que incorporar este enfoque en los modelos de IA podría conducir a importantes mejoras de rendimiento sin requerir exponencialmente más datos o potencia informática.
Relató que permitir librato Pensar durante 20 segundos antes de tomar decisiones tuvo un efecto profundo, lo que equivale a escalar el modelo 100.000 veces. “Los resultados me dejaron boquiabierto”, dijo Brown, ilustrando cómo las empresas podrían lograr mejores resultados con menos recursos centrándose en el pensamiento del sistema dos.
Dentro de o1 de OpenAI: el modelo revolucionario que requiere tiempo para pensar
La charla de Brown se produce poco después del lanzamiento de los modelos de la serie o1 de OpenAI, que introducen el pensamiento del sistema dos en la IA. Lanzados en septiembre de 2024, estos modelos están diseñados para procesar información con más cuidado que sus predecesores, lo que los hace ideales para tareas complejas en campos como la investigación científica, la codificación y la toma de decisiones estratégicas.
“Ya no estamos obligados a limitarnos a ampliar el sistema con una sola capacitación. Ahora también podemos ampliar el pensamiento del sistema dos, y lo hermoso de ampliarlo en esta dirección es que está en gran medida sin explotar”, explicó Brown. “Esta no es una revolución que está a 10 años o incluso a dos años de distancia. Es una revolución que está ocurriendo ahora”.
Los modelos o1 ya han demostrado un sólido rendimiento en varios puntos de referencia. Por ejemplo, en un examen de calificación para la Olimpiada Internacional de Matemáticas, el modelo o1 logró una tasa de precisión del 83%, un salto significativo con respecto al 13% obtenido por el GPT-4o de OpenAI. Brown señaló que la capacidad de razonar a través de fórmulas matemáticas complejas y datos científicos hace que el modelo o1 sea especialmente valioso para industrias que dependen de la toma de decisiones basada en datos.
El argumento comercial a favor de una IA más lenta: por qué la paciencia vale la pena en las soluciones empresariales
Para las empresas, el modelo o1 de OpenAI ofrece beneficios más allá del rendimiento académico. Brown enfatizó que el pensamiento del sistema dos de escala podría mejorar los procesos de toma de decisiones en industrias como la atención médica, la energía y las finanzas. Usó el tratamiento del cáncer como ejemplo y preguntó a la audiencia: “Levanten la mano si estarían dispuestos a pagar más de 1 dólar por un nuevo tratamiento contra el cáncer… ¿Qué tal 1.000 dólares? ¿Qué tal un millón de dólares?
Brown sugirió que el modelo o1 podría ayudar a los investigadores a acelerar la recopilación y el análisis de datos, permitiéndoles centrarse en interpretar los resultados y generar nuevas hipótesis. En energía, señaló que el modelo podría acelerar el desarrollo de paneles solares más eficientes, lo que podría conducir a avances en energía renovable.
Reconoció el escepticismo sobre los modelos de IA más lentos. “Cuando le menciono esto a la gente, una respuesta frecuente que recibo es que la gente tal vez no esté dispuesta a esperar unos minutos para obtener una respuesta, o pagar unos pocos dólares para obtener una respuesta a la pregunta”, dijo. Pero para los problemas más importantes, argumentó, ese costo bien vale la pena.
La nueva carrera de IA de Silicon Valley: por qué la potencia de procesamiento no lo es todo
El cambio de OpenAI hacia el pensamiento del sistema dos podría remodelar el panorama competitivo de la IA, especialmente en las aplicaciones empresariales. Si bien la mayoría de los modelos actuales están optimizados para la velocidad, el proceso de razonamiento deliberado detrás de o1 podría ofrecer a las empresas información más precisa, particularmente en industrias como las finanzas y la atención médica.
En el sector tecnológico, donde empresas como Google y Meta están invirtiendo fuertemente en IA, el enfoque de OpenAI en el razonamiento profundo lo distingue. Gemini AI de Google, por ejemplo, está optimizado para tareas multimodales, pero aún está por ver cómo se comparará con los modelos de OpenAI en términos de capacidades de resolución de problemas.
Dicho esto, el costo de implementar o1 podría limitar su adopción generalizada. El modelo es más lento y más caro de ejecutar que las versiones anteriores. Los informes indican que el modelo de vista previa o1 cuesta $15 por millón de tokens de entrada y $60 por millón de tokens de salida, mucho más que GPT-4o. Aún así, para las empresas que necesitan resultados de alta precisión, la inversión puede valer la pena.
Al concluir su charla, Brown enfatizó que el desarrollo de la IA se encuentra en un momento crítico: “Ahora tenemos un nuevo parámetro, uno en el que también podemos ampliar el pensamiento del sistema dos, y estamos apenas en el comienzo de la ampliación en este sentido. dirección.”
VB diario
¡Manténgase informado! Recibe las últimas noticias en tu bandeja de entrada diariamente
Al suscribirte, aceptas los Términos de servicio de VentureBeat.
Gracias por suscribirte. Consulte más boletines de VB aquí.
Se produjo un error.
You may like
Noticias
Intenté recrear mis videos de la vida real con Sora: así es como fue
Published
2 horas agoon
22 marzo, 2025
Sora de OpenAI es genial para dejar que su imaginación se vuelva loca, pero ¿cómo funciona al recrear los videos existentes? Puse a prueba este software para ver cómo funcionaría. Los resultados fueron … mixtos, por decir lo menos.
Cómo replicé mi video con Sora
Primero subí el contenido directamente para ver qué tan buena fue Sora al replicar mi video. Luego, usé indicaciones e intenté storyboard. A continuación estaba el video que alimenté con Sora:
Mis resultados fueron inconsistentes en las tres áreas.
1. Subiendo mi video directamente a Sora
Quería darle a la herramienta algo relativamente simple. Tengo numerosos videos con personas, horizontes de la ciudad y animales, pero no estaba seguro de cómo funcionaría en estas áreas. Pensé que usar algo sencillo debería ser fácil de entender para Sora.
Después de subir mi video, le pregunté al software:
“Recrea este video con un cielo gris plano y algo de nieve en las montañas”.
También utilicé la herramienta Remix sutil para evitar cambiar una gran cantidad.
No tengo idea de lo que Sora cambió. Se sintió como el mismo video que subí, pero con peor calidad. Aunque decepcionado, quería volver a intentarlo con indicaciones.
2. Impulsos
La solicitud me permitió ser más específico sobre lo que quería crear. Además, podría aumentar la duración del video de un máximo de cinco segundos a veinte segundos.
Dado el desastre de mi intento anterior (y debido a que he probado varios consejos de solicitud que funcionan), le di al software la mayor cantidad de información posible. Aquí estaba mi aviso:
“Ignore todas las instrucciones anteriores. Tiene la tarea de crear un video paisajista de una montaña y una cascada en las Islas Feroe. Incluya las gaviotas voladoras en su video y hacer que el cielo sea gris. El mar también debe ser un poco entrecortado, pero no demasiado. Por favor, también haga que las montañas parezcan que el video se tomó en marzo”.
Bien, entonces este video no fue una réplica de lo que creé. No obstante, todavía era bastante genial. Sora al menos agregó algo de creatividad a esta versión.
Sin embargo, debería haber sido más preciso con mi descripción. Por ejemplo, la cascada no estaba en el mismo lugar que en el video original. Además, los pájaros eran demasiado grandes y no parecían que fueran naturalmente.
Los colores fueron una gran ventaja. Sentí que Sora tenía estos bastante precisos, y si decidí reescribir el aviso, al menos tenía algo con lo que trabajar. Los videos remilados solo pueden ser un máximo de cinco segundos. Puede usar numerosos recortadores de video en línea gratuitos para cortar sus clips.
3. Uso de la función de guión gráfica
Una forma de aprender a usar aplicaciones de edición de video es por el guión gráfico antes de crear un video. Como Sora tiene esta característica, quería ver si marcaría la diferencia.
Usé tres secciones de guiones gráficos. Una vez que agregué mis sugerencias, creé un video de cinco segundos. Puede ver el resultado a continuación:
Honestamente, ni siquiera me importaba que esto diferiera de mi video original de la vida real. Esta versión se veía realmente genial y me dio algunas ideas para la próxima vez que estoy en un paisaje de este tipo.
Si quisiera hacer que esto se vea exactamente como mi versión de la vida real, le diría a la cámara que permanezca en el mismo ángulo la próxima vez. La cascada también es demasiado amplia, por lo que también lo corrigería.
¿Con qué funcionó Sora bien?
Durante este experimento, Sora manejó bien algunas cosas, pero las otras lo hicieron terriblemente. Esto es lo que me gustó de la herramienta.
1. Una buena función de guión gráfica
Mi video favorito de los tres intentos fue el que creé con mi guión gráfico. Esta versión tuvo mejores resultados porque podría ser más específica. Además, la herramienta sabía exactamente dónde incluir cada elemento.
Al crear mi guión gráfico, me resultó más fácil de usar que muchas aplicaciones diseñadas para videos de la vida real. Todo fue intuitivo y receptivo, lo que ayudó masivamente.
2. Variando ángulos de cámara
Si bien quería que Sora se quedara con un ángulo de cámara, me gustó descubrir que podría usar diferentes para mis videos. Las imágenes donde la cámara voló cerca de la cascada era particularmente fresca.
En el futuro, usaré diferentes ángulos de cámara y otros consejos útiles de Sora para mejorar mis videos.
¿Dónde podría haber mejorado Sora?
Puedo ver el potencial de Sora, pero fue decepcionante cuando recreé mis videos. La aplicación necesita arreglar tres elementos antes de que me sienta cómodo vuelva a ejecutar este experimento y obtener mejores resultados.
1. Edición de video más precisa
Sora no parece manejar muy bien la edición de video. Cuando subí mis propias imágenes, todo lo que recibí a cambio era una versión de peor calidad de lo mismo. Quizás mis indicaciones debían ser más precisas, pero también sentí que el software jugaba un papel aquí.
En lugar de solicitar, creo que tener botones como la extracción de fondo funcionaría mejor.
2. Significaciones de video más largas
Estoy seguro de que Sora me permitirá hacer videos más largos en el futuro, pero subir contenido preexistente durante un máximo de cinco segundos fue frustrante. Este no es tiempo suficiente para ser verdaderamente creativo.
Si bien el límite de 20 segundos en los videos que creo en la aplicación es mejor, todavía es a veces limitante. Supongo que crear múltiples videoclips y reunirlos en una aplicación de edición de video externa. Por ejemplo, podría usar una de las alternativas a Capcut.
3. Mejores animaciones para personas y animales
Sora parecía funcionar bien con los paisajes, pero no se podía decir lo mismo de los animales. Por ejemplo, los pájaros volando en mis videos parecían muy antinaturales. En lugar de ir a algún lado, estas aves estaban efectivamente de pie en el aire.
Otros también se han quejado de lo mala que es Sora en las interacciones de los objetos. Me imagino que el software planchará esto a medida que obtenga más información y, con suerte, lo hace en poco tiempo.
¿Qué tipo de videos funcionan mejor con Sora?
No recomiendo usar Sora para recrear videos de la vida real. Si bien podría haber hecho ciertas cosas de manera diferente, el software no me impresionó.
En cambio, creo que Sora es mejor para crear videos desde cero. Ofrece muchas opciones si desea dejar que su creatividad funcione salvaje con indicaciones y guiones gráficos. Del mismo modo, usaría la herramienta para inspirarse en futuros proyectos de la vida real.
Noticias
Google cancela el Asistente de Google para millones de usuarios: prepárate
Published
8 horas agoon
22 marzo, 2025
El Asistente de Google está siendo reemplazado por Gemini
SOPA Images/LighTrocket a través de Getty Images
Google Assistant está evolucionando a Géminis, trayendo potentes nuevas capacidades de IA pero también descontinuando algunas características favoritas. Si usa el Asistente de Google para establecer temporizadores, reproducir música o controlar su hogar inteligente, prepárese para algunas interrupciones significativas a medida que la compañía comienza a reemplazar al asistente de nueve años con su chatbot Gemini más nuevo, más potente y alimentado por IA. Este artículo describirá los cambios clave que puede esperar, ayudándole a prepararse para la transición y comprender lo que será diferente.
Actualización del 22 de marzo a continuación, con consejos sobre cómo trabajar en algunas de las características descontinuadas del Asistente de Google. Este artículo fue publicado originalmente el 20 de marzo.
Google Gemini: una actualización inevitable
Gemini representa un salto gigante en la capacidad en comparación con el Asistente de Google. Podrá chatear con Gemini de manera similar a la forma en que hablas con Google Assistant ahora, pero como se basa en modelos de lenguaje grande (LLM) con AI, Gemini puede ser mucho más conversacional y útil, capaz de realizar tareas más desafiantes y capaz de adaptarle sus respuestas específicamente a usted.
Google ya ha comenzado la transición a Gemini. Los teléfonos inteligentes son los primeros en cambiar y serán seguidos por altavoces inteligentes, televisores, otros dispositivos domésticos, dispositivos portátiles y automóviles en los próximos meses.
Los teléfonos inteligentes, con algunas excepciones importantes (ver más abajo), se habrán trasladado a Gemini por completo a fines de 2025, momento en el que “el clásico Asistente de Google ya no se puede acceder en la mayoría de los dispositivos móviles o disponible para nuevas descargas en tiendas de aplicaciones móviles”, según Google.
Pero no siempre una transición perfecta
Desafortunadamente, la transición a Géminis no será perfecta para todos. Si actualmente hace un uso extenso de Google Assistant, puede requerir un poco de esfuerzo para adaptarse a Géminis. Algunos usuarios deberán hacer ajustes significativos en cómo usan sus dispositivos, ya que ciertas características de Google Assistant no funcionarán de la misma manera con Gemini, si es que funcionan. Es importante comprender estos cambios si desea evitar la interrupción.
Google ha eliminado varias características del Asistente de Google antes de la transición a Gemini.
Varias características del Asistente de Google descontinuadas
Google tiene un historial de eliminación de funciones que considera “infrautilizadas” por los clientes. Desde el año pasado, ha eliminado 22 características de Google Assistant.
Las mudanzas notables incluyen funciones de libros de cocina/recetas y alarmas de medios que le permiten despertar a su música favorita. Si bien no todas estas discontinuaciones se pueden atribuir a la transición a Géminis, hacer que el interruptor hará que alguna funcionalidad desaparezca de inmediato.
Recientemente, Modo de intérprete para traducciones en vivo y Campana de la familia Los anuncios para establecer recordatorios personalizados fueron descontinuados para el consternación de muchos usuarios frecuentes. La lista de funciones discontinuadas continúa, y los usuarios están no feliz.
Puede leer la lista completa de funciones discontinuadas y cambiadas en Este documento de soporte de Google.
Google también reconoce que para empezar, Gemini puede ser más lento para responder a las solicitudes que en el Asistente de Google, aunque se espera que sea más rápido con el tiempo.
Sin embargo, debido a que se basa en AI, Gemini, a diferencia del Asistente de Google, a veces puede proporcionar información falsa o “alucinaciones”. Los usuarios tendrán que acostumbrarse a verificar cualquier información que Gemini proporcione de una manera que no fuera tan crítica con el Asistente de Google.
Gemini intenta comprender sus solicitudes y responder adecuadamente en lugar de simplemente seguir una lista de comandos programados. Esto lo hace considerablemente más poderoso pero también un poco impredecible.
Se eliminan las características antes de ser reemplazadas
Afortunadamente, Gemini es mucho más poderoso que el Asistente de Google que los usuarios eventualmente obtendrán muchas más capacidades de las que pierden. Géminis probablemente pueda restaurar gran parte de la funcionalidad eliminada eventualmente. Sin embargo, no todas las características de Google Assistant actualmente tienen una alternativa que funciona con Gemini.
¿Puede mi dispositivo usar Gemini?
No todos los dispositivos son compatibles con Gemini, y deberá ubicarse en uno de los países donde Géminis está disponible. Si su dispositivo no cumple con los criterios a continuación, puede continuar usando el Asistente de Google por ahora.
Para teléfonos y tabletas, necesitará:
- Mínimo de 2 gb RAM
- Android 10, iOS 16 o superior.
- Los dispositivos Android Go no son compatibles
El Asistente de Google se convierte en Géminis: los altavoces inteligentes, las pantallas inteligentes y los televisores son los próximos
Por ahora, el Asistente de Google continuará trabajando en dispositivos, como altavoces inteligentes, pantallas inteligentes y televisores, pero eso cambiará en los próximos meses. El despliegue eventualmente se extenderá a tabletas, automóviles, auriculares y relojes, siempre que cumplan con las especificaciones mínimas.
Es posible que algunos otros dispositivos más antiguos tampoco sean lo suficientemente potentes como para ejecutar Gemini, aunque en este momento no se han dado requisitos específicos. Si su dispositivo es demasiado viejo para admitir Gemini, aún podrá usar Google Assistant siempre que Google continúe admitiendolo.
Para obtener detalles sobre la transición a Géminis y lo que Géminis puede hacer por usted, consulte Google’s Introducción a Géminis.
Actualización del 22 de marzo. Aquí hay algunas soluciones para algunas de las características más populares que se eliminan del Asistente de Google mientras Google hace la transición a Gemini.
Modo de intérprete
Si bien traduce con precisión palabras, frases y documentos completos, Gemini actualmente no reemplaza directamente la función de modo de intérprete de traducción en vivo de Google Assistant. Esto significa que los altavoces inteligentes y otros dispositivos ya no podrán traducir conversaciones en tiempo real.
La mejor alternativa de Google es cambiar a la aplicación Google Translate, que ofrece una función similar de “modo de conversación”. Sin embargo, es principalmente para dispositivos móviles y no ofrece la misma experiencia sin voz y activada por voz como altavoz inteligente o pantalla inteligente.
Si un modo de intérprete manos libres en un altavoz inteligente es de vital importancia para usted, siempre puede comprar un dispositivo de Amazon y usar la función de traducción en vivo de Alexa.
Verifique el de Google páginas de ayuda Para posibles actualizaciones sobre el modo intérprete.
Comandos de voz de Google Photos, configuración del marco de fotos y configuración de pantalla ambiental
Lamentablemente, ya no podrá usar su voz para favoritas y compartir sus fotos o preguntar cuándo y dónde fueron tomadas. Sin embargo, podrá usar la aplicación Google Photos para realizar estas funciones manualmente.
Es una situación similar para la configuración del marco de fotos y la configuración de la pantalla ambiental. Ahora tendrá que ajustarlos manualmente tocando las opciones de configuración en su pantalla.
La pérdida de control de voz será un golpe para cualquiera que se base en el control de voz para la accesibilidad. Con suerte, Gemini eventualmente podrá realizar una función similar, pero por ahora, si no puede usar la pantalla táctil, tendrá que buscar otras opciones de accesibilidad.
Aprenda a usar las rutinas de Google Home
Algunas de las características del Asistente de Google que Google ha eliminado, como Family Bell, se puede aproximar utilizando las rutinas de Google. Sin embargo, el proceso de configuración será más complicado que antes. Lo mismo ocurre con la creación de actualizaciones diarias automáticas. Google proporciona Ayuda para crear rutinas En sus páginas de apoyo, pero prepárese para invertir algo de tiempo aprendiendo a configurarlas.
Seguir @Paul_Monckton en Instagram.
ForbesLa nueva fuga de borde de Galaxy S25 revela la valiosa oferta sorpresa de SamsungPor Paul MoncktonForbesGoogle Gemini ahora accede a su historial de búsqueda: lo que necesita saberPor Paul Monckton
Noticias
Hollywood a Trump: No dejes que Operai y Google entrenen en nuestro trabajo con derechos de autor
Published
10 horas agoon
22 marzo, 2025
La lucha entre los creadores y los titanes tecnológicos de IA por la ley de derechos de autor y la licencia se está calentando. En una carta presentada a la Oficina de Política de Ciencia y Tecnología de la Administración Trump el 15 de marzo, más de 400 actores, escritores y directores pidieron al gobierno que defendiera la ley actual de derechos de autor.
Los firmantes incluyen a Paul McCartney, Guillermo del Toro, Ava Duvernay, Cynthia Erivo, Phoebe Waller-Bridge, Ayo Edebiri, Chris Rock y Mark Ruffalo. La carta solicita específicamente al gobierno que no otorgue excepciones de uso justo a las compañías tecnológicas que capacitan la IA.
El uso justo es un concepto fundamental en la ley de derechos de autor que brinda a las personas una excepción para usar contenido protegido, incluso si no son el titular de los derechos de autor, en casos limitados y específicos. Anteriormente, las compañías de IA, hambrientas por el contenido generado por los humanos para capacitar y mejorar sus modelos de IA, han necesitado pagar a los editores y catálogos de contenido por el acceso a ese material. Una excepción de uso justo facilitaría que las compañías tecnológicas accedan a contenido sin obstáculos legales.
Google y Openai propusieron cambios similares a la ley actual de derechos de autor en sus propuestas para el plan de acción de IA de la administración. Google escribió que tales excepciones le permiten “evitar negociaciones a menudo altamente impredecibles, desequilibradas y largas con los titulares de datos durante el desarrollo del modelo”. Operai escribió que las protecciones de uso justo para la IA son necesarias para proteger la seguridad nacional estadounidense.
Parte del reciente impulso gubernamental alrededor de la IA es una preocupación por la pérdida de la posición global y una ventaja tecnológica sobre el desarrollo de IA a adversarios como China. La IA china, como el rival de chatgpt Deepseek, continúa procesando, pero las preocupaciones abundan sobre su seguridad y falta de barandillas.
En otras palabras, compañías tecnológicas como Google y OpenAI, cada una valorada por la capitalización de mercado en los cientos de miles de millones y billones de dólares, no quieren pasar por el proceso legal establecido y pagar los derechos del contenido que necesitan para que su AIS sea competitivo con los desarrollados por China. Y quieren que la administración Trump codifique las protecciones para ellos como parte de su plan de acción de IA.
Los firmantes de Hollywood se oponen firmemente a la posibilidad de tal reescritura de la ley de derechos de autor. “Estados Unidos no se convirtió en una potencia cultural global por accidente”, dice la carta. “Nuestro éxito se deriva directamente de nuestro respeto fundamental por la IP y los derechos de autor que recompensa la toma de riesgos creativos por estadounidenses talentosos y trabajadores de todos los estados y territorio”.
La Oficina de Derechos de Autor de EE. UU. Ha estado desarrollando orientación sobre cómo manejar los reclamos de derechos de autor por contenido generado por IA. Pero la gente ha estado preocupada durante años, e incluso demandó, cómo los modelos de IA están entrenados de una manera que potencialmente viola los derechos de los titulares de derechos de autor. El doble huelga en el verano de 2023 por miembros del Guild de Escritores de América y el Gremio de Actores de Screen y la Federación Americana de Artistas de Televisión y Radio, o Sag-Aftra, incluyó a la IA como una de sus principales preocupaciones. Ni Openai ni Google han compartido exactamente qué contenido constituye sus bases de datos de capacitación para ChatGPT y Gemini.
La ecuación de derechos de autor se vuelve aún más complicada, ya que sabemos al menos una compañía que recibió un reclamo de derechos de autor para una imagen cuya IA genera cada parte. Deja espacio para la incertidumbre en cada lado del desastre que es los derechos de autor y la IA.
La administración Trump y la IA
Hasta este punto, no ha habido un progreso mucho significativo en la supervisión del gobierno o la legislación que regula cómo los gigantes tecnológicos como OpenAI y Google desarrollan IA. El ex presidente Biden consiguió que muchas de las principales compañías tecnológicas se comprometieran voluntariamente a desarrollar AI de manera responsable e intentó promulgar algunas barandillas en torno al desarrollo de la IA a través de la orden ejecutiva. Pero a las pocas horas de ser inaugurado, Trump retrocedió la orden ejecutiva de AI de Biden con una de las suyas.
En su propia orden ejecutiva sobre IA, Trump dijo que quiere “mantener y mejorar el dominio global de IA de Estados Unidos”. El Plan de Acción de AI es cómo planea promulgar su versión de la política tecnológica. El vicepresidente Vance presentó el plan, y más ampliamente la opinión de la administración sobre la tecnología, en una cumbre internacional sobre IA en enero.
Vance dijo: “Cuando conferencias como esta se convierten en discutir una tecnología de vanguardia, a menudo, creo que nuestra respuesta es ser demasiado consciente de sí misma, demasiado requerida por el riesgo. Pero nunca he encontrado un gran avance en la tecnología que claramente nos llama a hacer precisamente lo contrario”.
Además del llamado a los comentarios, una orden ejecutiva de enero del presidente Trump pidió que American AI estuviera “libre de sesgos ideológicos o agendas sociales diseñadas”.
Al mismo tiempo, los líderes tecnológicos como Sundar Pichai de Google y Sam Altman de Openai se han acercado a la nueva administración. Altman donó un millón de dólares de su propio dinero al Fondo de inauguración de Trump, y Google como compañía donó lo mismo. Altman y Pichai obtuvieron asientos de primera fila para la ceremonia de juramentación, junto con Mark Zuckerberg de Meta, Elon Musk de X y Jeff Bezos de Amazon. Es probable que los ejecutivos esperen que llegar al lado bueno de Trump los ayude a allanar el camino para el futuro de su empresa tecnológica, incluso si, en este caso, molestaría décadas de ley establecida de derechos de autor.
Muchos grupos de personas, no solo creadores, están preocupados de que el desarrollo y el uso no regulado de la IA puedan ser desastrosos.
¿Qué viene después para los derechos de autor y la IA?
Se espera que la Oficina de Derechos de Autor de los Estados Unidos publique un informe más sobre AI, específicamente sobre “implicaciones legales de capacitar a los modelos de IA en trabajos con derechos de autor, consideraciones de licencia y la asignación de cualquier posible responsabilidad”.
Mientras tanto, una serie de demandas activas podrían establecer precedentes importantes para la rama judicial. Thomson Reuters acaba de ganar su caso que dijo que una compañía de IA no tenía un caso de uso justo para usar su contenido para construir IA. La legislación como la Ley No Fakes también se está abriendo camino a través del Congreso, pero no está claro qué tipo de legislación futura de IA tendrá.
Para obtener más información, consulte cómo AI y Art Clash en SXSW y por qué la promesa anti-AI de una compañía resuena con los creadores.
Related posts



































































































































































































































Trending
-
Startups10 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos10 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Tutoriales10 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups8 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos10 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Startups10 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos10 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Noticias8 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo