Connect with us

Noticias

Operai está presionando a Donald Trump para debilitar las protecciones de los derechos de autor en los Estados Unidos. Paul McCartney está luchando.

Published

on

El fabricante de ChatGPT, OpenAI, ha pedido cambios fundamentales en la ley de derechos de autor de EE. UU. Que permitiría a las compañías de IA usar obras con derechos de autor sin permiso o compensación a los sholders.

Eso es de acuerdo con una nueva presentación de políticas a la Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP).

El documento no hace una lectura feliz para los titulares de derechos de autor, lo que explica por qué estrellas de música como Sir Paul McCartney, Paul Simon y Bette Midler se han unido a cientos de celebridades de Hollywood para firmar una carta que empujaba contra las propuestas.

La presentación, presentada por Opadai el 13 de marzo (leerlo en su totalidad aquí), es parte de la respuesta de la compañía de tecnología a la Administración de Trump Solicitud de información sobre el desarrollo de un plan de acción nacional de IA.

Ambos Openai y Google Enviaron marcos de políticas detallados que podrían afectar significativamente los derechistas de la música y otros creadores de contenido.

Estas presentaciones representan el posicionamiento de políticas de alto riesgo como el Administración de Trump Desarrolla su plan de acción de IA, que podría dar forma fundamentalmente cómo los trabajos creativos están protegidos, o no protegidos, en el ecosistema de IA en rápida evolución.

Operai pide acceso a capacitación de IA sin restricciones

En su presentación del 13 de marzo, Opadai se centra mucho en el concepto de “Uso justo” – Es decir, las plataformas pueden usar derechos de autor en ciertas circunstancias sin castigo.

La firma argumenta explícitamente que la aplicación de la doctrina de “uso justo” a la IA en los Estados Unidos es “No solo una cuestión de competitividad estadounidense, es una cuestión de seguridad nacional”mientras advierte que sin tener acceso gratuito a materiales con derechos de autor, “La carrera por IA ha terminado efectivamente”.

En Operai’s ojos, Porcelana Ganará esa carrera si el A NOSOTROS No afloja sus leyes de derechos de autor.

“Si [China’s] Los desarrolladores tienen Acceso sin restricciones a los datos y las empresas estadounidenses son Se fue sin acceso de uso justola carrera por IA ha terminado efectivamente. América pierdeal igual que el éxito de la IA democrática “.

Presentación de Openai

La cita relevante de la presentación de OpenAI dice: “Aplicar la doctrina de uso justo a la IA no es solo una cuestión de competitividad estadounidense, es un cuestión de seguridad nacional. Los rápidos avances vistos con la RPC [People’s Republic Of China]’s Veteranoentre otros desarrollos recientes, muestran que el liderazgo de Estados Unidos en Frontier AI está lejos de ser garantizado “.

Opadai agrega: “Dado el apoyo estatal concertado para industrias críticas y proyectos de infraestructura, hay pocas dudas de que el PRC Los desarrolladores de IA disfrutarán Acceso sin restricciones a los datos – incluido datos con derechos de autor – que mejorará sus modelos.

“Si los desarrolladores de la RPC han Acceso sin restricciones a los datos y las empresas estadounidenses son Se fue sin acceso de uso justola carrera por IA ha terminado efectivamente. América pierdeal igual que el éxito de la IA democrática “.

Operai’s La presentación afirma además: “La ley de derechos de autor estadounidense, incluida la doctrina de uso justo de larga data, protege los usos transformadores de los trabajos existentes, asegurando que los innovadores tengan un marco equilibrado y predecible para la experimentación y el espíritu empresarial”.


¿Operai simplemente dio un regalo a los cabilderos de la música?

Pasajes en Operai’s la presentación podría interpretarse como reconociendo que Ley actual de derechos de autor de EE. UU. Restringe las actividades deseadas de la compañía, aunque el idioma es algo ambiguo.

Una sección notable es donde Opadai Estados: “Si los desarrolladores de la RPC tienen acceso sin restricciones a los datos y las empresas estadounidenses se quedan sin acceso de uso justo, la carrera por IA ha terminado de manera efectiva”.

La redacción de la frase “Si las empresas estadounidenses se quedan sin acceso de uso justo” Implica que las empresas de IA en los EE. UU. Podrían necesitar nuevas protecciones específicas de ‘uso justo’ redactadas para continuar utilizando materiales con derechos de autor.

A su vez, eso podría interpretarse como un reconocimiento de que sin protecciones tan claras, es decir, bajo las leyes de hoy, sus actividades podrían ser legalmente cuestionables.

Google se alinea con OpenAi en la postura de los derechos de autor

Google Presentación (léelo en su totalidad aquí) se hace eco de sentimientos similares, aunque con un lenguaje ligeramente menos alarmista.

El gigante de la búsqueda argumenta que “las reglas equilibradas de los derechos de autor, como Uso justo y excepciones de minería de texto y datoshan sido fundamentales para permitir que los sistemas de IA aprendan del conocimiento previo y los datos disponibles públicamente, desbloqueando los avances científicos y sociales “.

“Apoyamos el marco de uso justo existente de Estados Unidos, y estamos seguros de que la ley actual de derechos de autor permite la innovación de IA”.

Portavoz de Google

La compañía agrega que estas excepciones “permiten el uso de Carpyringe, material disponible públicamente para capacitación de IA sin impactar significativamente los tiradores de la derecha y evitar negociaciones a menudo altamente impredecibles, desequilibradas y largas con los titulares de datos durante el desarrollo del modelo o la experimentación científica ”.

Advierte que las leyes de derechos de autor podrían, bajo ciertas interpretaciones, “impedir el acceso apropiado a los datos necesarios para capacitar a los modelos líderes”.

Posterior a la presentación que se presenta, un Google El portavoz dijo en un comunicado: “Apoyamos el marco de uso justo existente de Estados Unidos, y estamos seguros de que la ley actual de derechos de autor permite la innovación de IA”.


La respuesta de McCartney

Estrellas del mundo del cine, la televisión y la música han firmado una carta en respuesta a la Opadai y Google propuestas, incluyendo Cate Blanchett, Cynthia Erivo, Paul McCartney, Paul Simon, Ron Howard, Taika Waititi, Chris Rock, Ben Stiller, Mark Ruffalo, Guillermo del Toroy Ava Duvernay.

En su carta al gobierno de los Estados Unidos esta semana, el estado de los copyrighters, “Creemos firmemente que el liderazgo global de IA de Estados Unidos no debe venir a expensas de nuestras industrias creativas esenciales”.

Agregan que la industria de las artes y el entretenimiento de los Estados Unidos proporciona más que 2.3 millones de empleos yproporciona la base para Influencia democrática estadounidense y poder blando en el extranjero. “

La carta continúa: “[AI] las empresas piden socavar esta fortaleza económica y cultural por debilitando las protecciones de los derechos de autor Para las películas, series de televisión, obras de arte, escritura, música y voces utilizadas para entrenar modelos de IA en el núcleo de valoraciones corporativas multimillonarias “.

Puede leer la carta, firmada por 400 creadores famosos, en su totalidad a continuación:

Hola amigos y extraños. Como sabrá, recientemente ha habido una recomendación de OpenAI y Google a la actual administración estadounidense que está ganando una tracción alarmante para eliminar todas las protecciones legales y barandillas existentes que rodean las protecciones de la ley de derechos de autor para la capacitación de la inteligencia artificial.

Esta reescritura de la ley establecida a favor del llamado “uso justo” necesitaba una respuesta inicial a las 11:59 pm ET el sábado, por lo que hemos presentado una carta inicial con los firmantes que teníamos en ese momento. Ahora continuamos aceptando firmas para una enmienda a nuestra declaración inicial. No dude en enviar esto a cualquier persona que crea que puede invertir en el mantenimiento ético de su propiedad intelectual. Puede agregar su nombre y cualquier gremio, sindicato o descripción de sí mismo que se sienta apropiado, pero no edite la carta en sí. ¡Muchas gracias por patear esto de par en par los sábados por la noche!

La respuesta de Hollywood al plan de acción de inteligencia artificial de la administración y la necesidad de que se mantenga la ley de derechos de autor.

Nosotros, los miembros de la industria del entretenimiento de Estados Unidos, que representan una intersección de cinematógrafos, directores, productores, actores, escritores, estudios, compañías de producción, músicos, compositores, disfraces, diseñadores de sonido y producción, editores, gaffers, sindicatos y miembros de la academia y otros profesionales de contenido industrial, presentan esta declaración unificada en respuesta a la solicitud de la administración de la administración de la aportación sobre el plan de acción de IAI.

Creemos firmemente que el liderazgo global de IA de Estados Unidos no debe venir a expensas de nuestras industrias creativas esenciales. La industria de las artes y el entretenimiento de Estados Unidos apoya más de 2,3 millones de empleos estadounidenses con más de $ 229 mil millones en salarios anualmente, al tiempo que proporciona la base para la influencia democrática estadounidense y el poder blando en el extranjero. Pero las compañías de IA están pidiendo socavar esta fuerza económica y cultural al debilitar las protecciones de los derechos de autor para las películas, las series de televisión, las obras de arte, la escritura, la música y las voces utilizadas para capacitar modelos de IA en el núcleo de valoraciones corporativas multimillonarias.

No se equivoquen: este problema va mucho más allá de la industria del entretenimiento, ya que el derecho a capacitar a la IA en todo el contenido protegido por derechos de autor afecta a todas las industrias de conocimiento de Estados Unidos. Cuando las empresas tecnológicas y de inteligencia artificial exigen acceso sin restricciones a todos los datos e información, no solo amenazan películas, libros y música, sino el trabajo de todos los escritores, editores, fotógrafos, científicos, arquitectos, ingenieros, diseñadores, médicos, desarrolladores de software y todos los demás profesionales que trabajan con computadoras y generan propiedad intelectual. Estas profesiones son el núcleo de cómo descubrimos, aprendemos y compartimos el conocimiento como sociedad y como nación. Este problema no se trata solo de liderazgo de IA o de economía y derechos individuales, sino del liderazgo continuo de Estados Unidos en la creación y poseer una valiosa propiedad intelectual en cada campo.

Está claro que Google (valorado en $ 2TN) y OpenAI (valorado en más de $ 157 mil millones) están defendiendo una exención especial del gobierno para que puedan explotar libremente las industrias creativas y de conocimiento de Estados Unidos, a pesar de sus ingresos sustanciales y fondos disponibles. No hay razón para debilitar o eliminar las protecciones de derechos de autor que han ayudado a Estados Unidos a florecer. No cuando las empresas de IA pueden usar nuestro material con derechos de autor simplemente haciendo lo que la ley requiere: negociar las licencias apropiadas con los titulares de derechos de autor, al igual que cualquier otra industria. El acceso al catálogo creativo de películas, escritura, contenido de video y música de Estados Unidos no es una cuestión de seguridad nacional. No requieren una exención ordenada por el gobierno de la ley de derechos de autor de EE. UU.

Estados Unidos no se convirtió en una potencia cultural global por accidente. Nuestro éxito se deriva directamente de nuestro respeto fundamental por la IP y los derechos de autor que recompensa la toma de riesgos creativos por estadounidenses talentosos y trabajadores de todos los estados y territorio. Durante casi 250 años, la ley de derechos de autor de EE. UU. Ha equilibrado los derechos de los creadores con las necesidades del público, creando la economía creativa más vibrante del mundo. Recomendamos que el plan de acción estadounidense de IA mantenga los marcos de derechos de autor existentes para mantener la fortaleza de las industrias creativas y de conocimiento de Estados Unidos, así como la influencia cultural estadounidense en el extranjero.

Negocio de música en todo el mundo

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte

Published

on

Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.

La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).

Continue Reading

Noticias

¿Hemos perdido el control de la IA? El estudio que sacudió a los investigadores de Openai

Published

on

Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.

Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.

3 Ver galería

Chatgpt

Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.

La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.

Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.

De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.

Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.

3 Ver galería

Γ cam.Γ cam.

(Foto: Generado por chatgpt)

Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.

Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.

Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.

Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.

Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.

“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.

En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.

3 Ver galería

אירוע eriorאירוע erior

Evento de anuncio GPT-4O de Openai

(Foto: Captura de pantalla)

Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.

Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.

Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.

Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.

El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?

Continue Reading

Noticias

Google, OpenAI Target State Leyes en el Plan de Acción de AI

Published

on

Mientras que la administración del presidente Donald Trump se ha centrado en alejarse de la regulación, liderando a los proveedores de IA como Google y OpenAI quieren que el plan de acción de IA pendiente del gobierno incluya una política federal que se adelantan a los crecientes mosaicos de leyes estatales de IA en los Estados Unidos.

La Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP) solicitó los aportes de las partes interesadas sobre el desarrollo de un plan de acción de IA. Recientemente cerró el período de comentarios públicos, recibiendo más de 8,700 presentaciones. OSTP solicitó a las partes interesadas que describieran las acciones prioritarias para apoyar el dominio de los Estados Unidos de la tecnología de IA sin una regulación excesiva que obstaculice la innovación del sector privado en la IA. Para algunas grandes empresas tecnológicas, abordar las leyes estatales de IA debería ser una de las principales prioridades del gobierno de los Estados Unidos.

Estados Unidos debe adoptar marcos de políticas que “se adelanten a un mosaico caótico de reglas a nivel estatal sobre el desarrollo de la IA fronteriza”, según la presentación de Google.

Mientras tanto, Openai pidió libertad para innovar en el interés nacional de los Estados Unidos y neutralizar a los competidores como China que se benefician de “las compañías estadounidenses de IA que tienen que cumplir con las leyes estatales demasiado onerosas”. Un puñado de estados de EE. UU. Han aprobado una regulación integral de IA, incluidas Colorado, California y Utah.

Sin una ley federal de IA, los estados implementan requisitos de IA individuales que crean desafíos de cumplimiento para las empresas, dijo la analista de Forrester Alla Valente si Estados Unidos adopta una política federal de IA general, podría eliminar esa carga, dijo.

“Al dejar esto a los Estados Unidos, puede tener 50 conjuntos de regulaciones de IA que se ven muy diferentes”, dijo.

Sin embargo, una orden ejecutiva no puede evitar las regulaciones estatales de IA. Depende del Congreso aprobar una ley federal de IA, algo que tiene problemas para hacer.

Las presentaciones del Plan de Acción de AI incluyen Estado, Global Focus

La falta de un enfoque de gobernanza de AI unificado en los Estados Unidos es “ineficaz y duplicativo”, dijo Hodan Omaar, un gerente de políticas senior en el Centro de Tank Tank Tank para innovación de datos.

“Crea inconsistencias e incoherencia en un enfoque estadounidense”, dijo.

Más allá de centrarse en las leyes estatales, Valente dijo que la postura de Google indica que la compañía quiere que Estados Unidos considere el desarrollo global de las leyes de IA también, como la Ley de IA de la Unión Europea.

Cualquier estándar, política o marco que crea los EE. UU. Debe reflejar los intereses estadounidenses, pero no puede ignorar las políticas de IA de diferentes países, dijo Valente. Google dijo que, cuando se trabaja con países alineados, Estados Unidos debería “desarrollar protocolos y puntos de referencia en torno a los riesgos potenciales de los sistemas de IA fronterizos”.

“Ignorar lo que el resto del mundo está haciendo en torno a los marcos de IA, la gobernanza de IA, el riesgo de IA, crea una brecha aún mayor entre la innovación de los Estados Unidos y el resto del mundo hasta el punto de que entonces sigue siendo competitivo si otros países tienen requisitos que no pueden ser satisfechos con la innovación de la IA de EE. UU.”, Dijo Valente.

Operai también abordó los controles de exportación en sus comentarios, solicitando un cambio de estrategia centrado en promover la adopción global de los sistemas de IA de EE. UU. Al tiempo que utiliza más estratégicamente los controles de exportación para mantener el liderazgo de IA de EE. UU. La Compañía pidió actualizar la regla de difusión de IA que avanzó los controles de exportación de EE. UU., Una regla propuesta por la administración del ex presidente Joe Biden que se encontró con una reacción violenta de la industria.

Mientras tanto, en los comentarios del Centro para la Innovación de Data, el grupo de expertos pidió que el Plan de Acción de AI de EE. UU. Reorientara su estrategia de control de exportación. Si bien los controles de exportación están destinados a debilitar a los competidores, en particular el sector de inteligencia artificial de China, están “cada vez más en desventajas de las empresas estadounidenses”. El surgimiento de Deepseek apunta a la capacidad de China para innovar a pesar de los controles de exportación de los Estados Unidos en chips de IA avanzados.

Omaar describió en la presentación del grupo de expertos de que Estados Unidos debería establecer una Fundación Nacional de Datos (NDF) dedicada a la financiación y facilitar compartir conjuntos de datos de alta calidad para el desarrollo del modelo de IA. Ella dijo que Estados Unidos también debería preservar, pero Reengus, el Instituto de Seguridad AI del Instituto Nacional de Normas y Tecnología (NIST) para proporcionar estándares fundamentales para la gobernanza de la IA.

“El gobierno federal tiene un papel importante que desempeñar para garantizar que haya estándares”, dijo Omaar. “Asegurarse de que NIST pueda hacer el importante trabajo de IA que estaban haciendo es importante para garantizar una adopción de IA sin problemas”.

Cómo podría ser el plan de acción de AI final

La solicitud de información de la Oficina de Ciencia y Tecnología de la Casa Blanca sobre un plan de acción de IA pidió a las partes interesadas sus pensamientos sobre las acciones de política de IA. Sin proporcionar recomendaciones o cualquier marco potencial para que las partes interesadas comenten, Valente dijo que no está claro qué incluirá el plan de acción de IA.

“Cómo termina este plan, uno solo puede imaginar”, dijo.

Darrell West, miembro senior de la Institución Brookings, dijo que la solicitud de información de la Casa Blanca indica que la administración Trump se centrará en abandonar los requisitos onerosos y confiar en las empresas privadas para innovar con menos supervisión federal.

“Habrá menos limitaciones en las compañías tecnológicas”, dijo. “Serán libres de innovar en cualquier dirección que deseen”.

El gobierno federal puede equilibrar la seguridad y la innovación de la IA, que con suerte se reflejará en el Plan de Acción de AI, dijo Jason Corso, cofundador de AI Startup Voxel51 y profesor de informática en la Universidad de Michigan.

La población general ya es escéptica de la IA, y si ocurren desafíos generales de crecimiento del desarrollo, corre el riesgo de socavar aún más la confianza en la tecnología, dijo. Es por eso que los marcos de políticas deben crearse con la seguridad de IA en mente, agregó Corso.

Un marco federal que carece de consideraciones de seguridad de IA significa la responsabilidad de las decisiones de seguridad de IA cae a los CIO de la Compañía o los oficiales de IA en los principales, lo que Corso dijo que presenta un “gran riesgo”. El efecto podría ser menos adopción o ROI más lento, dijo.

“Esta IA contemporánea es tan incipiente que a pesar de los rápidos avances que estamos viendo, en realidad se entiende bastante sobre su previsibilidad, repetibilidad o incluso su robustez con ciertos tipos de preguntas o escenarios de razonamiento”, dijo. “Ciertamente necesitamos innovación, pero también necesitamos seguridad”.

Makenzie Holland es un escritor de noticias senior que cubre la gran regulación federal y de la gran tecnología. Antes de unirse a Informa TechTarget, ella era una reportera de asignación general para el Wilmington Starnews y un reportero de crimen y educación en el Wabash Plain Dealer.

Continue Reading

Trending