Noticias

Cinco cosas que debe saber sobre el nuevo memorando de seguridad nacional sobre IA y lo que piensa ChatGPT

Published

on

La fecha era el 24 de octubre. La Casa Blanca de Biden publicó un nuevo Memorando de Seguridad Nacional de EE. UU. sobre Inteligencia Artificial y, como era de esperar, contiene muchas palabras.

Vale la pena escribir sobre ello, ya que estamos en este punto de inflexión en el que los nuevos modelos avanzan extremadamente rápido.

Al observar este documento y su complemento, el Marco para promover la gobernanza de la IA y la gestión de riesgos en la seguridad nacional, hay un par de cosas que destacan en esta directiva.

Lenguaje Difícil

Lo primero que muchos lectores notarán es que ambos documentos están escritos, esencialmente, en jerga legal.

Así es como los redactores describen el alcance del documento marco en sí:

“El Marco para promover la gobernanza de la IA y la gestión de riesgos en la seguridad nacional (“Marco de IA”) se basa y cumple con los requisitos que se encuentran en la Sección 4.2 del Memorando de seguridad nacional sobre la promoción del liderazgo de los Estados Unidos en IA, aprovechando la IA para cumplir con la seguridad nacional. Objetivos y Fomento de la seguridad, protección y confiabilidad de la IA (“AI NSM”), que instruye a los jefes de departamento designados a emitir orientación a sus respectivos componentes/subagencias para promover las prácticas de gobernanza y gestión de riesgos con respecto al uso de la IA como componente de un Sistema de Seguridad Nacional (NSS).1,2 Este Marco de IA tiene como objetivo apoyar y permitir que el gobierno de los EE. UU. continúe tomando medidas activas para defender los derechos humanos, los derechos civiles, las libertades civiles, la privacidad y la seguridad; garantizar que la IA se utilice de manera coherente con la autoridad del presidente como comandante en jefe para decidir cuándo ordenar operaciones militares en defensa de la nación; … El uso de la IA en contextos militares deberá adherirse a los principios y medidas articulados en la Declaración Política sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonomía, anunciada por los Estados Unidos el 9 de noviembre de 2023”.

Esto puede ser fácil de digerir para ChatGPT, pero a la mayoría de los humanos les costará al menos un poco, pero como cualquier otra legislación, el lenguaje sencillo no es una prioridad absoluta.

Así es como los planificadores abordan una regulación anterior, el memorando de la Oficina de Gestión y Presupuesto ‘Avanzando en la adquisición responsable de inteligencia artificial en el gobierno’, también conocido como OMB M-24-10:

“El Marco de IA es complementario, pero no reemplaza ni modifica el Memorando M-24-10 de la OMB. Todo el uso de IA por parte de agencias federales se regirá por el Memorando M-24-10 de la OMB y sus políticas sucesoras o por este Marco de IA. Este marco de IA cubre la IA cuando se utiliza como componente de un NSS. Este Marco de IA se aplica tanto a la IA nueva como a la existente desarrollada, utilizada o adquirida por o en nombre del Gobierno de los EE. UU., y se aplica a la funcionalidad del sistema que implementa o depende de la IA, en lugar de a la totalidad de un sistema de información que incorpora AI.”

Dejemos eso por ahora; basta con decir: lea bajo su propia responsabilidad.

Los cuatro pilares de seguridad nacional para manejar la IA

Una cosa que el documento marco establece con bastante claridad son cuatro componentes clave de la estrategia para gestionar la IA:

El primero implica analizar casos de uso prohibidos y/o de “alto impacto” en torno a la inteligencia artificial y los riesgos que conlleva.

El segundo implica trabajar hacia “prácticas de gestión de riesgos mínimos suficientemente sólidas”, lo que, como señalaremos más adelante, implica pruebas.

El tercero implica catalogar estos importantes casos de IA que el gobierno considera de “alto impacto”: básicamente, un enfoque de documentación.

El cuarto cita “mecanismos eficaces de formación y rendición de cuentas”, que es otro componente de este reglamento.

Protegiendo el fútbol nuclear

He aquí un componente del memorando que resulta singularmente interesante para los aficionados a la política exterior: comienza con la sugerencia de que “los analistas de China y Rusia, sin duda, estudiarán de cerca el NSM”.

El documento complementario en sí contiene una moratoria sobre “involucrar al ser humano” en las decisiones relacionadas con las armas nucleares. Los expertos citan una reunión sobre seguridad de la IA entre Estados Unidos y China celebrada en Ginebra en mayo de este año, que probablemente contribuyó a esta importante advertencia. Las partes interesadas señalan que esta exención de responsabilidad debería “reducir la falta de comunicación entre los dos rivales”.

Pruebas sólidas: parte del trato

Si volvemos a ese segundo pilar identificado en los documentos, tendremos el requisito de salvaguardias adicionales para casos de uso de IA de alto impacto.

Hay pruebas y notificaciones, y una evaluación de impacto. Puede leer todo al respecto en el idioma del memorando. Básicamente, los sistemas serán examinados para garantizar que funcionen según lo previsto y que no tengan efectos secundarios perjudiciales para la sociedad en general.

Designación de jefes

Aquí hay otro aspecto aparentemente importante del memorando: el documento muestra que el gobierno nombrará directores de IA que tendrán la capacidad de eximir a ciertos casos de requisitos de alto impacto.

Como sea que se llame, esto se hace eco de la práctica en el sector privado de nombrar personas que serán responsables de vigilar el uso de la IA en general.

Estas son cinco de las principales conclusiones de estos documentos gubernamentales sin precedentes, pero para profundizar un poco más, escuchemos lo que la propia IA tiene que decir:

Solo por diversión, le preguntamos a ChatGPT: ¿qué hay en el documento?

“El nuevo Memorando de Seguridad Nacional (NSM) sobre inteligencia artificial (IA), emitido por la administración Biden el 24 de octubre de 2024, se centra en aprovechar la IA para promover la seguridad nacional de EE. UU. garantizando al mismo tiempo un uso responsable”, respondió ChatGPT. “El memorando describe varias prioridades clave…”

Esta es la lista de ChatGPT: acelerar la adopción de la IA, salvaguardar los valores/derechos, fortalecer la infraestructura de la IA y contrarrestar la “IA adversaria”.

Luego preguntamos lo siguiente. “¿Qué opinas de este memorando?”

En respuesta, ChatGPT escribió un libro, pero aquí está:

“El Memorando de Seguridad Nacional sobre IA de la administración Biden refleja un enfoque oportuno e integral para gestionar tanto las oportunidades como los riesgos que presenta la IA en el panorama de seguridad nacional. Intenta lograr un equilibrio entre aprovechar la IA para mantener una ventaja tecnológica, particularmente en la competencia con adversarios como China, y garantizar que su uso se alinee con los valores democráticos y salvaguarde las libertades civiles.

Uno de los puntos fuertes del memorando es su énfasis en proteger la infraestructura de IA, como reforzar las cadenas de suministro de chips y priorizar la IA en la supercomputación. Esto se alinea con la estrategia más amplia vista en iniciativas como la Ley CHIPS, que aborda la importancia crítica de la producción de semiconductores para el liderazgo de la IA. El enfoque en la colaboración del sector privado también es un reconocimiento práctico de dónde se produce gran parte de la innovación en IA, lo que garantiza que las empresas estadounidenses sigan siendo globalmente competitivas.

El memorando también aporta una dimensión ética al subrayar que la adopción de la IA debe proteger los derechos civiles y la privacidad. Esto es crucial a la luz de las preocupaciones del público sobre la vigilancia y el sesgo en los sistemas de IA. Sin embargo, garantizar que la adopción de la IA por parte de las agencias de inteligencia y defensa siga siendo transparente y responsable será un desafío, especialmente dada la naturaleza clasificada de algunas aplicaciones.

Una posible crítica es si Estados Unidos puede equilibrar de manera realista la rápida adopción de la IA con la necesidad de estrictas salvaguardias éticas, especialmente cuando los competidores globales tal vez no impongan restricciones similares. También existe la preocupación planteada por grupos de la sociedad civil de que el despliegue de IA en contextos de seguridad podría perpetuar prejuicios o violaciones de las libertades civiles.

En general, el memorando establece un marco sólido, pero su eficacia dependerá de la implementación práctica de estas directrices en varias agencias federales y de qué tan bien Estados Unidos pueda coordinarse con socios internacionales sobre el uso responsable de la IA”.

Esas respuestas son muy ilustrativas del poder de la IA para ayudar a influir en los debates y contribuir a un diálogo significativo sobre lo que estamos viendo, a medida que avanzamos hacia otro año de innovación y desarrollo acelerados.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version