Noticias

OpenAI contrata a un ejecutivo de seguridad de Palantir mientras se presenta cada vez más al Pentágono

Published

on

Hola y bienvenido a Eye on AI. En esta edición…OpenAI se apoya en sus ambiciones militares; Amazon también se vuelve nuclear; Mistral lanza modelos de IA para portátiles y teléfonos; y las empresas de IA no cumplen con la evaluación del cumplimiento de la UE.

OpenAI ha estado desangrando a ejecutivos y a los mejores talentos, pero esta semana realizó una gran contratación. Bueno, un par de ellos. En el boletín del martes, Jeremy cubrió la contratación del destacado investigador de inteligencia artificial de Microsoft, Sebastian Bubeck. Pero hoy quiero hablar sobre una contratación diferente esta semana: Dane Stuckey anunció en X que se unirá a la compañía como su nuevo director de seguridad de la información (CISO) después de una década en Palantir, donde trabajó en el equipo de seguridad de la información y fue más recientemente CISO.

Para muchos en el mundo de la tecnología, cualquier mención de Palantir genera señales de alerta. La firma secreta, cofundada por Peter Thiel y llena de contratos militares, ha sido objeto de un intenso escrutinio a lo largo de los años por sus tecnologías de vigilancia y vigilancia policial predictiva, asumiendo el controvertido Proyecto Maven que inspiró huelgas en Google y su contrato de larga duración con El Servicio de Inmigración y Control de Aduanas (ICE) de EE.UU. para rastrear inmigrantes indocumentados.

En sí misma, la contratación de Stuckey podría ser simplemente eso: una nueva contratación. Pero se produce cuando OpenAI parece estar virando hacia el mundo de los contratos militares y de defensa.

El momento militar de OpenAI

En enero, OpenAI eliminó silenciosamente el texto de sus políticas de uso que prohibía el uso de sus productos para “militares y bélicos”. Una semana después, se informó que la empresa estaba trabajando en proyectos de software para el Pentágono. Más recientemente, OpenAI se asoció con Carahsoft, un contratista gubernamental que ayuda al gobierno a comprar servicios de empresas privadas rápidamente y con poca carga administrativa, con la esperanza de conseguir trabajo con el Departamento de Defensa, según Forbes.

Mientras tanto, esta semana la fortuna Kali Hays informó esta semana que el Departamento de Defensa tiene 83 contratos activos con varias empresas y entidades para trabajos de IA generativa, y los montos de cada contrato oscilan entre 4 y 60 millones de dólares. OpenAI no fue nombrado específicamente entre los contratistas, pero su trabajo puede quedar oculto a través de asociaciones con otras empresas que figuran como contratistas principales.

El modelo GPT-4 de OpenAI estuvo en el centro de una asociación reciente entre Microsoft, Palantir y varias agencias de inteligencia y defensa de EE. UU. Las entidades se unieron en agosto para poner una variedad de servicios de análisis e inteligencia artificial a disposición de las agencias de inteligencia y defensa de EE. UU. en entornos clasificados.

De todos los debates sobre cómo se debe y no se debe utilizar la IA, el uso con fines bélicos y militares es sin duda el más controvertido. Muchos, como el ex director ejecutivo de Google y figura destacada de la industria de defensa, Eric Schmidt, han comparado la llegada de la IA con la llegada de las armas nucleares. Los grupos de defensa han advertido sobre los riesgos, especialmente considerando los conocidos sesgos en los modelos de IA y sus tendencias a inventar información. Y muchos han reflexionado sobre la moralidad de las armas autónomas, que podrían cobrar vidas sin ninguna intervención o dirección humana.

El panorama general

Este tipo de actividades han demostrado ser un importante punto de inflamación para las empresas de tecnología. En 2018, miles de empleados de Google protestaron por la búsqueda de la compañía de un contrato con el Pentágono conocido como Proyecto Maven, temiendo que la tecnología que crean se usara con fines letales y argumentando que no se inscribieron para trabajar con el ejército.

Si bien OpenAI ha sostenido que seguirá prohibiendo el uso de sus tecnologías para armas, ya hemos visto que es una pendiente resbaladiza. La compañía no sólo permite, sino que también busca usos militares que prohibió por esta época el año pasado. Además, hay muchas formas preocupantes en las que se podrían utilizar los modelos para apoyar directamente operaciones militares mortales que no impliquen que funcionen directamente como armas.

No se sabe si la marcha de salidas de OpenAI este año está directamente relacionada en alguna parte con sus ambiciones militares. Si bien algunos de los que se marcharon expresaron su preocupación por la seguridad, la mayoría sólo ofreció forraje común en torno a la búsqueda de nuevas oportunidades en sus renuncias públicas. Lo que está claro, sin embargo, es que la OpenAI de 2024 y el futuro previsible es una empresa muy diferente a la que se unieron hace años.

Ahora, aquí hay más noticias sobre IA.

Sabio Lázaro
sabio.lazzaro@consultant.fortune.com
sagelazzaro.com

IA EN LAS NOTICIAS

AWS invierte 500 millones de dólares en energía nuclear para impulsar la IA. La unidad de computación en la nube de Amazon está llevando a cabo tres proyectos nucleares en Virginia y el estado de Washington, incluido un acuerdo con Dominion Energy, la empresa de servicios públicos de Virginia, para construir un tipo más pequeño y avanzado de reactor nuclear conocido como SMR. La compañía se une a otros gigantes tecnológicos, incluidos Google y Microsoft, que están invirtiendo en energía nuclear para impulsar sus servicios de inteligencia artificial generativa que consumen mucha energía. Dominion proyecta que la demanda de energía aumentará un 85% durante los próximos 15 años. CNBC informó.

Mistral presenta modelos de IA diseñados para ejecutarse en computadoras portátiles y teléfonos. La nueva familia de dos modelos, llamada Les Ministraux, se puede utilizar para tareas básicas como generar texto o podría vincularse a los modelos más potentes de las startups para ofrecer más casos de uso. en un publicación de blogMistral posiciona los modelos para satisfacer las solicitudes de los clientes de “chatbots sin Internet” e “inferencia local, priorizando la privacidad para aplicaciones críticas”.

El jefe de la Iniciativa de Código Abierto critica la apropiación por parte de Meta del término “código abierto”. Stefano Maffulli, director de Open Source Initiative, una organización que acuñó el término software de código abierto en la década de 1990 y es vista como la protectora del significado y la intención del término, le dijo al Tiempos financieros que Meta estaba confundiendo al público y “contaminando” el concepto de código abierto al etiquetar sus modelos de IA disponibles gratuitamente como “código abierto”. Los términos de licencia de estos modelos restringen algunos casos de uso y Meta no ha sido completamente transparente sobre los métodos de entrenamiento o los conjuntos de datos utilizados para crear su familia de modelos Llama.

FORTUNA EN LA IA

Una startup que quiere ser el eBay para los datos de IA recurre a los veteranos de Google y a un destacado abogado de propiedad intelectual para puestos clave—Por Jeremy Kahn

La ‘madrina de la IA’ quiere que todos tengan un lugar en la transformación tecnológica—Por Jenn Brice

¿Por qué el elfo no? La marca de belleza construyó un modelo de inteligencia artificial para escribir comentarios en las redes sociales—Por Jenn Brice

El jefe de dispositivos de Amazon insinúa futuros productos “increíbles” de Alexa y presenta una serie de nuevos dispositivos Kindle en su debut público —Por Jason Del Rey

CALENDARIO DE IA

22 y 23 de octubre: TedAI, San Francisco

28-30 de octubre: Voz e IA, Arlington, Virginia.

19-22 de noviembre: Microsoft enciende, Chicago

Del 2 al 6 de diciembre: AWS re:Invent, Las Vegas

8-12 de diciembre: Sistemas de procesamiento de información neuronal (Neurips) 2024, Vancouver, Columbia Británica

9 y 10 de diciembre: Fortune Brainstorm AI, San Francisco (registrarse aquí)

OJO A LOS NÚMEROS DE IA

0,75

Esa es la puntuación promedio, en una escala de 0 a 1, otorgada a los modelos de IA desarrollados por Alibaba, Anthropic, OpenAI, Meta y Mistral en una evaluación para probar su cumplimiento con la Ley de IA de la UE, según datos publicados en Reuters. Las pruebas fueron realizadas por la startup suiza LatticeFlow AI y sus socios en dos institutos de investigación. Examinaron los modelos en 12 categorías, como robustez técnica y seguridad. Los funcionarios de la UE apoyan el uso de la herramienta LatticeFlow mientras intentan descubrir cómo monitorear el cumplimiento.

Si bien 0,75 fue la puntuación promedio aproximada en los distintos modelos y categorías, hubo muchas puntuaciones más bajas en categorías específicas. El GPT-3.5 Turbo de OpenAI recibió una puntuación de 0,46 en la evaluación que mide la salida discriminatoria, mientras que el modelo 8x7B Instruct de Mistral recibió 0,38 en las pruebas de seguridad para ataques de inyección rápida. Anthropic recibió la puntuación media general más alta: 0,89.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version