SAN FRANCISCO, CALIFORNIA – 6 DE NOVIEMBRE: Sam Altman, director ejecutivo de OpenAI, sonríe durante el evento OpenAI DevDay … [+] el 6 de noviembre de 2023 en San Francisco, California. Altman pronunció el discurso de apertura en la primera conferencia Open AI DevDay (Foto de Justin Sullivan/Getty Images).
Imágenes falsas
OpenAI siempre ha sido excelente para captar la atención en las noticias. Sus anuncios a menudo vienen acompañados de afirmaciones grandes y audaces. Por ejemplo, anunciaron GPT-2 pero dijeron que era demasiado peligroso lanzarlo. O su campaña “12 días de Navidad”, donde mostraron un producto nuevo todos los días durante 12 días.
Ahora, Sam Altman ha compartido sus pensamientos sobre el año pasado, centrándose en la dramática telenovela de la sala de juntas en torno a su despido y regreso. También hizo una predicción audaz:
“Ahora sabemos cómo construir AGI como se entiende habitualmente. En 2025, creemos que los agentes de IA se unirán a la fuerza laboral y cambiarán la forma en que trabajan las empresas”.
AGI (Inteligencia General Artificial) significa crear una IA que sea tan inteligente y general como un humano. A diferencia de la IA estrecha, que está diseñada para tareas específicas como traducir idiomas, jugar al ajedrez o reconocer rostros, AGI puede manejar cualquier tarea intelectual y adaptarse en diferentes áreas. mientras no creo “AGI está cerca” Creo que la IA se unirá a la fuerza laboral, pero tal vez no de la manera que Altman imagina.
¿Está AGI cerca? No, al menos no el AGI que nosotros (o Sam) imaginamos
La llegada de AGI en 2025 parece muy improbable. La IA actual, como ChatGPT, funciona reconociendo patrones y haciendo predicciones, no comprendiendo realmente. Por ejemplo, completar la frase “La vida es como una caja de…” con “chocolates” se basa en probabilidades, no en razonamiento.
No creo que la AGI se produzca en 2025, y muchos expertos están de acuerdo. Demis Hassabis, con quien trabajé en Google, predice que AGI podría llegar alrededor de 2035. Ray Kurzweil estima que 2032, y Jürgen Schmidhuber, director de IDSIA, sugiere más cerca de 2050. Los escépticos son muchos y el cronograma sigue siendo incierto.
¿Importa cuándo? La IA ya es poderosa.
Quizás no importe exactamente cuándo llegará AGI. Incluso Sam Altman recientemente restó importancia a la “G” en AGI, diciendo:
“Creo que alcanzaremos el AGI antes de lo que la mayoría de la gente piensa y importará mucho menos”.
Estoy de acuerdo con esto hasta cierto punto. La IA ya tiene capacidades impresionantes. Por ejemplo, la IA de Netflix conoce tus preferencias cinematográficas mejor que tu pareja. Incluso se ha bromeado sobre los algoritmos de TikTok por reconocer la orientación sexual de alguien antes que ellos. La IA sobresale en el reconocimiento de patrones y, en muchos casos, es mejor que los humanos.
Sam Altman ve que la IA “se une a la fuerza laboral”
El punto más importante del memorando de Sam es su creencia de que la IA “se unirá a la fuerza laboral”. Estoy completamente de acuerdo en que esto va a suceder. Como escribí en mi actualización del agente de IA, para que la IA tenga éxito en el lugar de trabajo, necesita dos cosas clave: (1) acceso a herramientas y (2) acceso a datos. Estos son los pilares para que la IA sea realmente eficaz en entornos empresariales. Sin embargo, aunque Sam a menudo vincula esta idea con AGI, es posible que OpenAI no lidere la tarea de proporcionar estas soluciones de fuerza laboral de IA.
La primera posición de Microsoft: acceso a los usuarios
¿Quién tiene las herramientas laborales? Microsoft. Microsoft. Microsoft. Están en la pole position. La mayoría de la gente ya utiliza productos de Microsoft, les guste o no, y la IA se está integrando profundamente en estas herramientas, con copilotos apareciendo por todas partes.
En 2023 y 2024, muchas nuevas empresas lanzaron impresionantes servicios de inteligencia artificial para trabajos de oficina, solo para ser rápidamente eclipsadas por gigantes como Microsoft y Google, que tienen acceso directo a los clientes. Tomemos como ejemplo a Jasper.ai, una herramienta de inteligencia artificial para redactar textos que alguna vez fue famosa. Como señalé en esta publicación de LinkedIn, características similares ahora están integradas directamente en los productos de Google y Microsoft, lo que hace cada vez más difícil competir para los jugadores más pequeños.
El poder del acceso a los datos
La IA necesita datos para ser verdaderamente eficaz. Si está buscando respuestas sobre los procesos internos de una empresa o información valiosa a partir de documentos, herramientas generales como ChatGPT no serán suficientes. Lo que necesitamos son herramientas que puedan leer y resumir documentos de la empresa, diseñadas específicamente para uso empresarial. Como dije antes, 2025 será el año de la BÚSQUEDA, especialmente la búsqueda empresarial. Las herramientas que pueden responder preguntas, resumir contenido y ayudar a los usuarios a navegar por información compleja cambiarán las reglas del juego.
¿Quién tiene acceso a este tipo de datos? Microsoft es un gran actor, pero no está solo. Salesforce, por ejemplo, posee una enorme cantidad de datos valiosos: interacciones con los clientes, debates, documentos de procesos, estrategias de marketing y más. ¿Salesforce quiere que los agentes de IA ayuden a desbloquear este potencial? Absolutamente.
No sorprende que el director ejecutivo de Salesforce, Marc Benioff, haya criticado recientemente a Microsoft. Llamó a su asistente de IA, Copilot, “decepcionante” y dijo: “Simplemente no funciona y no ofrece ningún nivel de precisión”. Incluso lo llamó “Clippy 2.0”, el insulto más divertido que he escuchado en mucho tiempo, antes de lanzar la propia solución de inteligencia artificial de Salesforce, Agent Forces.
¿OpenAI es “simplemente” la herramienta más inteligente?
OpenAI no tiene el mismo nivel de acceso a datos o alcance al consumidor que Microsoft, ni tiene el tesoro de datos comerciales de Salesforce. Entonces, ¿cuál es su ángulo? Afirman ser la herramienta más inteligente del mercado, y probablemente lo sean, aunque personalmente considero que Claude 3.5 de Anthropic es actualmente mejor que GPT-4 de OpenAI.
OpenAI apuesta por su capacidad para superar a todos los demás con tecnología superior. Es por eso que Sam Altman afirma con seguridad que veremos AGI. ¿Qué hay detrás de esa audaz afirmación? Razonamiento o, como lo llama OpenAI, Razonamiento.
OpenAI y razonamiento
OpenAI lanzó recientemente o1, un modelo diseñado para mostrar capacidades de razonamiento avanzadas a través de un proceso iterativo de autollamada:
Iteración y reflexión: el modelo genera un resultado, lo evalúa o critica y lo refina en una nueva ronda de razonamiento.
Bucle de retroalimentación: esto crea un circuito de retroalimentación donde el modelo revisa sus resultados, los critica y los mejora aún más.
En esencia, GPT con o1 no sólo proporciona respuestas: planifica, critica el plan y lo mejora continuamente.
Lo que es especialmente digno de mención es el cambio de paradigma que esto representa. En lugar de simplemente lanzar un modelo más grande como GPT-5, la próxima generación de modelos de IA se centra en “pensar más” durante la inferencia. Esta capacidad de procesar de forma iterativa puede ser a lo que se refiere Sam Altman cuando dice: “Ahora sabemos cómo construir AGI”.
¿El razonamiento es razón suficiente?
Pero, ¿el “razonamiento” por sí solo hace que OpenAI entre en juego? OpenAI todavía necesita acceso a los datos y una fuerte presencia de usuarios, similar a Salesforce o Microsoft. Para solucionar este problema, OpenAI lanzó la aplicación de escritorio ChatGPT para macOS. Esta aplicación ahora puede leer código directamente desde herramientas centradas en desarrolladores como VS Code, Xcode, TextEdit, Terminal e iTerm2. Esto significa que los desarrolladores ya no necesitan copiar y pegar su código en ChatGPT, una solución común hasta ahora. Es una herramienta realmente útil y una medida inteligente para integrarse más profundamente en el flujo de trabajo del desarrollador.
Chatear con modelos de lenguaje grandes cuesta dinero
Cada llamada a un modelo de lenguaje grande (LLM) cuesta dinero. Para los grandes usuarios de ChatGPT, es posible que la suscripción de $ 20 ni siquiera cubra el costo de su uso. OpenAI recaudó recientemente 6.600 millones de dólares en una ronda de financiación Serie E, un impulso muy necesario para sostener sus operaciones. Si bien Agentforce genera ingresos sólidos de sus clientes y Microsoft disfruta de un enorme fondo de guerra financiera, OpenAI aún se encuentra en las primeras etapas para lograr que las empresas y los usuarios paguen lo suficiente para compensar los elevados costos del desarrollo de IA de vanguardia.
Su nivel premium de $200 por mes, que incluye la versión ampliada de O1, es un paso en esta dirección. ¿Pero vale la pena el precio? Quizás es por eso que AGI sigue siendo parte de la conversación: ayuda a justificar el posicionamiento premium. Sin embargo, la carrera por crear modelos superiores está lejos de terminar. Incluso O1 pronto podría ser superado por alternativas de código abierto, como hemos visto antes con Meta’s Llama.
Hablando de Meta, estoy seguro de que veremos sus intentos de monetizar los modelos de IA en 2025. En última instancia, el mayor desafío para estos actores sigue siendo claro: justificar enormes costos sin asegurar un flujo de ingresos constante y confiable.
Sam tiene razón: los agentes de IA estarán en la fuerza laboral
En 2025, veremos más agentes de IA ingresar a la fuerza laboral, transformando los flujos de trabajo al simplificar, mejorar y automatizar tareas en todas las industrias. Estos no serán modelos AGI que lo abarquen todo, sino modelos más pequeños y especializados diseñados para flujos de trabajo dedicados. La IA ampliará y mejorará los procesos paso a paso, combinando la IA tradicional, la recuperación de contexto y un diseño de usuario sólido para abordar desafíos como la seguridad, las alucinaciones y el control del usuario.
El éxito dependerá de la entrega de valor a través de soluciones bien integradas, fáciles de usar y diseñadas éticamente, como se describe en mi marco para crear herramientas de IA listas para la empresa. Para Sam Altman, la pregunta estratégica clave no será lograr AGI sino cómo fijar el precio de los modelos base de OpenAI para clientes empresariales como Microsoft o Salesforce, especialmente si OpenAI termina compitiendo directamente con ellos.
Pero, ¿cómo trabajaremos con esos nuevos colegas de IA?
Las empresas emergerán como ganadoras en la carrera por mejores modelos, mejores datos y mejores integraciones. Su principal objetivo debería ser formar a los empleados y clientes para que trabajen de forma eficaz con sus nuevos colegas de IA. En mi curso certificado de eCornell sobre soluciones de IA, vi de primera mano cómo la productividad se disparó una vez que los estudiantes aprendieron a comunicarse con un copiloto de IA. Inicialmente, muchos lucharon por lograr resultados, pero una guía paso a paso sobre cómo interactuar con la IA marcó una diferencia significativa.
¿Por qué? Porque incluso con capacidades de razonamiento y planificación, la IA aún no es verdaderamente “general”, por mucho revuelo que genere Sam Altman. Los estudiantes tuvieron que aprender cuándo confiar en la IA y cuándo aplicar el juicio humano. Creo que 2025 será el año en que las empresas se den cuenta de esta necesidad e inviertan mucho en educación sobre IA.
El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte
Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.
La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).
Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.
Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.
3 Ver galería
Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.
La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.
Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.
De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.
Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.
3 Ver galería
(Foto: Generado por chatgpt)
Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.
Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.
Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.
Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.
Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.
“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.
En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.
3 Ver galería
Evento de anuncio GPT-4O de Openai
(Foto: Captura de pantalla)
Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.
Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.
Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.
Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.
El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?
Mientras que la administración del presidente Donald Trump se ha centrado en alejarse de la regulación, liderando a los proveedores de IA como Google y OpenAI quieren que el plan de acción de IA pendiente del gobierno incluya una política federal que se adelantan a los crecientes mosaicos de leyes estatales de IA en los Estados Unidos.
La Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP) solicitó los aportes de las partes interesadas sobre el desarrollo de un plan de acción de IA. Recientemente cerró el período de comentarios públicos, recibiendo más de 8,700 presentaciones. OSTP solicitó a las partes interesadas que describieran las acciones prioritarias para apoyar el dominio de los Estados Unidos de la tecnología de IA sin una regulación excesiva que obstaculice la innovación del sector privado en la IA. Para algunas grandes empresas tecnológicas, abordar las leyes estatales de IA debería ser una de las principales prioridades del gobierno de los Estados Unidos.
Estados Unidos debe adoptar marcos de políticas que “se adelanten a un mosaico caótico de reglas a nivel estatal sobre el desarrollo de la IA fronteriza”, según la presentación de Google.
Mientras tanto, Openai pidió libertad para innovar en el interés nacional de los Estados Unidos y neutralizar a los competidores como China que se benefician de “las compañías estadounidenses de IA que tienen que cumplir con las leyes estatales demasiado onerosas”. Un puñado de estados de EE. UU. Han aprobado una regulación integral de IA, incluidas Colorado, California y Utah.
Sin una ley federal de IA, los estados implementan requisitos de IA individuales que crean desafíos de cumplimiento para las empresas, dijo la analista de Forrester Alla Valente si Estados Unidos adopta una política federal de IA general, podría eliminar esa carga, dijo.
“Al dejar esto a los Estados Unidos, puede tener 50 conjuntos de regulaciones de IA que se ven muy diferentes”, dijo.
Sin embargo, una orden ejecutiva no puede evitar las regulaciones estatales de IA. Depende del Congreso aprobar una ley federal de IA, algo que tiene problemas para hacer.
Las presentaciones del Plan de Acción de AI incluyen Estado, Global Focus
La falta de un enfoque de gobernanza de AI unificado en los Estados Unidos es “ineficaz y duplicativo”, dijo Hodan Omaar, un gerente de políticas senior en el Centro de Tank Tank Tank para innovación de datos.
“Crea inconsistencias e incoherencia en un enfoque estadounidense”, dijo.
Más allá de centrarse en las leyes estatales, Valente dijo que la postura de Google indica que la compañía quiere que Estados Unidos considere el desarrollo global de las leyes de IA también, como la Ley de IA de la Unión Europea.
Cualquier estándar, política o marco que crea los EE. UU. Debe reflejar los intereses estadounidenses, pero no puede ignorar las políticas de IA de diferentes países, dijo Valente. Google dijo que, cuando se trabaja con países alineados, Estados Unidos debería “desarrollar protocolos y puntos de referencia en torno a los riesgos potenciales de los sistemas de IA fronterizos”.
“Ignorar lo que el resto del mundo está haciendo en torno a los marcos de IA, la gobernanza de IA, el riesgo de IA, crea una brecha aún mayor entre la innovación de los Estados Unidos y el resto del mundo hasta el punto de que entonces sigue siendo competitivo si otros países tienen requisitos que no pueden ser satisfechos con la innovación de la IA de EE. UU.”, Dijo Valente.
Operai también abordó los controles de exportación en sus comentarios, solicitando un cambio de estrategia centrado en promover la adopción global de los sistemas de IA de EE. UU. Al tiempo que utiliza más estratégicamente los controles de exportación para mantener el liderazgo de IA de EE. UU. La Compañía pidió actualizar la regla de difusión de IA que avanzó los controles de exportación de EE. UU., Una regla propuesta por la administración del ex presidente Joe Biden que se encontró con una reacción violenta de la industria.
Mientras tanto, en los comentarios del Centro para la Innovación de Data, el grupo de expertos pidió que el Plan de Acción de AI de EE. UU. Reorientara su estrategia de control de exportación. Si bien los controles de exportación están destinados a debilitar a los competidores, en particular el sector de inteligencia artificial de China, están “cada vez más en desventajas de las empresas estadounidenses”. El surgimiento de Deepseek apunta a la capacidad de China para innovar a pesar de los controles de exportación de los Estados Unidos en chips de IA avanzados.
Omaar describió en la presentación del grupo de expertos de que Estados Unidos debería establecer una Fundación Nacional de Datos (NDF) dedicada a la financiación y facilitar compartir conjuntos de datos de alta calidad para el desarrollo del modelo de IA. Ella dijo que Estados Unidos también debería preservar, pero Reengus, el Instituto de Seguridad AI del Instituto Nacional de Normas y Tecnología (NIST) para proporcionar estándares fundamentales para la gobernanza de la IA.
“El gobierno federal tiene un papel importante que desempeñar para garantizar que haya estándares”, dijo Omaar. “Asegurarse de que NIST pueda hacer el importante trabajo de IA que estaban haciendo es importante para garantizar una adopción de IA sin problemas”.
Cómo podría ser el plan de acción de AI final
La solicitud de información de la Oficina de Ciencia y Tecnología de la Casa Blanca sobre un plan de acción de IA pidió a las partes interesadas sus pensamientos sobre las acciones de política de IA. Sin proporcionar recomendaciones o cualquier marco potencial para que las partes interesadas comenten, Valente dijo que no está claro qué incluirá el plan de acción de IA.
“Cómo termina este plan, uno solo puede imaginar”, dijo.
Darrell West, miembro senior de la Institución Brookings, dijo que la solicitud de información de la Casa Blanca indica que la administración Trump se centrará en abandonar los requisitos onerosos y confiar en las empresas privadas para innovar con menos supervisión federal.
“Habrá menos limitaciones en las compañías tecnológicas”, dijo. “Serán libres de innovar en cualquier dirección que deseen”.
El gobierno federal puede equilibrar la seguridad y la innovación de la IA, que con suerte se reflejará en el Plan de Acción de AI, dijo Jason Corso, cofundador de AI Startup Voxel51 y profesor de informática en la Universidad de Michigan.
La población general ya es escéptica de la IA, y si ocurren desafíos generales de crecimiento del desarrollo, corre el riesgo de socavar aún más la confianza en la tecnología, dijo. Es por eso que los marcos de políticas deben crearse con la seguridad de IA en mente, agregó Corso.
Un marco federal que carece de consideraciones de seguridad de IA significa la responsabilidad de las decisiones de seguridad de IA cae a los CIO de la Compañía o los oficiales de IA en los principales, lo que Corso dijo que presenta un “gran riesgo”. El efecto podría ser menos adopción o ROI más lento, dijo.
“Esta IA contemporánea es tan incipiente que a pesar de los rápidos avances que estamos viendo, en realidad se entiende bastante sobre su previsibilidad, repetibilidad o incluso su robustez con ciertos tipos de preguntas o escenarios de razonamiento”, dijo. “Ciertamente necesitamos innovación, pero también necesitamos seguridad”.
Makenzie Holland es un escritor de noticias senior que cubre la gran regulación federal y de la gran tecnología. Antes de unirse a Informa TechTarget, ella era una reportera de asignación general para el Wilmington Starnews y un reportero de crimen y educación en el Wabash Plain Dealer.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.