Connect with us

Noticias

Microsoft Copilot vs ChatGPT: Which is Best for You?

Published

on

Microsoft Copilot vs ChatGPT: Which is the better generative AI tool for your team? Since the incredibly successful launch of ChatGPT back in 2022, plenty of new competitors have entered the space. It seems like every major tech vendor is introducing its own generative bot.

From direct ChatGPT competitors like Google’s Gemini, to more specific solutions like Zoom’s AI Companion, there’s something out there for virtually every team. However, ChatGPT, by OpenAI, and Copilot, by Microsoft are still leading the pack for most organizations.

The question is: how are they different? Since Microsoft partnered with OpenAI to develop its Copilot suite, you might think Copilot and ChatGPT are very similar.

However, there are some big differences between them that are well worth considering if you’re looking for the best tool for your team. Here’s everything you need to know.

Microsoft Copilot vs ChatGPT: An Overview

Let’s start with the basics, Microsoft Copilot and ChatGPT are both generative AI tools that use large language models to enhance productivity, efficiency and creativity in various ways. Both are connected to world-leading AI company, OpenAI.

ChatGPT is OpenAI’s proprietary web-based chatbot, which leverages the ever-evolving GPTs (Generative Pre-Trained Transformers) created by the OpenAI team. Microsoft Copilot, on the other hand, is Microsoft’s AI chatbot, designed by Microsoft with support from OpenAI’s technology.

The underlying technology of both solutions is very similar. Both are powered by LLMs and feature natural language processing capabilities. Both applications also rely on prompting, which basically means you need to enter a question into a chat system to “prompt” a response from the bot.

However, Copilot isn’t just ChatGPT with Microsoft’s branding. There are some key differences between the solutions connected to how they work, their use cases, the data they use, and even their security and privacy settings.

Microsoft Copilot vs ChatGPT: What is ChatGPT?

ChatGPT is a web-based generative AI chatbot that leverages large language model technology, machine learning, and natural language processing to generate “natural” or human-like responses to prompts. It was originally launched in November 2022, by OpenAI.

ChatGPT is powered by deep learning techniques (such as transformer neural networks), allowing it to process text and generate responses that seem almost human. The technology is trained on large volumes of text, including books, articles, and web pages.

Over the years, ChatGPT has evolved significantly. The GPT models used within the system have evolved thanks to ongoing research from OpenAI. For instance, recently the company introduced GPT-4o, which introduces multi-modal capabilities and new functionality to tools like ChatGPT.

ChatGPT is also available in various forms, such as:

  • ChatGPT Free: The free version of ChatGPT, primarily intended to support OpenAI’s testing and research processes. This version of ChatGPT has limited access to OpenAI’s latest GPT models and fewer features than the premium alternatives.
  • ChatGPT Plus: The first premium subscription plan introduced by OpenAI. This provides access to more advanced GPT models, like GPT-4 and GPT-4o. It also allows users to access faster response times, and image generation capabilities with DALL-E.
  • ChatGPT Team: Designed to support organizations using generative AI, ChatGPT Team comes with all the features of the Plus plan, as well as unlimited access to advanced GPT models and tools to create your own GPTs. There’s also additional admin console controls for teams, and your user data is excluded from GPT training initiatives by default.
  • ChatGPT Enterprise: The most advanced plan offered by ChatGPT, the Enterprise subscription comes with all the features of the Team plan, plus additional admin controls, domain verification, analytics, and account management support.

ChatGPT vs Microsoft Copilot: What is Microsoft Copilot?

Microsoft Copilot is an AI-powered productivity tool that leverages LLMs and machine learning just like ChatGPT. Just like ChatGPT, Copilot can respond to natural input (prompts) from users with human-like responses.

However, unlike ChatGPT, Copilot is closely intertwined with Microsoft’s existing product suite. It’s baked into tools like Microsoft Edge and Microsoft 365, as well as Microsoft Dynamics, Teams, Purview, Power Platform and more.

Microsoft Copilot also takes advantage of data in the Microsoft Graph, and your existing Microsoft ecosystem, which means it’s more effective at contextualizing and personalizing responses than ChatGPT, in general. Similar to ChatGPT, Microsoft Copilot comes in various different forms, with specific pricing packages for different use cases, such as:

  • Copilot (Free): The free version of Copilot provides access to generative AI capabilities for things like computer management (in Windows), online search (in Edge) and general chatbot conversations on the web.
  • Copilot Pro: Similar to ChatGPT Plus, Copilot Pro is intended for individual users who want to get more out of the generative AI product. For $20 per month, per user, you get access to Copilot in various tools, like Outlook, Word, Excel, PowerPoint, and OneNote.
  • Copilot for Microsoft 365: Like ChatGPT Team, Copilot for Microsoft 365 is intended for individuals and teams working with Microsoft apps. It provides access to Copilot Studio, enterprise-grade security, privacy, and compliance, and more advanced capabilities.

On top of that, there are various versions of Copilot designed for specific Microsoft tools. For instance, there are Copilot solutions for sales and customer service teams built into Microsoft Dynamics, and Copilot security solutions built into Microsoft Purview.

Microsoft Copilot vs ChatGPT: The Core Differences

Although Microsoft Copilot and ChatGPT have a lot of similarities, for instance, they both use prompting, rely on natural language processing, and leverage LLM architecture, there are some key differences between them.

Features and Use Cases

On a broad level, both Microsoft Copilot and ChatGPT have similar features. They can both be used for similar things, like composing emails, content, or code. Both tools are even becoming more multimodal, allowing users to create images with things like DALL-E 3 (which is also available in Microsoft Designer). However, the purpose of these tools is a little different.

ChatGPT Use Cases

The functionality of ChatGPT varies based on your plan. If you’re a free user, you can use the simplest version of the bot to create various kinds of content. Users can compose essays, emails, cover letters, lists, and code.

The multimodal abilities of ChatGPT also allow users to create content based on image inputs, and even design new visual assets. On more advanced versions of ChatGPT, you’ll also have access to extra tools, like the solution previously known as “Code Interpreter”, which supports data analysis.

ChatGPT excels at certain tasks; for instance, it’s great for:

  • Creating conversational agents: With ChatGPT’s APIs, companies can create conversational bots for customer support and sales strategies.
  • Content creation: ChatGPT is fantastic at generating creative content, such as articles, essays, and poetry. It can even translate languages and create content in different formats.
  • Informational queries: ChatGPT (particularly the premium version) can answer a wide range of questions with exceptional accuracy and context.
  • Education: Many educational groups use ChatGPT to convert complex topics into simple guides to help support students and facilitate learning.
  • Writing basic code: ChatGPT is great at helping developers solve coding problems, although its output isn’t always 100% accurate.

Microsoft Copilot Use Cases

Perhaps the biggest benefit of Microsoft Copilot over ChatGPT is that it integrates seamlessly into the Microsoft ecosystem. It’s available in all the tools companies already use each day, such as Word, Outlook, Microsoft Teams, PowerPoint, and more.

Microsoft Copilot can essentially do everything ChatGPT can do, but it draws on data from your existing Microsoft ecosystem, and enhances the features of various Microsoft tools. For instance, Microsoft Copilot can:

  • Draft content: In tools like Microsoft Word, Copilot can create content for you, surface information from the web and more. It can also produce emails in Outlook, design PowerPoint presentations, and create Excel spreadsheets.
  • Enhance meetings: In Microsoft Teams, Copilot can summarize meetings and suggest action items, translate and transcribe conversations in real-time, and draw data from other Microsoft tools to support users during a meeting.
  • Automate repetitive tasks: Microsoft Copilot can automate a range of tasks, from delivering personalized support to users through bots connected to Microsoft Dynamics to monitoring security risks in Purview.
  • Improving productivity: Microsoft Copilot makes it easy to search for data across a broad ecosystem of files and documents. It can summarize email chains, and suggest ways for teams to boost performance. It can even provide advice to staff members on when they should attend an office, and which spaces to book in Microsoft Places.

Model Architecture, Data Training and Tuning

Both Microsoft Copilot and ChatGPT rely on similar technology at their core. Both use GPT (Generative Pre-trained Transformer) architecture, large language model technology, natural language processing, and machine learning capabilities.

However, unlike ChatGPT, Copilot is specifically fine-tuned to support users in different ways across various Microsoft applications and tools. Microsoft Copilot in Microsoft Teams, for instance, features specific capabilities intended to boost meeting performance and collaboration. The Microsoft Security Copilot, on the other hand, is fine-tuned to improve business security and compliance.

The data used by both solutions is a little different, too. Both are trained on a diverse dataset encompassing various content and data from the Internet and other resources. However, each version of Copilot has its own unique data set based on the specific application.

Copilot also relies on data from each user’s Microsoft ecosystem, and the Microsoft Graph. This means it can adapt to your specific enterprise data. Although ChatGPT can be integrated into various platforms, Copilot’s seamless integration into the Microsoft 365 suite means users generally get more context-aware and personalized responses to queries.

Microsoft Copilot vs ChatGPT: Customization

Again, both Microsoft Copilot and ChatGPT are highly versatile. However, ChatGPT’s customization options mostly rely on using APIs to connect ChatGPT to systems for individual use cases. Notably, there are tools companies can use to build and fine-tune unique versions of ChatGPT.

For instance, in 2023, OpenAI announced a no-code ChatGPT builder platform for businesses. Although, developing and using custom versions of ChatGPT generally requires a little more technical knowledge, even with a no-code builder.

Microsoft Copilot, on the other hand, makes it much easier to create customized generative AI tools. Copilot Studio, for instance, gives businesses access to a platform where they can design Copilot solutions connected to various other platforms and data sources.

As mentioned above, it’s also worth noting that Copilot offers a more personalized experience in general due to its ability to draw on the data inside a company’s existing Microsoft applications.

Security, Privacy, and Compliance

All generative AI tools, including ChatGPT and Microsoft Copilot, are vulnerable to data security, privacy issues, and various ethical concerns. Both of these tools can suffer from issues connected to AI bias and may occasionally surface incorrect responses to questions.

In both cases, the “free” versions of Copilot and ChatGPT potentially pose the biggest risks. However, OpenAI trains its LLMs on data from customer conversations with ChatGPT unless you directly opt out of this process or use the Team or Enterprise version of the tool.

Microsoft, on the other hand, says that it doesn’t use customer data to train Copilot tools at all. Prompts, responses, and data accessed through Microsoft Services aren’t used to build on the functionality of Copilot in any tool.

This could mean that, at least for business users, Copilot is a more secure tool, if you’re concerned about your data falling into the wrong hands. Notably, though, it’s worth remembering that both tools give you access to more features for controlling your data and access permissions if you upgrade to certain premium plans. For instance, the Team and Enterprise versions of ChatGPT offer a lot more control over data privacy and security.

Microsoft Copilot vs ChatGPT: The Pricing

Finally, it’s worth noting that the pricing structures for Microsoft Copilot and ChatGPT are different, too. Although both tools have free options, they’re somewhat limited. The premium plans for both solutions are similar in price. For instance, ChatGPT Plus and Copilot Pro cost $20 per month per user.

The Microsoft 365 Copilot subscription and ChatGPT also cost around $30 per user per month. However, Copilot can become more expensive overall because you’ll also need to pay for the Microsoft tools you will use. For instance, if you want to use Copilot for Teams, you’ll need a Microsoft 365 Copilot subscription and a Microsoft 365 plan.

Microsoft Copilot vs ChatGPT: Which is Best?

It’s easy to assume ChatGPT and Microsoft Copilot are two sides of the same coin. Both tools are generative AI applications built with large language models and OpenAI technology. They also offer users an intuitive chat-based interface for easy assistant interactions.

However, ChatGPT is a more generalized tool. It’s an app designed to inspire and support users when creating content, creating customer service apps, or conducting research. You can use ChatGPT to write essays and create compelling job descriptions.

Microsoft Copilot has a slightly narrower focus. It’s primarily intended to support users in the Microsoft ecosystem when they use solutions like Microsoft Teams and Copilot. Copilot focuses on improving productivity, efficiency, and overall workplace performance.

If you’re looking to upgrade your Microsoft ecosystem with AI, Copilot is the tool you need. If you just want to experiment with the latest innovations in generative AI, pick ChatGPT.

 

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte

Published

on

Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.

La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).

Continue Reading

Noticias

¿Hemos perdido el control de la IA? El estudio que sacudió a los investigadores de Openai

Published

on

Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.

Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.

3 Ver galería

Chatgpt

Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.

La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.

Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.

De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.

Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.

3 Ver galería

Γ cam.Γ cam.

(Foto: Generado por chatgpt)

Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.

Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.

Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.

Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.

Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.

“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.

En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.

3 Ver galería

אירוע eriorאירוע erior

Evento de anuncio GPT-4O de Openai

(Foto: Captura de pantalla)

Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.

Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.

Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.

Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.

El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?

Continue Reading

Noticias

Google, OpenAI Target State Leyes en el Plan de Acción de AI

Published

on

Mientras que la administración del presidente Donald Trump se ha centrado en alejarse de la regulación, liderando a los proveedores de IA como Google y OpenAI quieren que el plan de acción de IA pendiente del gobierno incluya una política federal que se adelantan a los crecientes mosaicos de leyes estatales de IA en los Estados Unidos.

La Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP) solicitó los aportes de las partes interesadas sobre el desarrollo de un plan de acción de IA. Recientemente cerró el período de comentarios públicos, recibiendo más de 8,700 presentaciones. OSTP solicitó a las partes interesadas que describieran las acciones prioritarias para apoyar el dominio de los Estados Unidos de la tecnología de IA sin una regulación excesiva que obstaculice la innovación del sector privado en la IA. Para algunas grandes empresas tecnológicas, abordar las leyes estatales de IA debería ser una de las principales prioridades del gobierno de los Estados Unidos.

Estados Unidos debe adoptar marcos de políticas que “se adelanten a un mosaico caótico de reglas a nivel estatal sobre el desarrollo de la IA fronteriza”, según la presentación de Google.

Mientras tanto, Openai pidió libertad para innovar en el interés nacional de los Estados Unidos y neutralizar a los competidores como China que se benefician de “las compañías estadounidenses de IA que tienen que cumplir con las leyes estatales demasiado onerosas”. Un puñado de estados de EE. UU. Han aprobado una regulación integral de IA, incluidas Colorado, California y Utah.

Sin una ley federal de IA, los estados implementan requisitos de IA individuales que crean desafíos de cumplimiento para las empresas, dijo la analista de Forrester Alla Valente si Estados Unidos adopta una política federal de IA general, podría eliminar esa carga, dijo.

“Al dejar esto a los Estados Unidos, puede tener 50 conjuntos de regulaciones de IA que se ven muy diferentes”, dijo.

Sin embargo, una orden ejecutiva no puede evitar las regulaciones estatales de IA. Depende del Congreso aprobar una ley federal de IA, algo que tiene problemas para hacer.

Las presentaciones del Plan de Acción de AI incluyen Estado, Global Focus

La falta de un enfoque de gobernanza de AI unificado en los Estados Unidos es “ineficaz y duplicativo”, dijo Hodan Omaar, un gerente de políticas senior en el Centro de Tank Tank Tank para innovación de datos.

“Crea inconsistencias e incoherencia en un enfoque estadounidense”, dijo.

Más allá de centrarse en las leyes estatales, Valente dijo que la postura de Google indica que la compañía quiere que Estados Unidos considere el desarrollo global de las leyes de IA también, como la Ley de IA de la Unión Europea.

Cualquier estándar, política o marco que crea los EE. UU. Debe reflejar los intereses estadounidenses, pero no puede ignorar las políticas de IA de diferentes países, dijo Valente. Google dijo que, cuando se trabaja con países alineados, Estados Unidos debería “desarrollar protocolos y puntos de referencia en torno a los riesgos potenciales de los sistemas de IA fronterizos”.

“Ignorar lo que el resto del mundo está haciendo en torno a los marcos de IA, la gobernanza de IA, el riesgo de IA, crea una brecha aún mayor entre la innovación de los Estados Unidos y el resto del mundo hasta el punto de que entonces sigue siendo competitivo si otros países tienen requisitos que no pueden ser satisfechos con la innovación de la IA de EE. UU.”, Dijo Valente.

Operai también abordó los controles de exportación en sus comentarios, solicitando un cambio de estrategia centrado en promover la adopción global de los sistemas de IA de EE. UU. Al tiempo que utiliza más estratégicamente los controles de exportación para mantener el liderazgo de IA de EE. UU. La Compañía pidió actualizar la regla de difusión de IA que avanzó los controles de exportación de EE. UU., Una regla propuesta por la administración del ex presidente Joe Biden que se encontró con una reacción violenta de la industria.

Mientras tanto, en los comentarios del Centro para la Innovación de Data, el grupo de expertos pidió que el Plan de Acción de AI de EE. UU. Reorientara su estrategia de control de exportación. Si bien los controles de exportación están destinados a debilitar a los competidores, en particular el sector de inteligencia artificial de China, están “cada vez más en desventajas de las empresas estadounidenses”. El surgimiento de Deepseek apunta a la capacidad de China para innovar a pesar de los controles de exportación de los Estados Unidos en chips de IA avanzados.

Omaar describió en la presentación del grupo de expertos de que Estados Unidos debería establecer una Fundación Nacional de Datos (NDF) dedicada a la financiación y facilitar compartir conjuntos de datos de alta calidad para el desarrollo del modelo de IA. Ella dijo que Estados Unidos también debería preservar, pero Reengus, el Instituto de Seguridad AI del Instituto Nacional de Normas y Tecnología (NIST) para proporcionar estándares fundamentales para la gobernanza de la IA.

“El gobierno federal tiene un papel importante que desempeñar para garantizar que haya estándares”, dijo Omaar. “Asegurarse de que NIST pueda hacer el importante trabajo de IA que estaban haciendo es importante para garantizar una adopción de IA sin problemas”.

Cómo podría ser el plan de acción de AI final

La solicitud de información de la Oficina de Ciencia y Tecnología de la Casa Blanca sobre un plan de acción de IA pidió a las partes interesadas sus pensamientos sobre las acciones de política de IA. Sin proporcionar recomendaciones o cualquier marco potencial para que las partes interesadas comenten, Valente dijo que no está claro qué incluirá el plan de acción de IA.

“Cómo termina este plan, uno solo puede imaginar”, dijo.

Darrell West, miembro senior de la Institución Brookings, dijo que la solicitud de información de la Casa Blanca indica que la administración Trump se centrará en abandonar los requisitos onerosos y confiar en las empresas privadas para innovar con menos supervisión federal.

“Habrá menos limitaciones en las compañías tecnológicas”, dijo. “Serán libres de innovar en cualquier dirección que deseen”.

El gobierno federal puede equilibrar la seguridad y la innovación de la IA, que con suerte se reflejará en el Plan de Acción de AI, dijo Jason Corso, cofundador de AI Startup Voxel51 y profesor de informática en la Universidad de Michigan.

La población general ya es escéptica de la IA, y si ocurren desafíos generales de crecimiento del desarrollo, corre el riesgo de socavar aún más la confianza en la tecnología, dijo. Es por eso que los marcos de políticas deben crearse con la seguridad de IA en mente, agregó Corso.

Un marco federal que carece de consideraciones de seguridad de IA significa la responsabilidad de las decisiones de seguridad de IA cae a los CIO de la Compañía o los oficiales de IA en los principales, lo que Corso dijo que presenta un “gran riesgo”. El efecto podría ser menos adopción o ROI más lento, dijo.

“Esta IA contemporánea es tan incipiente que a pesar de los rápidos avances que estamos viendo, en realidad se entiende bastante sobre su previsibilidad, repetibilidad o incluso su robustez con ciertos tipos de preguntas o escenarios de razonamiento”, dijo. “Ciertamente necesitamos innovación, pero también necesitamos seguridad”.

Makenzie Holland es un escritor de noticias senior que cubre la gran regulación federal y de la gran tecnología. Antes de unirse a Informa TechTarget, ella era una reportera de asignación general para el Wilmington Starnews y un reportero de crimen y educación en el Wabash Plain Dealer.

Continue Reading

Trending