Connect with us

Noticias

Gemini vs ChatGPT: Battle of the Gen AI Chatbots

Published

on

Gemini vs ChatGPT – which generative AI chatbot should you use to answer questions, create content, design code, and more? Ultimately, there’s no easy answer. Comparing Gen AI bots isn’t easy, particularly as leading vendors frequently update their models.

For instance, in December 2024, Google announced the release of Gemini 2.0—the most capable model it’s created so far (although companies always seem to say that). Similarly, ChatGPT introduced the world to a new set of advanced reasoning models (the o1 models), available within ChatGPT, specially designed for “deep thinking” tasks.

We can spend all day discussing how each company’s different models work. But for this particular comparison, we’re going to focus on the central “chatbot” experience offered by Google (Gemini) and OpenAI (ChatGPT).

Let’s dive in.

Gemini vs ChatGPT: A Quick Overview

When generative AI started heating up, comparing different models was much easier. Everyone was rushing to get a “bot” out there that was good enough to compete with ChatGPT, but most struggled to keep up. For instance, Google’s previous model, Bard, outperformed an earlier version of ChatGPT in a few key enterprise-focused areas, but ChatGPT was more user-friendly.

Now, the gap between Gemini and ChatGPT is closing. Google has constantly upgraded its Gemini family (as evidenced by the release of Gemini 2.0). It’s also been tackling various issues that made Gemini less appealing in the past (like the high number of hallucinations it had).

On the other hand, OpenAI has been introducing more functionality to ChatGPT too. The free plan has been significantly upgraded in recent years. Plus, we have more features for enterprise users too – with the introduction of the o1 models, and the ChatGPT Team and Enterprise plans.

Here’s a quick side-by-side look at both options.

ChatGPT Gemini
Creator: OpenAI Google
Models: GPT-4o mini (available for free), GPT 4o, GPT-4, GPT o1, GPT o1 Mini, and GPT o1 Pro Gemini 1.5 Flash, Gemini 1.5 Pro, and Gemini 2.0 Flash
Context Windows: 128k tokens 2 million tokens +
Languages: Over 50 Over 40
Platforms Web, mobile, and desktop Web, mobile, and within Google apps
Pricing: Free plan with paid plans starting at $20 per month Free plan, with paid plans starting at $20 per month
Integrations Add-ons and plugins Google apps
Developer access Yes Yes

Gemini vs ChatGPT: The Core Similarities

Before we look at how Google Gemini and ChatGPT stack up for specific business use cases, let’s look at the similarities the two solutions have.

  • Multimodal capabilities: Both Gemini and ChatGPT are powered by multimodal AI models. They can process text, images, and audio. However, Gemini has “image output” as an option on the free plan, while you need a paid plan for this with ChatGPT.
  • Web access: Both apps can search the web for real-time data to inform responses. However, Google Gemini is powered by Google Search, while ChatGPT uses Bing.
  • Data management: With each chatbot, users can turn memories on or off, delete conversations, and have “temporary” chats. However, ChatGPT does allow you to archive conversations, whereas Gemini doesn’t.
  • Device support: Both ChatGPT and Gemini are available on mobile and web apps. Notably, though, ChatGPT does offer a desktop app, too.
  • Sharing: Gemini and ChatGPT both allow users to share their conversations with others. However, you can’t share conversations through ChatGPT that include images.
  • Data analysis: Each model can analyze data and provide insights, summaries, and feedback about it. They can also turn your data into various visualizations and graphs.
  • Free plans: Both companies offer a free version of their generative AI chat tool with certain limitations. In our opinion, the free plan for ChatGPT is more generous (more on that later).

The Models Powering the Bots

One other thing both Gemini and ChatGPT have in common is they’re both powered by multimodal AI models. ChatGPT is currently using two families of models: The GPT-4o collection, and the newer o1 family of reasoning models. Google Gemini is powered by the “Gemini” models, such as Gemini Flash 1.5, Gemini 1.5 Pro, and now Gemini 2.0 Flash (in testing).

Each model collection has its own distinct strengths and weaknesses. ChatGPT, for instance, has a much smaller “context window” (128k tokens) than Gemini (over 2 million). This means it can recall information for longer. However, OpenAI’s o1 model excels at logical thinking, thanks to chain-of-thought reasoning that allows it to analyze complex problems.

Gemini 2.0 is better at offering companies and developers the tools they need to create “autonomous agents”, although you can create custom bots with ChatGPT. Both tools also support both text and image generation. However, ChatGPT uses DALL-E 3 (a slightly more mature model), while Google relies on Imagen 3 – it’s new text-to-image generator.

Both apps also have a memory bank, although these banks work a little differently. ChatGPT has its memory turned on by default for paid users, and collects information about you to tailor responses. With Gemini, you “add memories” to your settings manually.

Let’s dive a little deeper into the differences between the bots.

Gemini vs ChatGPT: Integration Options

Part of what makes Gemini so appealing for enterprise users, is that it’s already deeply integrated into the Google ecosystem. Aside from having access to Gemini via the chatbot app and Google Search, you can also access Gemini in Google Workspace and other apps.

Plus, you can ask Gemini to draw information from your Google data. For instance, you can ask it to pull details from Gmail message, share access to a link in Google Drive, and so on. You can even export Gemini responses to Gmail and Google Docs.

ChatGPT can integrated with Google Drive to read your content there, but you’ll need to connect your Google account and tell it exactly what to read. While ChatGPT has limited “integration” options, it does offer access to an API, and a range of plugins, to customize your experiences.

You can also link ChatGPT to Zapier to align it with the other apps you’re using. Plus, you can build your own custom-made chatbots designed to do certain things.

That takes us to our next comparison point.

Custom Chatbot / Agent Creation

In the past, Google fell behind ChatGPT in terms of “chatbot creation” options. OpenAI allows Plus, Enterprise, and Pro users to create custom chatbots in minutes. There are no limits to how many GPTs you can build, and all you need to do is tell the builder (in English) what you want to create.

These custom GPTs can generate images with DALL-E 3, run code, and browse the web. You can also customize them with knowledge files. For custom GPTs, Google previously only offered “Gemini Gems”, to Advanced, Business, and Enterprise users. The solution is similar to the OpenAI GPT builder, and allows you to create bots with natural language. However, you can’t use Gems to generate AI images.

What gives Google a slight edge over OpenAI now, is that it’s giving companies more ways to create autonomous agents. While OpenAI is experimenting with agentic AI, Google is actively giving developers access to a range of tools for building autonomous agents within Vertex AI.

Users can now experiment with Gemini 2.0 Flash (Experimental) to create agents capable of completing various tasks in sequence. These agents can understand multimodal inputs, and generate content in different formats too. Google has already introduced some of the potential of autonomous AI within its platform with Project Mariner (you can learn more about that here).

Responses to Queries: Accuracy and Hallucinations

Accuracy is a major comparison point for any business investing in generative AI. Both Google Gemini and ChatGPT have their pros and cons, and both seem to struggle with hallucinations. Notably, Google has taken steps to reduce hallucinations lately, but its responses aren’t always entirely accurate. Gemini 2.0 Flash, for instance, earned a score of 83.6% in factual grounding tests.

One thing that makes Gemini a little problematic, is that it doesn’t always include citations in its answers – so you can’t always find the original source where it extracted its data from. ChatGPT can produce citations, however it’s worth noting that they don’t always lead to an actual data source.

ChatGPT definitely sounds like it knows what it’s talking about more than Gemini. It delivers more “confident” responses to questions, and can explain concepts in depth pretty easily. The o1 models also outperform Gemini in terms of reasoning and logical understanding.

As an example, the o1 model answered 83% of the questions in an International Mathematics Olympiad test correctly. Google hasn’t exposed its bots to the exact same tests. However, the Gemini 2.0 Flash model did earn a 62.1% score on the GPQA diamond reasoning test. That’s not exceptional – but it is better than what the previous models accomplished.

Content Generation Performance

If you’re planning on using generative AI for content creation, Gemini and ChatGPT both have strengths and weaknesses again. When I asked both Gemini and ChatGPT to write a poem about a bird in a cage, I liked the tone of Gemini’s answer slightly more, but ChatGPT created a much longer poem, with more detail and unique elements.

Gemini’s response seemed to be a little basic – but that could be because I was using the free version of both apps, and Gemini’s free plan doesn’t give you access to the most advanced models. On the plus side, Gemini does outperform ChatGPT in terms of image generation – to a degree.

Although DALL-E 3 is excellent at creating high-quality images, you can’t create visuals on the free plan – while you can with Gemini.

Notably, the images you can create on the paid versions of ChatGPT are a lot better if you’re looking for artistic, imaginative output. Gemini seems to excel at hyper-realistic images, and does a lot better at generating text in visuals without errors.

Gemini vs ChatGPT: Coding Proficiency

Since I’m not a coder myself, I have a hard time comparing bots based on their programming abilities. Based on what I’ve found through research though, ChatGPT is very good at producing code. The GPT 4o model is fantastic for producing code snippets and debugging issues quickly. The o1 models are even more effective for advanced coding challenges.

According to OpenAI, the o1 (full) model reached the 89th percentile in Codeforces contests, and excels at dealing with difficult languages and debugging problems. Again, Google hasn’t exposed Gemini to the exact same coding tests, so it’s hard to get a full comparison.

In the Natural2Code tests, Gemini 1.5 Pro got a score of 85.4% and Gemini 2.0 Flash Experimental got a score of 92.9%. However, both Google models seemed to perform poorly in tests related to converting natural language into SQL, and generating code in Python.

Ethical Reasoning and Safety

The good news for businesses addressing AI governance, safety, and security, is both Google and OpenAI are invested in responsible AI. Both Gemini and ChatGPT will refuse to produce “damaging content”, if they consider a request to be unethical.

According to Google, Gemini 2.0’s reasoning capabilities now make the model more effective at understanding risks, and safeguarding users against dangerous content. However, Google hasn’t revealed too much information about how these reasoning capabilities work.

We do know that Google Gemini implements guardrails to minimize the production of dangerous content. Plus, users do have control over how much data they “save” within Gemini chat logs. There are even enterprise-grade protections in place for paid plan users.

OpenAI also uses ethical and safety guardrails in its ChatGPT models. Plus, it offers companies access to administrative and security controls in plans like ChatGPT Team and Enterprise. Notably though, we do have a little more information about OpenAI’s approach to AI responsibility – at least with the recent o1 models.

With these models, the company used a new training approach to help ensure that the models could understand dangerous and unethical requests more effectively. Plus, these training strategies have made the model more effective at mitigating “jailbreak” attempts. In a complex jailbreak test, the o1 model scored 84 out of 100, compared to GPT-4o’s score of 22.

Gemini vs ChatGPT: Which is the Better Free App?

Ultimately, ChatGPT’s free plan is a lot more impressive than the one you’d get from Gemini, for a few reasons. OpenAI has upgraded its free plan in recent years to ensure that users can now browse the internet with ChatGPT, and access up-to-date models, like GPT-4o (limited) and GPT-4o mini. However, you can’t use the o1 models on the free plan yet.

ChatGPT’s free plan also allows users to use custom GPTs (although you can’t create them), and upload files for analysis (on a limited basis). There’s also an included voice mode for interacting with ChatGPT naturally – but no image generation options.

Google Gemini’s free plan gives you access to all of the basic features you need to create content (including images), and ask Gemini questions. The bot can surf the web, and you can use the app to analyze certain file uploads. However, you’ll need to upgrade to a paid plan to gain access to experimental models like Gemini 2.0, and leverage advanced functions.

On the plus side, Gemini’s free plan does allow you to connect the app with multiple Google solutions, like Google Maps, Flights, and so on.

Paid Plans: Gemini vs ChatGPT

Google only has one “paid plan” for the specific Gemini bot – although there are a bunch of plans available for API access, and Gemini within Google Workspace. The core paid plan for the Gemini bot, is “Gemini Advanced” which costs $20 per month, per user.

This gives you full access to the Gemini 1.5 Pro model, access to experimental Gemini models, Deep research functionality, and Gems for building custom bots. You also get 2TB of storage from Google One, and access to Gemini in Gmail, Docs, and other tools.

OpenAI has a much wider range of plans to choose from for ChatGPT (even before you dive into API options). There’s ChatGPT Plus, for $20 per month, with extended limits on messaging, file uploads, and so on, and access to GPT creation tools. You also get limited access to o1 and o1-mini on this plan. Then there’s the “business-level” plans.

ChatGPT Team for $30 per month, per user, billed monthly, comes with higher message limits than Plus, standard and advanced voice mode, an admin console, and team data protections. ChatGPT Enterprise (for a custom price), includes all the features of Team, and high-speed access to GPT-4 models. You also get DALL-E, expanded context windows, and admin controls and analytics.

The latest OpenAI plan, ChatGPT Pro, for $200 per month, comes with all the features of the Plus plan, unlimited access to advanced voice, and unlimited GPT-4o and o1 access. Plus, you get access to o1 Pro mode – the latest o1 model.

Gemini vs ChatGPT: Which is Better

So, based on all of these findings, which chatbot is better for businesses? Ultimately, it all depends on what you need. If you’re looking for an intuitive chatbot that gives you more control over security, and access to advanced reasoning models, and coding capabilities, ChatGPT might be the better choice. I think ChatGPT is better for coding, content creation (in general), and security.

Gemini, on the other hand, is definitely the better option for people who already use Google products, like Workspace and Gmail, since it integrates deeply with these apps. It’s also the better solution for custom chatbot or agent creation – thanks to the rise of Gemini 2.0.

My advice? Test the free versions of both bots and make your decision from there.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte

Published

on

Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.

La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).

Continue Reading

Noticias

¿Hemos perdido el control de la IA? El estudio que sacudió a los investigadores de Openai

Published

on

Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.

Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.

3 Ver galería

Chatgpt

Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.

La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.

Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.

De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.

Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.

3 Ver galería

Γ cam.Γ cam.

(Foto: Generado por chatgpt)

Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.

Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.

Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.

Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.

Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.

“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.

En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.

3 Ver galería

אירוע eriorאירוע erior

Evento de anuncio GPT-4O de Openai

(Foto: Captura de pantalla)

Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.

Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.

Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.

Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.

El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?

Continue Reading

Noticias

Google, OpenAI Target State Leyes en el Plan de Acción de AI

Published

on

Mientras que la administración del presidente Donald Trump se ha centrado en alejarse de la regulación, liderando a los proveedores de IA como Google y OpenAI quieren que el plan de acción de IA pendiente del gobierno incluya una política federal que se adelantan a los crecientes mosaicos de leyes estatales de IA en los Estados Unidos.

La Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP) solicitó los aportes de las partes interesadas sobre el desarrollo de un plan de acción de IA. Recientemente cerró el período de comentarios públicos, recibiendo más de 8,700 presentaciones. OSTP solicitó a las partes interesadas que describieran las acciones prioritarias para apoyar el dominio de los Estados Unidos de la tecnología de IA sin una regulación excesiva que obstaculice la innovación del sector privado en la IA. Para algunas grandes empresas tecnológicas, abordar las leyes estatales de IA debería ser una de las principales prioridades del gobierno de los Estados Unidos.

Estados Unidos debe adoptar marcos de políticas que “se adelanten a un mosaico caótico de reglas a nivel estatal sobre el desarrollo de la IA fronteriza”, según la presentación de Google.

Mientras tanto, Openai pidió libertad para innovar en el interés nacional de los Estados Unidos y neutralizar a los competidores como China que se benefician de “las compañías estadounidenses de IA que tienen que cumplir con las leyes estatales demasiado onerosas”. Un puñado de estados de EE. UU. Han aprobado una regulación integral de IA, incluidas Colorado, California y Utah.

Sin una ley federal de IA, los estados implementan requisitos de IA individuales que crean desafíos de cumplimiento para las empresas, dijo la analista de Forrester Alla Valente si Estados Unidos adopta una política federal de IA general, podría eliminar esa carga, dijo.

“Al dejar esto a los Estados Unidos, puede tener 50 conjuntos de regulaciones de IA que se ven muy diferentes”, dijo.

Sin embargo, una orden ejecutiva no puede evitar las regulaciones estatales de IA. Depende del Congreso aprobar una ley federal de IA, algo que tiene problemas para hacer.

Las presentaciones del Plan de Acción de AI incluyen Estado, Global Focus

La falta de un enfoque de gobernanza de AI unificado en los Estados Unidos es “ineficaz y duplicativo”, dijo Hodan Omaar, un gerente de políticas senior en el Centro de Tank Tank Tank para innovación de datos.

“Crea inconsistencias e incoherencia en un enfoque estadounidense”, dijo.

Más allá de centrarse en las leyes estatales, Valente dijo que la postura de Google indica que la compañía quiere que Estados Unidos considere el desarrollo global de las leyes de IA también, como la Ley de IA de la Unión Europea.

Cualquier estándar, política o marco que crea los EE. UU. Debe reflejar los intereses estadounidenses, pero no puede ignorar las políticas de IA de diferentes países, dijo Valente. Google dijo que, cuando se trabaja con países alineados, Estados Unidos debería “desarrollar protocolos y puntos de referencia en torno a los riesgos potenciales de los sistemas de IA fronterizos”.

“Ignorar lo que el resto del mundo está haciendo en torno a los marcos de IA, la gobernanza de IA, el riesgo de IA, crea una brecha aún mayor entre la innovación de los Estados Unidos y el resto del mundo hasta el punto de que entonces sigue siendo competitivo si otros países tienen requisitos que no pueden ser satisfechos con la innovación de la IA de EE. UU.”, Dijo Valente.

Operai también abordó los controles de exportación en sus comentarios, solicitando un cambio de estrategia centrado en promover la adopción global de los sistemas de IA de EE. UU. Al tiempo que utiliza más estratégicamente los controles de exportación para mantener el liderazgo de IA de EE. UU. La Compañía pidió actualizar la regla de difusión de IA que avanzó los controles de exportación de EE. UU., Una regla propuesta por la administración del ex presidente Joe Biden que se encontró con una reacción violenta de la industria.

Mientras tanto, en los comentarios del Centro para la Innovación de Data, el grupo de expertos pidió que el Plan de Acción de AI de EE. UU. Reorientara su estrategia de control de exportación. Si bien los controles de exportación están destinados a debilitar a los competidores, en particular el sector de inteligencia artificial de China, están “cada vez más en desventajas de las empresas estadounidenses”. El surgimiento de Deepseek apunta a la capacidad de China para innovar a pesar de los controles de exportación de los Estados Unidos en chips de IA avanzados.

Omaar describió en la presentación del grupo de expertos de que Estados Unidos debería establecer una Fundación Nacional de Datos (NDF) dedicada a la financiación y facilitar compartir conjuntos de datos de alta calidad para el desarrollo del modelo de IA. Ella dijo que Estados Unidos también debería preservar, pero Reengus, el Instituto de Seguridad AI del Instituto Nacional de Normas y Tecnología (NIST) para proporcionar estándares fundamentales para la gobernanza de la IA.

“El gobierno federal tiene un papel importante que desempeñar para garantizar que haya estándares”, dijo Omaar. “Asegurarse de que NIST pueda hacer el importante trabajo de IA que estaban haciendo es importante para garantizar una adopción de IA sin problemas”.

Cómo podría ser el plan de acción de AI final

La solicitud de información de la Oficina de Ciencia y Tecnología de la Casa Blanca sobre un plan de acción de IA pidió a las partes interesadas sus pensamientos sobre las acciones de política de IA. Sin proporcionar recomendaciones o cualquier marco potencial para que las partes interesadas comenten, Valente dijo que no está claro qué incluirá el plan de acción de IA.

“Cómo termina este plan, uno solo puede imaginar”, dijo.

Darrell West, miembro senior de la Institución Brookings, dijo que la solicitud de información de la Casa Blanca indica que la administración Trump se centrará en abandonar los requisitos onerosos y confiar en las empresas privadas para innovar con menos supervisión federal.

“Habrá menos limitaciones en las compañías tecnológicas”, dijo. “Serán libres de innovar en cualquier dirección que deseen”.

El gobierno federal puede equilibrar la seguridad y la innovación de la IA, que con suerte se reflejará en el Plan de Acción de AI, dijo Jason Corso, cofundador de AI Startup Voxel51 y profesor de informática en la Universidad de Michigan.

La población general ya es escéptica de la IA, y si ocurren desafíos generales de crecimiento del desarrollo, corre el riesgo de socavar aún más la confianza en la tecnología, dijo. Es por eso que los marcos de políticas deben crearse con la seguridad de IA en mente, agregó Corso.

Un marco federal que carece de consideraciones de seguridad de IA significa la responsabilidad de las decisiones de seguridad de IA cae a los CIO de la Compañía o los oficiales de IA en los principales, lo que Corso dijo que presenta un “gran riesgo”. El efecto podría ser menos adopción o ROI más lento, dijo.

“Esta IA contemporánea es tan incipiente que a pesar de los rápidos avances que estamos viendo, en realidad se entiende bastante sobre su previsibilidad, repetibilidad o incluso su robustez con ciertos tipos de preguntas o escenarios de razonamiento”, dijo. “Ciertamente necesitamos innovación, pero también necesitamos seguridad”.

Makenzie Holland es un escritor de noticias senior que cubre la gran regulación federal y de la gran tecnología. Antes de unirse a Informa TechTarget, ella era una reportera de asignación general para el Wilmington Starnews y un reportero de crimen y educación en el Wabash Plain Dealer.

Continue Reading

Trending