Connect with us

Noticias

Latest Features, Pros, and Cons

Published

on

eWEEK content and product recommendations are editorially independent. We may make money when you click on links to our partners. Learn More.

ChatGPT icon.

ChatGPT’s Fast Facts

Our product rating: 4/5

Pricing: Free version; $20 monthly for paid plan

Key features:

  • Analyzing uploaded images
  • Generating high-quality generative content
  • Creating videos with third-party applications
  • Generating scripts, articles, and other text
  • Automating tasks with ChatGPT-powered applications

ChatGPT is an advanced conversational AI developed by OpenAI to act as a functional assistant in a range of activities, including answering questions and generating creative content. It uses a large language model (LLM) trained on diverse datasets to engage in sophisticated conversations, provide technical help, and tell stories. Its ability to identify context and nuance helps it stand out from other chatbots, with human-like responses. 

ChatGPT’s Pricing

ChatGPT has a free version that allows users to access most of its integrated applications within the platform. Users have full access to GPT-4o mini and limited access to GPT-4. ChatGPT’s paid version costs $20 per month and includes new features plus access to OpenAI o1-preview, OpenAI o1-mini, GPT-4o, GPT-4o mini, and GPT-4; up to five times more messages for GPT‑4o; access to data analysis, file uploads, vision, web browsing, and image generation; and advanced voice mode.

ChatGPT’s Key Features

ChatGPT provides a set of robust features aimed at increasing efficiency and creativity across a variety of jobs. It can create and analyze images, making it an excellent choice for visual projects and data insights. ChatGPT allows you to create detailed plans and strategies, brainstorm ideas, and generate actionable solutions. It can write code for technical tasks, saving developers time and creating clear, compelling writing for every occasion. ChatGPT can also summarize long texts into shorter and more digestible information.

Creating Images

ChatGPT’s generative AI feature lets you create images using text prompts like other AI art tools. For the image below, I asked ChatGPT to create an image of a beach during sunset with a hammock tied to coconut trees and dogs chasing a Phoenix around the shore. It generated an image almost instantly with visuals close to what I pictured. More specific prompts would likely have fine-tuned the image even further.

Sample image output of ChatGPT.Sample image output of ChatGPT.

Analyzing Images

To test the tool’s ability to use its multimodal nature to analyze images it did not create, I uploaded an image of a cigarette-smoking fish with a chicken’s body and asked ChatGPT for its interpretation. It described the image as a “humorous, surreal creation… likely intended as a piece of absurdist humor or social commentary” and identified it as possibly a meme.

ChatGPT sample image analysis.ChatGPT sample image analysis.

Writing Code for Programming

ChatGPT’s ability to generate programming code can be both effective and, occasionally, challenging. It frequently generates useful code that may be directly applied to tasks ranging from simple scripts to sophisticated programs, but in some cases, the initial result may require extra prompts or revisions to match the specific needs of your application or project. In short, ChatGPT-generated code may function properly out of the box in some circumstances, but it may also require refining or debugging to solve specific edge cases, maximize efficiency, or before being integrated into a broader codebase. This iterative method can lead to good code solutions but may require some back-and-forth to obtain the desired results.

ChatGPT sample programming code output.ChatGPT sample programming code output.

Writing Short and Long-Form Content

Content writing is one of ChatGPT’s specialties. This includes long-form content like articles, book chapters, and case studies or shorter content like social media descriptions, templates, and newsletter items. The clarity of this content will hinge on the accuracy of your prompts. In the example below, I gave a simple prompt with a topic and word count. You’ll want to proofread or fact-check ChatGPT’s work to avoid potential plagiarism, correct inaccuracies, and make the content sound more human in origin.

ChatGPT sample content writing.ChatGPT sample content writing.

Writing Product Descriptions

ChatGPT’s ability to create product descriptions can be used for a social media campaign or a product page on an e-commerce site. I tested its ability to create product descriptions by uploading a mock image of a dog food brand and asking it to create a description with information about health benefits and flavors. In addition, I prompted it to make the description sound more informative so that it could be easily understood. ChatGPT’s generated response turned out better than I expected by far. It gave me a good hook, body, and dog food flavors, and a call to action at the end of the description.

ChatGPT sample product description.ChatGPT sample product description.

Analyzing Complex Context

ChatGPT can analyze contextual data and make suggestions based on different scenarios, making it useful for various tasks. Its responses are generated using the vast dataset on which it was trained. This dataset comprises a wide range of human language subjects and patterns up to the knowledge cutoff date of October 2023.

ChatGPT uses its basic understanding to identify patterns and replicate conversational context, allowing it to make assumptions about human intention, provide clarifications, and participate in interactive discussions. However, it does not have real-time access to current events or personal user information. As a result, ChatGPT’s generated answers are created using general knowledge rather than real-time changes, making it particularly suited for static information, creative brainstorming, problem-solving, and explaining concepts in depth.

ChatGPT complex context analysis.ChatGPT complex context analysis.

Making Travel Plans

I tested ChatGPT by asking it to plan a trip to Siargao in the Philippines. In one scenario, I will work the first week while on the island; in the second, I have time off work with full flexibility regarding activities. ChatGPT generated itineraries suitable for both scenarios. The places it suggested I visit are all real and still in existence and all the activities are doable and popular with Siargao visitors.

During the work week, ChatGPT suggested famous places for morning or evening visits so that I could still commit to my working hours. ChatGPT organized activities like island hopping, surfing, and exploring scenic places (including the Sugba Lagoon and Secret Island) for the fully flexible week.

Sample ChatGPT travel planning.Sample ChatGPT travel planning.

Summarizing Long Texts

In addition to writing articles and descriptions, ChatGPT can help summarize long-form content into shorter, easy-to-read paragraphs. I asked it to summarize eWeek’s 10 Best AI Art Prompts article, and in a few seconds, it narrowed down the prompts and examples and gave me a concise summary. This function saves time and is useful for quickly understanding complex or extensive information. ChatGPT helps readers focus on important takeaways, making it valuable for professionals, students, and creatives who need to quickly absorb knowledge from several sources. It can be applied to various research papers, instructional articles, and creative resources.

ChatGPT long text summarization.ChatGPT long text summarization.

Turning Texts into a Video

ChatGPT’s video production feature is powered by an app from the ChatGPT application store that links smoothly to the api.adzedek.com API. Provide a brief description of your intended video, and the app will create a proposed script and walk you through the video creation process. First, it will direct you to InVideo to see the generated video, which includes high-quality, human-like voice narration over carefully selected stock images and internet footage. This integration provides an excellent, simplified experience for effortlessly making interesting, professional-quality videos.

ChatGPT text-to-video feature.ChatGPT text-to-video feature.

Automating Tasks Using Internal GPT Applications

ChatGPT now provides Custom GPTs, or customized versions of the platform for specific activities or applications. OpenAI maintains a growing list of various GPTs. Some are available via the ChatGPT app, and others are built by users for specific purposes. These GPTs are intended to assist with common activities like scheduling, note-taking, brainstorming, idea generating, content creation, business and data analysis, programming and development, teaching and tutoring, and creative arts.

Productivity GPTs aid with day-to-day tasks such as scheduling and task management, whereas content creation GPTs assist writers, marketers, and creatives in content generation. Business and data analysis GPTs examine and evaluate statistics, collect information on industry trends, and make recommendations for business choices. Programming and development GPTs assist developers with writing code samples, troubleshooting issues, and creating technical documentation.

Education and Tutoring GPTs facilitate learning and teaching in various topics, including arithmetic, science, history, and language learning. Creative Arts GPTs assist artists, designers, and musicians in pursuing artistic interests like design and art conceptions, music and lyrics composing, and food and meal planning. Users can design their GPTs by specifying instructions and uploading appropriate documents or data.

ChatGPT Pros and Cons

The table below summarizes this popular tool’s main pros and cons to help you decide whether it’s the best application for your needs.

Pros Cons
Free version offers an extensive list of extra GPT applications Free version can’t access real-time information from the internet
Generative content abilities can help speed up day-to-day tasks Generative content may hallucinate from time to time
Customizable generative content is possible through its Customize ChatGPT setting Lacks emotional empathy for complex situations

Alternatives to ChatGPT

ChatGPT is among the most popular AI chatbots, but it’s not the only one. Other chatbots, including Claude, Perplexity, and Meta AI, have different strengths and weaknesses that may better meet your needs. The table below shows how they compare at a high level, or read on for more detailed information about each application.

ChatGPT Claude Perplexity Meta AI
Starting price • Free
• $20 per month
• Free
• $20 per month for Pro
• $25 per person/ month for Team
• Free
• $20 per month with one month free
• Free
Real-time access to the internet Yes (with subscription) No Yes Limited
Generate Images Yes Yes No Yes
Respond in a human-like tone Yes Yes Yes Yes
Analyze uploaded images Yes Yes No No

Claude

Anthropic’s Claude AI is a large language model that focuses on providing safe, reliable conversational AI and natural language understanding. Claude AI is known for its alignment and safety-first strategy, which strives to reduce harmful or biased answers, making it suitable for sensitive applications and use cases requiring ethical AI interactions. One of Claude’s distinguishing qualities is its capacity to manage long conversations. It has a memory that can retain past conversations and details, making interactions smoother and more consistent over time. It also provides configurable user control, allowing users to tailor Claude’s “personality” to meet their requirements and tastes. Claude AI provides both free and paid options, with the Claude Pro plan beginning at roughly $20 per month. Enterprise pricing is available for organizations requiring tailored solutions.

Anthropic Claude icon.Anthropic Claude icon.

Perplexity

Perplexity is an AI-powered search-and-answer assistant that provides users with fast, conversational responses to complicated questions. Its real-time access to the internet replicates a search engine but with more context-driven responses. Perplexity AI gives summary information from various reliable sources, allowing users to acquire direct and brief responses without having to go through search engine results. It is beneficial for research and general questions, integrating search engine features with conversational AI to provide a more user-friendly experience. Perplexity provides free and paid plans, with the premium Perplexity Pro starting at $20 monthly. The Pro subscription contains additional features such as quicker reaction times, priority access to new features, and potentially improved accuracy for professional and heavy users.

Perplexity icon.Perplexity icon.

Meta AI

Meta AI is Meta’s chatbot platform, which includes a wide range of AI models and tools targeted at enhancing both practical AI applications and basic AI research. Meta AI’s solutions include the open-source LLaMA (Large Language Model Meta AI) focused on natural language processing (NLP) and creation. This is intended to work smoothly across Meta’s ecosystem of platforms, including WhatsApp, Facebook, and Instagram. Meta AI’s multimodal features allow it to handle tasks such as image, video, and text generation, making it adaptable and applicable to a wide range of applications. Meta AI is free to use and can be accessed online through its website or Meta’s popular messaging apps such as Messenger, Instagram DMs, and WhatsApp.

Meta icon.Meta icon.

How I Evaluated ChatGPT

I placed the highest weights on features, price, and ease of use, followed by integrations, intelligence, and regulatory compliance.

  • Core Features (25 Percent): ChatGPT’s core features should suffice for every user. The general purpose of using an AI chatbot is to create and analyze images and generate outputs that sound personalized to each user. I found the feature set to be strong and deep, offering a wide range of capabilities for many common user applications.
  • Price (20 Percent): I looked into ChatGPT’s pricing information and whether or not they offer a free trial or free version of the chatbot. Users are more inclined to use AI if it is free or doesn’t cost much for its monthly subscription to access its advanced features.
  • Ease of Use (20 Percent): I tested ChatGPT’s web and mobile application versions to see how convenient their navigation is, how quickly they respond to my prompts, and how long their loading time is.
  • Integrations (15 Percent): In addition to generating different types of AI content on its own chatbox, ChatGPT also has integrated applications within its interface. I tested a few of these GPT-powered applications, and each is designed for a specific task, such as brainstorming, writing, video and image generator, and more.
  • Intelligence (10 Percent): Users are using ChatGPT for research purposes, which is why I added intelligence in this category. I tested ChatGPT’s knowledge base by asking questions related to recent events. As a result, ChatGPT can generate generic answers or information as of its knowledge cut-off date of October 2023.
  • Regulatory Compliance (10 Percent): AI chatbots, such as ChatGPT, use large amounts of data for model training. This data may contain personal information, and users must be aware of how their data is being used. I found out that ChatGPT’s compliance with GDPR is complex and not fully established, but its API is complying with DPA for OpenAI’s APIs.

FAQ

What do People Use ChatGPT For?

ChatGPT is a versatile tool with a wide range of uses in personal, professional, and educational spaces. Users often take advantage of Chatgot to generate blog entries, articles, social media captions, and image and video generation. It can also be used to do general research and build business strategies since it can help brainstorm and simplify complex situations. Many businesses also benefit from ChatGPT since it can write code for a website or application, automate emails, generate customer service chatbots, draft marketing materials, and optimize workflows.

What Are the Risks of ChatGPT?

Even though ChatGP is convenient for general research and generating content, it occasionally shows signs of hallucinations. It sometimes needs to be more consistent with its responses, making it difficult to validate the accuracy of its generated information. Social biases included in its training data may be reflected in its outputs, potentially causing harm. Users relying too much on ChatGPT may be unable to think critically and be less likely to double-check facts or apply their judgment when needed.

Is it Worth Subscribing to ChatGPT?

 Understanding what you need from ChatGPT will allow you to know whether you need to pay for its subscription or take advantage of its free version. ChatGPT is worth subscribing to if you need a faster response time, access to OpenAI’s image generator DALL-E, and access to real-time information on the internet. But if you use ChatGPT for its basic features, the free version of ChatGPT is more than enough to help you with anything that you need.

Bottom Line: ChatGPT Excels at General Generative Content Creation and Research

ChatGPT is a great tool for brainstorming, creating generative content, and carrying out research quickly. It is a useful tool for individuals and professionals and even helps writers because of its fast adaptation to a variety of tasks. Users must approach its outputs thoughtfully, verifying facts and guaranteeing authenticity to avoid potential issues such as inaccuracies or inadvertent plagiarism. The best outcomes are achieved by combining ChatGPT’s automation with human contribution, even while it speeds up workflows and fosters creativity. It can be a transformative tool for addressing intellectual and artistic obstacles when used properly.

To learn more about the artificial intelligence tools for help with day-to-day tasks, read our guide to the best generative AI chatbots.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte

Published

on

Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.

La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).

Continue Reading

Noticias

¿Hemos perdido el control de la IA? El estudio que sacudió a los investigadores de Openai

Published

on

Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.

Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.

3 Ver galería

Chatgpt

Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.

La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.

Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.

De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.

Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.

3 Ver galería

Γ cam.Γ cam.

(Foto: Generado por chatgpt)

Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.

Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.

Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.

Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.

Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.

“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.

En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.

3 Ver galería

אירוע eriorאירוע erior

Evento de anuncio GPT-4O de Openai

(Foto: Captura de pantalla)

Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.

Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.

Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.

Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.

El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?

Continue Reading

Noticias

Google, OpenAI Target State Leyes en el Plan de Acción de AI

Published

on

Mientras que la administración del presidente Donald Trump se ha centrado en alejarse de la regulación, liderando a los proveedores de IA como Google y OpenAI quieren que el plan de acción de IA pendiente del gobierno incluya una política federal que se adelantan a los crecientes mosaicos de leyes estatales de IA en los Estados Unidos.

La Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP) solicitó los aportes de las partes interesadas sobre el desarrollo de un plan de acción de IA. Recientemente cerró el período de comentarios públicos, recibiendo más de 8,700 presentaciones. OSTP solicitó a las partes interesadas que describieran las acciones prioritarias para apoyar el dominio de los Estados Unidos de la tecnología de IA sin una regulación excesiva que obstaculice la innovación del sector privado en la IA. Para algunas grandes empresas tecnológicas, abordar las leyes estatales de IA debería ser una de las principales prioridades del gobierno de los Estados Unidos.

Estados Unidos debe adoptar marcos de políticas que “se adelanten a un mosaico caótico de reglas a nivel estatal sobre el desarrollo de la IA fronteriza”, según la presentación de Google.

Mientras tanto, Openai pidió libertad para innovar en el interés nacional de los Estados Unidos y neutralizar a los competidores como China que se benefician de “las compañías estadounidenses de IA que tienen que cumplir con las leyes estatales demasiado onerosas”. Un puñado de estados de EE. UU. Han aprobado una regulación integral de IA, incluidas Colorado, California y Utah.

Sin una ley federal de IA, los estados implementan requisitos de IA individuales que crean desafíos de cumplimiento para las empresas, dijo la analista de Forrester Alla Valente si Estados Unidos adopta una política federal de IA general, podría eliminar esa carga, dijo.

“Al dejar esto a los Estados Unidos, puede tener 50 conjuntos de regulaciones de IA que se ven muy diferentes”, dijo.

Sin embargo, una orden ejecutiva no puede evitar las regulaciones estatales de IA. Depende del Congreso aprobar una ley federal de IA, algo que tiene problemas para hacer.

Las presentaciones del Plan de Acción de AI incluyen Estado, Global Focus

La falta de un enfoque de gobernanza de AI unificado en los Estados Unidos es “ineficaz y duplicativo”, dijo Hodan Omaar, un gerente de políticas senior en el Centro de Tank Tank Tank para innovación de datos.

“Crea inconsistencias e incoherencia en un enfoque estadounidense”, dijo.

Más allá de centrarse en las leyes estatales, Valente dijo que la postura de Google indica que la compañía quiere que Estados Unidos considere el desarrollo global de las leyes de IA también, como la Ley de IA de la Unión Europea.

Cualquier estándar, política o marco que crea los EE. UU. Debe reflejar los intereses estadounidenses, pero no puede ignorar las políticas de IA de diferentes países, dijo Valente. Google dijo que, cuando se trabaja con países alineados, Estados Unidos debería “desarrollar protocolos y puntos de referencia en torno a los riesgos potenciales de los sistemas de IA fronterizos”.

“Ignorar lo que el resto del mundo está haciendo en torno a los marcos de IA, la gobernanza de IA, el riesgo de IA, crea una brecha aún mayor entre la innovación de los Estados Unidos y el resto del mundo hasta el punto de que entonces sigue siendo competitivo si otros países tienen requisitos que no pueden ser satisfechos con la innovación de la IA de EE. UU.”, Dijo Valente.

Operai también abordó los controles de exportación en sus comentarios, solicitando un cambio de estrategia centrado en promover la adopción global de los sistemas de IA de EE. UU. Al tiempo que utiliza más estratégicamente los controles de exportación para mantener el liderazgo de IA de EE. UU. La Compañía pidió actualizar la regla de difusión de IA que avanzó los controles de exportación de EE. UU., Una regla propuesta por la administración del ex presidente Joe Biden que se encontró con una reacción violenta de la industria.

Mientras tanto, en los comentarios del Centro para la Innovación de Data, el grupo de expertos pidió que el Plan de Acción de AI de EE. UU. Reorientara su estrategia de control de exportación. Si bien los controles de exportación están destinados a debilitar a los competidores, en particular el sector de inteligencia artificial de China, están “cada vez más en desventajas de las empresas estadounidenses”. El surgimiento de Deepseek apunta a la capacidad de China para innovar a pesar de los controles de exportación de los Estados Unidos en chips de IA avanzados.

Omaar describió en la presentación del grupo de expertos de que Estados Unidos debería establecer una Fundación Nacional de Datos (NDF) dedicada a la financiación y facilitar compartir conjuntos de datos de alta calidad para el desarrollo del modelo de IA. Ella dijo que Estados Unidos también debería preservar, pero Reengus, el Instituto de Seguridad AI del Instituto Nacional de Normas y Tecnología (NIST) para proporcionar estándares fundamentales para la gobernanza de la IA.

“El gobierno federal tiene un papel importante que desempeñar para garantizar que haya estándares”, dijo Omaar. “Asegurarse de que NIST pueda hacer el importante trabajo de IA que estaban haciendo es importante para garantizar una adopción de IA sin problemas”.

Cómo podría ser el plan de acción de AI final

La solicitud de información de la Oficina de Ciencia y Tecnología de la Casa Blanca sobre un plan de acción de IA pidió a las partes interesadas sus pensamientos sobre las acciones de política de IA. Sin proporcionar recomendaciones o cualquier marco potencial para que las partes interesadas comenten, Valente dijo que no está claro qué incluirá el plan de acción de IA.

“Cómo termina este plan, uno solo puede imaginar”, dijo.

Darrell West, miembro senior de la Institución Brookings, dijo que la solicitud de información de la Casa Blanca indica que la administración Trump se centrará en abandonar los requisitos onerosos y confiar en las empresas privadas para innovar con menos supervisión federal.

“Habrá menos limitaciones en las compañías tecnológicas”, dijo. “Serán libres de innovar en cualquier dirección que deseen”.

El gobierno federal puede equilibrar la seguridad y la innovación de la IA, que con suerte se reflejará en el Plan de Acción de AI, dijo Jason Corso, cofundador de AI Startup Voxel51 y profesor de informática en la Universidad de Michigan.

La población general ya es escéptica de la IA, y si ocurren desafíos generales de crecimiento del desarrollo, corre el riesgo de socavar aún más la confianza en la tecnología, dijo. Es por eso que los marcos de políticas deben crearse con la seguridad de IA en mente, agregó Corso.

Un marco federal que carece de consideraciones de seguridad de IA significa la responsabilidad de las decisiones de seguridad de IA cae a los CIO de la Compañía o los oficiales de IA en los principales, lo que Corso dijo que presenta un “gran riesgo”. El efecto podría ser menos adopción o ROI más lento, dijo.

“Esta IA contemporánea es tan incipiente que a pesar de los rápidos avances que estamos viendo, en realidad se entiende bastante sobre su previsibilidad, repetibilidad o incluso su robustez con ciertos tipos de preguntas o escenarios de razonamiento”, dijo. “Ciertamente necesitamos innovación, pero también necesitamos seguridad”.

Makenzie Holland es un escritor de noticias senior que cubre la gran regulación federal y de la gran tecnología. Antes de unirse a Informa TechTarget, ella era una reportera de asignación general para el Wilmington Starnews y un reportero de crimen y educación en el Wabash Plain Dealer.

Continue Reading

Trending