Connect with us

Noticias

The AI Power Play: How ChatGPT, Gemini, Claude, and Others Are Shaping the Future of Artificial Intelligence

Published

on

In 2025, companies such as OpenAI, Google, Anthropic, and emerging challengers like DeepSeek have pushed the boundaries of what large language models (LLMs) can do. Moreover, corporate solutions from Microsoft and Meta are making AI tools more accessible to enterprises and developers alike. This article explores the latest AI models available to the public, their advantages and drawbacks, and how they compare in the competitive AI landscape.

The Power and Performance of AI Models

AI models rely on extensive computational resources, particularly large language models (LLMs) that require vast datasets and processing power. The leading AI models undergo complex training procedures that involve billions of parameters, consuming significant energy and infrastructure.

Key AI players invest in cutting-edge hardware and optimization strategies to improve efficiency while maintaining high performance. The balance between computational power, speed, and affordability is a significant factor in differentiating these AI models.

The Competitive Landscape: Top AI Models

OpenAI’s ChatGPT

ChatGPT, developed by OpenAI, is one of the most recognizable and widely used AI models in the world. Built with a dialogue-driven format, ChatGPT is designed to answer follow-up questions, challenge incorrect premises, admit mistakes, and reject inappropriate requests. Its versatility has made it a leading AI tool for both casual and professional use, spanning industries such as customer service, content creation, programming, and research.

ChatGPT is ideal for a wide range of users, including writers, business professionals, educators, developers, and researchers. Its free-tier accessibility makes it an excellent starting point for casual users, while businesses, content creators, and developers can leverage its advanced models for enhanced productivity and automation.

It is also among the most user-friendly AI models available, featuring a clean interface, intuitive responses, and seamless interaction across devices. However, organizations that require custom AI models or stricter data privacy controls may find its closed-source nature restrictive, particularly compared to open-source alternatives like Meta’s LLaMA.

The latest version, GPT-4o, is available for free-tier users and offers a strong balance of speed, reasoning, and text generation capabilities. For users seeking enhanced performance, ChatGPT Plus provides priority access and faster response times at a monthly subscription cost.

For professionals and businesses requiring more robust capabilities, ChatGPT Pro unlocks advanced reasoning features through the o1 pro mode, which includes enhanced voice functionality and improved performance on complex queries.

Developers looking to integrate ChatGPT into applications can access its API, a type of software interface. Pricing starts at approximately $0.15 per million input tokens and $0.60 per million output tokens for GPT-4o mini, while the more powerful o1 models come at a higher cost. A token is defined as a fundamental unit of data, like a word or subword, that an AI model processes to understand and generate text.

One of ChatGPT’s greatest strengths is its versatility and conversational memory. It can handle a broad range of tasks, from casual conversation and creative writing to technical problem-solving, coding assistance, and business automation. When memory is enabled, ChatGPT can retain context across interactions, allowing for a more personalized user experience.

Another key advantage is its proven user base—with hundreds of millions of users worldwide, ChatGPT has undergone continuous refinement based on real-world feedback, improving its accuracy and usability. Additionally, GPT-4o’s multimodal capabilities allow it to process text, images, audio, and video, making it a comprehensive AI tool for content creation, analysis, and customer engagement.

While a free version exists, the most powerful features require paid subscriptions, which may limit accessibility for smaller businesses, independent developers, and startups. Another drawback is an occasional lag in real-time updates; even though ChatGPT has web-browsing capabilities, it may struggle with the most recent or fast-changing information. Lastly, its proprietary model means users have limited control over modifications or customization, as they must adhere to OpenAI’s data policies and content restrictions.

Google’s Gemini

Google’s Gemini series is renowned for its multimodal capabilities and its ability to handle extensive context, making it a versatile tool for both personal and enterprise-level applications.

General consumers and productivity users benefit from Gemini’s deep integration with Google Search, Gmail, Docs, and Assistant, making it an excellent tool for research, email drafting, and task automation. Business and enterprise users find value in Gemini’s integration with Google Workspace, enhancing collaboration across Drive, Sheets, and Meet. Developers and AI researchers can leverage its capabilities through Google Cloud and Vertex AI, making it a strong choice for building AI applications and custom models. Creative professionals can take advantage of its multimodal abilities, working with text, images, and video. Meanwhile, students and educators benefit from Gemini’s ability to summarize, explain concepts, and assist with research, making it a powerful academic tool.

Google Gemini is highly accessible, especially for those already familiar with Google services. Its seamless integration across Google’s ecosystem allows for effortless adoption in both personal and business applications. Casual users will find it intuitive, with real-time search enhancements and natural interactions that require little to no learning curve. Developers and AI researchers can unlock advanced customization through API access and cloud-based features, though utilizing these tools effectively may require technical expertise.

The current versions, Gemini 1.5 Flash and Pro, cater to different needs, with Flash offering a cost-efficient, distilled option and Pro providing higher performance. Meanwhile, the Gemini 2.0 series, designed primarily for enterprise use, includes experimental models like Gemini 2.0 Flash with enhanced speed and multimodal live APIs, as well as the more powerful Gemini 2.0 Pro.

Basic access to Gemini is often free or available through Google Cloud’s Vertex AI. Still, advanced usage, especially when integrated into enterprise solutions, was introduced at $19.99–$25 per month per user, with pricing adjusted to reflect added features like a 1-million-token context window.

Gemini’s main advantage over other AIs is that it excels in processing text, images, audio, and video simultaneously, making it a standout in multimodal mastery. It also integrates seamlessly with Google Workspace, Gmail, and Android devices, making it a natural fit for users already in the Google ecosystem. Additionally, it offers competitive pricing for developers and enterprises needing robust capabilities, especially in extended context handling.

However, Gemini’s performance can be inconsistent, particularly with rare languages or specialized queries. Some advanced versions may be limited by safety testing, delaying wider access. Furthermore, its deep integration with Google’s ecosystem can be a barrier for users outside that environment, making adoption more challenging.

Anthropic’s Claude

Anthropic’s Claude is known for its emphasis on safety, natural conversational flow, and long-form contextual understanding. It is particularly well-suited for users who prioritize ethical AI usage and structured collaboration in their workflows.

Researchers and academics who need long-form contextual retention and minimal hallucinations, as well as writers and content creators who benefit from its structured approach and accuracy, will find Claude an essential and beneficial AI assistant. Business professionals and teams can leverage Claude’s “Projects” feature for task and document management, while educators and students will find its safety guardrails and clear responses ideal for learning support.

Because Claude is highly accessible for those seeking a structured, ethical AI with a strong contextual understanding, it is moderately suitable for creative users who may find its restrictive filters limiting and less ideal for those needing unrestricted, fast brainstorming tools or AI-generated content with minimal moderation.

Claude 3.5 Sonnet, on the other hand, is the flagship model, offering enhanced reasoning, speed, and contextual understanding for both individual and enterprise users. For businesses and teams, the Claude Team and Enterprise Plans start at approximately $25 per user per month (billed annually), providing advanced collaboration features. Individual users can access Claude Pro, a premium plan that costs around $20 per month, offering expanded capabilities and priority access. A limited free tier is also available, allowing general users to explore basic features and test its functionality.

Unlike most AIs, Claude excels in ethical AI safety, extended conversational memory, and structured project management, making it ideal for users who require reliable and well-moderated AI assistance. Its intuitive interface and organization tools enhance productivity for writers, researchers, educators, and business professionals.

However, there are instances when availability constraints during peak hours can disrupt workflow efficiency. Claude’s strict safety filters, while preventing harmful content, sometimes limit creative flexibility, making it less suitable for highly experimental or unrestricted brainstorming sessions. Additionally, enterprise costs may be high for large-scale teams with extensive AI usage.

DeepSeek AI

DeepSeek, a newcomer from China, has quickly gained attention for its cost efficiency and open-access philosophy. Unlike many established AI models, DeepSeek focuses on providing affordable AI access while maintaining strong reasoning capabilities, making it an appealing option for businesses and individual users alike. DeepSeek R1 is one of the most amazing and impressive breakthroughs I’ve ever seen—and as open source, a profound gift to the world,” said Marc Andreessen, former software engineer and co-founder of Netscape.

Being an excellent choice for cost-conscious businesses, independent developers, and researchers who need a powerful yet affordable AI solution, DeepSeek is particularly suitable for startups, academic institutions, and enterprises that require strong reasoning and problem-solving capabilities without high operational costs. It is highly accessible for individuals due to its free web-based model, and even developers and enterprises benefit from its low-cost API. However, organizations requiring politically neutral AI models or strict privacy assurances may find it less suitable, especially in industries where data security and regulatory compliance are paramount.

The latest model, DeepSeek-R1, is designed for advanced reasoning tasks and is accessible through both an API and a chat interface. An earlier version, DeepSeek-V3, serves as the architectural foundation for the current releases, offering an extended context window of up to 128,000 tokens while being optimized for efficiency.

DeepSeek is free for individual users through its web interface, making it one of the most accessible AI models available. However, for business applications, API usage comes at a significantly lower cost than U.S. competitors, making it an attractive option for enterprises looking to reduce expenses. Reports indicate that DeepSeek’s training costs are drastically lower, with estimates suggesting it was trained for approximately $6 million, a fraction of the cost compared to competitors, whose training expenses can run into the tens or hundreds of millions.

One of DeepSeek’s biggest strengths is its cost efficiency. It allows businesses and developers to access powerful AI without the financial burden associated with models like OpenAI’s GPT-4 or Anthropic’s Claude. Its open-source approach further enhances its appeal, as it provides model weights and technical documentation under open licenses, encouraging transparency and community-driven improvements.

Additionally, its strong reasoning capabilities have been benchmarked against leading AI models, with DeepSeek-R1 rivaling OpenAI’s top-tier models in specific problem-solving tasks. As Anthropic co-founder Jack Clark wrote in his “Import AI” newsletter, “R1 is significant because it broadly matches OpenAI’s o1 model on a range of reasoning tasks and challenges the notion that Western AI companies hold a significant lead over Chinese ones.”

A notable problem with DeepSeek is that its response latency, especially during periods of high demand, makes it less ideal for real-time applications where speed is crucial. Censorship and bias are also potential concerns. DeepSeek aligns with local content regulations, meaning it may sanitize or avoid politically sensitive topics, which could limit its appeal in global markets. Additionally, some users have raised privacy concerns due to its Chinese ownership, questioning whether its data policies are as stringent as those of Western AI companies that comply with strict international privacy standards.

Microsoft’s Copilot

Microsoft’s Copilot is a productivity-focused AI assistant designed to enhance workplace efficiency through seamless integration with the Microsoft 365 suite. By embedding AI-powered automation directly into tools like Word, Excel, PowerPoint, Outlook, and Teams, Copilot serves as an intelligent assistant that streamlines workflows, automates repetitive tasks, and enhances document generation.

Ideal for businesses, enterprise teams, and professionals who heavily rely on Microsoft 365 applications for their daily operations, Microsoft’s Copilot is particularly beneficial for corporate professionals, financial analysts, project managers, and administrative staff who need AI-powered assistance to enhance productivity and reduce time spent on routine tasks. However, organizations that prefer open-source AI models or require flexible, cross-platform compatibility may find Copilot less suitable, especially if they rely on non-Microsoft software ecosystems for their workflows.

Microsoft 365 Copilot is available across Microsoft’s core productivity applications, providing AI-powered assistance for document creation, email drafting, data analysis, and meeting summarization. The service costs approximately $30 per user per month and typically requires an annual subscription. However, pricing can vary based on region and enterprise agreements, with some organizations receiving customized pricing based on their licensing structure.

One of Copilot’s most significant advantages is its deep ecosystem integration within Microsoft 365. For businesses and professionals already using Microsoft Office, Copilot enhances workflows by embedding AI-driven suggestions and automation directly within familiar applications. Its task automation capabilities are another significant benefit, helping users generate reports, summarize meetings, draft emails, and analyze data more efficiently. Furthermore, Copilot receives continuous updates backed by Microsoft’s substantial investments in AI and cloud computing, ensuring regular improvements in performance, accuracy, and feature expansion.

In contrast, one of the significant drawbacks of Microsoft’s Copilot is its ecosystem lock-in—Copilot is tightly coupled with Microsoft 365, meaning its full potential is only realized by organizations already invested in Microsoft’s software ecosystem. Limited flexibility is another concern, as it lacks extensive third-party integrations found in more open AI platforms, making customization difficult for businesses that rely on a broader range of tools. Additionally, some users report occasional response inconsistencies, where Copilot may lose context in long sessions or provide overly generic responses, requiring manual refinement.

Meta AI

Meta’s suite of AI tools, built on its open-weight LLaMA models, is a versatile and research-friendly AI suite designed for both general use and specialized applications. Meta’s approach prioritizes open-source development, accessibility, and integration with its social media platforms, making it a unique player in the AI landscape. It is ideal for developers, researchers, and AI enthusiasts who want free, open-source models that they can customize and fine-tune. It is also well-suited for businesses and brands leveraging Meta’s social platforms, as its AI can enhance customer interactions and content creation within apps like Instagram and WhatsApp.

Meta AI is highly accessible for developers and researchers due to its open-source availability and flexibility. However, businesses and casual users may find it less intuitive compared to AI models with more refined user-facing tools. Additionally, companies needing strong content moderation and regulatory compliance may prefer more tightly controlled AI systems from competitors like Microsoft or Anthropic.

Meta AI operates on a range of LLaMA models, including LLaMA 2 and LLaMA 3, which serve as the foundation for various applications. Specialized versions, such as Code Llama, are tailored for coding tasks, offering developers AI-powered assistance in programming.

One of Meta AI’s standout features is its open-source licensing, which makes many of its tools free for research and commercial use. However, enterprise users may encounter service-level agreements (SLAs) or indirect costs, especially when integrating Meta’s AI with proprietary systems or platform partnerships.

Meta AI’s biggest advantage is its open-source and customizable nature, allowing developers to fine-tune models for specific use cases. This fosters greater innovation, flexibility, and transparency compared to closed AI systems. Additionally, Meta AI is embedded within popular social media platforms like Facebook, Instagram, and WhatsApp, giving it massive consumer reach and real-time interactive capabilities. Meta also provides specialized AI models, such as Code Llama, for programming and catering to niche technical applications.

Despite its powerful underlying technology, Meta AI’s user interfaces and responsiveness can sometimes feel less polished than those of competitors like OpenAI and Microsoft. Additionally, Meta has faced controversies regarding content moderation and bias, raising concerns about AI-generated misinformation and regulatory scrutiny. Another challenge is ecosystem fragmentation; with multiple AI models and branding under Meta, navigating the differences between Meta AI, LLaMA, and other offerings can be confusing for both developers and general users.

AI’s Impact on the Future of Technology

As AI adoption grows, the energy demand for training and operating these models increases. Companies are developing more efficient AI models while managing infrastructure costs. Modern AI models, particularly those known as large language models (LLMs), are powerhouses that demand vast computational resources. Training these models involves running billions of calculations across highly specialized hardware over days, weeks, or even months.

The process is analogous to running an industrial factory non-stop—a feat that requires a tremendous amount of energy. The rise of AI assistants, automation, and multimodal capabilities will further shape industries, from customer support to content creation. “The worst thing you can do is have machines wasting power by being always on,” said James Coomer, senior vice president for products at DDN, a California-based software development firm, during the 2023 AI conference ai-PULSE.

AI competition will likely drive further advancements, leading to smarter, more accessible, and environmentally conscious AI solutions. However, challenges related to cost, data privacy, and ethical considerations will continue to shape the development of AI.

Sustainable AI and the Future

AI companies are actively addressing concerns about energy consumptionand sustainability by optimizing their models to enhance efficiency while minimizing power usage. One key approach is leveraging renewable energy sources, such as solar and wind power, to supply data centers, which significantly reduces their carbon footprint. Additionally, advancements in hardware are being developed to support more energy-efficient AI computation, enabling systems to perform complex tasks with lower energy demands. These innovations not only help reduce environmental impact but also contribute to long-term cost savings for AI companies.

Beyond technological improvements, regulatory policies are being introduced to ensure AI growth aligns with environmental sustainability. Governments and industry leaders need to work together to establish guidelines that encourage responsible energy consumption while promoting research into eco-friendly AI solutions. However, the fear of governmental regulation often makes technology leaders hesitant to collaborate.

One voice at the forefront of global AI governance is Amandeep Singh Gill, the United Nations Secretary-General’s envoy on technology, who emphasizes the importance of collaborative governance in AI development—and sustainable development needs to be part of this cooperation and coordination.

“[W]e have to find ways to engage with those who are in the know,” he said in a September 2024 interview in Time. “Often, there’s a gap between technology developers and regulators, particularly when the private sector is in the lead. When it comes to diplomats and civil servants and leaders and ministers, there’s a further gap. How can you involve different stakeholders, the private sector in particular, in a way that influences action? You need to have a shared understanding.”

No matter the level of collaboration between the private and public sectors, companies need to aggressively explore emission-mitigation methods like carbon offset programs and energy-efficient algorithms to further mitigate their environmental impact. By integrating these strategies, the AI industry is making strides toward a more sustainable future without compromising innovation and progress.

Balancing Innovation and Responsibility

AI is advancing rapidly, with OpenAI, Google, Anthropic, DeepSeek, CoPilot, and MetaAI leading the way. While these models offer groundbreaking capabilities, they also come with costs, limitations, and sustainability concerns.

Businesses, researchers, and policymakers must prioritize responsible AI development while maintaining accessibility and efficiency. The Futurist: The AI (R)evolution panel discussion held by the Washington Post brought together industry leaders to explore the multifaceted impact of artificial intelligence (AI) on business, governance, and society. Martin Kon of Cohere explains that his role is securing AI for business with an emphasis on data privacy, which is essential for “critical infrastructure like banking, insurance, health care, government, energy, telco, etc.”

Because there’s no equivalent of Google Search for enterprises, AI, Kon says, is an invaluable tool in searching for needles in haystacks–but it’s complicated: “Every year, those haystacks get bigger, and every year, the needles get more valuable, but every enterprise’s haystacks are different. They’re data sources, and everyone cares about different needles.” He is, however, optimistic on the job front, maintaining that the new technology will create more jobs and greater value than many critics fear.

“Doctors, nurses, radiologists spend three and a half hours a day on admin. If you can get that done in 20 minutes, that’s three hours a day you’ve freed up of health care professionals. You’re not going to fire a third of them. They’re just going to have more time to treat patients, to train, to teach others, to sleep for the brain surgery tomorrow.”

May Habib, CEO of Writer, which builds AI models, is similarly optimistic, describing AI as “democratizing.” “All of these secret Einsteins in the company that didn’t have access to the tools to build can now build things that can be completely trajectory-changing for the business, and that’s the kind of vision that folks need to hear. And when folks hear that vision, they see a space and a part for themselves in it.”

Sy Choudhury, director of business development for AI Partnerships at Meta, sees a vital role for AI on the public sector side. “[I]t can be everything very mundane from logistics all the way to cybersecurity, all the way to your billing and making sure that you can talk to your state school when you’re applying for federal student–or student loans, that kind of thing.”

Rep. Jay Obernolte (R-CA), who led the House AI Task Force in 2024, acknowledges the need for “an institute to set standards for AI and to create testing and evaluation methodologies for AI” but emphasizes that “those standards should be non-compulsory…” And while agreeing that AI is “a very powerful tool,” he says that it’s still “just a tool,” adding that “if you concentrate on outcomes, you don’t have to worry as much about the tools…”

But some of those outcomes, he admits, can be adverse. “[O]ne example that I use a lot is the potential malicious use of AI for cyber fraud and cyber theft,” he says. “[I]n the pantheon of malicious uses of AI, that’s one of the ones that we at the task force worried the most about because we say bad actors are going to bad, and they’re going to bad more productively with AI than without AI because it’s such a powerful tool for enhancing productivity.”

Consumers can also do their part by managing AI usage wisely—turning off unused applications, optimizing workflows, and advocating for sustainable AI practices. AI’s future depends on balancing innovation with responsibility. The challenge is not just about creating smarter AI but also ensuring that its growth benefits society while minimizing its environmental impact.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Ai ahora ‘en la cúspide de hacer una nueva ciencia’

Published

on

[Image created via OpenAI’s image generation technology]

“Estamos en la cúspide de sistemas que pueden hacer una nueva ciencia”.

Esa línea, en la página 3 del último “Marco de preparación” de OpenAI (versión 2, actualizada el 15 de abril de 2025), señala un posible cambio de paradigma para el ecosistema de I + D, que rápidamente está pasando de ser una etapa interna ansiosa, si no siempre precisa, a una colega potencial de AA, o incluso un investigador principal.

Mirando hacia el futuro, el marco lidia con el potencial de la IA para convertirse en “mejorando recursivamente”. Advierte que la “aceleración importante en la tasa de IA I + D” podría introducir rápidamente nuevas capacidades y riesgos. Esta aceleración podría superar las medidas de seguridad actuales, haciendo que la supervisión sea “insuficiente” y marcando explícitamente el peligro de perder el “mantenimiento del control humano” sobre el sistema de IA.

Hablando en un evento de Goldman Sachs solo unas semanas antes, el 5 de marzo (lanzado el 11 de abril en YouTube), la directora financiera de Operai Sarah Friar reforzó este punto de vista, afirmando que los modelos ya están “presentando cosas novedosas en su campo” y superando simplemente reflejando el conocimiento existente para “extender eso”. Friar señaló además el rápido enfoque hacia la inteligencia general artificial (AGI), lo que sugiere “Podemos estar allí”.

Si bien reconoce el debate en curso con algunos expertos que se balancean incluso en el término AGI y mucho menos su viabilidad, al menos con modelos de idiomas grandes), Friar mencionó la opinión del CEO Sam Altman de que la inteligencia general artificial (AGI), la IA que maneja el trabajo humano más valioso, podría ser “inminente”. Esto sugiere que la transición de la IA como herramienta para los investigadores de la IA como investigador puede estar más cerca de lo que muchos se dan cuenta, con primeros ejemplos potencialmente emergentes en campos como el desarrollo de software.

https://www.youtube.com/watch?v=2kzqm_bue7e

Las principales instituciones de I + D están construyendo activamente capacidades de ‘investigación autónoma’. Por ejemplo, los laboratorios nacionales como Argonne y Oak Ridge están desarrollando ‘laboratorios autónomos’ diseñados específicamente para la ciencia y la química de los materiales. Los Alamos también está trabajando con OpenAi
Probar sus modelos de razonamiento en Energía y Aplicaciones de Seguridad Nacional en su supercomputadora de Venado.

En general, los laboratorios nacionales están explorando el uso de IA para asumir tareas de investigación básicas: generar hipótesis (a menudo a través de estrategias de optimización), diseñar experimentos de varios pasos, controlar la ejecución robótica, analizar los resultados en tiempo real e iterando hacia objetivos de descubrimiento con una intervención humana significativamente reducida dentro de dominios operativos específicos. Si bien aún requiere supervisión humana para la validación y la dirección estratégica, que funciona quizás en un ‘nivel 3’ o ‘nivel 4’ emergente de la autonomía de la investigación, tales iniciativas demuestran que la IA se va más allá del análisis de datos pasivos para participar directamente en el proceso de descubrimiento científico. Esto se extiende más allá de la construcción de sistemas integrados; Implica empoderar directamente a los investigadores, como se ve en el reciente Doe ‘1,000 científico Ai Jam’. Esta colaboración a gran escala reunió a unos 1.500 científicos en múltiples laboratorios nacionales, incluido Argonne, para probar modelos avanzados de razonamiento de IA de compañías como OpenAi y Anthrope en problemas científicos del mundo real. Los investigadores exploraron específicamente su potencial para mejorar las tareas como la generación de hipótesis y la automatización del experimento.

Una transición similar ya está en marcha en el desarrollo de software, aunque los desarrolladores actualmente tienen vistas mixtas sobre el potencial de las herramientas habilitadas para Genai. La IA de hoy a menudo sirve como asistente, pero la tecnología está aumentando rápidamente su juego de software, especialmente para lenguajes comunes que van desde Javascript hasta Python. Los modelos de OpenAI están demostrando un progreso significativo, “acercándose a nivel humano” en puntos de referencia clave, y Fray señaló que uno ya es “literalmente el mejor codificador del mundo”. Esto respalda el potencial fraile descrito para un “ingeniero de software de agente”, una IA que “puede salir y trabajar de forma independiente para usted”, incluidas la construcción, las pruebas y las aplicaciones de documentación. Esta evolución hacia capacidades más autónomas podría remodelar el campo por completo.

AI de 5 niveles de Openai
marco de madurez

Según los informes, Operai utiliza un marco interno de cinco niveles para comparar su progreso hacia la inteligencia general artificial (AGI). Esta estructura, discutida dentro de la compañía a mediados de 2024 y luego informada por puntos de venta como Bloomberg, describe distintas etapas de capacidad de IA:

  1. Nivel 1: Chatbots / AI conversacional: Sistemas expertos en el lenguaje natural, como Chatgpt.
  2. Nivel 2: razonadores: AI capaz de resolver problemas básicos comparables a un humano altamente educado. En este nivel, los modelos también pueden demostrar habilidades de razonamiento emergentes sin herramientas externas.
  3. Nivel 3: Agentes: Sistemas de IA autónomos que pueden administrar tareas complejas y tomar decisiones durante períodos prolongados en nombre de los usuarios.
  4. Nivel 4: Innovadores: La IA contribuye significativamente a la creatividad y el descubrimiento generando ideas novedosas, ayudando a la invención o impulsando los avances.
  5. Nivel 5: Organizaciones: La etapa del ápice donde la IA puede gestionar y operar las funciones complejas de toda una organización, potencialmente excediendo la eficiencia humana.

En general, los laboratorios nacionales están explorando el uso de IA para asumir tareas de investigación básicas: generar hipótesis (a menudo a través de estrategias de optimización), diseñar experimentos de varios pasos, controlar la ejecución robótica, analizar los resultados en tiempo real e iterando hacia objetivos de descubrimiento con una intervención humana significativamente reducida dentro de dominios operativos específicos. Si bien aún requiere supervisión humana para la validación y la dirección estratégica, que funciona quizás en un ‘nivel 3’ o ‘nivel 4’ emergente de la autonomía de la investigación, tales iniciativas demuestran que la IA se va más allá del análisis de datos pasivos para participar directamente en el proceso de descubrimiento científico. Esto se extiende más allá de la construcción de sistemas integrados; Implica empoderar directamente a los investigadores, como se ve en el reciente Doe ‘1,000 científico Ai Jam’. Esta colaboración a gran escala reunió a unos 1.500 científicos en múltiples laboratorios nacionales, incluido Argonne, para probar modelos avanzados de razonamiento de IA de compañías como OpenAi y Anthrope en problemas científicos del mundo real. Los investigadores exploraron específicamente su potencial para mejorar las tareas como la generación de hipótesis y la automatización del experimento.

Una transición similar ya está en marcha en el desarrollo de software, aunque los desarrolladores actualmente tienen vistas mixtas sobre el potencial de las herramientas habilitadas para Genai. La IA de hoy a menudo sirve como asistente, pero la tecnología está aumentando rápidamente su juego de software, especialmente para lenguajes comunes que van desde Javascript hasta Python. Los modelos de OpenAI están demostrando un progreso significativo, “acercándose a nivel humano” en puntos de referencia clave, y Fray señaló que uno ya es “literalmente el mejor codificador del mundo”. Esto respalda el potencial fraile descrito para un “ingeniero de software de agente”, una IA que “puede salir y trabajar de forma independiente para usted”, incluidas la construcción, las pruebas y las aplicaciones de documentación. Esta evolución hacia capacidades más autónomas podría remodelar el campo por completo.

Continue Reading

Noticias

Lo que se puso bien y mal

Published

on

Han pasado casi 30 años desde que fui a Disney World. Mis recuerdos de Disney son felices, pero no recuerdo ningún detalle más allá de usar oídos, hacer que los personajes firmen mi libro especial de autógrafos y permanezcan despierto hasta tarde para ver el espectáculo de fuegos artificiales en Epcot.

Tengo dos hijas, casi 4.5 y 2.5, que están obsesionados con las princesas, por lo que cuando descubrí que mi familia estaría en Orlando durante unos días en junio, decidí buscar ir a Disney World por el día. Haremos un viaje más grande de Disney World en un par de años, pero los niños menores de 3 años son gratuitos (una de las pocas cosas que sabía sobre Disney), así que pensé que aprovecharíamos eso y les daríamos una gran sorpresa.

El único problema es que pensar en planificar un día en Disney es abrumador. Hay Tanta información Acerca de cómo optimizar su tiempo en los parques.

Decidí pedirle a ChatGPT que planifique mi día, y luego tuve a Mary Helen Law, propietaria de la compañía de planificación de Disney Minnie Mouse Counselors y uno de los principales especialistas en viajes de Conde Nast Traveler, revise el itinerario. Siga leyendo para escuchar qué chatgpt se hizo bien y mal y qué tenía que decir un experto en Disney.

Conocer al experto

Mary Helen Law, fundador de Mini Mouse Counselores

Mary Helen es una madre y experta en viajes. Comenzó su carrera como agente de viajes en 2018 mientras trabajaba en marketing y desarrollo de negocios. En 2019 decidió dejar su trabajo diario para expandir su negocio. Desde entonces, ha ayudado a cientos de familias a planificar vacaciones mágicas en todo el mundo y es uno de los principales especialistas en viajes de Conde Nast Traveler.

My Disney World Chatgpt Planning de planificación

Primero, aquí está el aviso que le di a Chatgpt para crear nuestro itinerario de Disney World:

¿Puedes planificar el día de mi familia en Disney World? Seremos yo, mi esposo y mis dos hijas. Serán 2.5 y 4.5 para el viaje, y aman a Ariel, Elsa y Ana, Moana, Belle, 101 Dalmatians, Cenicienta y Mary Poppins.

Nos gustaría ir a dos parques diferentes en el transcurso del día, pero necesitaremos un descanso de tres a cuatro horas en la mitad del día para una siesta. Nos gustaría hacer un almuerzo sentado en un restaurante temático que nuestras niñas les gustaría en función de sus intereses. ¿Puede planificar un itinerario para el día para los parques que recomendaría? Además, debe haber una parada de bocadillos por la mañana y la tarde.

¿Qué chatgpt hizo lo correcto sobre la planificación de un viaje a Disney World?

Hay muchas cosas que ChatGPT se equivocó sobre la planificación de un viaje a Disney (más sobre eso en un momento), pero sí recomendó paseos y actividades que encajarían bien en función de los intereses de mis hijas, como ir al viaje “Under the Sea” y conocer a Ariel, ver “cuentos encantados con Belle”, con un almuerzo en el restaurante de invitados y ver la festival de la fantasía de Magic Kingdom.

Cuando mi hermana usó un planificador de Disney el año pasado, tuvo la experiencia opuesta. El planificador acaba de recomendar todos los paseos más populares, como Tron, en el que mi sobrino no habría tenido interés, por lo que al menos Chatgpt prestó atención a lo que le dije que le gustaban a mis chicas.

También le pregunté a ChatGPT si tenía algún consejo para tener un día exitoso en Disney, y obtuve una buena información, como usar la aplicación de Disney para verificar los tiempos de espera de viaje y pedir comida con anticipación, y que podríamos usar el programa Rider Switch en caso de que mi hijo menor fuera demasiado pequeño para viajar.

También me dio algunas recomendaciones excelentes sobre qué empacar para el día, como protector solar, toallitas para bebés y bocadillos. Law estuvo de acuerdo en que había algunas pepitas de buena información, pero señaló que ChatGPT no incluía empacar un cargador de teléfono portátil, algo que dijo que necesitaríamos.

Qué chatgpt se equivocó sobre nuestro itinerario del día de Disney

Tres cosas principales para recordar sobre ChatGPT es que solo responde a lo que le da, se está retirando de la información en Internet y puede que no siempre sea correcto, y tampoco hay un elemento humano para ayudar a racionalizar la información.

Por ejemplo, le dije a ChatGPT que quería ir a dos parques, por lo que me dio un itinerario basado en ese aviso. Nunca hubiera sugerido que no haga dos parques porque sería poco realista dadas las edades de mis hijos.

ChatGPT carece de la capacidad de decir que no o sugerir ideas alternativas

Chatgpt hizo lo que le pedí, pero si hubiera abrazado las sugerencias, supongo que nunca habríamos regresado al parque después de una siesta y está muy frustrado.

Law, por otro lado, echó un vistazo a mi aviso y me dijo que realmente recomendaría no saltar en el parque y que deberíamos quedarnos en Magic Kingdom todo el día versus tratar de irme y volver.

Law me explicó que debido a que no nos quedamos en un resort de Disney, pasaremos mucho más tiempo pasando del estacionamiento a los parques, y que mi estimación de 30 minutos probablemente fue más como una hora y media. ChatGPT no sabe cuánto tiempo lleva llegar al estacionamiento y regresar a un hotel y no pudo estimar con precisión la logística detrás de esto.

También recomendó una siesta de cochecito en el carrusel de progreso con aire acondicionado, que según ella generalmente era un lugar más tranquilo, en lugar de tratar de irse y volver al parque. ChatGPT también recomendó este lugar y el Salón de Presidentes actualmente cerrado como un gran lugar para tomar un descanso, pero en general necesitaba un humano con más conocimiento de cómo funcionan las cosas en Disney para ayudarme a entender lo que era realista en lugar de no para nuestro viaje.

Chatgpt no incluyó ningún tiempo de espera para los paseos

Si nos fijamos en el itinerario que Chatgpt me dio por Disney, es como si tuviéramos el parque para nosotros mismos. Según ChatGPT, estaríamos en camino o en una nueva atracción cada 30 minutos.

Incluso sé lo suficiente sobre Disney para saber que eso no sonó bien. Law dijo que probablemente estaríamos en el extremo inferior de los tiempos de espera desde que iremos a principios de junio, pero acordamos que la cantidad de cosas que el itinerario dijo que logramos no parecía realista.

En cambio, ella me acompañó a través de la aplicación de Disney y me mostró cómo podré ver cuáles son los tiempos de espera para cada viaje, cuáles son los tiempos de show y cómo ver qué personajes están.

También me habló de las otras formas en que podemos reducir los tiempos de espera comprando pases de rayos o el pase Premier, que es un programa más nuevo (aunque costoso) que Disney está probando que le da una entrada a cada experiencia de Lightning Lane.

Usar ChatGPT sería excelente para preguntar qué paseos serían apropiados para mis niñas en función de su edad e intereses para que tengamos una idea de qué apuntar durante todo el día, pero la información sobre cómo usar la aplicación para ahorrar tiempo que la ley me dio será mucho más útil. También ayudó a establecer el nivel de mis expectativas sobre lo que podremos lograr en un día, lo que me ayudará a no estresarse por no poder hacerlo todo una vez que lleguemos allí.

Chatgpt se equivocó con cosas importantes que habrían arruinado nuestro día en Disney

Recuerde, soy un novato en Disney, así que tomé toda la información que me dio al pie de la letra.

El problema, dice Law, es que “ChatGPT simplemente no puede mantenerse al día con la cantidad que cambia Disney”. Se extrae de fuentes en todo Internet y no puede discernir lo que es correcto o no, así que terminé con cosas en el itinerario que no son precisos.

¿Uno de los mayores errores? El itinerario dijo que podríamos conocer a Ana y Elsa, los personajes favoritos de mis niñas, en el Princess Fairytale Hall, que no es cierto. Se encuentran y saludan en Epcot en el Royal Sommerhus.

Law sintió mi decepción y me aseguró que las chicas podrían saludar a Ana, Elsa y Olaf en la feria de amistad mágica de Mickey o en el desfile de Magic Kingdom.

¿Otras cosas importantes que Chatgpt se equivocó que habría descarrilado nuestro día? Sugirió conocer a Ariel a las 9 am cuando no está disponible hasta las 10 de la mañana; dijo que podríamos ingresar al parque a las 8 a.m., lo cual es incorrecto teniendo en cuenta que Magic Kingdom abre a las 8:30 a.m. para las personas que permanecen en la propiedad y las 9 a.m. para las personas que se mantienen fuera de la propiedad; y dijo que deberíamos usar Genie+ o un paso rápido para reducir los tiempos de espera, los cuales son servicios que ya no existen.

Es fácil suponer que lo que ChatGPT escupe es exacto, pero en nuestro caso todos estos errores habrían causado una frustración significativa para el día.

¿Debería usar ChatGPT para cualquier parte de su planificación de Disney?

Law dijo que podía ver que ChatGPT era útil para “cosas de espectro muy amplio” al planificar un viaje a Disney, como recomendaciones para qué recurre para quedarse o tener una idea general de qué personajes son los parques (aunque tenga en cuenta, ChatGPT me dio información incorrecta sobre esto).

“Creo que hay mucha seguridad laboral en lo que [travel planners] Haga por las relaciones que tenemos y el conocimiento “, dice, pero dice que no cree que sea una mala idea usar ChatGPT para obtener algunas ideas iniciales antes de hablar con un planificador.

Chatgpt Disney World Itinerario
Fuente: @mrscofieldandco | Instagram

¿Debería usar un planificador de Disney para su viaje de Disney?

No tiene que usar un planificador de Disney para planificar su viaje, pero después de mi experiencia con ChatGPT, usaré uno, ya que todavía no sé por dónde comenzar con toda la información.

Trabajar con un planificador de Disney es a menudo gratuito, ya que Disney le paga a una comisión al planificador, pero si no es así, podría valer la pena la inversión solo para asegurarse de obtener la información más precisa.

Si no desea usar un planificador, pregúntele a los amigos que hayan estado en Disney para sus consejos e itinerarios. Puede ser más fácil entender lo que es realista en lugar de no para su familia si tiene hijos de edad similar y aún reducirá el trabajo para usted (Everymom también tiene consejos de mamás para viajar a Disney World con niños pequeños, Disney con un bebé e incluso Disney World mientras está embarazada).

Veredicto final? ChatGPT podría ser bueno para algunos aspectos de la planificación de viajes, pero el itinerario que me dio en base a mi aviso no era realista y tenía muchos errores. Para algo tan complicado como Disney World, tener ideas y juicio humanos se siente como una mejor manera de tratar de garantizar más magia de Disney que los dolores de cabeza.

Elliot Harrell SHOYSHOT

Sobre el autor

Elliott Harrell, escritor colaborador

Elliott es madre de dos niñas y tiene su sede en Raleigh, NC. Pasa sus días dirigiendo un equipo de ventas y lavando la ropa y sus noches escribiendo sobre las cosas que ama. Le apasiona todas las cosas de la maternidad y la salud de las mujeres. Cuando no está trabajando, escribiendo o criando, puede encontrarla probar un nuevo restaurante en la ciudad o trabajar en su último proyecto de aguja.

Continue Reading

Noticias

Operai vs Musk Legal Feud se intensifica; Informe de la IEA

Published

on

Operai, la compañía detrás de ChatGPT, disparó la semana pasada con un mostrador contra Elon Musk, marcando otro capítulo en lo que se ha convertido en una batalla legal muy pública entre Elon Musk, Sam Altman, Operai y unos pocos otros.

Musk ha estado en guerra con Operai y el CEO Sam Altman durante casi un año, acusando a la compañía de abandonar su misión original. La demanda original de Musk se centra en las afirmaciones de que OpenAI violó su acuerdo de fundadores y se separó de sus raíces originales sin fines de lucro en busca de ganancia comercial, específicamente a través de la creación de Operai Global LLC, su armado con fines de lucro, así como en su búsqueda de convertir su entidad sin fines de lucro en una compañía con fines de lucro.

Pero esta semana, Operai respondió. La compañía presentó una respuesta legal acusando a Musk de participar en “prácticas comerciales ilegales e injustas” diseñadas para interrumpir las operaciones de OpenAi y untar su reputación. Operai también afirma que Musk está haciendo principalmente todo esto para beneficiar a su compañía de IA, Xai.

Si solo estás poniendo al día con esta disputa, todavía estamos en sus primeras entradas, y ahora es el momento de ponerte al día. Nuestra cobertura anterior desglosa las presentaciones legales, la historia entre Musk y OpenAi, y lo que está en juego para ambas compañías.

La suscripción de $ 200 de Claude

La semana pasada, Anthrope lanzó un nuevo “Plan Max” para su IA Chatbot Claude, un nivel de suscripción de $ 100 y $ 200 por mes que ofrece lo que la compañía llama “uso ampliado”, que es solo otra forma de decir que podrá hacer más (tendrá menos límites) en Claude que antes. El nivel de $ 100/mes ofrece 5 veces más uso que el plan estándar Pro y el plan de $ 200/mes aumenta el uso de 20 veces el uso.

Un movimiento como este probablemente será celebrado por desarrolladores y nuevas empresas que tienen Claude integrado en algún lugar de su pila tecnológica. Pero debajo del capó, este movimiento es más que un rendimiento para sus usuarios; Se trata de rentabilidad para Anthrope, la empresa matriz para Claude.

Anthrope probablemente espere que este nuevo plan Max abra un nuevo canal de ingresos. Después de todo, se rumorea que el PRO Pro de $ 200/mes de OpenAI ha traído $ 300 millones adicionales después de su lanzamiento.

Este cambio de precios también resalta una tendencia más grande que se ha desarrollado detrás de escena del auge de la IA. A pesar de miles de millones en el gasto, ninguna de estas compañías de IA líderes ha obtenido ganancias todavía, y los inversores están comenzando a preocuparse, por lo que están comenzando a preguntar cuándo y de dónde provendrá un retorno de su inversión.

Ofrecer un producto más costoso es una forma de acercarse a la rentabilidad que los inversores están comenzando a presionar a estas compañías de inteligencia artificial para que produzcan, pero es poco probable que confiar en esa corriente de ingresos de los modelos de suscripción por sí solos sea poco probable que cualquiera de las empresas allí, especialmente cuando comienza a analizar cómo los consumidores demandan bien y servicios de IA.

El informe de la IEA explora el consumo de energía de IA

La Agencia Internacional de Energía (IEA) publicó un informe la semana pasada titulado Energía y ai, que exploró la creciente relación entre la inteligencia artificial y el consumo de energía global.

En 301 páginas, es un informe denso, pero aquí hay algunas conclusiones que se destacaron:

1. AI está aumentando la demanda de electricidad

Según el informe, se proyecta que el consumo de electricidad por parte de los centros de datos sea más del doble para 2030, y la IA es el impulsor número uno de ese crecimiento. Se espera que Estados Unidos sea responsable de más de la mitad del aumento global. Al final de la década, el uso de electricidad del Centro de datos de EE. UU. Podría exceder la potencia total utilizada para producir acero, aluminio, cemento, productos químicos y todos los demás bienes intensivos en energía combinados.

2. ¿De dónde vendrá el poder?

No se trata solo de construir más centros de datos; La IEA señala que varias redes de energía en todo el mundo ya están bajo una fuerte tensión. Sin actualizaciones significativas de infraestructura, especialmente nuevas líneas de transmisión, que pueden tardar de 4 a 8 años en construirse, muchos de los planes de expansión del centro de datos que seguimos escuchando pueden retrasarse o cancelarse.

3. El impacto energético de la IA no se está tratando como el de Crypto.

Mientras estaba pasando por el informe, me di cuenta de que el tono en torno al consumo de energía de IA es muy diferente a la actitud que estas mismas agencias tenían hacia la minería de recompensa en bloque. A pesar de que los centros de datos podrían estar utilizando más potencia que todo Japón para 2030, la AIE no argumentó que la industria está consumiendo demasiada electricidad. En cambio, argumenta que las contribuciones de IA a la innovación, especialmente en la eficiencia energética y la optimización de la red, pueden justificar el consumo.

En general, el informe trae algunos de los componentes menos explorados pero cruciales de la industria de la inteligencia artificial a la superficie. Si bien las compañías de IA han estado diciendo durante un tiempo que Estados Unidos necesita más centros de datos para mantenerse competitivos, el informe de la AIE subraya una parte del argumento de que generalmente no escuchamos de las compañías de IA: que no se trata solo de los centros de datos, también se trata de las fuentes de energía. Si la generación de energía y las soluciones de entrega no se exploran e implementan rápidamente, tienen el potencial de ralentizar significativamente los planes que algunos de los gigantes tecnológicos tienen para la industria de la IA.

Para que la inteligencia artificial (IA) trabaje en la ley y prospere frente a los crecientes desafíos, necesita integrar un sistema de cadena de bloques empresarial que garantice la calidad y la propiedad de la entrada de datos, lo que permite mantener los datos seguros al tiempo que garantiza la inmutabilidad de los datos. Echa un vistazo a la cobertura de Coingeek sobre esta tecnología emergente para aprender más Por qué Enterprise Blockchain será la columna vertebral de AI.

RELOJ: Los micropagos son lo que permitirán a las personas confiar en la IA

https://www.youtube.com/watch?v=XC9XDZMHJ9Q title = “YouTube Video Player” FrameBorDer = “0” permitido = “acelerómetro; autoplay; portapapeles-write; cifrado-media; gyroscope; imagen-in-pinicure; web-share” referrerPolicy = “estricto-origin-when-cross-órigin” permitido aficionado = “>”> “>”

Continue Reading

Trending