Connect with us

Noticias

DeepSeek desafía la cadena de pensamiento o1 de OpenAI, pero le faltan algunos eslabones

Published

on

akinbostanci/Getty Images

Consideremos un tren que sale de Chicago y viaja hacia el oeste a setenta millas por hora, y otro tren que sale de San Francisco y viaja hacia el este a ochenta millas por hora. ¿Puedes averiguar cuándo y dónde se encontrarán?

Es un problema matemático clásico de la escuela primaria, y los programas de inteligencia artificial (IA), como el modelo de lenguaje grande “o1” lanzado recientemente por OpenAI, actualmente en versión preliminar, no solo encontrarán la respuesta sino que también explicarán un poco cómo llegaron a ella.

Las explicaciones son parte de un enfoque cada vez más popular en la IA generativa conocido como cadena de pensamiento.

Aunque la cadena de pensamiento puede ser muy útil, también tiene el potencial de ser totalmente desconcertante dependiendo de cómo se haga, como descubrí mediante un poco de experimentación.

También: OpenAI amplía la disponibilidad del modelo o1: aquí se explica quién obtiene acceso y cuánto

La idea detrás del procesamiento de la cadena de pensamiento es que el modelo de IA puede detallar la secuencia de cálculos que realiza en busca de la respuesta final, logrando en última instancia una IA “explicable”. Una IA tan explicable podría posiblemente dar a los humanos una mayor confianza en las predicciones de la IA al revelar la base de una respuesta.

Por contexto, un modelo de IA se refiere a parte de un programa de IA que contiene numerosos parámetros de red neuronal y funciones de activación que comprenden los elementos clave de cómo funciona el programa.

Para explorar el asunto, comparé o1 de OpenAI con R1-Lite, el modelo más nuevo de la startup DeepSeek con sede en China. R1-Lite va más allá que o1 al dar declaraciones detalladas de la cadena de pensamiento, lo que contrasta con el estilo bastante conciso de o1.

Además: ChatGPT escribe mi rutina en los 12 principales lenguajes de programación. Esto es lo que me dicen los resultados

DeepSeek afirma que R1-Lite puede superar a o1 en varias pruebas de referencia, incluida MATH, una prueba desarrollada por UC Berkeley que consta de 12.500 conjuntos de preguntas y respuestas de matemáticas.

La luminaria de la IA Andrew Ng, fundador de Landing.ai, explicó que la introducción de R1-Lite es “parte de un movimiento importante” que va más allá de simplemente hacer que los modelos de IA sean más grandes para hacer que hagan un trabajo adicional para justificar sus resultados.

Pero descubrí que R1-Lite también puede ser desconcertante y tedioso en formas que no lo son.

Además: las pruebas de software basadas en IA ganan más defensores, pero persisten las preocupaciones

Envié la pregunta de matemáticas sobre trenes famosos anterior a la vista previa de R1-Lite y o1. Puede probar R1-Lite de forma gratuita creando una cuenta gratuita en el sitio web de DeepSeek y puede acceder a la vista previa de o1 como parte de una cuenta ChatGPT paga con OpenAI. (R1-Lite aún no se ha lanzado como código abierto, aunque hay otros proyectos de DeepSeek disponibles en GitHub).

deepseek-versus-openai-si-un-tren-sale-chicago-2024.png

Ambos chatbots comienzan con rutas bastante simples hacia una solución al famoso problema de los trenes en matemáticas de la escuela primaria.

Ambos modelos obtuvieron respuestas similares, aunque el modelo o1 fue notablemente más rápido, tardando cinco segundos en dar una respuesta, mientras que el R1-Lite de DeepSeek tardó 21 segundos (cada uno de los dos modelos te dice cuánto tiempo “pensaron”). o1 también utilizó un número más preciso de millas entre Chicago y San Francisco en su cálculo.

La diferencia más interesante llegó en la siguiente ronda.

También: ¿Qué tan bien puede funcionar el código de vista previa o1 de OpenAI? Superó mis 4 pruebas y mostró su trabajo con sorprendente detalle.

Cuando pedí a ambos modelos que calcularan aproximadamente dónde se encontrarían los dos trenes, es decir, en qué pueblo o ciudad de Estados Unidos, el modelo o1 rápidamente produjo Cheyenne, Wyoming. En el proceso, o1 telegrafió su cadena de pensamiento mostrando brevemente mensajes cortos como “Analizando el viaje de los trenes”, “Mapeando el viaje” o “Determinando el punto de encuentro”.

Estos no eran realmente informativos sino más bien un indicador de que algo estaba pasando.

Por el contrario, el DeepSeek R1-Lite pasó casi un minuto en su cadena de pensamiento y, como en otros casos, fue muy detallado, dejando un rastro de descripciones de “pensamientos” que suman un total de 2200 palabras. Estos se volvieron cada vez más complicados a medida que el modelo avanzaba a través de la cadena. El modelo comenzó de manera bastante simple, postulando que dondequiera que llegara cada tren al final de 12 horas sería aproximadamente donde ambos trenes estarían cerca uno del otro, en algún lugar entre los dos orígenes.

Pero luego el R1-Lite de DeepSeek se descarriló completamente, por así decirlo. Probó muchas formas extrañas y extravagantes de calcular la ubicación y narró cada método con un detalle insoportable.

deepseek-versus-openai-dónde-se-encuentran-los-trenes-2024.png

Mientras que el modelo o1 de OpenAI concluye su trabajo con bastante rapidez, el R1-Lite de DeepSeek, a la izquierda, pasa por un proceso de “pensamiento” largo y sinuoso que se vuelve cada vez más complicado y distrae.

Primero, calculó distancias desde Chicago a varias ciudades diferentes en el camino a San Francisco, así como las distancias entre ciudades, para aproximar una ubicación.

Además: probé 9 detectores de contenido de IA, y estos 2 identificaron correctamente el texto de IA en todo momento.

Luego recurrió al uso longitud en el mapa y calculando los grados de longitud que viajó el tren de Chicago. Luego retrocedió e intentó calcular distancias distancia de conducción.

En medio de todo esto, la modelo escupió la afirmación: “Espera, me estoy confundiendo”, lo que probablemente sea cierto para el ser humano que mira todo esto.

deepseek-confundido-por-su-propio-razonamiento-2024

El R1-Lite de DeepSeek expresa confusión: el modelo de IA no está literalmente confundido, pero el ser humano que lo usa podría estarlo.

Cuando R1-Lite produjo la respuesta – “en el oeste de Nebraska o el este de Colorado”, que es una aproximación aceptable – el razonamiento era tan abstruso que ya no era “explicable” sino desalentador.

Además: la IA no está chocando contra una pared; simplemente se está volviendo demasiado inteligente para los puntos de referencia, dice Anthropic

Al explicar un supuesto proceso de razonamiento con laborioso detalle, a diferencia del modelo o1, que mantiene la respuesta bastante breve, el R1-Lite de DeepSeek en realidad termina siendo complejo y confuso.

Es posible que con indicaciones más precisas que incluyan detalles como rutas de tren reales, la cadena de pensamiento pueda ser mucho más limpia. El acceso a bases de datos externas para las coordenadas del mapa también podría hacer que el R1-Lite tenga menos eslabones en la cadena de pensamiento.

La prueba demuestra que en estos primeros días de razonamiento en cadena de pensamiento, los humanos que trabajan con chatbots probablemente terminen confundidos incluso si finalmente obtienen una respuesta aceptable del modelo de IA.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Everything you need to know about the AI chatbot

Published

on

ChatGPT, OpenAI’s text-generating AI chatbot, has taken the world by storm since its launch in November 2022. What started as a tool to supercharge productivity through writing essays and code with short text prompts has evolved into a behemoth with 300 million weekly active users.

2024 was a big year for OpenAI, from its partnership with Apple for its generative AI offering, Apple Intelligence, the release of GPT-4o with voice capabilities, and the highly-anticipated launch of its text-to-video model Sora.

OpenAI also faced its share of internal drama, including the notable exits of high-level execs like co-founder and longtime chief scientist Ilya Sutskever and CTO Mira Murati. OpenAI has also been hit with lawsuits from Alden Global Capital-owned newspapers alleging copyright infringement, as well as an injunction from Elon Musk to halt OpenAI’s transition to a for-profit.

In 2025, OpenAI is battling the perception that it’s ceding ground in the AI race to Chinese rivals like DeepSeek. The company has been trying to shore up its relationship with Washington as it simultaneously pursues an ambitious data center project, and as it reportedly lays the groundwork for one of the largest funding rounds in history.

Below, you’ll find a timeline of ChatGPT product updates and releases, starting with the latest, which we’ve been updating throughout the year. If you have any other questions, check out our ChatGPT FAQ here.

To see a list of 2024 updates, go here.

Timeline of the most recent ChatGPT updates

April 2025

OpenAI unveils Flex processing for cheaper, slower AI tasks

OpenAI has launched a new API feature called Flex processing that allows users to use AI models at a lower cost but with slower response times and occasional resource unavailability. Flex processing is available in beta on the o3 and o4-mini reasoning models for non-production tasks like model evaluations, data enrichment and asynchronous workloads.

OpenAI’s latest AI models now have a safeguard against biorisks

OpenAI has rolled out a new system to monitor its AI reasoning models, o3 and o4 mini, for biological and chemical threats. The system is designed to prevent models from giving advice that could potentially lead to harmful attacks, as stated in OpenAI’s safety report.

OpenAI launches its latest reasoning models, o3 and o4-mini

OpenAI has released two new reasoning models, o3 and o4 mini, just two days after launching GPT-4.1. The company claims o3 is the most advanced reasoning model it has developed, while o4-mini is said to provide a balance of price, speed and performance. The new models stand out from previous reasoning models because they can use ChatGPT features like web browsing, coding, and image processing and generation. But they hallucinate more than several of OpenAI’s previous models.

OpenAI has added a new section to ChatGPT to offer easier access to AI-generated images for all user tiers

Open AI introduced a new section called “library” to make it easier for users to create images on mobile and web platforms, per the company’s X post.

OpenAI could “adjust” its safeguards if rivals release “high-risk” AI

OpenAI said on Tuesday that it might revise its safety standards if “another frontier AI developer releases a high-risk system without comparable safeguards.” The move shows how commercial AI developers face more pressure to rapidly implement models due to the increased competition.

OpenAI is building its own social media network

OpenAI is currently in the early stages of developing its own social media platform to compete with Elon Musk’s X and Mark Zuckerberg’s Instagram and Threads, according to The Verge. It is unclear whether OpenAI intends to launch the social network as a standalone application or incorporate it into ChatGPT.

OpenAI will remove its largest AI model, GPT-4.5, from the API, in July

OpenAI will discontinue its largest AI model, GPT-4.5, from its API even though it was just launched in late February. GPT-4.5 will be available in a research preview for paying customers. Developers can use GPT-4.5 through OpenAI’s API until July 14; then, they will need to switch to GPT-4.1, which was released on April 14.

OpenAI unveils GPT-4.1 AI models that focus on coding capabilities

OpenAI has launched three members of the GPT-4.1 model — GPT-4.1, GPT-4.1 mini, and GPT-4.1 nano — with a specific focus on coding capabilities. It’s accessible via the OpenAI API but not ChatGPT. In the competition to develop advanced programming models, GPT-4.1 will rival AI models such as Google’s Gemini 2.5 Pro, Anthropic’s Claude 3.7 Sonnet, and DeepSeek’s upgraded V3.

OpenAI will discontinue ChatGPT’s GPT-4 at the end of April

OpenAI plans to sunset GPT-4, an AI model introduced more than two years ago, and replace it with GPT-4o, the current default model, per changelog. It will take effect on April 30. GPT-4 will remain available via OpenAI’s API.

OpenAI could release GPT-4.1 soon

OpenAI may launch several new AI models, including GPT-4.1, soon, The Verge reported, citing anonymous sources. GPT-4.1 would be an update of OpenAI’s GPT-4o, which was released last year. On the list of upcoming models are GPT-4.1 and smaller versions like GPT-4.1 mini and nano, per the report.

OpenAI has updated ChatGPT to use information from your previous conversations

OpenAI started updating ChatGPT to enable the chatbot to remember previous conversations with a user and customize its responses based on that context. This feature is rolling out to ChatGPT Pro and Plus users first, excluding those in the U.K., EU, Iceland, Liechtenstein, Norway, and Switzerland.

OpenAI is working on watermarks for images made with ChatGPT

It looks like OpenAI is working on a watermarking feature for images generated using GPT-4o. AI researcher Tibor Blaho spotted a new “ImageGen” watermark feature in the new beta of ChatGPT’s Android app. Blaho also found mentions of other tools: “Structured Thoughts,” “Reasoning Recap,” “CoT Search Tool,” and “l1239dk1.”

OpenAI offers ChatGPT Plus for free to U.S., Canadian college students

OpenAI is offering its $20-per-month ChatGPT Plus subscription tier for free to all college students in the U.S. and Canada through the end of May. The offer will let millions of students use OpenAI’s premium service, which offers access to the company’s GPT-4o model, image generation, voice interaction, and research tools that are not available in the free version.

ChatGPT users have generated over 700M images so far

More than 130 million users have created over 700 million images since ChatGPT got the upgraded image generator on March 25, according to COO of OpenAI Brad Lightcap. The image generator was made available to all ChatGPT users on March 31, and went viral for being able to create Ghibli-style photos.

OpenAI’s o3 model could cost more to run than initial estimate

The Arc Prize Foundation, which develops the AI benchmark tool ARC-AGI, has updated the estimated computing costs for OpenAI’s o3 “reasoning” model managed by ARC-AGI. The organization originally estimated that the best-performing configuration of o3 it tested, o3 high, would cost approximately $3,000 to address a single problem. The Foundation now thinks the cost could be much higher, possibly around $30,000 per task.

OpenAI CEO says capacity issues will cause product delays

In a series of posts on X, OpenAI CEO Sam Altman said the company’s new image-generation tool’s popularity may cause product releases to be delayed. “We are getting things under control, but you should expect new releases from OpenAI to be delayed, stuff to break, and for service to sometimes be slow as we deal with capacity challenges,” he wrote.

March 2025

OpenAI plans to release a new ‘open’ AI language model

OpeanAI intends to release its “first” open language model since GPT-2 “in the coming months.” The company plans to host developer events to gather feedback and eventually showcase prototypes of the model. The first developer event is to be held in San Francisco, with sessions to follow in Europe and Asia.

OpenAI removes ChatGPT’s restrictions on image generation

OpenAI made a notable change to its content moderation policies after the success of its new image generator in ChatGPT, which went viral for being able to create Studio Ghibli-style images. The company has updated its policies to allow ChatGPT to generate images of public figures, hateful symbols, and racial features when requested. OpenAI had previously declined such prompts due to the potential controversy or harm they may cause. However, the company has now “evolved” its approach, as stated in a blog post published by Joanne Jang, the lead for OpenAI’s model behavior.

OpenAI adopts Anthropic’s standard for linking AI models with data

OpenAI wants to incorporate Anthropic’s Model Context Protocol (MCP) into all of its products, including the ChatGPT desktop app. MCP, an open-source standard, helps AI models generate more accurate and suitable responses to specific queries, and lets developers create bidirectional links between data sources and AI applications like chatbots. The protocol is currently available in the Agents SDK, and support for the ChatGPT desktop app and Responses API will be coming soon, OpenAI CEO Sam Altman said.

The latest update of the image generator on OpenAI’s ChatGPT has triggered a flood of AI-generated memes in the style of Studio Ghibli, the Japanese animation studio behind blockbuster films like “My Neighbor Totoro” and “Spirited Away.” The burgeoning mass of Ghibli-esque images have sparked concerns about whether OpenAI has violated copyright laws, especially since the company is already facing legal action for using source material without authorization.

OpenAI expects revenue to triple to $12.7 billion this year

OpenAI expects its revenue to triple to $12.7 billion in 2025, fueled by the performance of its paid AI software, Bloomberg reported, citing an anonymous source. While the startup doesn’t expect to reach positive cash flow until 2029, it expects revenue to increase significantly in 2026 to surpass $29.4 billion, the report said.

ChatGPT has upgraded its image-generation feature

OpenAI on Tuesday rolled out a major upgrade to ChatGPT’s image-generation capabilities: ChatGPT can now use the GPT-4o model to generate and edit images and photos directly. The feature went live earlier this week in ChatGPT and Sora, OpenAI’s AI video-generation tool, for subscribers of the company’s Pro plan, priced at $200 a month, and will be available soon to ChatGPT Plus subscribers and developers using the company’s API service. The company’s CEO Sam Altman said on Wednesday, however, that the release of the image generation feature to free users would be delayed due to higher demand than the company expected.

OpenAI announces leadership updates

Brad Lightcap, OpenAI’s chief operating officer, will lead the company’s global expansion and manage corporate partnerships as CEO Sam Altman shifts his focus to research and products, according to a blog post from OpenAI. Lightcap, who previously worked with Altman at Y Combinator, joined the Microsoft-backed startup in 2018. OpenAI also said Mark Chen would step into the expanded role of chief research officer, and Julia Villagra will take on the role of chief people officer.

OpenAI’s AI voice assistant now has advanced feature

OpenAI has updated its AI voice assistant with improved chatting capabilities, according to a video posted on Monday (March 24) to the company’s official media channels. The update enables real-time conversations, and the AI assistant is said to be more personable and interrupts users less often. Users on ChatGPT’s free tier can now access the new version of Advanced Voice Mode, while paying users will receive answers that are “more direct, engaging, concise, specific, and creative,” a spokesperson from OpenAI told TechCrunch.

OpenAI, Meta in talks with Reliance in India

OpenAI and Meta have separately engaged in discussions with Indian conglomerate Reliance Industries regarding potential collaborations to enhance their AI services in the country, per a report by The Information. One key topic being discussed is Reliance Jio distributing OpenAI’s ChatGPT. Reliance has proposed selling OpenAI’s models to businesses in India through an application programming interface (API) so they can incorporate AI into their operations. Meta also plans to bolster its presence in India by constructing a large 3GW data center in Jamnagar, Gujarat. OpenAI, Meta, and Reliance have not yet officially announced these plans.

OpenAI faces privacy complaint in Europe for chatbot’s defamatory hallucinations

Noyb, a privacy rights advocacy group, is supporting an individual in Norway who was shocked to discover that ChatGPT was providing false information about him, stating that he had been found guilty of killing two of his children and trying to harm the third. “The GDPR is clear. Personal data has to be accurate,” said Joakim Söderberg, data protection lawyer at Noyb, in a statement. “If it’s not, users have the right to have it changed to reflect the truth. Showing ChatGPT users a tiny disclaimer that the chatbot can make mistakes clearly isn’t enough. You can’t just spread false information and in the end add a small disclaimer saying that everything you said may just not be true.”

OpenAI upgrades its transcription and voice-generating AI models

OpenAI has added new transcription and voice-generating AI models to its APIs: a text-to-speech model, “gpt-4o-mini-tts,” that delivers more nuanced and realistic sounding speech, as well as two speech-to-text models called “gpt-4o-transcribe” and “gpt-4o-mini-transcribe”. The company claims they are improved versions of what was already there and that they hallucinate less.

OpenAI has launched o1-pro, a more powerful version of its o1

OpenAI has introduced o1-pro in its developer API. OpenAI says its o1-pro uses more computing than its o1 “reasoning” AI model to deliver “consistently better responses.” It’s only accessible to select developers who have spent at least $5 on OpenAI API services. OpenAI charges $150 for every million tokens (about 750,000 words) input into the model and $600 for every million tokens the model produces. It costs twice as much as OpenAI’s GPT-4.5 for input and 10 times the price of regular o1.

OpenAI research lead Noam Brown thinks AI “reasoning” models could’ve arrived decades ago

Noam Brown, who heads AI reasoning research at OpenAI, thinks that certain types of AI models for “reasoning” could have been developed 20 years ago if researchers had understood the correct approach and algorithms.

OpenAI says it has trained an AI that’s “really good” at creative writing

OpenAI CEO Sam Altman said, in a post on X, that the company has trained a “new model” that’s “really good” at creative writing. He posted a lengthy sample from the model given the prompt “Please write a metafictional literary short story about AI and grief.” OpenAI has not extensively explored the use of AI for writing fiction. The company has mostly concentrated on challenges in rigid, predictable areas such as math and programming. And it turns out that it might not be that great at creative writing at all.

OpenAI launches new tools to help businesses build AI agents

OpenAI rolled out new tools designed to help developers and businesses build AI agents — automated systems that can independently accomplish tasks — using the company’s own AI models and frameworks. The tools are part of OpenAI’s new Responses API, which enables enterprises to develop customized AI agents that can perform web searches, scan through company files, and navigate websites, similar to OpenAI’s Operator product. The Responses API effectively replaces OpenAI’s Assistants API, which the company plans to discontinue in the first half of 2026.

OpenAI reportedly plans to charge up to $20,000 a month for specialized AI ‘agents’

OpenAI intends to release several “agent” products tailored for different applications, including sorting and ranking sales leads and software engineering, according to a report from The Information. One, a “high-income knowledge worker” agent, will reportedly be priced at $2,000 a month. Another, a software developer agent, is said to cost $10,000 a month. The most expensive rumored agents, which are said to be aimed at supporting “PhD-level research,” are expected to cost $20,000 per month. The jaw-dropping figure is indicative of how much cash OpenAI needs right now: The company lost roughly $5 billion last year after paying for costs related to running its services and other expenses. It’s unclear when these agentic tools might launch or which customers will be eligible to buy them.

ChatGPT can directly edit your code

The latest version of the macOS ChatGPT app allows users to edit code directly in supported developer tools, including Xcode, VS Code, and JetBrains. ChatGPT Plus, Pro, and Team subscribers can use the feature now, and the company plans to roll it out to more users like Enterprise, Edu, and free users.

ChatGPT’s weekly active users doubled in less than 6 months, thanks to new releases

According to a new report from VC firm Andreessen Horowitz (a16z), OpenAI’s AI chatbot, ChatGPT, experienced solid growth in the second half of 2024. It took ChatGPT nine months to increase its weekly active users from 100 million in November 2023 to 200 million in August 2024, but it only took less than six months to double that number once more, according to the report. ChatGPT’s weekly active users increased to 300 million by December 2024 and 400 million by February 2025. ChatGPT has experienced significant growth recently due to the launch of new models and features, such as GPT-4o, with multimodal capabilities. ChatGPT usage spiked from April to May 2024, shortly after that model’s launch.

February 2025

OpenAI cancels its o3 AI model in favor of a ‘unified’ next-gen release

OpenAI has effectively canceled the release of o3 in favor of what CEO Sam Altman is calling a “simplified” product offering. In a post on X, Altman said that, in the coming months, OpenAI will release a model called GPT-5 that “integrates a lot of [OpenAI’s] technology,” including o3, in ChatGPT and its API. As a result of that roadmap decision, OpenAI no longer plans to release o3 as a standalone model. 

ChatGPT may not be as power-hungry as once assumed

A commonly cited stat is that ChatGPT requires around 3 watt-hours of power to answer a single question. Using OpenAI’s latest default model for ChatGPT, GPT-4o, as a reference, nonprofit AI research institute Epoch AI found the average ChatGPT query consumes around 0.3 watt-hours. However, the analysis doesn’t consider the additional energy costs incurred by ChatGPT with features like image generation or input processing.

OpenAI now reveals more of its o3-mini model’s thought process

In response to pressure from rivals like DeepSeek, OpenAI is changing the way its o3-mini model communicates its step-by-step “thought” process. ChatGPT users will see an updated “chain of thought” that shows more of the model’s “reasoning” steps and how it arrived at answers to questions.

You can now use ChatGPT web search without logging in

OpenAI is now allowing anyone to use ChatGPT web search without having to log in. While OpenAI had previously allowed users to ask ChatGPT questions without signing in, responses were restricted to the chatbot’s last training update. This only applies through ChatGPT.com, however. To use ChatGPT in any form through the native mobile app, you will still need to be logged in.

OpenAI unveils a new ChatGPT agent for ‘deep research’

OpenAI announced a new AI “agent” called deep research that’s designed to help people conduct in-depth, complex research using ChatGPT. OpenAI says the “agent” is intended for instances where you don’t just want a quick answer or summary, but instead need to assiduously consider information from multiple websites and other sources.

January 2025

OpenAI used a subreddit to test AI persuasion

OpenAI used the subreddit r/ChangeMyView to measure the persuasive abilities of its AI reasoning models. OpenAI says it collects user posts from the subreddit and asks its AI models to write replies, in a closed environment, that would change the Reddit user’s mind on a subject. The company then shows the responses to testers, who assess how persuasive the argument is, and finally OpenAI compares the AI models’ responses to human replies for that same post. 

OpenAI launches o3-mini, its latest ‘reasoning’ model

OpenAI launched a new AI “reasoning” model, o3-mini, the newest in the company’s o family of models. OpenAI first previewed the model in December alongside a more capable system called o3. OpenAI is pitching its new model as both “powerful” and “affordable.”

ChatGPT’s mobile users are 85% male, report says

A new report from app analytics firm Appfigures found that over half of ChatGPT’s mobile users are under age 25, with users between ages 50 and 64 making up the second largest age demographic. The gender gap among ChatGPT users is even more significant. Appfigures estimates that across age groups, men make up 84.5% of all users.

OpenAI launches ChatGPT plan for US government agencies

OpenAI launched ChatGPT Gov designed to provide U.S. government agencies an additional way to access the tech. ChatGPT Gov includes many of the capabilities found in OpenAI’s corporate-focused tier, ChatGPT Enterprise. OpenAI says that ChatGPT Gov enables agencies to more easily manage their own security, privacy, and compliance, and could expedite internal authorization of OpenAI’s tools for the handling of non-public sensitive data.

More teens report using ChatGPT for schoolwork, despite the tech’s faults

Younger Gen Zers are embracing ChatGPT, for schoolwork, according to a new survey by the Pew Research Center. In a follow-up to its 2023 poll on ChatGPT usage among young people, Pew asked ~1,400 U.S.-based teens ages 13 to 17 whether they’ve used ChatGPT for homework or other school-related assignments. Twenty-six percent said that they had, double the number two years ago. Just over half of teens responding to the poll said they think it’s acceptable to use ChatGPT for researching new subjects. But considering the ways ChatGPT can fall short, the results are possibly cause for alarm.

OpenAI says it may store deleted Operator data for up to 90 days

OpenAI says that it might store chats and associated screenshots from customers who use Operator, the company’s AI “agent” tool, for up to 90 days — even after a user manually deletes them. While OpenAI has a similar deleted data retention policy for ChatGPT, the retention period for ChatGPT is only 30 days, which is 60 days shorter than Operator’s.

OpenAI launches Operator, an AI agent that performs tasks autonomously

OpenAI is launching a research preview of Operator, a general-purpose AI agent that can take control of a web browser and independently perform certain actions. Operator promises to automate tasks such as booking travel accommodations, making restaurant reservations, and shopping online.

OpenAI may preview its agent tool for users on the $200-per-month Pro plan

Operator, OpenAI’s agent tool, could be released sooner rather than later. Changes to ChatGPT’s code base suggest that Operator will be available as an early research preview to users on the $200 Pro subscription plan. The changes aren’t yet publicly visible, but a user on X who goes by Choi spotted these updates in ChatGPT’s client-side code. TechCrunch separately identified the same references to Operator on OpenAI’s website.

OpenAI tests phone number-only ChatGPT signups

OpenAI has begun testing a feature that lets new ChatGPT users sign up with only a phone number — no email required. The feature is currently in beta in the U.S. and India. However, users who create an account using their number can’t upgrade to one of OpenAI’s paid plans without verifying their account via an email. Multi-factor authentication also isn’t supported without a valid email.

ChatGPT now lets you schedule reminders and recurring tasks

ChatGPT’s new beta feature, called tasks, allows users to set simple reminders. For example, you can ask ChatGPT to remind you when your passport expires in six months, and the AI assistant will follow up with a push notification on whatever platform you have tasks enabled. The feature will start rolling out to ChatGPT Plus, Team, and Pro users around the globe this week.

New ChatGPT feature lets users assign it traits like ‘chatty’ and ‘Gen Z’

OpenAI is introducing a new way for users to customize their interactions with ChatGPT. Some users found they can specify a preferred name or nickname and “traits” they’d like the chatbot to have. OpenAI suggests traits like “Chatty,” “Encouraging,” and “Gen Z.” However, some users reported that the new options have disappeared, so it’s possible they went live prematurely.

FAQs:

What is ChatGPT? How does it work?

ChatGPT is a general-purpose chatbot that uses artificial intelligence to generate text after a user enters a prompt, developed by tech startup OpenAI. The chatbot uses GPT-4, a large language model that uses deep learning to produce human-like text.

When did ChatGPT get released?

November 30, 2022 is when ChatGPT was released for public use.

What is the latest version of ChatGPT?

Both the free version of ChatGPT and the paid ChatGPT Plus are regularly updated with new GPT models. The most recent model is GPT-4o.

Can I use ChatGPT for free?

There is a free version of ChatGPT that only requires a sign-in in addition to the paid version, ChatGPT Plus.

Who uses ChatGPT?

Anyone can use ChatGPT! More and more tech companies and search engines are utilizing the chatbot to automate text or quickly answer user questions/concerns.

What companies use ChatGPT?

Multiple enterprises utilize ChatGPT, although others may limit the use of the AI-powered tool.

Most recently, Microsoft announced at its 2023 Build conference that it is integrating its ChatGPT-based Bing experience into Windows 11. A Brooklyn-based 3D display startup Looking Glass utilizes ChatGPT to produce holograms you can communicate with by using ChatGPT.  And nonprofit organization Solana officially integrated the chatbot into its network with a ChatGPT plug-in geared toward end users to help onboard into the web3 space.

What does GPT mean in ChatGPT?

GPT stands for Generative Pre-Trained Transformer.

What is the difference between ChatGPT and a chatbot?

A chatbot can be any software/system that holds dialogue with you/a person but doesn’t necessarily have to be AI-powered. For example, there are chatbots that are rules-based in the sense that they’ll give canned responses to questions.

ChatGPT is AI-powered and utilizes LLM technology to generate text after a prompt.

Can ChatGPT write essays?

Yes.

Can ChatGPT commit libel?

Due to the nature of how these models work, they don’t know or care whether something is true, only that it looks true. That’s a problem when you’re using it to do your homework, sure, but when it accuses you of a crime you didn’t commit, that may well at this point be libel.

We will see how handling troubling statements produced by ChatGPT will play out over the next few months as tech and legal experts attempt to tackle the fastest moving target in the industry.

Does ChatGPT have an app?

Yes, there is a free ChatGPT mobile app for iOS and Android users.

What is the ChatGPT character limit?

It’s not documented anywhere that ChatGPT has a character limit. However, users have noted that there are some character limitations after around 500 words.

Does ChatGPT have an API?

Yes, it was released March 1, 2023.

What are some sample everyday uses for ChatGPT?

Everyday examples include programming, scripts, email replies, listicles, blog ideas, summarization, etc.

What are some advanced uses for ChatGPT?

Advanced use examples include debugging code, programming languages, scientific concepts, complex problem solving, etc.

How good is ChatGPT at writing code?

It depends on the nature of the program. While ChatGPT can write workable Python code, it can’t necessarily program an entire app’s worth of code. That’s because ChatGPT lacks context awareness — in other words, the generated code isn’t always appropriate for the specific context in which it’s being used.

Can you save a ChatGPT chat?

Yes. OpenAI allows users to save chats in the ChatGPT interface, stored in the sidebar of the screen. There are no built-in sharing features yet.

Are there alternatives to ChatGPT?

Yes. There are multiple AI-powered chatbot competitors such as Together, Google’s Gemini and Anthropic’s Claude, and developers are creating open source alternatives.

How does ChatGPT handle data privacy?

OpenAI has said that individuals in “certain jurisdictions” (such as the EU) can object to the processing of their personal information by its AI models by filling out this form. This includes the ability to make requests for deletion of AI-generated references about you. Although OpenAI notes it may not grant every request since it must balance privacy requests against freedom of expression “in accordance with applicable laws”.

The web form for making a deletion of data about you request is entitled “OpenAI Personal Data Removal Request”.

In its privacy policy, the ChatGPT maker makes a passing acknowledgement of the objection requirements attached to relying on “legitimate interest” (LI), pointing users towards more information about requesting an opt out — when it writes: “See here for instructions on how you can opt out of our use of your information to train our models.”

What controversies have surrounded ChatGPT?

Recently, Discord announced that it had integrated OpenAI’s technology into its bot named Clyde where two users tricked Clyde into providing them with instructions for making the illegal drug methamphetamine (meth) and the incendiary mixture napalm.

An Australian mayor has publicly announced he may sue OpenAI for defamation due to ChatGPT’s false claims that he had served time in prison for bribery. This would be the first defamation lawsuit against the text-generating service.

CNET found itself in the midst of controversy after Futurism reported the publication was publishing articles under a mysterious byline completely generated by AI. The private equity company that owns CNET, Red Ventures, was accused of using ChatGPT for SEO farming, even if the information was incorrect.

Several major school systems and colleges, including New York City Public Schools, have banned ChatGPT from their networks and devices. They claim that the AI impedes the learning process by promoting plagiarism and misinformation, a claim that not every educator agrees with.

There have also been cases of ChatGPT accusing individuals of false crimes.

Where can I find examples of ChatGPT prompts?

Several marketplaces host and provide ChatGPT prompts, either for free or for a nominal fee. One is PromptBase. Another is ChatX. More launch every day.

Can ChatGPT be detected?

Poorly. Several tools claim to detect ChatGPT-generated text, but in our tests, they’re inconsistent at best.

Are ChatGPT chats public?

No. But OpenAI recently disclosed a bug, since fixed, that exposed the titles of some users’ conversations to other people on the service.

What lawsuits are there surrounding ChatGPT?

None specifically targeting ChatGPT. But OpenAI is involved in at least one lawsuit that has implications for AI systems trained on publicly available data, which would touch on ChatGPT.

Are there issues regarding plagiarism with ChatGPT?

Yes. Text-generating AI models like ChatGPT have a tendency to regurgitate content from their training data.

Continue Reading

Noticias

Lo que la cortesía enseña chatgpt, y por qué la inteligencia artificial de OpenAi está pagando millones para escuchar

Published

on

¿Son “por favor” y “gracias” simplemente buenos modales, o están cambiando cómo ChatGPT aprende, se comporta y cuesta la inteligencia artificial de Openai millones cada día?

Decir “por favor” podría estar costando millones

Es algo que a la mayoría de nosotros se nos enseñó como niños. Di “por favor”. Di “Gracias”. La cortesía no cuesta nada. Pero con inteligencia artificial, esa vieja sabiduría ya no puede ser cierta. Ser educado con un chatbot podría venir con un precio.

En un breve intercambio en X, el CEO de Operai, Sam Altman, reveló un curioso detalle sobre cómo funcionan los sistemas de IA. Cuando se le preguntó cuánto cuesta OpenAi cuando los usuarios incluyen palabras adicionales como “por favor” y “Gracias” en sus consultas para Chatgpt, Altman respondió: “Decenas de millones de dólares bien gastados. Nunca se sabe”.

Cada palabra que escribimos en ChatGPT se procesa a través de vastas centros de datos, donde se divide en tokens, se ejecuta a través de cálculos complejos y se convierte en una respuesta. Incluso pequeñas bromas se tratan de la misma manera. Requieren energía informática.

Eso significa electricidad, sistemas de enfriamiento y más tiempo dedicado por solicitud. Cuando se multiplicó en millones de conversaciones, esos pocos tokens adicionales se acumulan en costos de energía e infraestructura real.

Según una encuesta de diciembre de 2024 realizada por Future, la empresa matriz de Techradar, el 51% de los usuarios de IA en los Estados Unidos y el 45% en el Reino Unido usan regularmente asistentes de IA o chatbots.

Entre ellos, los estadounidenses tenían más probabilidades de ser educados. En los Estados Unidos, el 67% de los usuarios dijeron que hablan con IA con cortesía. De ellos, el 82% dijo que es porque se siente como lo correcto, independientemente de si el destinatario es humano o no.

El otro 18% tiene una motivación diferente. Dijeron que se mantienen educados en caso de que haya un levantamiento de IA, una posibilidad remota, pero que no quieren arriesgarse a estar en el lado equivocado.

Luego está el 33% restante de los usuarios estadounidenses que no se molestan con las sutilezas. Para ellos, el objetivo es obtener respuestas, rápido. O consideran que la cortesía innecesaria o creen que los ralentiza. La eficiencia, no la etiqueta, da forma a la forma en que interactúan.

Consultas de IA y la carga de infraestructura oculta

Cada respuesta de ChatGPT funciona con sistemas computacionales que consumen electricidad y agua. Lo que parece un simple ida y vuelta esconde una operación pesada de recursos, especialmente a medida que el número de usuarios sigue aumentando.

Un informe de Goldman Sachs estima que cada consulta CHATGPT-4 usa aproximadamente 2.9 vatios de electricidad, casi diez veces más que una sola búsqueda en Google.

Los modelos más nuevos como GPT-4O han mejorado la eficiencia, reduciendo esa cifra a aproximadamente 0.3 vatios-horas por consulta, según Epoch AI. Aún así, cuando miles de millones de consultas se hacen diariamente, incluso pequeñas diferencias se suman rápidamente.

Los costos operativos de OpenAI reflejan esta escala. Según los informes, la compañía gasta alrededor de $ 700,000 por día para mantener el CHATGPT en funcionamiento, según las estimaciones internas citadas en múltiples fuentes de la industria.

Una razón importante detrás de este costo es su base de usuarios masivo. Entre diciembre de 2024 y principios de 2025, los usuarios semanales saltaron de 300 millones a más de 400 millones, impulsados ​​en parte por características virales como indicaciones de arte al estilo Gibli. A medida que el uso aumenta, también lo hace la demanda de las redes eléctricas y la infraestructura física.

La Agencia Internacional de Energía proyecta que los centros de datos impulsarán más del 20% del crecimiento de la demanda de electricidad en economías avanzadas para 2030, con IA identificada como el principal impulsor de este aumento.

El agua es otra parte de la ecuación, a menudo pasada por alto. Un estudio realizado por el Washington Post encontró que componer un correo electrónico generado por IA de 100 palabras usa aproximadamente 0.14 kilovatios-hora de electricidad, suficiente para iluminar 14 bombillas LED durante una hora.

Generar esa misma respuesta puede consumir entre 40 y 50 mililitros de agua, principalmente para enfriar los servidores que procesan los datos.

A escala, este nivel de consumo plantea preocupaciones más amplias. En Virginia, el estado con la mayor densidad de centros de datos en los EE. UU., El uso del agua aumentó en casi dos tercios entre 2019 y 2023. Según una investigación realizada por el Financial Times, el consumo total alcanzó al menos 1.85 mil millones de galones solo en 2023.

A medida que los centros de datos continúan extendiéndose por todo el mundo, particularmente en áreas con electricidad y tierra más baratas, se espera que la presión sobre el suministro de agua y energía locales crezca. Es posible que algunas de estas regiones no estén equipadas para manejar el impacto a largo plazo.

Lo que le enseña tu tono a la IA

En los sistemas de IA entrenados en grandes volúmenes de diálogo humano, el tono de la solicitud de un usuario puede influir fuertemente en el tono de la respuesta.

El uso de un lenguaje educado o las oraciones completas a menudo resulta en respuestas que se sienten más informativas, conscientes del contexto y respetuosa. Este resultado no es accidental.

Detrás de escena, modelos como ChatGPT están entrenados en vastas conjuntos de datos de escritura humana. Durante el ajuste, pasan por un proceso conocido como aprendizaje de refuerzo de la retroalimentación humana.

En esta etapa, las personas reales evalúan miles de respuestas modelo basadas en criterios como ayuda, tono y coherencia.

Cuando un aviso bien estructurado o cortés conduce a una calificación más alta, el modelo comienza a favorecer ese estilo. Con el tiempo, esto crea una preferencia incorporada por claridad y patrones de lenguaje respetuosos.

Los ejemplos del mundo real refuerzan esta idea. En un experimento informal de Reddit, un usuario comparó las respuestas de AI con la misma pregunta enmarcada con y sin las palabras “por favor” y “gracias”. La versión cortés a menudo activaba respuestas más largas, más exhaustivas y más relevantes.

Un análisis separado publicado en Hackernoon descubrió que las indicaciones de impolite tendían a generar más imprecisiones de objetivos y contenido sesgado, mientras que las moderadamente educadas lograron el mejor equilibrio entre precisión y detalle.

El patrón también se mantiene entre idiomas. En una prueba interlingüística que involucra inglés, chino y japoneses, los investigadores observaron que la grosidad incorporó el rendimiento del modelo degradado en todos los ámbitos.

Ser extremadamente educado no siempre dio mejores respuestas, pero la cortesía moderada generalmente mejoró la calidad. Los resultados también insinuaron los matices culturales, lo que demuestra que lo que cuenta como el nivel de cortesía “correcto” puede variar según el lenguaje y el contexto.

Dicho esto, la cortesía no siempre es una bala de plata. Una reciente revisión de ingeniería de inmediato probó 26 estrategias para mejorar la producción de IA. Entre ellos estaba agregando palabras como “por favor”.

Los resultados mostraron que si bien tales frases a veces ayudaban, no mejoraban constantemente la corrección en GPT-4. En algunos casos, agregar palabras adicionales introdujo el ruido, haciendo que las respuestas sean menos claras o precisas.

Un estudio más detallado realizado en marzo de 2025 examinó la cortesía en ocho niveles diferentes, desde solicitudes extremadamente formales hasta groseros.

Los investigadores midieron resultados utilizando puntos de referencia como Bertscore y Rouge-L para tareas de resumen. La precisión y la relevancia se mantuvieron bastante consistentes independientemente del tono.

Sin embargo, la longitud de las respuestas varió. GPT-3.5 y GPT-4 dieron respuestas más cortas cuando las indicaciones eran muy abruptas. Llama-2 se comportó de manera diferente, produciendo las respuestas más cortas a la cortesía de rango medio y en las más largas en los extremos.

La cortesía también parece afectar cómo los modelos de IA manejan el sesgo. En las pruebas de detección de estereotipo, las indicaciones demasiado educadas y hostiles aumentaron las posibilidades de respuestas sesgadas o de rechazo. La cortesía de rango medio funcionó mejor, minimizando tanto el sesgo como la censura innecesaria.

Entre los modelos probados, GPT-4 tenía la menor probabilidad de rechazar directamente, pero todos mostraron un patrón similar: parece haber un punto dulce en el que el tono ayuda al modelo a responder con precisión sin comprometer el equilibrio.

Al final, lo que decimos, y cómo lo decimos, da forma a lo que recuperamos. Ya sea que apuntemos a mejores respuestas, menos sesgo o simplemente una interacción más reflexiva, nuestra elección de palabras tiene peso.

Y aunque la cortesía no siempre aumenta el rendimiento, a menudo nos acerca al tipo de conversación que queremos de las máquinas con las que estamos hablando cada vez más.

Continue Reading

Noticias

Operai lanza una guía práctica para identificar y escalar casos de uso de IA en flujos de trabajo empresariales

Published

on

A medida que el despliegue de la inteligencia artificial se acelera en todas las industrias, un desafío recurrente para las empresas es determinar cómo operacionalizar la IA de una manera que genere un impacto medible. Para apoyar esta necesidad, Operai ha publicado una guía integral orientada a procesos titulada Identificar y escalar casos de uso de IA. “ A partir de más de 300 estudios de casos de implementación e ideas de más de dos millones de usuarios empresariales, la guía ofrece un enfoque sistemático para identificar, evaluar e implementar la IA en las funciones organizacionales.

Un proceso estructurado para la integración de IA

La guía introduce una metodología trifásica:

  1. Identificación de oportunidades de alta apalificación – Reconocer dónde la IA puede aumentar directamente los procesos comerciales existentes.
  2. Enseñar seis primitivas fundamentales de casos de uso – Proporcione a los equipos un marco para la experimentación y la adopción.
  3. Priorizar iniciativas para la escala -Utilice métodos de evaluación estructurados para enfocar los esfuerzos en casos de uso con relaciones de retorno a efortes favorables.

Este marco está diseñado para apoyar a las organizaciones en varias etapas de madurez, desde la experimentación temprana hasta la implementación escalada.

Fase 1: Identificación de oportunidades para el impacto de la IA

La primera fase enfatiza el examen de ineficiencias de rutina y cuellos de botella cognitivos en los flujos de trabajo. La guía destaca tres categorías donde la IA tiende a ser más efectiva:

  • Tareas repetitivas y de bajo valor: Automatizar tareas como la redacción de resúmenes, monitorear los KPI y la creación de informes permite a los equipos reenfocarse en prioridades de nivel superior.
  • Cuellos de botella de habilidad: La IA puede cerrar brechas de conocimiento, lo que permite a los empleados trabajar en todos los dominios sin esperar el apoyo interdepartamental.
  • Problemas ambiguos o abiertos: La IA puede usarse para generar ideas, sugerir puntos de partida o interpretar datos no estructurados en escenarios donde la toma de decisiones humanas a menudo se detiene.

Estas categorías proporcionan una lente para evaluar los flujos de trabajo e iniciar la ideación estructurada, a menudo en forma de talleres de casos de uso o grupos de trabajo multifuncionales.

Fase 2: Enseñar primitivas de casos de uso de IA central

Basado en el análisis de más de 600 casos de uso del mundo real, OpenAI describe seis “primitivas” fundamentales que encapsulan aplicaciones comunes y escalables de IA:

  • Creación de contenido: Redacción de documentos de política, descripciones de productos y copia de marketing con consistencia en tono y estructura.
  • Investigación: Realización de recuperación y síntesis de información estructurada, a menudo de documentos largos o fuentes web.
  • Codificación: Asistir en la depuración, la traducción de códigos y la generación del primer draft en múltiples lenguajes de programación.
  • Análisis de datos: Armonizar e interpretar conjuntos de datos desde hojas de cálculo o paneles para producir visualizaciones o resúmenes de tendencias.
  • Ideación y estrategia: Apoyo a la lluvia de ideas, la formulación del plan y la crítica estructurada de propuestas o documentos.
  • Automatización: Diseño de flujos de trabajo repetibles que manejan entradas y generan salidas de acuerdo con reglas o plantillas predefinidas.

Cada primitivo incluye ejemplos específicos de dominio que demuestran su utilidad multifuncional. Por ejemplo, los equipos de finanzas pueden automatizar los informes ejecutivos, mientras que los gerentes de productos usan AI para prototipos de interfaces de usuario o preparar la documentación.

Fase 3: Priorización a través de un marco de esfuerzo de impacto

Para la transición de la ideación a la implementación, OpenAI recomienda una matriz de impacto/esfuerzo. Esta herramienta segmentos de uso de casos en cuatro categorías:

  • Victorias rápidas: Proyectos de alto impacto y bajo esfuerzo que se pueden implementar rápidamente.
  • Autoservicio: Casos de uso que requieren un esfuerzo mínimo, a menudo implementado individualmente o dentro de equipos pequeños.
  • Proyectos estratégicos: Iniciativas de alto efecto y alto impacto que pueden transformar los procesos pero requieren más planificación y recursos.
  • Iniciativas diferidas: Casos de uso que son complejos y de bajo valor en condiciones actuales, aunque pueden volverse factibles a medida que evoluciona la tecnología.

Varias compañías citadas en la guía han aplicado este marco. Tinder permitió a los equipos de productos interactuar con su CLI utilizando lenguaje natural, mientras que Morgan Stanley desplegó IA para resumir los informes de investigación para los asesores. Estos ejemplos demuestran la diversidad de aplicaciones que se ajustan dentro de la misma estructura de priorización.

Desde la automatización de tareas hasta la integración de nivel de trabajo

La guía también aborda el cambio del aumento de tareas individuales a la automatización completa del flujo de trabajo. Operai sugiere mapear procesos de varios pasos, por ejemplo, un ciclo de vida de la campaña de marketing, desde la investigación y el análisis de datos hasta la generación y distribución de contenido. Esta vista a nivel de sistemas prepara a las organizaciones para flujos de trabajo de agente más autónomos en el futuro cercano.

Consideraciones finales

La Guía de OpenAI ofrece un enfoque estructurado y técnicamente fundamentado para la adopción de la IA. En lugar de centrarse en el potencial abstracto, enfatiza la integración práctica alineada con las necesidades y capacidades de la organización. Al promover la disciplina interna de construcción y priorización de la capacidad, respalda el desarrollo de infraestructura de IA escalable y sostenible dentro de la empresa.

Para los equipos que buscan avanzar más allá de los experimentos aislados, la guía funciona como un plan para el despliegue sistemático, anclado en casos de uso real y un impacto medible.


Mira el Guía. Además, no olvides seguirnos Gorjeo y únete a nuestro Canal de telegrama y LinkedIn GRsalpicar. No olvides unirte a nuestro 90k+ ml de subreddit.

🔥 [Register Now] Conferencia virtual de Minicon sobre AI agente: registro gratuito + Certificado de asistencia + Evento corto de 4 horas (21 de mayo, 9 am- 1 pm PST) + Hands on Workshop


Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.

Continue Reading

Trending