Noticias
Hot Trend Of Accessing Generative AI Via Simple Phone Call Gets Huge Uplift Via OpenAI’s New 1-800-ChatGPT
In today’s column, I discuss the hot trend of being able to access generative AI and large language models (LLMs) via a simple phone call. No smartphone is required — just use any mobile phone or even old-fashioned landline, and you immediately have unfettered voice access to a full-on generative AI capability.
Nice.
This trend has notably been given a huge boost due to OpenAI announcing their newly available 1-800-CHATGPT (1-800-242-8478). Yes, OpenAI ChatGPT, the 600-pound gorilla or elephant in the room, has grandly made phone usage of generative AI a widespread phenomenon that is going to spur other AI makers to do likewise. This is decidedly an earth-shattering upping of the ante in the fiercely contested AI one-upmanship taking place.
In the case of ChatGPT access, you are limited to up to 15 minutes of free phone-based usage per month. No registration is required. The AI simply notes the phone number that you are calling from to keep track of your allowed usage (must be a U.S.-based line for now). If you happen to have more than one phone, voila, you can essentially get more time per month by using up the 15 minutes permitted per separate phone line. For those outside the U.S. or who otherwise don’t want to make a phone call per se, OpenAI has also established a text-message-based approach to the same catchy phone number via the use of WhatsApp.
Before you get started partying, it turns out that there is more to being astute and safe about using generative AI over the phone than perhaps meets the eye. There are certainly celebratory upsides, but lots of disconcerting downsides too.
Let’s talk about it.
This analysis of an innovative AI breakthrough is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here). For my coverage of the top-of-the-line ChatGPT o1 model and its advanced functionality, see the link here and the link here.
How AI Works Via Phone Is Straightforward
Before we dive into the pluses and minuses, let’s make sure we are all on the same page about how accessing generative AI via a regular phone takes place.
The fundamentals are straightforward.
I’m assuming that you might have already used a generative AI capability via the web or possibly downloaded an app for use on your smartphone. If so, you know that once you have reached the generative AI, perhaps having to log in first, you then enter a prompt. Based on the prompt, the generative AI generates a response. All of this is typically done on a text-to-text basis, whereby you enter text as your prompt and get a text-based response from the AI.
You normally proceed with a back-and-forth of you entering a prompt and the AI provides a response. This happens on a turn-by-turn basis. Modern-day generative AI is amazingly fluent-like. You can easy-peasy carry on a compelling written conversation with the AI.
Voice Enters Into The Generative AI Realm
Some generative AI now allows a voice-to-text feature. This involves you speaking to the AI and your spoken words are converted into text. The text then gets fed into the AI. All else is roughly the same thereafter. In addition, some generative AI currently allows for a text-to-voice feature. That involves the AI producing text as a response, but rather than showing you the text, the system reads aloud the text to you.
Here’s the deal with regular phone-based access to generative AI.
You dial a phone number that automatically connects you to the designated generative AI.
The AI starts the conversation by doing a text-to-voice telling you a standardized opening. For example, when calling ChatGPT you generally get this introductory salutation:
- “Hi, I’m ChatGPT, an AI assistant. Our conversation may be reviewed for safety. By continuing this call, you agree to OpenAI’s terms and privacy policy. So, how can I help you?”
On any subsequent calls that you make to the ChatGPT phone line, the AI will detect that you previously called and will therefore start the opening by saying “Hello, again” and follow with the rest of the standard opening.
You then carry on a conversation with the AI, entirely via voice. Your voice utterances are converted into text, the AI processes the text as normally would be the case, and the AI generates a text response that is then said to you via a text-to-voice function.
Voila, this process continues until either you hang up or your time limit is reached.
Things That Can Go Wrong Right Away
In the real world, not everything is wine and roses.
Let’s see how that applies to generative AI being accessed via a regular phone.
First, some people are undoubtedly going to misdial and reach some number other than the designated one. Oopsie. The problem too is that this might occur on a massive scale. Currently, there are 300 million weekly active users of ChatGPT. How many of those users will opt to access ChatGPT via regular phone? In addition, how many new users who haven’t used ChatGPT will be attracted to using phone-based access?
We don’t know what the volume is going to be, but the odds are that it could be a rather large number. The point is that even if some small percentage misdials, there could be a slew of people calling other numbers inadvertently. On a tremendously beguiling scale. This could be an exasperating mess.
Second, and I deplore saying so, there is a distinct possibility that some evildoers will try to grab-up other phone numbers that are specifically similar to the designated phone number. Here’s their scam. They hope that people will misdial to their dastardly number. They then try to sell the person on swamp land or some other rip-off. People will be perhaps confused and assume that they have reached the correct number, a reputable number. Baddies will deceptively take advantage of them by asking for credit card numbers, social security numbers, and the like.
Sad face.
More Voice Issues To Be Thinking About
The next thing to consider is whether you are able to be adequately heard by the generative AI.
Imagine this. You tell the AI to find all the stores that are near the city named Pinole. Though voice-to-text translation is pretty good these days, there is a solid chance that your utterance will be misheard. The AI responds by telling you about the stores that are near the city named Binhole, a completely different city.
You and the AI go back and forth trying to iron this out. Meanwhile, your allotted time, let’s say 15 minutes, is rapidly dwindling. You decide this is fruitless and in anger vow to never call the number again.
Even if your commentary is readily interpretable, including an accent, there is the issue of potential background noise. Suppose you are standing on the streets of New York City and trying to get the generative AI to tell you which museum has your favorite painting. The background noise could be marring your perfect pronunciation.
Rinse and repeat.
Another frustration will be dropped lines. If you are in a rideshare car and the driver doesn’t speak your language, you might be tempted to call the generative AI and ask it to convert your destination instructions into that other language. You make the connection to the AI, which maybe can’t connect at first or at all due to a bad reception — and then start a conversation. Midway through, the line drops.
All in all, there might be a lot of angst involved.
Considerations Of A Private Nature
I’ve previously covered that many of the generative AI apps stipulate in their licensing agreements that whatever text you enter is fully accessible to the AI maker, see my analysis at the link here. The issue is this. Your text-based prompts under those stipulations can be examined by the AI researchers and AI developers of the AI maker. They can also reuse your entered data to further data train the AI. Bottom-line is that you are potentially getting yourself into a privacy intrusion and undercut any semblance of confidentiality.
Most users don’t know of this.
What about phone-based access to generative AI?
It is conceivable that an AI maker will decide to employ the same licensing requirements.
Realize that your utterances are being converted into text and that the transcribed text will be stored and made available to the AI maker. Keep this in mind. You’ll need to decide what kind of remarks or commentary you are willing to say to the generative AI phone-based capability. Also, it would be wise to find out beforehand what licensing stipulations the AI maker has established for their phone-based generative AI.
An added twist occurs with the voice aspects in the context of phone-based interaction.
When you enter text into a conventional generative AI online, the only communication being conveyed is the text. Period, end of story. In contrast, when you speak via phone, your voice is being captured too.
Your actual voice.
So what?
If the licensing allows the AI maker to exploit your voice, they could potentially use it to make a synthetic voice that sounds like you. Or, if not going quite that far, they might use your voice recording to further train the AI on how to interpret voice utterances. The gist is that your voice is possibly going to be used in ways that you might not have thought would occur.
Be wary and on your toes.
Making The Connection Of You To You
I’m guessing that some might be thinking that since you don’t need to register to use the generative AI for its phone-based functionality, you are essentially acting anonymously. Ergo, it doesn’t matter what you say, nor whether they record you or not. They just have some random person’s data that they have collected.
You can go on your merry way.
Well, maybe yes, maybe not.
The usual method of tracking you is going to be via the phone number you are using to make the call. That is something you are freely giving up. They could presumably try to pair the phone number with other databases. Doing so might enable the AI maker to figure out your name, address, age, and a wide variety of personal data.
The twofer is they can match what you’ve said to who you are.
Envision that you have called the AI several times to ask questions about sailboats. The next thing you know, the AI maker behind the scenes sells your name and phone number to a company that makes and sells sailboats. Of course, they can do this with just the phone number alone, not necessarily having to go through the trouble of matching your phone number to who you are. They simply sell your phone number and the fact that you have made inquiries about sailboats, the rest is up to the buyer for that information.
An interesting angle is that if an AI maker goes that route, they are likely to be embroiled in numerous federal, state, and local laws on such matters. The FTC is already pursuing various companies for AI-based scams, see my coverage at the link here. It would seem doubtful that the major generative AI vendors would go down that bumpy path. Presumably, hopefully, not.
The other issue is that once the use of generative AI via phone becomes a common practice, fly-by-nights could set up similar arrangements. Call this or that 800 number and get a full hour with interactive AI. Call now. Don’t wait.
How can they afford to do this?
They lean into the data in the manner I’ve described above.
Multimodal Is Not Likely Included For Now
A typical phone-based approach is going to assume that the user has a voice-only phone.
Thus, the AI cannot ask the user to take a picture of something. Without having a visual clue of what the user is discussing, the generative AI might have a limited ability to provide on-target responses.
For example, I am walking through a beautiful outdoor park and happen to notice a plant that looks potentially dangerous. I want to quickly find out if the plant is harmful. With smartphones, you can usually load an app or make an online connection that allows you to activate the camera on your phone. If the camera isn’t activated for the app, you can typically take a photo and send the picture to the app.
In the case of a typical phone-based generative AI, you have to be good enough at describing things to do what you need to do. For the plant, I might tell the AI that it is green in color, has leaves that are three-pronged, and appears to grow near the base of trees. Is that sufficient for the AI to figure out what plant it is? Probably a stretch.
The other side of this same coin is that the generative AI cannot display to the user a result in any pictorial way. Nor can the AI give the result in a text format. Why would someone want their result in text versus machine-produced voice? It could be that the person can’t adequately hear the AI, or maybe they hear it but want to write down what the AI has said. Having a text option would be handy, but again we are assuming that the user is calling on a conventional phone that lacks a multi-modal capacity.
Gradually, you can bet that most of the phone-based generative AI offerings will readily switch to multi-modal mode if a user is calling from a suitably equipped smartphone. The moment you make the connection to the AI, it will detect what your device is and what it can do. From then on, the AI will inform you of the ways to provide input and the means of producing outputs to the device that you are using.
We Live In Exciting Times
Gosh, some of you might be thinking, this discussion is all doom and gloom.
Isn’t there anything upbeat to say about this emerging means of using generative AI?
Yes, absolutely, there is lots to say.
The very exciting prospect is that people who have not yet experienced generative AI due to lack of an Internet connection or not having Wi-Fi will now be able to readily use generative AI. There might be millions upon millions of people who either can’t afford the equipment for such access or don’t live in a place where access is feasible.
The reach of a regular phone call is an incredible expansion of possibilities. I dare say that making phone calls is a lot simpler, easier, and readily possible. You don’t need to download anything to use the AI. You can use the AI pretty much anywhere and at any time, assuming you have access to a phone.
Some would assert that this is a vital step in the democratization of AI (read about the essentials at the link here). That’s a catchphrase that says we don’t want to end up in a situation of those that have AI and those that don’t have AI. The have-nots are presumably going to be at a disadvantage to the haves. Phone access ought to go a long way toward leveling the playing field concerning the access constraint.
All in all, you’ve got the widespread ubiquity of phones, the ease of using a regular phone, the relatively low cost of the phone and hopefully low cost for usage, and access to generative AI that only requires being able to speak. No typing skills are needed. No dealing with logins. Etc.
Just call and start using generative AI.
Boom, drop the mic.
Keep Our Wits About Us At All Times
I hope that the last bit of rah-rah gives you a sense of how important this new trend is.
And though I certainly don’t want to spoil the party, I ask that we all keep our heads and realize that in some sense we are also opening a Pandora’s box. How so? As I’ve repeatedly stated, people are using generative AI for all kinds of purposes, including mental health guidance. They simply access generative AI and start asking for therapy that would be seemingly akin to meeting with a human therapist, and most of the AI apps readily comply, see my analysis at the link here.
The good news is that phone-based access to generative AI implies that a bunch more people can now use AI for their mental health assistance. The bad news is roughly the same, namely, we are amid a massive scale experiment of people using everyday generative AI to give them mental health guidance. What if the AI isn’t doing this prudently? What if people avoid seeking human therapists since they assume AI is all they need?
The population-level consequences are potentially staggering and we upping the ante via phone-based generative AI access, see my predictions on what might arise at a population-level, at the link here.
A final contemplative thought for now.
In 1876, Alexander Graham Bell purportedly transmitted the first-ever recognizable speech message to his assistant Thomas A. Watson by saying, “Mr. Watson come here, I want you.” A stellar moment in history. Something never to be forgotten.
You might one day want to tell your kids that you were one of the first to use a phone-based generative AI. Something you’ll never forget. Think about your options, decide what seems appropriate to your needs and concerns, and make that call.
Get going and remember the date that you did so.
Noticias
Esto es lo que debes saber
El lunes, la startup china de inteligencia artificial DeepSeek tomó el codiciado lugar de su rival OpenAI como la aplicación gratuita más descargada en los EE. UU. Manzana‘s App Store, destronando a ChatGPT para el asistente de inteligencia artificial de DeepSeek. Las acciones tecnológicas mundiales se vendieron y estaban en camino de eliminar miles de millones en capitalización de mercado.
Líderes tecnológicos, analistas, inversores y desarrolladores dicen que la exageración (y el consiguiente temor de quedarse atrás en el siempre cambiante ciclo exagerado de la IA) puede estar justificada. Especialmente en la era de la carrera armamentista generativa de la IA, donde tanto los gigantes tecnológicos como las nuevas empresas compiten para asegurarse de no quedarse atrás en un mercado que se prevé superará el billón de dólares en ingresos dentro de una década.
¿Qué es DeepSeek?
DeepSeek fue fundada en 2023 por Liang Wenfeng, cofundador de High-Flyer, un fondo de cobertura cuantitativo centrado en la IA. Según se informa, la startup de IA surgió de la unidad de investigación de IA del fondo de cobertura en abril de 2023 para centrarse en grandes modelos de lenguaje y alcanzar la inteligencia artificial general, o AGI, una rama de la IA que iguala o supera al intelecto humano en una amplia gama de tareas, que OpenAI y sus rivales dicen que lo están persiguiendo rápidamente. DeepSeek sigue siendo propiedad total de High-Flyer y financiado por ella, según analistas de Jefferies.
Los rumores en torno a DeepSeek comenzaron a cobrar fuerza a principios de este mes, cuando la startup lanzó R1, su modelo de razonamiento que rivaliza con el o1 de OpenAI. Es de código abierto, lo que significa que cualquier desarrollador de IA puede usarlo, y se ha disparado a la cima de las tiendas de aplicaciones y tablas de clasificación de la industria, y los usuarios elogian su rendimiento y capacidades de razonamiento.
Al igual que otros chatbots chinos, tiene sus limitaciones cuando se le pregunta sobre ciertos temas: cuando se le pregunta sobre algunas de las políticas del líder chino Xi Jinping, por ejemplo, DeepSeek supuestamente aleja al usuario de líneas de preguntas similares.
Otra parte clave de la discusión: el R1 de DeepSeek se construyó a pesar de que Estados Unidos limitó las exportaciones de chips a China tres veces en tres años. Las estimaciones difieren sobre cuánto cuesta exactamente el R1 de DeepSeek o cuántas GPU se incluyen en él. Los analistas de Jefferies estimaron que una versión reciente tenía un “coste de capacitación de sólo 5,6 millones de dólares (suponiendo un costo de alquiler de 2 dólares por hora y 800 horas). Eso es menos del 10% del costo de Meta‘s Llama.” Pero independientemente de las cifras específicas, los informes coinciden en que el modelo fue desarrollado a una fracción del costo de los modelos rivales por OpenAI, Anthropic, Google y otros.
Como resultado, el sector de la IA está inundado de preguntas, entre ellas si el creciente número de rondas de financiación astronómicas y valoraciones de miles de millones de dólares de la industria es necesaria, y si una burbuja está a punto de estallar.
Acciones de NVIDIA cayó un 11%, con el fabricante de chips ASML bajó más del 6%. El Nasdaq cayó más del 2% y cuatro gigantes tecnológicos… Meta, microsoft, Manzana y ASML están listos para informar sus ganancias esta semana.
Los analistas de Raymond James detallaron algunas de las preguntas que afectan a la industria de la IA este mes y escribieron: “¿Cuáles son las implicaciones para la inversión? ¿Qué dice sobre los modelos de código abierto versus los propietarios? ¿Invertir dinero en GPU es realmente una panacea? ¿Existen restricciones a las exportaciones de Estados Unidos? ¿Cuáles son las implicaciones más amplias de [DeepSeek]? Bueno, podrían ser espantosos o no ser un evento, pero tengan la seguridad de que la industria está llena de incredulidad y especulación”.
Los analistas de Bernstein escribieron en una nota el lunes que “según las muchas (ocasionalmente histéricas) tomas calientes que vimos [over the weekend,] las implicaciones van desde ‘Eso es realmente interesante’ hasta ‘Esta es la sentencia de muerte del complejo de infraestructura de IA tal como lo conocemos'”.
Cómo están respondiendo las empresas estadounidenses
Algunos directores ejecutivos de tecnología estadounidenses están luchando por responder antes de que los clientes cambien a ofertas potencialmente más baratas de DeepSeek, y se informa que Meta está iniciando cuatro “salas de guerra” relacionadas con DeepSeek dentro de su departamento de IA generativa.
microsoft El director ejecutivo Satya Nadella escribió en X que el fenómeno DeepSeek era solo un ejemplo de la paradoja de Jevons: “A medida que la IA se vuelva más eficiente y accesible, veremos cómo su uso se dispara, convirtiéndola en un bien del que simplemente no podemos tener suficiente”. “. El director ejecutivo de OpenAI, Sam Altman, tuiteó una cita que atribuyó a Napoleón y escribió: “Una revolución no se puede hacer ni detener. Lo único que se puede hacer es que uno de sus hijos le dé una dirección a fuerza de victorias”.
Yann LeCun, científico jefe de IA de Meta, escribió en LinkedIn que el éxito de DeepSeek es indicativo del cambio de rumbo en el sector de la IA para favorecer la tecnología de código abierto.
LeCun escribió que DeepSeek se ha beneficiado de parte de la tecnología propia de Meta, es decir, sus modelos Llama, y que la startup “ideó nuevas ideas y las construyó sobre el trabajo de otras personas. Debido a que su trabajo está publicado y es de código abierto, todos pueden sacar provecho de ello. Ese es el poder de la investigación abierta y del código abierto”.
Alexandr Wang, director ejecutivo de Scale AI, dijo a CNBC la semana pasada que el último modelo de IA de DeepSeek fue “revolucionario” y que su versión R1 es aún más poderosa.
“Lo que hemos descubierto es que DeepSeek… tiene el mejor rendimiento, o aproximadamente está a la par de los mejores modelos estadounidenses”, dijo Wang, añadiendo que la carrera de IA entre EE.UU. y China es una “guerra de IA”. La empresa de Wang proporciona datos de entrenamiento a actores clave de la IA, incluidos OpenAI, Google y Meta.
A principios de esta semana, el presidente Donald Trump anunció una empresa conjunta con OpenAI, Oracle y SoftBank para invertir miles de millones de dólares en infraestructura de IA en Estados Unidos. El proyecto, Stargate, fue presentado en la Casa Blanca por Trump, el director ejecutivo de SoftBank, Masayoshi Son, el cofundador de Oracle, Larry Ellison, y el director ejecutivo de OpenAI, Sam Altman. Los socios tecnológicos iniciales clave incluirán a Microsoft, Nvidia y Oracle, así como a la empresa de semiconductores Arm. Dijeron que invertirían 100.000 millones de dólares para empezar y hasta 500.000 millones de dólares en los próximos cuatro años.
IA evolucionando
La noticia de la destreza de DeepSeek también llega en medio del creciente revuelo en torno a los agentes de IA (modelos que van más allá de los chatbots para completar tareas complejas de varios pasos para un usuario) que tanto los gigantes tecnológicos como las nuevas empresas están persiguiendo. Meta, Google, Amazon, Microsoft, OpenAI y Anthropic han expresado su objetivo de crear IA agente.
Anthropic, la startup de IA respaldada por Amazon y fundada por ex ejecutivos de investigación de OpenAI, intensificó su desarrollo tecnológico durante el año pasado y, en octubre, la startup dijo que sus agentes de IA podían usar computadoras como humanos para completar tareas complejas. La capacidad de uso de computadoras de Anthropic permite que su tecnología interprete lo que hay en la pantalla de una computadora, seleccione botones, ingrese texto, navegue por sitios web y ejecute tareas a través de cualquier software y navegación por Internet en tiempo real, dijo la startup.
La herramienta puede “usar computadoras básicamente de la misma manera que nosotros”, dijo a CNBC Jared Kaplan, director científico de Anthropic, en una entrevista en ese momento. Dijo que puede realizar tareas con “decenas o incluso cientos de pasos”.
OpenAI lanzó una herramienta similar la semana pasada, introduciendo una función llamada Operador que automatizará tareas como planificar vacaciones, completar formularios, hacer reservas en restaurantes y pedir alimentos.
El microsoft-La startup respaldada lo describe como “un agente que puede ir a la web para realizar tareas por usted” y agregó que está capacitado para interactuar con “los botones, menús y campos de texto que la gente usa a diario” en la web. También puede hacer preguntas de seguimiento para personalizar aún más las tareas que realiza, como información de inicio de sesión para otros sitios web. Los usuarios pueden tomar el control de la pantalla en cualquier momento.
Noticias
Esto es lo que debes saber: NBC 6 South Florida
- El zumbido alrededor de la startup de IA China Deepseek comenzó a recoger a Steam a principios de este mes, cuando la startup lanzó R1, su modelo de razonamiento que rivaliza con el O1 de Openai.
- El lunes, Deepseek se hizo cargo del lugar codiciado de su rival Openai para la aplicación gratuita más descargada en los EE. UU. En la App Store de Apple, destronando a Chatgpt para el asistente de IA de Deepseek.
- Global Tech Stocks se vendió, con el gigante de chip de IA Nvidia cayendo un 10%.
El lunes, la startup de inteligencia artificial china Deepseek se hizo cargo del lugar codiciado de su rival Openai como la aplicación gratuita más desactivada en los EE. UU. En la tienda de aplicaciones de Apple, destronando Chatgpt para el asistente de IA de Deepseek. Las acciones de Global Tech se vendieron y estaban en camino de acabar con miles de millones en el límite de mercado.
Los líderes tecnológicos, analistas, inversores y desarrolladores dicen que el bombo, y el consiguiente temor de quedarse atrás en el ciclo de bombo de IA en constante cambio, pueden estar justificados. Especialmente en la era de la carrera armamentista generativa de IA, donde los gigantes tecnológicos y las startups están corriendo para garantizar que no se queden atrás en un mercado previsto para superar los ingresos de $ 1 billón en una década.
¿Qué es Deepseek?
Deepseek fue fundada en 2023 por Liang Wenfeng, cofundador de High-Flyer, un fondo cuantitativo de cobertura centrado en la IA. Según los informes, la startup de IA surgió de la Unidad de Investigación de AI del fondo de cobertura en abril de 2023 para centrarse en modelos de idiomas grandes y alcanzar la inteligencia general artificial, o AGI, una rama de IA que iguala o supere el intelecto humano en una amplia gama de tareas, que se abren. Y sus rivales dicen que están persiguiendo rápidamente. Deepseek sigue siendo propiedad y financiado por High-Flyer, según analistas de Jefferies.
El zumbido alrededor de Deepseek comenzó a recoger a Steam a principios de este mes, cuando la startup lanzó R1, su modelo de razonamiento que rivaliza con el O1 de OpenAI. Es de código abierto, lo que significa que cualquier desarrollador de IA puede usarlo, y se ha disparado a la cima de las tiendas de aplicaciones y las tablas de clasificación de la industria, con los usuarios elogios de su rendimiento y capacidades de razonamiento.
Al igual que otros chatbots chinos, tiene sus limitaciones cuando se les pregunta sobre ciertos temas: cuando se le pregunta sobre algunas de las políticas del líder chino Xi Jinping, por ejemplo, Deepseek aleja al usuario de líneas similares de preguntas.
Otra parte clave de la discusión: R1 de Deepseek se construyó a pesar de las exportaciones de chips de EE. UU. A China tres veces en tres años. Las estimaciones difieren exactamente en la cantidad de R1 de Deepseek, o en cuántas GPU entró. Los analistas de Jefferies estimaron que una versión reciente tenía un “costo de capacitación de solo US $ 5,6 millones (suponiendo un costo de alquiler de US $ 2/h800 horas). Eso es menos del 10% del costo de la LLAMA de Meta”. Pero independientemente de los números específicos, los informes acuerdan que el modelo se desarrolló a una fracción del costo de los modelos rivales por OpenAI, Anthrope, Google y otros.
Como resultado, el sector de la IA está inundado de preguntas, incluido si es necesario el creciente número de rondas de financiación astronómica y las valoraciones de mil millones de dólares, y si una burbuja está a punto de estallar.
Las acciones de NVIDIA cayeron un 11%, con el fabricante de chips ASML más del 6%. El NASDAQ cayó por 2%, y cuatro gigantes tecnológicos: Meta, Microsoft, Apple y ASML están listos para informar las ganancias esta semana.
Los analistas de Raymond James detallaron algunas de las preguntas que afectan a la industria de la IA este mes, escribiendo: “¿Cuáles son las implicaciones de inversión? ¿Qué dice sobre los modelos de origen abierto versus patentado? ¿Está arrojando dinero a las GPU realmente una panacea? trabajando? ¿Cuáles son las implicaciones más amplias de [DeepSeek]? Bueno, podrían ser terribles o un no evento, pero tengan la seguridad de que la industria está llena de incredulidad y especulación “.
Los analistas de Bernstein escribieron en una nota el lunes que “según las muchas tomas (ocasionalmente histéricas) que vimos que vimos [over the weekend,] El rango de implicaciones en cualquier lugar desde ‘eso es realmente interesante’ hasta ‘Esta es la luz de muerte del complejo de infraestructura de IA tal como lo conocemos’ “.
Cómo están respondiendo las empresas estadounidenses
Algunos CEO de tecnología estadounidense están trepando por responder antes de que los clientes cambien a ofertas potencialmente más baratas de Deepseek, y Según los informes, Meta inicia cuatro “salas de guerra” relacionadas con Deepseek dentro de su departamento generativo de IA.
El CEO de Microsoft, Satya Nadella, escribió en X que el fenómeno de Deepseek era solo un ejemplo de la paradoja de Jevons, escribiendo, “A medida que AI se vuelve más eficiente y accesible, veremos su uso Skyroocket, convirtiéndolo en una mercancía, simplemente no podemos obtener suficiente de.” El CEO de Operai, Sam Altman, tuiteó una cita que atribuyó a Napoleón, escribiendo: “Una revolución no se puede hacer ni detener.
Yann Lecun, el jefe científico de AI de Meta, escribió en LinkedIn que el éxito de Deepseek es indicativo de cambiar las mareas en el sector de IA para favorecer la tecnología de código abierto.
Lecun escribió que Deepseek se ha beneficiado de algunas de la propia tecnología de Meta, es decir, sus modelos de llama, y que la startup “se les ocurrió nuevas ideas y las construyó en la parte superior del trabajo de otras personas. Debido a que su trabajo es publicado y de código abierto, todos pueden Se beneficia de él.
Alexandr Wang, CEO de Scale AI, le dijo a CNBC la semana pasada que el último modelo de IA de Deepseek fue “devastador de la tierra” y que su lanzamiento de R1 es aún más poderoso.
“Lo que hemos encontrado es que Deepseek … es el mejor desempeño, o aproximadamente a la par con los mejores modelos estadounidenses”, dijo Wang, y agregó que la carrera de IA entre los Estados Unidos y China es una “guerra de IA”. La compañía de Wang proporciona datos de capacitación a jugadores clave de IA, incluidos OpenAI, Google y Meta.
A principios de esta semana, presidente Donald Trump anunció una empresa conjunta con OpenAI, Oracle y Softbank para invertir miles de millones de dólares en infraestructura de IA de EE. UU. El proyecto, Stargate, fue presentado en la Casa Blanca por Trump, el CEO de SoftBank, Masayoshi,, cofundador Larry Ellison, y el CEO de Operai, Sam Altman. Los socios de tecnología iniciales clave incluirán Microsoft, Nvidia y Oracle, así como el brazo de la compañía de semiconductores. Dijeron que invertirían $ 100 mil millones para comenzar y hasta $ 500 mil millones en los próximos cuatro años.
AI evolucionando
La noticia de la destreza de Deepseek también se produce en medio de la creciente exageración en torno a los agentes de IA, modelos que van más allá de los chatbots para completar tareas complejas de varios pasos para un usuario, que los gigantes tecnológicos y las startups están persiguiendo. Meta, Google, Amazon, Microsoft, Openai y Anthrope han expresado su objetivo de construir IA de agente.
Anthrope, la startup de IA respaldada por Amazon fundada por ex ejecutivos de investigación de Openai, aumentó su desarrollo de tecnología durante el año pasado, y en octubre, la startup dijo que sus agentes de IA pudieron usar computadoras como humanos para completar tareas complejas. La capacidad de uso de la computadora de Anthrope permite que su tecnología interprete lo que está en la pantalla de una computadora, seleccione botones, ingrese texto, navegue por los sitios web y ejecute tareas a través de cualquier software y navegación en Internet en tiempo real, dijo la startup.
La herramienta puede “usar computadoras básicamente de la misma manera que lo hacemos”, dijo Jared Kaplan, director científico de Anthrope, a CNBC en una entrevista en ese momento. Dijo que puede hacer tareas con “decenas o incluso cientos de pasos”.
Openai lanzó una herramienta similar la semana pasada, presentando una característica llamada operador que automatizará tareas como planificar vacaciones, completar formularios, hacer reservas de restaurantes y ordenar comestibles.
La startup respaldada por Microsoft lo describe como “un agente que puede ir a la web para realizar tareas para usted”, y agregó que está capacitado para interactuar con “los botones, los menús y los campos de texto que las personas usan a diario” en la web . También puede hacer preguntas de seguimiento para personalizar aún más las tareas que completa, como la información de inicio de sesión para otros sitios web. Los usuarios pueden tomar el control de la pantalla en cualquier momento.
Noticias
¿Por qué DeepSeek AI de repente es tan popular?
OpenAI lanzó su agente Operador AI para ChatGPT el jueves, lo que debería haber sido un hito importante para la empresa y el desarrollo de la IA en general. Si bien no pagaría $200 al mes para probar esta versión inicial de Operador, lo que vi en las demostraciones de OpenAI me dejó alucinado. El operador está muy por delante de los agentes de inteligencia artificial de Google, al menos en lo que respecta a demostraciones. No puedo esperar a tenerlo en mis manos una vez que OpenAI lo lleve a otros niveles pagos de ChatGPT y, lo que es más importante para mí personalmente, a la UE.
Sin embargo, la verdadera historia de la IA que se está apoderando del mundo no es ChatGPT, Operador o el enorme proyecto Stargate que se anunció la semana pasada. La historia de DeepSeek AI se apoderó del mundo cuando la startup china lanzó su modelo de razonamiento R1 que puede igualar el ChatGPT o1 de OpenAI.
No hay nada sorprendente en eso; Esperamos que otras empresas de IA igualen o1. Después de todo, OpenAI ya presentó o3, que debería anunciarse en unos días o semanas. Lo inusual de DeepSeek es que la empresa china hizo que sus modelos fueran de código abierto, por lo que cualquier empresa o desarrollador puede acceder a ellos e inspeccionarlos. Más interesante es el artículo de investigación sobre R1 que publicó DeepSeek, que afirma que el modelo altamente sofisticado fue entrenado a una fracción del costo del o1 de OpenAI.
La noticia de que el entrenamiento de DeepSeek R1 es posible con solo del 3% al 5% de los recursos que OpenAI necesita para un progreso similar con ChatGPT causó sensación en todo el mundo. Las acciones relacionadas con la IA se desplomaron durante las primeras operaciones del lunes, justo cuando DeepSeek saltó hasta convertirse en el número uno en la App Store, superando a ChatGPT.
Uno de los problemas del software de IA actual tiene que ver con el coste de desarrollo y uso del producto. Desarrollar modelos avanzados como o1 puede costar decenas de millones. El proceso requiere tarjetas gráficas (GPU) de alta gama que proporcionen la potencia informática y el gasto de energía necesarios.
Es por eso que los productos terminados como ChatGPT o1 no pueden estar disponibles de forma gratuita y sin limitaciones. Empresas como OpenAI necesitan cubrir costos y obtener ganancias. Es por eso que el enorme programa Stargate de 500 mil millones de dólares es una decisión tan monumental para el desarrollo de la IA, especialmente considerando la inevitable carrera armamentista de IA entre Estados Unidos y China.
Agregue las sanciones de EE. UU. que impiden que China acceda a los mismos chips y GPU de alta gama que hacen posible el desarrollo de productos ChatGPT o1, y uno pensaría que ChatGPT, Gemini, Meta AI y Claude no pueden obtener una competencia significativa de China.
Ahí es donde DeepSeek sorprendió al mundo. La startup china sabía que no podía competir contra OpenAI basándose en la potencia bruta. No podría tener acceso a la misma cantidad de GPU que acaparan empresas como OpenAI. Entonces, los investigadores de DeepSeek adoptaron otro enfoque para R1 y encontraron formas de entrenar un modelo de razonamiento avanzado sin acceso al mismo hardware.
No es sólo eso, sino que DeepSeek hizo que el acceso a R1 fuera mucho más barato que ChatGPT de OpenAI, lo cual es un avance significativo. Agregue la naturaleza de código abierto de los modelos DeepSeek y podrá ver por qué los desarrolladores acudirían en masa para probar la IA de la empresa china y por qué DeepSeek surgiría en la App Store.
Según la investigación, la startup china reemplazó la tecnología Supervised Fine-Tuning (SFT) que OpenAI utiliza para entrenar ChatGPT con Reinforcement Learning (RL) para producir resultados más rápidos y económicos. SFT se basa en mostrarle a la IA formas de resolver problemas brindando acceso a los datos para que la IA sepa qué tipo de respuestas brindar a varias indicaciones.
RL se basa en el modelo de IA, intenta descubrir las respuestas con un sistema de recompensa implementado y luego proporciona retroalimentación a la IA. RL permitió a DeepSeek mejorar las capacidades de razonamiento de R1 y superar la falta de computación. Sin embargo, como VentureBeat explica, se necesitaba algo de entrenamiento SFT, donde los humanos supervisan la IA, en las primeras fases de R1 antes de cambiar a RL.
Si bien señalé los inconvenientes obvios de depender de un rival de ChatGPT de China en este momento, no hay duda de que DeepSeek merece atención.
Como mínimo, las innovaciones que desarrollaron los investigadores de DeepSeek se pueden copiar en otros lugares para lograr avances similares. Después de todo, las primeras versiones de DeepSeek mostraron que la startup china podría haber copiado el trabajo de desarrollo de ChatGPT. Ya sea IA u otra cosa, las innovaciones tecnológicas siempre serán robadas y adaptadas.
Piénselo: a DeepSeek se le ocurrió una forma más eficiente de entrenar la IA utilizando solo unas 50.000 GPU, 10.000 de las cuales eran GPU NVIDIA compradas antes de las restricciones a las exportaciones de EE. UU. Comparativamente, empresas como OpenAI, Google y Anthropic operan con más de 500.000 GPU cada una, por VentureBeat.
Me imagino que los investigadores de estas empresas ahora están compitiendo para ver cómo y si pueden replicar el éxito de DeepSeek R1. También me imagino que encontrarán formas de hacerlo.
Con tanta computación y recursos a disposición de OpenAI, Google, Meta y Anthropic, pronto serán posibles avances similares a R1 además de lo que ya está disponible en los modelos de IA.
Además, si bien el mercado se vio afectado por las noticias sobre la IA de DeepSeek en China, no creo que el hardware, la potencia informática y la energía no importen en el futuro del desarrollo de la IA. Nuevamente, combine las innovaciones de DeepSeek con, digamos, un fondo de 500 mil millones de dólares y acceso a tarjetas gráficas de alta tecnología NVIDIA, y podría obtener las primeras fases de AGI.
Una vez que se empleen métodos similares a DeepSeek R1 para el desarrollo de ChatGPT y Gemini, los costos del acceso avanzado a la IA probablemente disminuirán para los usuarios premium. Esta sería una victoria clave para los consumidores.
Las empresas occidentales de IA no podrán mantener los costos altos y competir con DeepSeek R1 y sus sucesores. Algunos desarrolladores siempre elegirán los modelos más baratos a pesar del país de origen de la IA y el sesgo de entrenamiento. Como recordatorio, los modelos de DeepSeek mostrarán un sesgo hacia China. Este sigue siendo un software que debe cumplir con las leyes de censura locales.
Señalaré que China no se quedará de brazos cruzados. Estas son victorias tempranas. DeepSeek no está solo, ya que ByteDance también lanzó un chatbot de primer nivel. Se invertirán miles de millones de dólares en el desarrollo de la IA en el país para computación y energía. Recuerde, no todo lo que viene de China puede tomarse al pie de la letra. No está claro si los costos de entrenar DeepSeek son reales. La transparencia sólo funciona hasta cierto punto.
Afortunadamente, debido a que DeepSeek es de código abierto, otros pronto podrán ver si el entrenamiento similar al R1 se puede realizar con éxito en otros lugares.
VentureBeat hace un gran trabajo explicando las complejidades del desarrollo de DeepSeek R1 en este enlace. El documento técnico de DeepSeek que acompaña al lanzamiento de R1 el lunes se puede encontrar en GitHub.
-
Startups8 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos9 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos9 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos8 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Tutoriales9 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups7 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Estudiar IA8 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Noticias7 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo