Noticias
Hot Trend Of Accessing Generative AI Via Simple Phone Call Gets Huge Uplift Via OpenAI’s New 1-800-ChatGPT
Published
4 meses agoon

Using a conventional phone to access generative AI via voice-only just got a big boost via OpenAI’s … [+] release of 1-800-ChatGPT.
getty
In today’s column, I discuss the hot trend of being able to access generative AI and large language models (LLMs) via a simple phone call. No smartphone is required — just use any mobile phone or even old-fashioned landline, and you immediately have unfettered voice access to a full-on generative AI capability.
Nice.
This trend has notably been given a huge boost due to OpenAI announcing their newly available 1-800-CHATGPT (1-800-242-8478). Yes, OpenAI ChatGPT, the 600-pound gorilla or elephant in the room, has grandly made phone usage of generative AI a widespread phenomenon that is going to spur other AI makers to do likewise. This is decidedly an earth-shattering upping of the ante in the fiercely contested AI one-upmanship taking place.
In the case of ChatGPT access, you are limited to up to 15 minutes of free phone-based usage per month. No registration is required. The AI simply notes the phone number that you are calling from to keep track of your allowed usage (must be a U.S.-based line for now). If you happen to have more than one phone, voila, you can essentially get more time per month by using up the 15 minutes permitted per separate phone line. For those outside the U.S. or who otherwise don’t want to make a phone call per se, OpenAI has also established a text-message-based approach to the same catchy phone number via the use of WhatsApp.
Before you get started partying, it turns out that there is more to being astute and safe about using generative AI over the phone than perhaps meets the eye. There are certainly celebratory upsides, but lots of disconcerting downsides too.
Let’s talk about it.
This analysis of an innovative AI breakthrough is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here). For my coverage of the top-of-the-line ChatGPT o1 model and its advanced functionality, see the link here and the link here.
How AI Works Via Phone Is Straightforward
Before we dive into the pluses and minuses, let’s make sure we are all on the same page about how accessing generative AI via a regular phone takes place.
The fundamentals are straightforward.
I’m assuming that you might have already used a generative AI capability via the web or possibly downloaded an app for use on your smartphone. If so, you know that once you have reached the generative AI, perhaps having to log in first, you then enter a prompt. Based on the prompt, the generative AI generates a response. All of this is typically done on a text-to-text basis, whereby you enter text as your prompt and get a text-based response from the AI.
You normally proceed with a back-and-forth of you entering a prompt and the AI provides a response. This happens on a turn-by-turn basis. Modern-day generative AI is amazingly fluent-like. You can easy-peasy carry on a compelling written conversation with the AI.
Voice Enters Into The Generative AI Realm
Some generative AI now allows a voice-to-text feature. This involves you speaking to the AI and your spoken words are converted into text. The text then gets fed into the AI. All else is roughly the same thereafter. In addition, some generative AI currently allows for a text-to-voice feature. That involves the AI producing text as a response, but rather than showing you the text, the system reads aloud the text to you.
Here’s the deal with regular phone-based access to generative AI.
You dial a phone number that automatically connects you to the designated generative AI.
The AI starts the conversation by doing a text-to-voice telling you a standardized opening. For example, when calling ChatGPT you generally get this introductory salutation:
- “Hi, I’m ChatGPT, an AI assistant. Our conversation may be reviewed for safety. By continuing this call, you agree to OpenAI’s terms and privacy policy. So, how can I help you?”
On any subsequent calls that you make to the ChatGPT phone line, the AI will detect that you previously called and will therefore start the opening by saying “Hello, again” and follow with the rest of the standard opening.
You then carry on a conversation with the AI, entirely via voice. Your voice utterances are converted into text, the AI processes the text as normally would be the case, and the AI generates a text response that is then said to you via a text-to-voice function.
Voila, this process continues until either you hang up or your time limit is reached.
Things That Can Go Wrong Right Away
In the real world, not everything is wine and roses.
Let’s see how that applies to generative AI being accessed via a regular phone.
First, some people are undoubtedly going to misdial and reach some number other than the designated one. Oopsie. The problem too is that this might occur on a massive scale. Currently, there are 300 million weekly active users of ChatGPT. How many of those users will opt to access ChatGPT via regular phone? In addition, how many new users who haven’t used ChatGPT will be attracted to using phone-based access?
We don’t know what the volume is going to be, but the odds are that it could be a rather large number. The point is that even if some small percentage misdials, there could be a slew of people calling other numbers inadvertently. On a tremendously beguiling scale. This could be an exasperating mess.
Second, and I deplore saying so, there is a distinct possibility that some evildoers will try to grab-up other phone numbers that are specifically similar to the designated phone number. Here’s their scam. They hope that people will misdial to their dastardly number. They then try to sell the person on swamp land or some other rip-off. People will be perhaps confused and assume that they have reached the correct number, a reputable number. Baddies will deceptively take advantage of them by asking for credit card numbers, social security numbers, and the like.
Sad face.
More Voice Issues To Be Thinking About
The next thing to consider is whether you are able to be adequately heard by the generative AI.
Imagine this. You tell the AI to find all the stores that are near the city named Pinole. Though voice-to-text translation is pretty good these days, there is a solid chance that your utterance will be misheard. The AI responds by telling you about the stores that are near the city named Binhole, a completely different city.
You and the AI go back and forth trying to iron this out. Meanwhile, your allotted time, let’s say 15 minutes, is rapidly dwindling. You decide this is fruitless and in anger vow to never call the number again.
Even if your commentary is readily interpretable, including an accent, there is the issue of potential background noise. Suppose you are standing on the streets of New York City and trying to get the generative AI to tell you which museum has your favorite painting. The background noise could be marring your perfect pronunciation.
Rinse and repeat.
Another frustration will be dropped lines. If you are in a rideshare car and the driver doesn’t speak your language, you might be tempted to call the generative AI and ask it to convert your destination instructions into that other language. You make the connection to the AI, which maybe can’t connect at first or at all due to a bad reception — and then start a conversation. Midway through, the line drops.
All in all, there might be a lot of angst involved.
Considerations Of A Private Nature
I’ve previously covered that many of the generative AI apps stipulate in their licensing agreements that whatever text you enter is fully accessible to the AI maker, see my analysis at the link here. The issue is this. Your text-based prompts under those stipulations can be examined by the AI researchers and AI developers of the AI maker. They can also reuse your entered data to further data train the AI. Bottom-line is that you are potentially getting yourself into a privacy intrusion and undercut any semblance of confidentiality.
Most users don’t know of this.
What about phone-based access to generative AI?
It is conceivable that an AI maker will decide to employ the same licensing requirements.
Realize that your utterances are being converted into text and that the transcribed text will be stored and made available to the AI maker. Keep this in mind. You’ll need to decide what kind of remarks or commentary you are willing to say to the generative AI phone-based capability. Also, it would be wise to find out beforehand what licensing stipulations the AI maker has established for their phone-based generative AI.
An added twist occurs with the voice aspects in the context of phone-based interaction.
When you enter text into a conventional generative AI online, the only communication being conveyed is the text. Period, end of story. In contrast, when you speak via phone, your voice is being captured too.
Your actual voice.
So what?
If the licensing allows the AI maker to exploit your voice, they could potentially use it to make a synthetic voice that sounds like you. Or, if not going quite that far, they might use your voice recording to further train the AI on how to interpret voice utterances. The gist is that your voice is possibly going to be used in ways that you might not have thought would occur.
Be wary and on your toes.
Making The Connection Of You To You
I’m guessing that some might be thinking that since you don’t need to register to use the generative AI for its phone-based functionality, you are essentially acting anonymously. Ergo, it doesn’t matter what you say, nor whether they record you or not. They just have some random person’s data that they have collected.
You can go on your merry way.
Well, maybe yes, maybe not.
The usual method of tracking you is going to be via the phone number you are using to make the call. That is something you are freely giving up. They could presumably try to pair the phone number with other databases. Doing so might enable the AI maker to figure out your name, address, age, and a wide variety of personal data.
The twofer is they can match what you’ve said to who you are.
Envision that you have called the AI several times to ask questions about sailboats. The next thing you know, the AI maker behind the scenes sells your name and phone number to a company that makes and sells sailboats. Of course, they can do this with just the phone number alone, not necessarily having to go through the trouble of matching your phone number to who you are. They simply sell your phone number and the fact that you have made inquiries about sailboats, the rest is up to the buyer for that information.
An interesting angle is that if an AI maker goes that route, they are likely to be embroiled in numerous federal, state, and local laws on such matters. The FTC is already pursuing various companies for AI-based scams, see my coverage at the link here. It would seem doubtful that the major generative AI vendors would go down that bumpy path. Presumably, hopefully, not.
The other issue is that once the use of generative AI via phone becomes a common practice, fly-by-nights could set up similar arrangements. Call this or that 800 number and get a full hour with interactive AI. Call now. Don’t wait.
How can they afford to do this?
They lean into the data in the manner I’ve described above.
Multimodal Is Not Likely Included For Now
A typical phone-based approach is going to assume that the user has a voice-only phone.
Thus, the AI cannot ask the user to take a picture of something. Without having a visual clue of what the user is discussing, the generative AI might have a limited ability to provide on-target responses.
For example, I am walking through a beautiful outdoor park and happen to notice a plant that looks potentially dangerous. I want to quickly find out if the plant is harmful. With smartphones, you can usually load an app or make an online connection that allows you to activate the camera on your phone. If the camera isn’t activated for the app, you can typically take a photo and send the picture to the app.
In the case of a typical phone-based generative AI, you have to be good enough at describing things to do what you need to do. For the plant, I might tell the AI that it is green in color, has leaves that are three-pronged, and appears to grow near the base of trees. Is that sufficient for the AI to figure out what plant it is? Probably a stretch.
The other side of this same coin is that the generative AI cannot display to the user a result in any pictorial way. Nor can the AI give the result in a text format. Why would someone want their result in text versus machine-produced voice? It could be that the person can’t adequately hear the AI, or maybe they hear it but want to write down what the AI has said. Having a text option would be handy, but again we are assuming that the user is calling on a conventional phone that lacks a multi-modal capacity.
Gradually, you can bet that most of the phone-based generative AI offerings will readily switch to multi-modal mode if a user is calling from a suitably equipped smartphone. The moment you make the connection to the AI, it will detect what your device is and what it can do. From then on, the AI will inform you of the ways to provide input and the means of producing outputs to the device that you are using.
We Live In Exciting Times
Gosh, some of you might be thinking, this discussion is all doom and gloom.
Isn’t there anything upbeat to say about this emerging means of using generative AI?
Yes, absolutely, there is lots to say.
The very exciting prospect is that people who have not yet experienced generative AI due to lack of an Internet connection or not having Wi-Fi will now be able to readily use generative AI. There might be millions upon millions of people who either can’t afford the equipment for such access or don’t live in a place where access is feasible.
The reach of a regular phone call is an incredible expansion of possibilities. I dare say that making phone calls is a lot simpler, easier, and readily possible. You don’t need to download anything to use the AI. You can use the AI pretty much anywhere and at any time, assuming you have access to a phone.
Some would assert that this is a vital step in the democratization of AI (read about the essentials at the link here). That’s a catchphrase that says we don’t want to end up in a situation of those that have AI and those that don’t have AI. The have-nots are presumably going to be at a disadvantage to the haves. Phone access ought to go a long way toward leveling the playing field concerning the access constraint.
All in all, you’ve got the widespread ubiquity of phones, the ease of using a regular phone, the relatively low cost of the phone and hopefully low cost for usage, and access to generative AI that only requires being able to speak. No typing skills are needed. No dealing with logins. Etc.
Just call and start using generative AI.
Boom, drop the mic.
Keep Our Wits About Us At All Times
I hope that the last bit of rah-rah gives you a sense of how important this new trend is.
And though I certainly don’t want to spoil the party, I ask that we all keep our heads and realize that in some sense we are also opening a Pandora’s box. How so? As I’ve repeatedly stated, people are using generative AI for all kinds of purposes, including mental health guidance. They simply access generative AI and start asking for therapy that would be seemingly akin to meeting with a human therapist, and most of the AI apps readily comply, see my analysis at the link here.
The good news is that phone-based access to generative AI implies that a bunch more people can now use AI for their mental health assistance. The bad news is roughly the same, namely, we are amid a massive scale experiment of people using everyday generative AI to give them mental health guidance. What if the AI isn’t doing this prudently? What if people avoid seeking human therapists since they assume AI is all they need?
The population-level consequences are potentially staggering and we upping the ante via phone-based generative AI access, see my predictions on what might arise at a population-level, at the link here.
A final contemplative thought for now.
In 1876, Alexander Graham Bell purportedly transmitted the first-ever recognizable speech message to his assistant Thomas A. Watson by saying, “Mr. Watson come here, I want you.” A stellar moment in history. Something never to be forgotten.
You might one day want to tell your kids that you were one of the first to use a phone-based generative AI. Something you’ll never forget. Think about your options, decide what seems appropriate to your needs and concerns, and make that call.
Get going and remember the date that you did so.
You may like
Noticias
Freud a su alcance: muchas personas usan ChatGPT como su terapeuta. ¿Existe una oportunidad de negocio en la terapia con IA?
Published
4 horas agoon
12 abril, 2025
Me reí un poco nervioso, con flashbacks de la estrella de Joaquin Phoenix-Scarlett Johansson de 2013, y luego escuchó.
Para él, comenzó como tinking tech para ver cómo el chatgpt perspicaz podría ser en descifrar el comportamiento del cliente, pero se convirtió en una relación sorprendentemente beneficiosa. Y me encontré preguntando: ¿estamos todos creando en silencio a Freud a nuestro alcance?
Desde el lanzamiento de ChatGPT en noviembre de 2022, las personas han estado explorando su potencial para conversaciones de terapia. Diablos, incluso yo he confiado en él. Los tiktokers han compartido a Gyan sobre cómo usarlo como un “diario de voz” o hacer que responda como un terapeuta. Un arrastre simple en Reddit redactará varias formas en que las personas la han desplegado para el entrenamiento de la vida, el diario interactivo, el procesamiento de rupturas, la interpretación de sueños y los registros diarios. Un usuario de Reddit respondió a un hilo sobre “¿Alguien más usa Chatgpt para terapia?”, Diciendo: “Es muy útil tenerlo como compañero de pensamiento. Tengo personas en mi vida para esto, pero a veces solo quiero básicamente un diario interactivo”.
Bots de terapia
¿Pueden los bots de IA, con el tipo correcto de capacitación, ofrecer terapia de salud mental con tanta eficacia como los médicos humanos? Un estudio, publicado en el New England Journal of Medicine el 27 de marzo, muestra los resultados del primer ensayo controlado aleatorio para la terapia con IA. Un equipo de investigadores de la Geisel School of Medicine en Dartmouth College, EE. UU., Construyó un bot de terapia con IA llamado Therabot como una forma de abordar la escasez de proveedores de salud mental. Por cada 340 personas en nosotros, solo hay un médico de salud mental. En la India, la proporción es aún más sesgada: según un estudio del Indian Journal of Psychiatry, hay 0,75 psiquiatras por cada 1,00,000 personas.
Eventos en vivo
La Dra. Rachna K Singh, psiquiatra con sede en Delhi, bienestar mental y experta en relaciones en el Hospital Artemis y fundadora del Mind & Wellness Studio, no se sorprende por esta tendencia de que los bots se convierten en terapeutas. “A menudo me han dicho que los clientes me dicen que se sienten más entendidos por los chatbots que por las personas que los rodean, incluidas, a veces, profesionales capacitados”, dice ella. Singh ha estado al tanto de las admisiones como “Las herramientas de IA son más fáciles de hablar” y “Me siento más seguro abriéndoles”. Muchos usan chatgpt para desactivarse. A diferencia de la terapia tradicional, no necesita hacer citas o pagar las tarifas de los médicos. Usted puede obtener validación, información y apoyo inmediatos. Al igual que Shradhha (nombre cambiado), un médico en entrenamiento de Chennai, quien recientemente dio el aviso, “Háblame como un terapeuta”, a su versión gratuita de ChatGPT. Ella dice que lo usa como y cuando se siente abrumada. Ella dice: “He estado en terapia real, pero siento que la mayoría de los terapeutas, los asequibles, no son tan progresistas como queremos que sean. Encontré una gran cantidad de propaganda personal, religiosas o políticas. experimentar problemas de relación.
Psicóloga clínica y experta en relaciones clínicas con sede en Delhi, Dr. Bhavna Barmi, dice que la terapia puede ser costosa (`800-5,000 por sesión) o inaccesible. Ella dice: “Mis clientes más jóvenes me han dicho que se sienten más escuchados o menos juzgados al hablar con un chatbot. En las relaciones, incluso los terapéuticos, la gente se preocupa por decir lo correcto o no ser una carga. AI elimina ese miedo”.
Shradhha dice que, mientras trabajaba con el bot, descubrió que no recuerda los chats anteriores. Su consejo: cree un chat separado para esto y siempre seleccione para continuar donde lo dejó. Ella dice: “Es rentable. No hay misoginia o consejos poco prácticos. Es sencillo sin ser brutal. Pero la IA no puede reemplazar la terapia real. Es una forma de aumentar su capacidad de ser consciente de sí mismo sin espiral.
Alguna ayuda es mejor que ninguna ayuda, ¿verdad? Pavithra (el nombre cambiado), un estudiante de 21 años de Tamil Nadu, recurrió a IA después de buscar un terapeuta que se enfrenta a un raro. La otra opción era mi consejero universitario, que ni siquiera estaba considerando personas queer. Luego descargué una aplicación de citas por curiosidad. El chatbot sexual que había podido comunicarse sin problemas sin límites de datos “. Pavithra estaba buscando un espacio para desahogarse y usó el bot cada vez que se sentía abrumada. No es un proceso simplificado. Sin embargo, como estudiante de IA, sentí que el modelo era bueno con una comunicación efectiva “.
Usos y preocupaciones
Los expertos no desacreditan su valor terapéutico. El psiquiatra Dr. Sanjay Chugh dice: “Uno no puede basarse por completo porque hay algunos problemas para los cuales solo necesita escuchar el punto de vista de otra persona. Si el chatbot está dando eso, podría ayudarlo a resolver ciertos conflictos”. Chugh agrega: “La terapia de IA es básicamente un formato de askReply, ask-repunenta. Un chatbot puede darle todas las respuestas teóricas correctas. Pero cuando alguien está sentado con un terapeuta, existe una relación terapéutica, una conexión emocional, que es importante en el proceso de resolución y recuperación de conflictos. Ningún chat de chat.
Singh siente que las herramientas de IA pueden administrar eficientemente la documentación clínica, la programación de citas, el seguimiento del progreso y la detección de los síntomas iniciales, liberar un tiempo valioso para los terapeutas y ampliar el alcance de la atención. En un informe del Foro Económico Mundial de 2022, el “conjunto de herramientas de gobernanza global para la salud mental digital”, las herramientas de salud mental de IA fueron reconocidas como un valioso apoyo de primera línea para las personas. Sin embargo, Barmi dice que el uso de IA para la terapia tiene preocupaciones éticas:
“Puede normalizar el desapego emocional, evitar la resolución de conflictos e incluso desensibilizarnos a la empatía humana. Existe el riesgo de subcontratación emocional y existe el peligro de que, con el tiempo, podamos dejar de desarrollar habilidades interpersonales, dejar de buscar vulnerabilidad y elegir la facilidad de conexión sobre la profundidad de la misma”. Sus hacks: use la IA como puente, no un reemplazo; Trate las herramientas de IA como compañeros de diario o rastreadores de humor; y combínelo con terapia.
Consejeros de IA de la India
Según un informe de 2024 de la firma de inteligencia de mercado Astute Analytica, se proyecta que el mercado indio de salud mental se valore en $ 62 mil millones en 2032 de $ 6.9 mil millones en 2023, en el que las soluciones de salud mental digital presentan la oportunidad más lucrativa. Las aplicaciones de salud mental, como WYSA y YourDost, vieron un aumento del 30% en las descargas en 2023.
Srishti Srivastava, cofundador de Infiheal, una plataforma para la salud psicológica, lanzó Haroo en octubre de 2024. Es un entrenador de IA para la salud mental. Las suscripciones para los planes de prueba han cruzado 200,000, con un crecimiento mes a mes del 15%. Tiene una base de usuarios activa mensual de 18,000+, y más de 1 lakh de suscriptores para ofertas premium y compatibles con el terapeuta.
Srivastava, quien luchó con la ansiedad cuando era niño, estuvo expuesto a la terapia desde el principio y quiere que las personas se responsabilicen de su salud mental. Ella dice: “Al integrar las interacciones hiperpersonalizadas y culturalmente sintonizadas, abordamos la brecha de herramientas de autoayuda genéricas de talla única”. La plataforma también ha consolidado múltiples herramientas de salud mental: terapia con profesionales de la salud mental, diario, meditación, herramientas de enfoque y hojas de trabajo.
Srivastava dice que, a diferencia de la IA genérica, los bots de terapia son agentes especializados que están capacitados en conjuntos de datos específicos y son desarrollados por profesionales de la salud mental. Tienen barandillas: el uso de palabras como suicidio, ideación homicida, autolesiones, violencia, etc., en la plataforma conectará inmediatamente a la persona con profesionales humanos o ayuda a las líneas de ayuda. Ella comparte que a través de HeSoo han evitado 750 situaciones de alta angustia de autolesión, ideación suicida, abuso, etc.
La mayoría de los asistentes de terapia sirven al “espectro medio”, aquellos que se ocupan del estrés diario, la depresión leve y la ansiedad junto con el bienestar sexual, principalmente a través de la psicoeducación. Mientras que Haro se dirige a la Generación Z y a los Millennials (20-35 años), la ASA de tecnologías del tronco encefálico con sede en Jaipur está diseñada específicamente para adolescentes, y tapas a los 25 años. Ha sido desarrollado por Manasvini Singh, cofundador y director de innovación psicológica, y Anirudh Sharma, fundador y CEO. Dicen que pasaron cinco años construyendo “un motor de escucha con profundidad clínica y empatía cultural”.
Según los datos del gobierno, más de 11,000 estudiantes murieron por suicidio en 2021. Sharma dice que, a nivel mundial, la tendencia de chatbot de bricolaje está creciendo, pero advierte en contra de ello: “Un enfoque casual o experimental para la salud mental puede hacer más daño que bien. Pregunte a un chatbot genérico cómo sentirse menos ansioso y podría dar un consejo decente. Pregúntele cómo terminar su vida sin dolor y podría decirle cinco métodos sin páuseas”. Los bots de terapia como ASA, dice, son clínicamente revisados, bloqueados por seguridad y habilitados para la escalada. Detiene el compromiso casual.
A diferencia de las aplicaciones construidas en modelos de lenguaje grandes abiertos, no hay retención de datos de información de identificación personal en ASA. También está entrenado en la jerga adolescente india (de “Rizz” a “Nahi Yaar”). Ahora, en pre-lanzamiento y bajo validación clínica, ASA planea tomar la ruta B2B, con licencias a escuelas, plataformas EDTech y jugadores de telemedicina.
La psiquiatra Rachna Singh dice que las aplicaciones como ChatGPT son buenas sugerencias, pero no hay límites. Barmi dice que uno tiene que ejercer algunos límites a su alrededor y hacer preguntas puntiagudas.
Shipra Dawar, fundadora de Iwill y Epsyclinic, es una vieja mano en el espacio de salud mental digital, que comienza su primera aventura en 2015. Actualmente está ocupada desarrollando Gita: asistente de terapia inclusiva generativeai controlada. Se afirma que es el primer modelo de salud mental Genai de Genai controlado y apoyado por Microsoft. El modelo atiende a las comunidades sin acceso a la ayuda, así como a la población urbana que necesita apoyo empático en cualquier momento. La primera fase cubrió a más de 10,000 personas, con más de 3,00,000 puntos de conversación. Planean lanzar una nueva versión este año.
Dawar dice que el potencial es enorme. La IA puede democratizar el acceso, dice, “casi el 60-70% de las personas tienen una forma leve de problema de salud mental. Los asistentes de terapia de IA pueden liberar a los terapeutas a centrarse en casos de alta necesidad”. Srivastava dice que el poder real de la IA radica en la prevención, utilizando análisis predictivos para marcar patrones como el aumento de los niveles de ansiedad antes de una crisis. “Si lo hacemos bien, la atención de salud mental podría cambiar de reactiva a proactiva”. Sin embargo, Singh dice que la IA puede ser, en el mejor de los casos, una herramienta, “porque el arte sutil de la conexión humana merece más que un algoritmo”.
Noticias
Ted revela desde OpenAi, Google, Meta Heads to Court, Selfie conmigo mismo
Published
4 horas agoon
12 abril, 2025
El CEO de Operai, Sam Altman, habla en un panel de discusión sobre potenciales, perspectivas y desafíos en el … Más Age of Artificial Intelligence (AI) en la Universidad Técnica (TU) en Berlín el 7 de febrero de 2025. (Foto de John MacDougall / AFP) (Foto de John MacDougall / AFP a través de Getty Images)
AFP a través de Getty Images
Cada semana estamos a nuestras axilas en noticias de Big Tech. Entre Operai, Elon Musk, Meta, Google, los trajes antimonopolio y la IA, es difícil llamar la atención, incluso si haces una herramienta fácil de usar, como “selfie con mi yo más joven”, que Pika Labs, una pequeña empresa de inteligencia artificial generativa que ha recaudado $ 135 millones. Pika es conocida por este tipo de efectos alucinantes que cualquiera puede hacer. Esta es mi foto de graduación de la escuela secundaria con un yo ligeramente fuera de escala en el video.
La conferencia TED2025celebrada en Vancouver, envolvió su 36ª edición ayer, 11 de abril. Presentó 80 altavoces De más de 60 países, incluidos Sam Altman, Eric Schmidt, Palmer Luckey, una gran cantidad de líderes de negocios y pensamientos de todo el mundo. El tema de Ted, “Humanity Reimagined”, fue hecha a medida por el momento, inclinándose fuertemente en la IA y los medios de comunicación. Ted también anunció que regresaría a California desde Vancouver en 2027.
El CEO de Openai, Sam Altman, aprovechó la oportunidad para anunciar que el 10% de la población mundial (~ 800 millones de personas) ahora usa regularmente sus sistemas. Hizo hincapié en la inevitabilidad de la IA superando la inteligencia humana y abordó la definición en evolución de AGI y la importancia de desarrollar agentes seguros y confiables.
Android XR Head de Google, Shahram Izadi, Prototipo AR de gafas AR Con una pantalla en miniatura incorporada impulsada por el asistente de IA Gemini de la compañía, capaz de traducciones en tiempo real y escaneo de libros. También demostró un auricular Vision-Pro, desarrollado con Samsung y Qualcomm para competir con el caro y defectuoso Vision Pro de Apple. Auriculares similares a Vision Pro de Apple, que indica el compromiso de la compañía con avanzar en tecnologías inmersivas.
Operai ha actualizado ChatGPT para hacer referencia a todas las conversaciones pasadas, mejorando la personalización y la conciencia del contexto. Esta característica se está implementando en usuarios de Plus y Pro a nivel mundial, excluyendo ciertas regiones europeas debido a las limitaciones regulatorias. Los usuarios pueden administrar la configuración de la memoria, incluida la deshabilitación de la función o el uso de chat temporal para sesiones sin retención de memoria.
Washington, DC – 10 de abril: Elon Musk escucha mientras el presidente Donald J Trump habla durante un gabinete … Más Reunión en la Casa Blanca el jueves 10 de abril de 2025 en Washington, DC. (Foto de Jabin Botsford/The Washington Post a través de Getty Images)
The Washington Post a través de Getty Images
Operai ha presentado una contrademanda contra Elon Musk, acusándolo de una competencia injusta e interfiriendo con las relaciones de la compañía con inversores y clientes. Esta acción legal intensifica el conflicto en curso entre Openai y Musk, quien fue un inversor fundador en la compañía. Operai busca responsabilizar a Musk por presuntos daños y evitar más acciones ilegales.
Meta enfrenta el ensayo antimonopolio FTC sobre las adquisiciones de Instagram y WhatsApp. El lunes 14 de abril, Meta se enfrentará a la Comisión Federal de Comercio en un juicio antimonopolio a partir del 14 de abril de 2025. La FTC alega que las adquisiciones de Meta de Instagram y WhatsApp fueron anticompetitivas y busca posiblemente desinvertir estas plataformas. Dos pensamientos aquí. Si el gobierno tiene éxito, enviaría ondas de choque a través de la industria tecnológica. En segundo lugar, cuando dobla la rodilla, cambia sus políticas y creencias, y abre su plataforma de medios masiva a una organización política, ¿está mal esperar un poco de alivio legal? A pesar de que pueden tener razón, el Departamento de Justicia no tiene que procesar este caso, o el de Google. Puede ser que aún no hayan sido lo suficientemente generosos, dados las apuestas.
Esta foto sin fecha proporcionada por Colossal Biosciences muestra a Romulus y Remus, tanto de 3 meses como … Más Genéticamente diseñado con similitudes con el lobo extinto Dire. (Biosciencias colosales a través de AP)
Prensa asociada
Colossal Biosciences afirma que la extinción exitosa de los lobos graves. Colosal Biosciences con sede en Dallas anunció el nacimiento de tres cachorros de lobo de ingeniería genéticamente que exhiben rasgos del lobo extinto Dire. Al editar genes en lobos grises utilizando ADN antiguo, la compañía P lans restaura las funciones ecológicas perdidas, aunque los expertos debaten la autenticidad de estos animales como verdaderos lobos graves.
La exposición en Cinematheque Francaise, París XII, “El arte de James Cameron” en su artística … Más Trabajar desde sus inicios como diseñador y pintor que ha nutrido todo su trabajo cinematográfico. Aquí en el set de su película “Avatar”. (Foto de: Marc Charuel/Photo12/Universal Images Group a través de Getty Images)
Photo12/Universal Images Group a través de Getty Images
James Cameron aboga por la IA para reducir los costos de películas de gran éxito. El reconocido director James Cameron expresó su apoyo para usar la IA para reducir los costos de producción de las películas de gran éxito de efectos. Hizo hincapié en la necesidad de reducir los gastos sin comprometer al personal, lo que sugiere que la IA puede optimizar los procesos y mejorar la eficiencia en el cine. No hay forma de mejorar la eficiencia sin usar menos personas, James, pero ya lo sabes. Quizás al ser “honesto” no incurrirá prematuramente en la ira de los sindicatos laborales de la industria. Habrá mucho tiempo para eso después de que sea demasiado tarde.
Estudio de IA Grail lanzado por Davide Bianca y Jeff Krelitz. Grail integrará herramientas generativas en cada paso de desarrollo de contenido. Basándose en su profunda experiencia en cine y medios de comunicación, el dúo dice que Grail usará IA para acelerar los flujos de trabajo, menores costos de producción y ampliar las posibilidades creativas. El estudio ya está en conversaciones con creadores y distribuidores para desarrollar IP multiplataforma. El proyecto refleja un movimiento más amplio en el entretenimiento hacia la colaboración híbrida de la máquina humana. La informática y tecnóloga creativa Bianca había sido directora creativa de la agencia creativa BCN Visuals. Codirigió el primer comercial de IA de transmisión global para Coca-Cola a fines del año pasado, titulado “Vacaciones vienen”. Krelitz es productor y ex CEO de Metal pesado revista. La lista de representantes de Grail incluye a muchos cuyo trabajo ha aparecido en esta columna, incluido Kavan the Kid (Star Wars: el aprendiz fantasma, los que permanecen), Phantomx (Espiral, vicio de tiempo), Kim Landers (Cables, NOX), Aashay Singh (Velo, multiverso mío), Guido Callegari (Haru G-16, Dockridge), Ryan Patterson (Ronda final, montaña sagrada), Alexandre Tissier (Ecos de arrepentimiento, mentalidad), Jan-Willem Bloom (The Obsidian Rift, Bibot salva la Navidad) y Rogier Hendriks (Hollow – Caterpillar, dentro de Temptation – Levanta su banner).
“Disrupt” es una película de moda especulativa de Prompt Media Lab, inspirada en el audaz espíritu de Yves Saint Laurent. La compañía había ganado previamente el mejor comercial en la competencia cinematográfica de Luma AI.
Esta columna sirve como guión para el segmento de noticias de nuestro podcast Weekly AI/XRco-anfitrión por el ex futurista de Paramount y cofundador de Red Camera, y Rony Abovitz, fundador de Magic Leap, Mako Robotics y Synthbee AI. El invitado de esta semana es el cineasta John Gaeta’s Escape.ai, un hogar para lo que él llama “neocinema”. Puede encontrarnos en Spotify, iTunes y YouTube.
Noticias
Los empleados ex openai se recuperan detrás del desafío legal de Musk
Published
5 horas agoon
12 abril, 2025
El personal ex-openai une fuerzas contra OpenAi
Última actualización:
Editado por
Mackenzie Ferguson
Investigador de IA Herramientas e consultor de implementación
En un giro sorprendente, una coalición de ex empleados de Operai ha apoyado la batalla legal de Elon Musk para detener y reestructurar la potencia de IA, OpenAi. Este movimiento señala un cambio significativo en el panorama de IA, ya que los expertos cuestionan la trayectoria actual de la compañía. La demanda tiene como objetivo abordar las preocupaciones sobre la transparencia y la ética en el desarrollo de la IA.

Información de fondo
Las batallas legales en curso que rodean Openai han recibido un nuevo giro, ya que un grupo de ex empleados ha señalado su apoyo a la demanda de Elon Musk con el objetivo de detener y reestructurar la organización. Este desarrollo agrega otra capa de complejidad a las operaciones de OpenAi, que han generado un amplio interés público. Desde su inicio, Operai se ha posicionado a la vanguardia de la investigación y el desarrollo de inteligencia artificial, a menudo provocando debates sobre las direcciones éticas y estratégicas de la IA. La demanda de Musk, que inicialmente financió OpenAI, refleja las crecientes preocupaciones entre varios interesados sobre el gobierno de la compañía y la trayectoria en la que se encuentra. Para obtener información más detallada, la historia está cubierta por Reuters.
Eventos relacionados
En un desarrollo significativo en el mundo de la inteligencia artificial, un grupo de ex empleados de OpenAI ha respaldado públicamente la demanda de Elon Musk destinada a detener la reestructuración planificada de la empresa. Este movimiento ha provocado una atención generalizada en la comunidad tecnológica, subrayando las profundas divisiones y las visiones contrastantes para el futuro de la investigación y la gobernanza de la IA. La demanda y sus partidarios sostienen que la reestructuración podría conducir a una concentración de poder y recursos que contradice la misión original de OpenAI para garantizar que la inteligencia artificial beneficie a toda la humanidad.
En respuesta a estos eventos que se desarrollan, Operai ha mantenido su postura de que la reestructuración es esencial para avanzar en sus capacidades de IA y mantenerse competitivo en un paisaje tecnológico en rápida evolución. Mientras tanto, los expertos de la industria han intervenido en la situación, y algunos expresan su preocupación por el potencial de una mayor influencia comercial y un cambio de las consideraciones éticas que tradicionalmente han guiado los proyectos de OpenAI.
Además de la complejidad, el público ha mostrado una reacción mixta, y algunos abogan por las medidas de protección de Musk para preservar los objetivos fundamentales de OpenAI, mientras que otros defienden la necesidad de reestructurar para fomentar la innovación y los avances prácticos en las tecnologías de IA. Esta división entre las partes interesadas sugiere tensiones más amplias dentro del campo de la IA con respecto a la gobernanza, las implicaciones éticas y el acto de equilibrio entre la innovación y la responsabilidad pública.
Opiniones de expertos
En los desarrollos recientes, un grupo de ex empleados de Operai ha presentado su apoyo detrás de la demanda de Elon Musk, con el objetivo de detener la reestructuración de OpenAI. Estos expertos, íntimamente familiarizados con las complejidades del desarrollo de la IA y la dinámica organizacional dentro de OpenAI, creen que los cambios propuestos podrían alterar significativamente la misión central de la organización. Según un informe de Reuters, estos expertos argumentan que mantener la visión original y la estructura operativa es crucial para el avance ético de la inteligencia artificial.
El respaldo de la demanda de Musk por parte de estos profesionales subraya una preocupación creciente dentro de la comunidad de IA sobre la dirección en la que se dirige OpenAi. Su apoyo se basa en una convicción de que la trayectoria actual puede conducir a consecuencias no deseadas, alejándose de los valores fundamentales que priorizan la seguridad y la accesibilidad sobre las ganancias. Como se destaca en un artículo de Reuters, enfatizan la necesidad de que OpenAi siga siendo un administrador de los estándares éticos en la innovación de IA. Esta perspectiva resuena con ansiedades más amplias en la industria tecnológica para equilibrar la innovación con consideraciones éticas.
Reacciones públicas
Las reacciones públicas a las acciones legales recientes contra OpenAI han sido tan variadas como intensas. Por un lado, muchas personas han expresado su apoyo a Elon Musk y su coalición de ex empleados de Operai, creyendo que la demanda podría allanar el camino para las reformas necesarias dentro de la industria de la IA. Argumentan que los avances sin control en la inteligencia artificial sin una reestructuración adecuada podrían plantear riesgos éticos y existenciales significativos, como se refleja en las discusiones en múltiples foros tecnológicos y plataformas de redes sociales. Para obtener información más detallada sobre estas dinámicas, Reuters proporciona un artículo que detalla los motivos del grupo y su impacto potencial en las reformas de gobernanza (fuente) de la IA.
Por el contrario, algunos sectores del público han expresado su preocupación por las implicaciones de detener potencialmente el progreso de una firma de investigación líder de IA como OpenAI. Los críticos argumentan que tales desafíos legales podrían sofocar la innovación y retrasar los beneficios tecnológicos que la IA podría aportar a varias industrias. Las discusiones en las secciones de comentarios de los sitios web de noticias tecnológicas sugieren temores de que si OpenAi se ve obligado a reestructurarse, podría perder su ventaja competitiva e obstaculizar los avances que muchos creen que son cruciales para el crecimiento económico y tecnológico. Para aquellos interesados en el debate en curso, Reuters proporciona una cobertura integral de la demanda y su impacto más amplio en el sector de IA (fuente).
Además, hay un segmento del público que sigue siendo escéptico sobre los motivos detrás de la demanda, cuestionando si las acciones están impulsadas por preocupaciones genuinas por la seguridad pública o los intereses comerciales subyacentes. Este escepticismo es parte de una conversación más amplia sobre transparencia y responsabilidad en la industria tecnológica, que se ha destacado en varios comentarios de expertos. Para una exploración más profunda de estos problemas, el informe detallado de Reuters puede ofrecer un contexto valioso (fuente).
Implicaciones futuras
Las implicaciones futuras de la demanda contra OpenAI, respaldadas por el CEO de Tesla, Elon Musk y un grupo de ex empleados de Openai, podrían remodelar significativamente el panorama del desarrollo de inteligencia artificial (IA) y su gobernanza. Esta acción legal puede provocar marcos regulatorios más estrictos y supervisión para las organizaciones de IA, considerando las crecientes preocupaciones sobre la transparencia y las consideraciones éticas en la IA. Tales cambios podrían alterar cómo operan las empresas de IA, asegurando que se adhieran a estándares y prácticas más rigurosos.
Además, la demanda podría influir en la percepción pública y la confianza en la tecnología de IA. A medida que estas cifras de alto perfil desafían las operaciones y la reestructuración de OpenAI, el caso puede resaltar áreas potenciales donde las tecnologías de IA pueden desalinearse con valores sociales y estándares éticos. Este escrutinio podría conducir a una mayor demanda pública de sistemas de IA responsables, lo que potencialmente impulsa la innovación hacia soluciones de IA más socialmente responsables. Para obtener más información sobre los detalles que rodean la demanda y sus implicaciones, los lectores pueden consultar la cobertura integral de Reuters aquí.
El resultado de esta demanda también podría establecer un precedente para futuros desafíos legales dentro de la industria tecnológica, particularmente en relación con cómo los gigantes tecnológicos y las empresas de IA manejan la reestructuración y los cambios en el personal. Si tiene éxito, puede capacitar a los empleados y otras partes interesadas para responsabilizar a las empresas por las prácticas que actualmente pueden carecer de transparencia. Este cambio podría fomentar un entorno más equitativo dentro del sector tecnológico, lo que lleva a innovaciones que priorizan tanto el avance tecnológico como la responsabilidad ética.
Related posts







































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo