Connect with us

Noticias

Hot Trend Of Accessing Generative AI Via Simple Phone Call Gets Huge Uplift Via OpenAI’s New 1-800-ChatGPT

Published

on

In today’s column, I discuss the hot trend of being able to access generative AI and large language models (LLMs) via a simple phone call. No smartphone is required — just use any mobile phone or even old-fashioned landline, and you immediately have unfettered voice access to a full-on generative AI capability.

Nice.

This trend has notably been given a huge boost due to OpenAI announcing their newly available 1-800-CHATGPT (1-800-242-8478). Yes, OpenAI ChatGPT, the 600-pound gorilla or elephant in the room, has grandly made phone usage of generative AI a widespread phenomenon that is going to spur other AI makers to do likewise. This is decidedly an earth-shattering upping of the ante in the fiercely contested AI one-upmanship taking place.

In the case of ChatGPT access, you are limited to up to 15 minutes of free phone-based usage per month. No registration is required. The AI simply notes the phone number that you are calling from to keep track of your allowed usage (must be a U.S.-based line for now). If you happen to have more than one phone, voila, you can essentially get more time per month by using up the 15 minutes permitted per separate phone line. For those outside the U.S. or who otherwise don’t want to make a phone call per se, OpenAI has also established a text-message-based approach to the same catchy phone number via the use of WhatsApp.

Before you get started partying, it turns out that there is more to being astute and safe about using generative AI over the phone than perhaps meets the eye. There are certainly celebratory upsides, but lots of disconcerting downsides too.

Let’s talk about it.

This analysis of an innovative AI breakthrough is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here). For my coverage of the top-of-the-line ChatGPT o1 model and its advanced functionality, see the link here and the link here.

How AI Works Via Phone Is Straightforward

Before we dive into the pluses and minuses, let’s make sure we are all on the same page about how accessing generative AI via a regular phone takes place.

The fundamentals are straightforward.

I’m assuming that you might have already used a generative AI capability via the web or possibly downloaded an app for use on your smartphone. If so, you know that once you have reached the generative AI, perhaps having to log in first, you then enter a prompt. Based on the prompt, the generative AI generates a response. All of this is typically done on a text-to-text basis, whereby you enter text as your prompt and get a text-based response from the AI.

You normally proceed with a back-and-forth of you entering a prompt and the AI provides a response. This happens on a turn-by-turn basis. Modern-day generative AI is amazingly fluent-like. You can easy-peasy carry on a compelling written conversation with the AI.

Voice Enters Into The Generative AI Realm

Some generative AI now allows a voice-to-text feature. This involves you speaking to the AI and your spoken words are converted into text. The text then gets fed into the AI. All else is roughly the same thereafter. In addition, some generative AI currently allows for a text-to-voice feature. That involves the AI producing text as a response, but rather than showing you the text, the system reads aloud the text to you.

Here’s the deal with regular phone-based access to generative AI.

You dial a phone number that automatically connects you to the designated generative AI.

The AI starts the conversation by doing a text-to-voice telling you a standardized opening. For example, when calling ChatGPT you generally get this introductory salutation:

  • “Hi, I’m ChatGPT, an AI assistant. Our conversation may be reviewed for safety. By continuing this call, you agree to OpenAI’s terms and privacy policy. So, how can I help you?”

On any subsequent calls that you make to the ChatGPT phone line, the AI will detect that you previously called and will therefore start the opening by saying “Hello, again” and follow with the rest of the standard opening.

You then carry on a conversation with the AI, entirely via voice. Your voice utterances are converted into text, the AI processes the text as normally would be the case, and the AI generates a text response that is then said to you via a text-to-voice function.

Voila, this process continues until either you hang up or your time limit is reached.

Things That Can Go Wrong Right Away

In the real world, not everything is wine and roses.

Let’s see how that applies to generative AI being accessed via a regular phone.

First, some people are undoubtedly going to misdial and reach some number other than the designated one. Oopsie. The problem too is that this might occur on a massive scale. Currently, there are 300 million weekly active users of ChatGPT. How many of those users will opt to access ChatGPT via regular phone? In addition, how many new users who haven’t used ChatGPT will be attracted to using phone-based access?

We don’t know what the volume is going to be, but the odds are that it could be a rather large number. The point is that even if some small percentage misdials, there could be a slew of people calling other numbers inadvertently. On a tremendously beguiling scale. This could be an exasperating mess.

Second, and I deplore saying so, there is a distinct possibility that some evildoers will try to grab-up other phone numbers that are specifically similar to the designated phone number. Here’s their scam. They hope that people will misdial to their dastardly number. They then try to sell the person on swamp land or some other rip-off. People will be perhaps confused and assume that they have reached the correct number, a reputable number. Baddies will deceptively take advantage of them by asking for credit card numbers, social security numbers, and the like.

Sad face.

More Voice Issues To Be Thinking About

The next thing to consider is whether you are able to be adequately heard by the generative AI.

Imagine this. You tell the AI to find all the stores that are near the city named Pinole. Though voice-to-text translation is pretty good these days, there is a solid chance that your utterance will be misheard. The AI responds by telling you about the stores that are near the city named Binhole, a completely different city.

You and the AI go back and forth trying to iron this out. Meanwhile, your allotted time, let’s say 15 minutes, is rapidly dwindling. You decide this is fruitless and in anger vow to never call the number again.

Even if your commentary is readily interpretable, including an accent, there is the issue of potential background noise. Suppose you are standing on the streets of New York City and trying to get the generative AI to tell you which museum has your favorite painting. The background noise could be marring your perfect pronunciation.

Rinse and repeat.

Another frustration will be dropped lines. If you are in a rideshare car and the driver doesn’t speak your language, you might be tempted to call the generative AI and ask it to convert your destination instructions into that other language. You make the connection to the AI, which maybe can’t connect at first or at all due to a bad reception — and then start a conversation. Midway through, the line drops.

All in all, there might be a lot of angst involved.

Considerations Of A Private Nature

I’ve previously covered that many of the generative AI apps stipulate in their licensing agreements that whatever text you enter is fully accessible to the AI maker, see my analysis at the link here. The issue is this. Your text-based prompts under those stipulations can be examined by the AI researchers and AI developers of the AI maker. They can also reuse your entered data to further data train the AI. Bottom-line is that you are potentially getting yourself into a privacy intrusion and undercut any semblance of confidentiality.

Most users don’t know of this.

What about phone-based access to generative AI?

It is conceivable that an AI maker will decide to employ the same licensing requirements.

Realize that your utterances are being converted into text and that the transcribed text will be stored and made available to the AI maker. Keep this in mind. You’ll need to decide what kind of remarks or commentary you are willing to say to the generative AI phone-based capability. Also, it would be wise to find out beforehand what licensing stipulations the AI maker has established for their phone-based generative AI.

An added twist occurs with the voice aspects in the context of phone-based interaction.

When you enter text into a conventional generative AI online, the only communication being conveyed is the text. Period, end of story. In contrast, when you speak via phone, your voice is being captured too.

Your actual voice.

So what?

If the licensing allows the AI maker to exploit your voice, they could potentially use it to make a synthetic voice that sounds like you. Or, if not going quite that far, they might use your voice recording to further train the AI on how to interpret voice utterances. The gist is that your voice is possibly going to be used in ways that you might not have thought would occur.

Be wary and on your toes.

Making The Connection Of You To You

I’m guessing that some might be thinking that since you don’t need to register to use the generative AI for its phone-based functionality, you are essentially acting anonymously. Ergo, it doesn’t matter what you say, nor whether they record you or not. They just have some random person’s data that they have collected.

You can go on your merry way.

Well, maybe yes, maybe not.

The usual method of tracking you is going to be via the phone number you are using to make the call. That is something you are freely giving up. They could presumably try to pair the phone number with other databases. Doing so might enable the AI maker to figure out your name, address, age, and a wide variety of personal data.

The twofer is they can match what you’ve said to who you are.

Envision that you have called the AI several times to ask questions about sailboats. The next thing you know, the AI maker behind the scenes sells your name and phone number to a company that makes and sells sailboats. Of course, they can do this with just the phone number alone, not necessarily having to go through the trouble of matching your phone number to who you are. They simply sell your phone number and the fact that you have made inquiries about sailboats, the rest is up to the buyer for that information.

An interesting angle is that if an AI maker goes that route, they are likely to be embroiled in numerous federal, state, and local laws on such matters. The FTC is already pursuing various companies for AI-based scams, see my coverage at the link here. It would seem doubtful that the major generative AI vendors would go down that bumpy path. Presumably, hopefully, not.

The other issue is that once the use of generative AI via phone becomes a common practice, fly-by-nights could set up similar arrangements. Call this or that 800 number and get a full hour with interactive AI. Call now. Don’t wait.

How can they afford to do this?

They lean into the data in the manner I’ve described above.

Multimodal Is Not Likely Included For Now

A typical phone-based approach is going to assume that the user has a voice-only phone.

Thus, the AI cannot ask the user to take a picture of something. Without having a visual clue of what the user is discussing, the generative AI might have a limited ability to provide on-target responses.

For example, I am walking through a beautiful outdoor park and happen to notice a plant that looks potentially dangerous. I want to quickly find out if the plant is harmful. With smartphones, you can usually load an app or make an online connection that allows you to activate the camera on your phone. If the camera isn’t activated for the app, you can typically take a photo and send the picture to the app.

In the case of a typical phone-based generative AI, you have to be good enough at describing things to do what you need to do. For the plant, I might tell the AI that it is green in color, has leaves that are three-pronged, and appears to grow near the base of trees. Is that sufficient for the AI to figure out what plant it is? Probably a stretch.

The other side of this same coin is that the generative AI cannot display to the user a result in any pictorial way. Nor can the AI give the result in a text format. Why would someone want their result in text versus machine-produced voice? It could be that the person can’t adequately hear the AI, or maybe they hear it but want to write down what the AI has said. Having a text option would be handy, but again we are assuming that the user is calling on a conventional phone that lacks a multi-modal capacity.

Gradually, you can bet that most of the phone-based generative AI offerings will readily switch to multi-modal mode if a user is calling from a suitably equipped smartphone. The moment you make the connection to the AI, it will detect what your device is and what it can do. From then on, the AI will inform you of the ways to provide input and the means of producing outputs to the device that you are using.

We Live In Exciting Times

Gosh, some of you might be thinking, this discussion is all doom and gloom.

Isn’t there anything upbeat to say about this emerging means of using generative AI?

Yes, absolutely, there is lots to say.

The very exciting prospect is that people who have not yet experienced generative AI due to lack of an Internet connection or not having Wi-Fi will now be able to readily use generative AI. There might be millions upon millions of people who either can’t afford the equipment for such access or don’t live in a place where access is feasible.

The reach of a regular phone call is an incredible expansion of possibilities. I dare say that making phone calls is a lot simpler, easier, and readily possible. You don’t need to download anything to use the AI. You can use the AI pretty much anywhere and at any time, assuming you have access to a phone.

Some would assert that this is a vital step in the democratization of AI (read about the essentials at the link here). That’s a catchphrase that says we don’t want to end up in a situation of those that have AI and those that don’t have AI. The have-nots are presumably going to be at a disadvantage to the haves. Phone access ought to go a long way toward leveling the playing field concerning the access constraint.

All in all, you’ve got the widespread ubiquity of phones, the ease of using a regular phone, the relatively low cost of the phone and hopefully low cost for usage, and access to generative AI that only requires being able to speak. No typing skills are needed. No dealing with logins. Etc.

Just call and start using generative AI.

Boom, drop the mic.

Keep Our Wits About Us At All Times

I hope that the last bit of rah-rah gives you a sense of how important this new trend is.

And though I certainly don’t want to spoil the party, I ask that we all keep our heads and realize that in some sense we are also opening a Pandora’s box. How so? As I’ve repeatedly stated, people are using generative AI for all kinds of purposes, including mental health guidance. They simply access generative AI and start asking for therapy that would be seemingly akin to meeting with a human therapist, and most of the AI apps readily comply, see my analysis at the link here.

The good news is that phone-based access to generative AI implies that a bunch more people can now use AI for their mental health assistance. The bad news is roughly the same, namely, we are amid a massive scale experiment of people using everyday generative AI to give them mental health guidance. What if the AI isn’t doing this prudently? What if people avoid seeking human therapists since they assume AI is all they need?

The population-level consequences are potentially staggering and we upping the ante via phone-based generative AI access, see my predictions on what might arise at a population-level, at the link here.

A final contemplative thought for now.

In 1876, Alexander Graham Bell purportedly transmitted the first-ever recognizable speech message to his assistant Thomas A. Watson by saying, “Mr. Watson come here, I want you.” A stellar moment in history. Something never to be forgotten.

You might one day want to tell your kids that you were one of the first to use a phone-based generative AI. Something you’ll never forget. Think about your options, decide what seems appropriate to your needs and concerns, and make that call.

Get going and remember the date that you did so.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Ai ahora ‘en la cúspide de hacer una nueva ciencia’

Published

on

[Image created via OpenAI’s image generation technology]

“Estamos en la cúspide de sistemas que pueden hacer una nueva ciencia”.

Esa línea, en la página 3 del último “Marco de preparación” de OpenAI (versión 2, actualizada el 15 de abril de 2025), señala un posible cambio de paradigma para el ecosistema de I + D, que rápidamente está pasando de ser una etapa interna ansiosa, si no siempre precisa, a una colega potencial de AA, o incluso un investigador principal.

Mirando hacia el futuro, el marco lidia con el potencial de la IA para convertirse en “mejorando recursivamente”. Advierte que la “aceleración importante en la tasa de IA I + D” podría introducir rápidamente nuevas capacidades y riesgos. Esta aceleración podría superar las medidas de seguridad actuales, haciendo que la supervisión sea “insuficiente” y marcando explícitamente el peligro de perder el “mantenimiento del control humano” sobre el sistema de IA.

Hablando en un evento de Goldman Sachs solo unas semanas antes, el 5 de marzo (lanzado el 11 de abril en YouTube), la directora financiera de Operai Sarah Friar reforzó este punto de vista, afirmando que los modelos ya están “presentando cosas novedosas en su campo” y superando simplemente reflejando el conocimiento existente para “extender eso”. Friar señaló además el rápido enfoque hacia la inteligencia general artificial (AGI), lo que sugiere “Podemos estar allí”.

Si bien reconoce el debate en curso con algunos expertos que se balancean incluso en el término AGI y mucho menos su viabilidad, al menos con modelos de idiomas grandes), Friar mencionó la opinión del CEO Sam Altman de que la inteligencia general artificial (AGI), la IA que maneja el trabajo humano más valioso, podría ser “inminente”. Esto sugiere que la transición de la IA como herramienta para los investigadores de la IA como investigador puede estar más cerca de lo que muchos se dan cuenta, con primeros ejemplos potencialmente emergentes en campos como el desarrollo de software.

https://www.youtube.com/watch?v=2kzqm_bue7e

Las principales instituciones de I + D están construyendo activamente capacidades de ‘investigación autónoma’. Por ejemplo, los laboratorios nacionales como Argonne y Oak Ridge están desarrollando ‘laboratorios autónomos’ diseñados específicamente para la ciencia y la química de los materiales. Los Alamos también está trabajando con OpenAi
Probar sus modelos de razonamiento en Energía y Aplicaciones de Seguridad Nacional en su supercomputadora de Venado.

En general, los laboratorios nacionales están explorando el uso de IA para asumir tareas de investigación básicas: generar hipótesis (a menudo a través de estrategias de optimización), diseñar experimentos de varios pasos, controlar la ejecución robótica, analizar los resultados en tiempo real e iterando hacia objetivos de descubrimiento con una intervención humana significativamente reducida dentro de dominios operativos específicos. Si bien aún requiere supervisión humana para la validación y la dirección estratégica, que funciona quizás en un ‘nivel 3’ o ‘nivel 4’ emergente de la autonomía de la investigación, tales iniciativas demuestran que la IA se va más allá del análisis de datos pasivos para participar directamente en el proceso de descubrimiento científico. Esto se extiende más allá de la construcción de sistemas integrados; Implica empoderar directamente a los investigadores, como se ve en el reciente Doe ‘1,000 científico Ai Jam’. Esta colaboración a gran escala reunió a unos 1.500 científicos en múltiples laboratorios nacionales, incluido Argonne, para probar modelos avanzados de razonamiento de IA de compañías como OpenAi y Anthrope en problemas científicos del mundo real. Los investigadores exploraron específicamente su potencial para mejorar las tareas como la generación de hipótesis y la automatización del experimento.

Una transición similar ya está en marcha en el desarrollo de software, aunque los desarrolladores actualmente tienen vistas mixtas sobre el potencial de las herramientas habilitadas para Genai. La IA de hoy a menudo sirve como asistente, pero la tecnología está aumentando rápidamente su juego de software, especialmente para lenguajes comunes que van desde Javascript hasta Python. Los modelos de OpenAI están demostrando un progreso significativo, “acercándose a nivel humano” en puntos de referencia clave, y Fray señaló que uno ya es “literalmente el mejor codificador del mundo”. Esto respalda el potencial fraile descrito para un “ingeniero de software de agente”, una IA que “puede salir y trabajar de forma independiente para usted”, incluidas la construcción, las pruebas y las aplicaciones de documentación. Esta evolución hacia capacidades más autónomas podría remodelar el campo por completo.

AI de 5 niveles de Openai
marco de madurez

Según los informes, Operai utiliza un marco interno de cinco niveles para comparar su progreso hacia la inteligencia general artificial (AGI). Esta estructura, discutida dentro de la compañía a mediados de 2024 y luego informada por puntos de venta como Bloomberg, describe distintas etapas de capacidad de IA:

  1. Nivel 1: Chatbots / AI conversacional: Sistemas expertos en el lenguaje natural, como Chatgpt.
  2. Nivel 2: razonadores: AI capaz de resolver problemas básicos comparables a un humano altamente educado. En este nivel, los modelos también pueden demostrar habilidades de razonamiento emergentes sin herramientas externas.
  3. Nivel 3: Agentes: Sistemas de IA autónomos que pueden administrar tareas complejas y tomar decisiones durante períodos prolongados en nombre de los usuarios.
  4. Nivel 4: Innovadores: La IA contribuye significativamente a la creatividad y el descubrimiento generando ideas novedosas, ayudando a la invención o impulsando los avances.
  5. Nivel 5: Organizaciones: La etapa del ápice donde la IA puede gestionar y operar las funciones complejas de toda una organización, potencialmente excediendo la eficiencia humana.

En general, los laboratorios nacionales están explorando el uso de IA para asumir tareas de investigación básicas: generar hipótesis (a menudo a través de estrategias de optimización), diseñar experimentos de varios pasos, controlar la ejecución robótica, analizar los resultados en tiempo real e iterando hacia objetivos de descubrimiento con una intervención humana significativamente reducida dentro de dominios operativos específicos. Si bien aún requiere supervisión humana para la validación y la dirección estratégica, que funciona quizás en un ‘nivel 3’ o ‘nivel 4’ emergente de la autonomía de la investigación, tales iniciativas demuestran que la IA se va más allá del análisis de datos pasivos para participar directamente en el proceso de descubrimiento científico. Esto se extiende más allá de la construcción de sistemas integrados; Implica empoderar directamente a los investigadores, como se ve en el reciente Doe ‘1,000 científico Ai Jam’. Esta colaboración a gran escala reunió a unos 1.500 científicos en múltiples laboratorios nacionales, incluido Argonne, para probar modelos avanzados de razonamiento de IA de compañías como OpenAi y Anthrope en problemas científicos del mundo real. Los investigadores exploraron específicamente su potencial para mejorar las tareas como la generación de hipótesis y la automatización del experimento.

Una transición similar ya está en marcha en el desarrollo de software, aunque los desarrolladores actualmente tienen vistas mixtas sobre el potencial de las herramientas habilitadas para Genai. La IA de hoy a menudo sirve como asistente, pero la tecnología está aumentando rápidamente su juego de software, especialmente para lenguajes comunes que van desde Javascript hasta Python. Los modelos de OpenAI están demostrando un progreso significativo, “acercándose a nivel humano” en puntos de referencia clave, y Fray señaló que uno ya es “literalmente el mejor codificador del mundo”. Esto respalda el potencial fraile descrito para un “ingeniero de software de agente”, una IA que “puede salir y trabajar de forma independiente para usted”, incluidas la construcción, las pruebas y las aplicaciones de documentación. Esta evolución hacia capacidades más autónomas podría remodelar el campo por completo.

Continue Reading

Noticias

Lo que se puso bien y mal

Published

on

Han pasado casi 30 años desde que fui a Disney World. Mis recuerdos de Disney son felices, pero no recuerdo ningún detalle más allá de usar oídos, hacer que los personajes firmen mi libro especial de autógrafos y permanezcan despierto hasta tarde para ver el espectáculo de fuegos artificiales en Epcot.

Tengo dos hijas, casi 4.5 y 2.5, que están obsesionados con las princesas, por lo que cuando descubrí que mi familia estaría en Orlando durante unos días en junio, decidí buscar ir a Disney World por el día. Haremos un viaje más grande de Disney World en un par de años, pero los niños menores de 3 años son gratuitos (una de las pocas cosas que sabía sobre Disney), así que pensé que aprovecharíamos eso y les daríamos una gran sorpresa.

El único problema es que pensar en planificar un día en Disney es abrumador. Hay Tanta información Acerca de cómo optimizar su tiempo en los parques.

Decidí pedirle a ChatGPT que planifique mi día, y luego tuve a Mary Helen Law, propietaria de la compañía de planificación de Disney Minnie Mouse Counselors y uno de los principales especialistas en viajes de Conde Nast Traveler, revise el itinerario. Siga leyendo para escuchar qué chatgpt se hizo bien y mal y qué tenía que decir un experto en Disney.

Conocer al experto

Mary Helen Law, fundador de Mini Mouse Counselores

Mary Helen es una madre y experta en viajes. Comenzó su carrera como agente de viajes en 2018 mientras trabajaba en marketing y desarrollo de negocios. En 2019 decidió dejar su trabajo diario para expandir su negocio. Desde entonces, ha ayudado a cientos de familias a planificar vacaciones mágicas en todo el mundo y es uno de los principales especialistas en viajes de Conde Nast Traveler.

My Disney World Chatgpt Planning de planificación

Primero, aquí está el aviso que le di a Chatgpt para crear nuestro itinerario de Disney World:

¿Puedes planificar el día de mi familia en Disney World? Seremos yo, mi esposo y mis dos hijas. Serán 2.5 y 4.5 para el viaje, y aman a Ariel, Elsa y Ana, Moana, Belle, 101 Dalmatians, Cenicienta y Mary Poppins.

Nos gustaría ir a dos parques diferentes en el transcurso del día, pero necesitaremos un descanso de tres a cuatro horas en la mitad del día para una siesta. Nos gustaría hacer un almuerzo sentado en un restaurante temático que nuestras niñas les gustaría en función de sus intereses. ¿Puede planificar un itinerario para el día para los parques que recomendaría? Además, debe haber una parada de bocadillos por la mañana y la tarde.

¿Qué chatgpt hizo lo correcto sobre la planificación de un viaje a Disney World?

Hay muchas cosas que ChatGPT se equivocó sobre la planificación de un viaje a Disney (más sobre eso en un momento), pero sí recomendó paseos y actividades que encajarían bien en función de los intereses de mis hijas, como ir al viaje “Under the Sea” y conocer a Ariel, ver “cuentos encantados con Belle”, con un almuerzo en el restaurante de invitados y ver la festival de la fantasía de Magic Kingdom.

Cuando mi hermana usó un planificador de Disney el año pasado, tuvo la experiencia opuesta. El planificador acaba de recomendar todos los paseos más populares, como Tron, en el que mi sobrino no habría tenido interés, por lo que al menos Chatgpt prestó atención a lo que le dije que le gustaban a mis chicas.

También le pregunté a ChatGPT si tenía algún consejo para tener un día exitoso en Disney, y obtuve una buena información, como usar la aplicación de Disney para verificar los tiempos de espera de viaje y pedir comida con anticipación, y que podríamos usar el programa Rider Switch en caso de que mi hijo menor fuera demasiado pequeño para viajar.

También me dio algunas recomendaciones excelentes sobre qué empacar para el día, como protector solar, toallitas para bebés y bocadillos. Law estuvo de acuerdo en que había algunas pepitas de buena información, pero señaló que ChatGPT no incluía empacar un cargador de teléfono portátil, algo que dijo que necesitaríamos.

Qué chatgpt se equivocó sobre nuestro itinerario del día de Disney

Tres cosas principales para recordar sobre ChatGPT es que solo responde a lo que le da, se está retirando de la información en Internet y puede que no siempre sea correcto, y tampoco hay un elemento humano para ayudar a racionalizar la información.

Por ejemplo, le dije a ChatGPT que quería ir a dos parques, por lo que me dio un itinerario basado en ese aviso. Nunca hubiera sugerido que no haga dos parques porque sería poco realista dadas las edades de mis hijos.

ChatGPT carece de la capacidad de decir que no o sugerir ideas alternativas

Chatgpt hizo lo que le pedí, pero si hubiera abrazado las sugerencias, supongo que nunca habríamos regresado al parque después de una siesta y está muy frustrado.

Law, por otro lado, echó un vistazo a mi aviso y me dijo que realmente recomendaría no saltar en el parque y que deberíamos quedarnos en Magic Kingdom todo el día versus tratar de irme y volver.

Law me explicó que debido a que no nos quedamos en un resort de Disney, pasaremos mucho más tiempo pasando del estacionamiento a los parques, y que mi estimación de 30 minutos probablemente fue más como una hora y media. ChatGPT no sabe cuánto tiempo lleva llegar al estacionamiento y regresar a un hotel y no pudo estimar con precisión la logística detrás de esto.

También recomendó una siesta de cochecito en el carrusel de progreso con aire acondicionado, que según ella generalmente era un lugar más tranquilo, en lugar de tratar de irse y volver al parque. ChatGPT también recomendó este lugar y el Salón de Presidentes actualmente cerrado como un gran lugar para tomar un descanso, pero en general necesitaba un humano con más conocimiento de cómo funcionan las cosas en Disney para ayudarme a entender lo que era realista en lugar de no para nuestro viaje.

Chatgpt no incluyó ningún tiempo de espera para los paseos

Si nos fijamos en el itinerario que Chatgpt me dio por Disney, es como si tuviéramos el parque para nosotros mismos. Según ChatGPT, estaríamos en camino o en una nueva atracción cada 30 minutos.

Incluso sé lo suficiente sobre Disney para saber que eso no sonó bien. Law dijo que probablemente estaríamos en el extremo inferior de los tiempos de espera desde que iremos a principios de junio, pero acordamos que la cantidad de cosas que el itinerario dijo que logramos no parecía realista.

En cambio, ella me acompañó a través de la aplicación de Disney y me mostró cómo podré ver cuáles son los tiempos de espera para cada viaje, cuáles son los tiempos de show y cómo ver qué personajes están.

También me habló de las otras formas en que podemos reducir los tiempos de espera comprando pases de rayos o el pase Premier, que es un programa más nuevo (aunque costoso) que Disney está probando que le da una entrada a cada experiencia de Lightning Lane.

Usar ChatGPT sería excelente para preguntar qué paseos serían apropiados para mis niñas en función de su edad e intereses para que tengamos una idea de qué apuntar durante todo el día, pero la información sobre cómo usar la aplicación para ahorrar tiempo que la ley me dio será mucho más útil. También ayudó a establecer el nivel de mis expectativas sobre lo que podremos lograr en un día, lo que me ayudará a no estresarse por no poder hacerlo todo una vez que lleguemos allí.

Chatgpt se equivocó con cosas importantes que habrían arruinado nuestro día en Disney

Recuerde, soy un novato en Disney, así que tomé toda la información que me dio al pie de la letra.

El problema, dice Law, es que “ChatGPT simplemente no puede mantenerse al día con la cantidad que cambia Disney”. Se extrae de fuentes en todo Internet y no puede discernir lo que es correcto o no, así que terminé con cosas en el itinerario que no son precisos.

¿Uno de los mayores errores? El itinerario dijo que podríamos conocer a Ana y Elsa, los personajes favoritos de mis niñas, en el Princess Fairytale Hall, que no es cierto. Se encuentran y saludan en Epcot en el Royal Sommerhus.

Law sintió mi decepción y me aseguró que las chicas podrían saludar a Ana, Elsa y Olaf en la feria de amistad mágica de Mickey o en el desfile de Magic Kingdom.

¿Otras cosas importantes que Chatgpt se equivocó que habría descarrilado nuestro día? Sugirió conocer a Ariel a las 9 am cuando no está disponible hasta las 10 de la mañana; dijo que podríamos ingresar al parque a las 8 a.m., lo cual es incorrecto teniendo en cuenta que Magic Kingdom abre a las 8:30 a.m. para las personas que permanecen en la propiedad y las 9 a.m. para las personas que se mantienen fuera de la propiedad; y dijo que deberíamos usar Genie+ o un paso rápido para reducir los tiempos de espera, los cuales son servicios que ya no existen.

Es fácil suponer que lo que ChatGPT escupe es exacto, pero en nuestro caso todos estos errores habrían causado una frustración significativa para el día.

¿Debería usar ChatGPT para cualquier parte de su planificación de Disney?

Law dijo que podía ver que ChatGPT era útil para “cosas de espectro muy amplio” al planificar un viaje a Disney, como recomendaciones para qué recurre para quedarse o tener una idea general de qué personajes son los parques (aunque tenga en cuenta, ChatGPT me dio información incorrecta sobre esto).

“Creo que hay mucha seguridad laboral en lo que [travel planners] Haga por las relaciones que tenemos y el conocimiento “, dice, pero dice que no cree que sea una mala idea usar ChatGPT para obtener algunas ideas iniciales antes de hablar con un planificador.

Chatgpt Disney World Itinerario
Fuente: @mrscofieldandco | Instagram

¿Debería usar un planificador de Disney para su viaje de Disney?

No tiene que usar un planificador de Disney para planificar su viaje, pero después de mi experiencia con ChatGPT, usaré uno, ya que todavía no sé por dónde comenzar con toda la información.

Trabajar con un planificador de Disney es a menudo gratuito, ya que Disney le paga a una comisión al planificador, pero si no es así, podría valer la pena la inversión solo para asegurarse de obtener la información más precisa.

Si no desea usar un planificador, pregúntele a los amigos que hayan estado en Disney para sus consejos e itinerarios. Puede ser más fácil entender lo que es realista en lugar de no para su familia si tiene hijos de edad similar y aún reducirá el trabajo para usted (Everymom también tiene consejos de mamás para viajar a Disney World con niños pequeños, Disney con un bebé e incluso Disney World mientras está embarazada).

Veredicto final? ChatGPT podría ser bueno para algunos aspectos de la planificación de viajes, pero el itinerario que me dio en base a mi aviso no era realista y tenía muchos errores. Para algo tan complicado como Disney World, tener ideas y juicio humanos se siente como una mejor manera de tratar de garantizar más magia de Disney que los dolores de cabeza.

Elliot Harrell SHOYSHOT

Sobre el autor

Elliott Harrell, escritor colaborador

Elliott es madre de dos niñas y tiene su sede en Raleigh, NC. Pasa sus días dirigiendo un equipo de ventas y lavando la ropa y sus noches escribiendo sobre las cosas que ama. Le apasiona todas las cosas de la maternidad y la salud de las mujeres. Cuando no está trabajando, escribiendo o criando, puede encontrarla probar un nuevo restaurante en la ciudad o trabajar en su último proyecto de aguja.

Continue Reading

Noticias

Operai vs Musk Legal Feud se intensifica; Informe de la IEA

Published

on

Operai, la compañía detrás de ChatGPT, disparó la semana pasada con un mostrador contra Elon Musk, marcando otro capítulo en lo que se ha convertido en una batalla legal muy pública entre Elon Musk, Sam Altman, Operai y unos pocos otros.

Musk ha estado en guerra con Operai y el CEO Sam Altman durante casi un año, acusando a la compañía de abandonar su misión original. La demanda original de Musk se centra en las afirmaciones de que OpenAI violó su acuerdo de fundadores y se separó de sus raíces originales sin fines de lucro en busca de ganancia comercial, específicamente a través de la creación de Operai Global LLC, su armado con fines de lucro, así como en su búsqueda de convertir su entidad sin fines de lucro en una compañía con fines de lucro.

Pero esta semana, Operai respondió. La compañía presentó una respuesta legal acusando a Musk de participar en “prácticas comerciales ilegales e injustas” diseñadas para interrumpir las operaciones de OpenAi y untar su reputación. Operai también afirma que Musk está haciendo principalmente todo esto para beneficiar a su compañía de IA, Xai.

Si solo estás poniendo al día con esta disputa, todavía estamos en sus primeras entradas, y ahora es el momento de ponerte al día. Nuestra cobertura anterior desglosa las presentaciones legales, la historia entre Musk y OpenAi, y lo que está en juego para ambas compañías.

La suscripción de $ 200 de Claude

La semana pasada, Anthrope lanzó un nuevo “Plan Max” para su IA Chatbot Claude, un nivel de suscripción de $ 100 y $ 200 por mes que ofrece lo que la compañía llama “uso ampliado”, que es solo otra forma de decir que podrá hacer más (tendrá menos límites) en Claude que antes. El nivel de $ 100/mes ofrece 5 veces más uso que el plan estándar Pro y el plan de $ 200/mes aumenta el uso de 20 veces el uso.

Un movimiento como este probablemente será celebrado por desarrolladores y nuevas empresas que tienen Claude integrado en algún lugar de su pila tecnológica. Pero debajo del capó, este movimiento es más que un rendimiento para sus usuarios; Se trata de rentabilidad para Anthrope, la empresa matriz para Claude.

Anthrope probablemente espere que este nuevo plan Max abra un nuevo canal de ingresos. Después de todo, se rumorea que el PRO Pro de $ 200/mes de OpenAI ha traído $ 300 millones adicionales después de su lanzamiento.

Este cambio de precios también resalta una tendencia más grande que se ha desarrollado detrás de escena del auge de la IA. A pesar de miles de millones en el gasto, ninguna de estas compañías de IA líderes ha obtenido ganancias todavía, y los inversores están comenzando a preocuparse, por lo que están comenzando a preguntar cuándo y de dónde provendrá un retorno de su inversión.

Ofrecer un producto más costoso es una forma de acercarse a la rentabilidad que los inversores están comenzando a presionar a estas compañías de inteligencia artificial para que produzcan, pero es poco probable que confiar en esa corriente de ingresos de los modelos de suscripción por sí solos sea poco probable que cualquiera de las empresas allí, especialmente cuando comienza a analizar cómo los consumidores demandan bien y servicios de IA.

El informe de la IEA explora el consumo de energía de IA

La Agencia Internacional de Energía (IEA) publicó un informe la semana pasada titulado Energía y ai, que exploró la creciente relación entre la inteligencia artificial y el consumo de energía global.

En 301 páginas, es un informe denso, pero aquí hay algunas conclusiones que se destacaron:

1. AI está aumentando la demanda de electricidad

Según el informe, se proyecta que el consumo de electricidad por parte de los centros de datos sea más del doble para 2030, y la IA es el impulsor número uno de ese crecimiento. Se espera que Estados Unidos sea responsable de más de la mitad del aumento global. Al final de la década, el uso de electricidad del Centro de datos de EE. UU. Podría exceder la potencia total utilizada para producir acero, aluminio, cemento, productos químicos y todos los demás bienes intensivos en energía combinados.

2. ¿De dónde vendrá el poder?

No se trata solo de construir más centros de datos; La IEA señala que varias redes de energía en todo el mundo ya están bajo una fuerte tensión. Sin actualizaciones significativas de infraestructura, especialmente nuevas líneas de transmisión, que pueden tardar de 4 a 8 años en construirse, muchos de los planes de expansión del centro de datos que seguimos escuchando pueden retrasarse o cancelarse.

3. El impacto energético de la IA no se está tratando como el de Crypto.

Mientras estaba pasando por el informe, me di cuenta de que el tono en torno al consumo de energía de IA es muy diferente a la actitud que estas mismas agencias tenían hacia la minería de recompensa en bloque. A pesar de que los centros de datos podrían estar utilizando más potencia que todo Japón para 2030, la AIE no argumentó que la industria está consumiendo demasiada electricidad. En cambio, argumenta que las contribuciones de IA a la innovación, especialmente en la eficiencia energética y la optimización de la red, pueden justificar el consumo.

En general, el informe trae algunos de los componentes menos explorados pero cruciales de la industria de la inteligencia artificial a la superficie. Si bien las compañías de IA han estado diciendo durante un tiempo que Estados Unidos necesita más centros de datos para mantenerse competitivos, el informe de la AIE subraya una parte del argumento de que generalmente no escuchamos de las compañías de IA: que no se trata solo de los centros de datos, también se trata de las fuentes de energía. Si la generación de energía y las soluciones de entrega no se exploran e implementan rápidamente, tienen el potencial de ralentizar significativamente los planes que algunos de los gigantes tecnológicos tienen para la industria de la IA.

Para que la inteligencia artificial (IA) trabaje en la ley y prospere frente a los crecientes desafíos, necesita integrar un sistema de cadena de bloques empresarial que garantice la calidad y la propiedad de la entrada de datos, lo que permite mantener los datos seguros al tiempo que garantiza la inmutabilidad de los datos. Echa un vistazo a la cobertura de Coingeek sobre esta tecnología emergente para aprender más Por qué Enterprise Blockchain será la columna vertebral de AI.

RELOJ: Los micropagos son lo que permitirán a las personas confiar en la IA

https://www.youtube.com/watch?v=XC9XDZMHJ9Q title = “YouTube Video Player” FrameBorDer = “0” permitido = “acelerómetro; autoplay; portapapeles-write; cifrado-media; gyroscope; imagen-in-pinicure; web-share” referrerPolicy = “estricto-origin-when-cross-órigin” permitido aficionado = “>”> “>”

Continue Reading

Trending