Noticias
Latest OpenAI Announcement Showcases How Reinforcement Fine-Tuning Makes Quick Work Of Turning Generative AI Into Domain-Specific Wizards
Published
4 meses agoon

OpenAI adds reinforcement fine-tuning (RFT) to their wares, which is going to make those seeking to … [+] devise domain-specific AI pretty happy.
getty
In today’s column, I examine the recently revealed feature augmenting OpenAI’s advanced o1 AI model that was briefly showcased during the second day of the “12 Days Of OpenAI” video-streamed announcement. The feature is referred to as reinforcement fine-tuning (RFT).
Much of the media has been clamoring that this is “new” as though nobody has ever thought of RFT before.
Sad and silly.
There has indeed been AI research on reinforcement fine-tuning, sometimes labeled as RFT or ReFT. In any case, yes, this is ostensibly new in the sense that it is an additional capability for OpenAI o1 and thus a new feature for the product. That is surely exciting. Please note that OpenAI may have opted to establish RFT in ways differently than others have – right now, their version of RFT is only available on a limited preview basis, and they often keep the nitty-gritty technical details under wraps since they consider their AI models proprietary.
So, one must do a modicum of armchair AI-soothsaying detective work to know what it’s all about.
Let’s talk about it.
This analysis of an innovative proposition is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here). For my analysis of the key features and vital advancements in the OpenAI o1 AI model, see the link here and the link here, covering various aspects such as chain-of-thought reasoning, reinforcement learning, and the like.
The Overarching Aim Of Reinforcement Fine-Tuning
Here’s how RFT is typically conceived.
First, suppose you want to take a generic generative AI or large language model (LLM) and turn it into a domain-specific wizard of sorts.
This is a big trend these days. Most AI is rather generic and a jack-of-all-trades. Some refer to this as AI being an inch deep and a mile long. The aim is to apply generative AI to particular domains such as legal, finance, medical, and the like. Doing so requires going from a mile long and an inch deep to becoming at least many feet deep in a narrow niche of interest.
In case you are interested in how domain-specific instances are derived, I’ve discussed extensively the adaptation of generative AI for performing legal advisement, see the link here, while another domain that I’ve explored in-depth is the use of generative AI for mental health guidance, see the link here. The usual method or technique employed consists of in-context modeling, or retrieval-augmented generation (RAG), which you can read about in my explanation at the link here.
There is a kind of pursuit of the Holy Grail when it comes to finding the best way to push a generic generative AI into achieving domain-specific proficiency.
RFT Is One Such Method For Domain-Specificity
Voila, that takes us to the grand promise and hope of using reinforcement fine-tuning or RFT.
The deal is this.
RFT is a method or technique that leans into fine-tuning a generic generative AI model to become domain-specific in some respects. You can accomplish this by putting together data that pertains to the domain of interest, feeding it into the generative AI, and using the RFT approach to guide the AI toward “learning” about the domain.
The AI model is incrementally fine-tuned by providing a semblance of reinforcement to the AI. When AI gets things right, it is instructed that it’s doing well and should adjust toward producing future answers similarly (essentially, being given a reward for being correct). When the AI during this data training gets something wrong, it is instructed that the response was incorrect, and therefore the AI ought to steer away from that approach in the future (a penalty for being incorrect).
That’s how reinforcement works.
Note that I earlier put the word “learning” into quotes. I did so because we are excessively anthropomorphizing AI by using terminology that applies to humans and then outstretching those words to suggest the same applies to AI. The type of “learning” that the AI is doing should not be considered on par with human learning, see my discussion at the link here. It is a form of mathematical and computational reformulation and adjustment.
The Balance Of Generic Versus Specific
Keep in mind that you usually retain the generic aspects that are within the AI model and aren’t necessarily reducing those when trying to bring the AI up to speed on a particular domain. That being said, if you don’t especially need the full breadth of generic generative AI, you might strip down the AI to some barebones and then apply RFT, or possibly do the RFT first and then strip down the resultant AI. It all depends on what your goals are.
Why strip out some of the generic stuff?
Most generative AI is large in size and won’t run natively on smartphones, ergo requiring you to access the AI online. This means you need a reliable online connection. It is also costly due to your accessing expensive servers in the cloud. All in all, a movement toward small language models (SLM) is being avidly pursued so that a reduced-sized and likely reduced functionality version of generative AI can run on a standalone basis on everyday devices, see my analysis at the link here.
The same is often the case when producing domain-specific AI models. You are likely to want it to run on smartphones and not have to depend on the cloud. Thus, you can potentially hack out all sorts of generic aspects that don’t seem relevant to the domain at hand (does AI need to know for example about Abraham Lincoln to dispense medical advice on say a particular disease?).
The downside is that the AI won’t be able to respond well to across-the-board prompts and could be seen as weaker than the larger-sized AI.
The Fundamental Steps For Performing RFT
My way of depicting reinforcement fine-tuning is to say that RFT consists of five major steps:
- (1) Dataset Preparation: Put together a suitable custom dataset for the chosen domain and format the prepared data into a common structured format (e.g., JSONL).
- (2) Grader Formation: Devise a computer-based grader capability and/or leverage existing automated grading systems, which will be used to evaluate the model outputs. The evaluations usually include scoring the AI responses for correctness (topmost priority) and possibly also scoring for quality and reasoning.
- (3) Reinforcement Fine-Tuning: The AI model receives iterative feedback through computational rewards for accurate reasoning (considered providing incentives) and penalties for errors (known as disincentives), gradually improving performance. During RFT, feed in a selected portion of the prepared datasets and retain other portions for later use during validation.
- (4) Validation Process. Make use of the held-back or unseen dataset portions to validate and assess the AI model’s ability to generalize effectively. This is the validation process and is tremendously crucial for ascertaining whether the RFT has made a positive significant difference in the AI model’s domain specificity. Iterate as needed.
- (5) Optimization and Roll-out: Finalize the RFT to ensure that the AI model is suitably efficient and effective, determine if the footprint is sized well (usually, smallness is preferred), and whether the AI is sufficiently specialized for the chosen targeted domain. Deploy the completed AI model. Keep tabs on ongoing usage and feedback. Make updates to the AI model including performing maintenance as required.
Those five steps capture the essence of what needs to be undertaken for RFT. Variations exist that have six steps, seven steps, and even ten steps. My indicated five steps pretty much cover the gamut and do so in a tidy way.
Importance Of The Grading
One aspect that might have caught your eye is step #2, grader formation.
Allow me to elaborate on this.
I had already noted that the reinforcement process consists of telling the AI when it is right and when it is wrong, doing so during the RFT overall endeavor. Parlance amongst AI insiders is that the AI is being graded, almost like getting a letter grade in school.
An “A” grade in school means things went well. The dreaded “F” grade means the answers were incorrect. Instead of assigning letter grades during RFT, a numeric value is usually used. The common practice is to assign a score of zero for a wrong response, and a score of 1 for a response that is correct. Since not all answers will be completely right or completely wrong, a value between 0 and 1 is used to suggest how right or wrong the response was.
For example, go ahead and envision that I am data training a generic generative AI by using RFT. It is being tuned to the legal domain. I’ve fed in a bunch of legal content consisting of various laws, regulations, and so on. During the RFT process, I feed in a prompt asking the AI to decide whether a given legal clause is legally sound. The AI churns through the computational assessment and comes back with an answer that the clause is good to go.
If that was a correct answer, the grade given would be a 1, while if incorrect the grade would be a 0. But the world isn’t always quite so binary. Suppose the AI indicated that the clause is legally correct in certain circumstances but has loopholes in other circumstances. Perhaps that is a relatively fair answer, though in some ways correct and some ways incorrect. The grade given might be 0.60, suggesting that the response was mostly right (because it is assigned a score above 0.50 and inching toward a full 1.0), though it also was partially incorrect (thus it isn’t a full 1.0 and only given a score of 0.60).
How is the grading determined?
You could employ a human during the RFT that doles out grades. This is laborious, tends to be slow, and can be expensive. Generally, the grading component is usually some form of automation. It could be a specialized program that was developed for a particular domain. It could be a generic grading system that can be used across various domains. You can even use another generative AI as a grader, such as having a second generative AI standing there that does the grading during the RFT.
The bottom line is that the grader is vital and if you don’t get that setup properly, the rest of the RFT is going to be kaput.
Grand Twist Is The Introduction Of Chain-Of-Thought
I’ve got an important twist for you.
An ongoing assumption that is subject to heated debate is that the use of RFT will notably shine when the generative AI contains advanced AI features such as chain-of-thought reasoning (CoT), see my discussion about CoT at the link here.
Chain-of-thought refers to the conception that when the AI is trying to solve a problem or come up with an answer, the AI is instructed to perform a series of logical steps when doing so. If trying to diagnose a patient, the AI might first assess basic patient data such as age, weight, health, etc. The second step might be to examine medical tests like a blood test. The third step might be to then review what kinds of aliments seem to fit that patient. The fourth step might be to reach a medical diagnosis and explain how that diagnosis was determined.
Let’s bring RFT back into the picture.
A generative AI that leverages a chain of thought could be exercised and fine-tuned with reinforcement processes in the following way. We let the AI proceed trying to diagnose a patient based on data that we’ve collected for data training purposes. A particular chain-of-thought is derived. Great, that’s what we want to have happen.
Lots And Lots Of CoTs Make For Choosiness
It turns out that like the old saw, there are more ways than one to skin a cat (sorry, that’s a bit dour), we could have the AI take another shot at the diagnosis. The second time around the chain-of-thought might differ. We do this a third time and keep getting the AI to try out a wide variety of CoTs. For each of the attempts, we assign a grade to the derived answer, using whatever grader or grading system we’ve established.
What does this accomplish?
Aha, the hope is that by telling the AI which answers were right, and which were wrong, this also sheds light on which of the chain of thoughts were right and wrong. The AI is going to presumably mathematically begin to lean toward CoTs that are being rewarded and shift away from CoTs that are being penalized or disincentivized.
The act of this reinforcement fine-tuning is indirectly guiding the generative AI toward hopefully stronger and better chain-of-thought approaches and steering it from CoTs that aren’t as good.
If this is done well, we are not merely arriving at the right answers, we are also in a sense shaping the nature of the chain of thoughts that the AI is going to use. A cheeky way to express this is the famous adage that if you give a person a fish, you feed them for a day, but if you teach them how to fish, they will be fed for a lifetime.
Boom, drop the mic.
OpenAI Has Opened The Door To RFT
Previously, OpenAI had embraced the use of supervised fine-tuning (SFT), which I describe at the link here. SFT as adopted by OpenAI was mainly about tuning the AI tone and style of responses. That was handy. RFT is aimed at digging into specific domains and getting the AI up-to-speed on answering domain-specific prompts. It is a different angle on fine-tuning.
Both techniques have their particular aims.
OpenAI’s RFT is considered available only on a limited preview basis right now and will be more widely accessible sometime next year. Meanwhile, OpenAI has also indicated that they are earnestly seeking to identify ripe domains to use RFT on. AI researchers and domain experts who want to have ready access to the preview capability can submit their keen interest to OpenAI (see the OpenAI official log for details).
Here’s what OpenAI officially said about RFT in their formal announcement as noted in “OpenAI’s Reinforcement Fine-Tuning Research Program”, OpenAI blog, December 6, 2024 (excerpts):
- “This new model customization technique enables developers to customize our models using dozens to thousands of high-quality tasks and grade the model’s response with provided reference answers.”
- “This technique reinforces how the model reasons through similar problems and improves its accuracy on specific tasks in that domain.”
- “We’ve seen promising results in domains like Law, Insurance, Healthcare, Finance, and Engineering because Reinforcement Fine-Tuning excels at tasks where the outcome has an objectively “correct” answer that most experts would agree with.”
- “We’re expanding our Reinforcement Fine-Tuning Research Program to enable developers and machine learning engineers to create expert models fine-tuned to excel at specific sets of complex, domain-specific tasks.”
- “We encourage research institutes, universities, and enterprises to apply, particularly those that currently execute narrow sets of complex tasks led by experts and would benefit from AI assistance.”
If you are versed in a specific domain and believe that generative AI would be a boon, and if you are intrigued with RFT as a potential approach, you might want to consider putting your hat in the ring to make use of this latest OpenAI o1 model augmentation.
The Future Is Bright With More Approaches
A final comment for the moment.
There is a fascinating twist upon the twist that I earlier brought to your attention. It goes like this. The prevailing approach of RFT is usually that the grades are only assigned based on the AI responses. My point is that the chain of thought is not being directly graded. The CoT is only indirectly being graded.
An interesting next step consists of grading the actual CoT and even pieces or slices of the CoT.
Let me frame this in human terms, cautiously so. Imagine that a student gives me their completed test and they were instructed to write down the logic for their answers on the test, immediately adjacent to each question. One means of grading would be to simply look at the answer and assign a grade. As a grader, I utterly ignore the logic the student has displayed.
Another form of grading would be to look at how they came up with the answer and assign a grade based on both the answer and the logic used.
Mull over that approach to grading.
Maybe that’s a lot better means of grading since the student will have some semblance of where or how their logic went awry. If they only know that the answer is merely right or wrong, they aren’t getting much feedback about how they arrived at the answer. You could persuasively argue that doing grading at a more granular level could significantly enhance their capabilities.
There are tradeoffs. The grader must do a lot more work. The grader has to be a lot better at grading since they are no longer simply comparing one answer against an answer key. Also, suppose the grader messes up and gives foul guidance about the logic that the student used. Oops, that could frazzle a student, and they are worse off than they were beforehand. Etc.
If we do proceed to further enhance RFT in that manner, should we refer to that as some kind of super RFT, perhaps noted as SRFT or SURFT?
You never know what nomenclature catches hold.
Let’s end with a famous proverb: “Learning is a treasure that will follow its owner everywhere.” I suppose we can say that this motto applies to humans and perhaps even applies to the advancement and future of AI.
Keep on learning.
You may like
Noticias
Ai ahora ‘en la cúspide de hacer una nueva ciencia’
Published
2 minutos agoon
16 abril, 2025
[Image created via OpenAI’s image generation technology]
“Estamos en la cúspide de sistemas que pueden hacer una nueva ciencia”.
Esa línea, en la página 3 del último “Marco de preparación” de OpenAI (versión 2, actualizada el 15 de abril de 2025), señala un posible cambio de paradigma para el ecosistema de I + D, que rápidamente está pasando de ser una etapa interna ansiosa, si no siempre precisa, a una colega potencial de AA, o incluso un investigador principal.
Mirando hacia el futuro, el marco lidia con el potencial de la IA para convertirse en “mejorando recursivamente”. Advierte que la “aceleración importante en la tasa de IA I + D” podría introducir rápidamente nuevas capacidades y riesgos. Esta aceleración podría superar las medidas de seguridad actuales, haciendo que la supervisión sea “insuficiente” y marcando explícitamente el peligro de perder el “mantenimiento del control humano” sobre el sistema de IA.
Hablando en un evento de Goldman Sachs solo unas semanas antes, el 5 de marzo (lanzado el 11 de abril en YouTube), la directora financiera de Operai Sarah Friar reforzó este punto de vista, afirmando que los modelos ya están “presentando cosas novedosas en su campo” y superando simplemente reflejando el conocimiento existente para “extender eso”. Friar señaló además el rápido enfoque hacia la inteligencia general artificial (AGI), lo que sugiere “Podemos estar allí”.
Si bien reconoce el debate en curso con algunos expertos que se balancean incluso en el término AGI y mucho menos su viabilidad, al menos con modelos de idiomas grandes), Friar mencionó la opinión del CEO Sam Altman de que la inteligencia general artificial (AGI), la IA que maneja el trabajo humano más valioso, podría ser “inminente”. Esto sugiere que la transición de la IA como herramienta para los investigadores de la IA como investigador puede estar más cerca de lo que muchos se dan cuenta, con primeros ejemplos potencialmente emergentes en campos como el desarrollo de software.
https://www.youtube.com/watch?v=2kzqm_bue7e
Las principales instituciones de I + D están construyendo activamente capacidades de ‘investigación autónoma’. Por ejemplo, los laboratorios nacionales como Argonne y Oak Ridge están desarrollando ‘laboratorios autónomos’ diseñados específicamente para la ciencia y la química de los materiales. Los Alamos también está trabajando con OpenAi
Probar sus modelos de razonamiento en Energía y Aplicaciones de Seguridad Nacional en su supercomputadora de Venado.
En general, los laboratorios nacionales están explorando el uso de IA para asumir tareas de investigación básicas: generar hipótesis (a menudo a través de estrategias de optimización), diseñar experimentos de varios pasos, controlar la ejecución robótica, analizar los resultados en tiempo real e iterando hacia objetivos de descubrimiento con una intervención humana significativamente reducida dentro de dominios operativos específicos. Si bien aún requiere supervisión humana para la validación y la dirección estratégica, que funciona quizás en un ‘nivel 3’ o ‘nivel 4’ emergente de la autonomía de la investigación, tales iniciativas demuestran que la IA se va más allá del análisis de datos pasivos para participar directamente en el proceso de descubrimiento científico. Esto se extiende más allá de la construcción de sistemas integrados; Implica empoderar directamente a los investigadores, como se ve en el reciente Doe ‘1,000 científico Ai Jam’. Esta colaboración a gran escala reunió a unos 1.500 científicos en múltiples laboratorios nacionales, incluido Argonne, para probar modelos avanzados de razonamiento de IA de compañías como OpenAi y Anthrope en problemas científicos del mundo real. Los investigadores exploraron específicamente su potencial para mejorar las tareas como la generación de hipótesis y la automatización del experimento.
Una transición similar ya está en marcha en el desarrollo de software, aunque los desarrolladores actualmente tienen vistas mixtas sobre el potencial de las herramientas habilitadas para Genai. La IA de hoy a menudo sirve como asistente, pero la tecnología está aumentando rápidamente su juego de software, especialmente para lenguajes comunes que van desde Javascript hasta Python. Los modelos de OpenAI están demostrando un progreso significativo, “acercándose a nivel humano” en puntos de referencia clave, y Fray señaló que uno ya es “literalmente el mejor codificador del mundo”. Esto respalda el potencial fraile descrito para un “ingeniero de software de agente”, una IA que “puede salir y trabajar de forma independiente para usted”, incluidas la construcción, las pruebas y las aplicaciones de documentación. Esta evolución hacia capacidades más autónomas podría remodelar el campo por completo.
AI de 5 niveles de Openai
marco de madurez
Según los informes, Operai utiliza un marco interno de cinco niveles para comparar su progreso hacia la inteligencia general artificial (AGI). Esta estructura, discutida dentro de la compañía a mediados de 2024 y luego informada por puntos de venta como Bloomberg, describe distintas etapas de capacidad de IA:
- Nivel 1: Chatbots / AI conversacional: Sistemas expertos en el lenguaje natural, como Chatgpt.
- Nivel 2: razonadores: AI capaz de resolver problemas básicos comparables a un humano altamente educado. En este nivel, los modelos también pueden demostrar habilidades de razonamiento emergentes sin herramientas externas.
- Nivel 3: Agentes: Sistemas de IA autónomos que pueden administrar tareas complejas y tomar decisiones durante períodos prolongados en nombre de los usuarios.
- Nivel 4: Innovadores: La IA contribuye significativamente a la creatividad y el descubrimiento generando ideas novedosas, ayudando a la invención o impulsando los avances.
- Nivel 5: Organizaciones: La etapa del ápice donde la IA puede gestionar y operar las funciones complejas de toda una organización, potencialmente excediendo la eficiencia humana.
En general, los laboratorios nacionales están explorando el uso de IA para asumir tareas de investigación básicas: generar hipótesis (a menudo a través de estrategias de optimización), diseñar experimentos de varios pasos, controlar la ejecución robótica, analizar los resultados en tiempo real e iterando hacia objetivos de descubrimiento con una intervención humana significativamente reducida dentro de dominios operativos específicos. Si bien aún requiere supervisión humana para la validación y la dirección estratégica, que funciona quizás en un ‘nivel 3’ o ‘nivel 4’ emergente de la autonomía de la investigación, tales iniciativas demuestran que la IA se va más allá del análisis de datos pasivos para participar directamente en el proceso de descubrimiento científico. Esto se extiende más allá de la construcción de sistemas integrados; Implica empoderar directamente a los investigadores, como se ve en el reciente Doe ‘1,000 científico Ai Jam’. Esta colaboración a gran escala reunió a unos 1.500 científicos en múltiples laboratorios nacionales, incluido Argonne, para probar modelos avanzados de razonamiento de IA de compañías como OpenAi y Anthrope en problemas científicos del mundo real. Los investigadores exploraron específicamente su potencial para mejorar las tareas como la generación de hipótesis y la automatización del experimento.
Una transición similar ya está en marcha en el desarrollo de software, aunque los desarrolladores actualmente tienen vistas mixtas sobre el potencial de las herramientas habilitadas para Genai. La IA de hoy a menudo sirve como asistente, pero la tecnología está aumentando rápidamente su juego de software, especialmente para lenguajes comunes que van desde Javascript hasta Python. Los modelos de OpenAI están demostrando un progreso significativo, “acercándose a nivel humano” en puntos de referencia clave, y Fray señaló que uno ya es “literalmente el mejor codificador del mundo”. Esto respalda el potencial fraile descrito para un “ingeniero de software de agente”, una IA que “puede salir y trabajar de forma independiente para usted”, incluidas la construcción, las pruebas y las aplicaciones de documentación. Esta evolución hacia capacidades más autónomas podría remodelar el campo por completo.

Han pasado casi 30 años desde que fui a Disney World. Mis recuerdos de Disney son felices, pero no recuerdo ningún detalle más allá de usar oídos, hacer que los personajes firmen mi libro especial de autógrafos y permanezcan despierto hasta tarde para ver el espectáculo de fuegos artificiales en Epcot.
Tengo dos hijas, casi 4.5 y 2.5, que están obsesionados con las princesas, por lo que cuando descubrí que mi familia estaría en Orlando durante unos días en junio, decidí buscar ir a Disney World por el día. Haremos un viaje más grande de Disney World en un par de años, pero los niños menores de 3 años son gratuitos (una de las pocas cosas que sabía sobre Disney), así que pensé que aprovecharíamos eso y les daríamos una gran sorpresa.
El único problema es que pensar en planificar un día en Disney es abrumador. Hay Tanta información Acerca de cómo optimizar su tiempo en los parques.
Decidí pedirle a ChatGPT que planifique mi día, y luego tuve a Mary Helen Law, propietaria de la compañía de planificación de Disney Minnie Mouse Counselors y uno de los principales especialistas en viajes de Conde Nast Traveler, revise el itinerario. Siga leyendo para escuchar qué chatgpt se hizo bien y mal y qué tenía que decir un experto en Disney.
Conocer al experto
Mary Helen Law, fundador de Mini Mouse Counselores
Mary Helen es una madre y experta en viajes. Comenzó su carrera como agente de viajes en 2018 mientras trabajaba en marketing y desarrollo de negocios. En 2019 decidió dejar su trabajo diario para expandir su negocio. Desde entonces, ha ayudado a cientos de familias a planificar vacaciones mágicas en todo el mundo y es uno de los principales especialistas en viajes de Conde Nast Traveler.
My Disney World Chatgpt Planning de planificación
Primero, aquí está el aviso que le di a Chatgpt para crear nuestro itinerario de Disney World:
¿Puedes planificar el día de mi familia en Disney World? Seremos yo, mi esposo y mis dos hijas. Serán 2.5 y 4.5 para el viaje, y aman a Ariel, Elsa y Ana, Moana, Belle, 101 Dalmatians, Cenicienta y Mary Poppins.
Nos gustaría ir a dos parques diferentes en el transcurso del día, pero necesitaremos un descanso de tres a cuatro horas en la mitad del día para una siesta. Nos gustaría hacer un almuerzo sentado en un restaurante temático que nuestras niñas les gustaría en función de sus intereses. ¿Puede planificar un itinerario para el día para los parques que recomendaría? Además, debe haber una parada de bocadillos por la mañana y la tarde.
¿Qué chatgpt hizo lo correcto sobre la planificación de un viaje a Disney World?
Hay muchas cosas que ChatGPT se equivocó sobre la planificación de un viaje a Disney (más sobre eso en un momento), pero sí recomendó paseos y actividades que encajarían bien en función de los intereses de mis hijas, como ir al viaje “Under the Sea” y conocer a Ariel, ver “cuentos encantados con Belle”, con un almuerzo en el restaurante de invitados y ver la festival de la fantasía de Magic Kingdom.
Cuando mi hermana usó un planificador de Disney el año pasado, tuvo la experiencia opuesta. El planificador acaba de recomendar todos los paseos más populares, como Tron, en el que mi sobrino no habría tenido interés, por lo que al menos Chatgpt prestó atención a lo que le dije que le gustaban a mis chicas.
También le pregunté a ChatGPT si tenía algún consejo para tener un día exitoso en Disney, y obtuve una buena información, como usar la aplicación de Disney para verificar los tiempos de espera de viaje y pedir comida con anticipación, y que podríamos usar el programa Rider Switch en caso de que mi hijo menor fuera demasiado pequeño para viajar.
También me dio algunas recomendaciones excelentes sobre qué empacar para el día, como protector solar, toallitas para bebés y bocadillos. Law estuvo de acuerdo en que había algunas pepitas de buena información, pero señaló que ChatGPT no incluía empacar un cargador de teléfono portátil, algo que dijo que necesitaríamos.
Qué chatgpt se equivocó sobre nuestro itinerario del día de Disney
Tres cosas principales para recordar sobre ChatGPT es que solo responde a lo que le da, se está retirando de la información en Internet y puede que no siempre sea correcto, y tampoco hay un elemento humano para ayudar a racionalizar la información.
Por ejemplo, le dije a ChatGPT que quería ir a dos parques, por lo que me dio un itinerario basado en ese aviso. Nunca hubiera sugerido que no haga dos parques porque sería poco realista dadas las edades de mis hijos.
ChatGPT carece de la capacidad de decir que no o sugerir ideas alternativas
Chatgpt hizo lo que le pedí, pero si hubiera abrazado las sugerencias, supongo que nunca habríamos regresado al parque después de una siesta y está muy frustrado.
Law, por otro lado, echó un vistazo a mi aviso y me dijo que realmente recomendaría no saltar en el parque y que deberíamos quedarnos en Magic Kingdom todo el día versus tratar de irme y volver.
Law me explicó que debido a que no nos quedamos en un resort de Disney, pasaremos mucho más tiempo pasando del estacionamiento a los parques, y que mi estimación de 30 minutos probablemente fue más como una hora y media. ChatGPT no sabe cuánto tiempo lleva llegar al estacionamiento y regresar a un hotel y no pudo estimar con precisión la logística detrás de esto.
También recomendó una siesta de cochecito en el carrusel de progreso con aire acondicionado, que según ella generalmente era un lugar más tranquilo, en lugar de tratar de irse y volver al parque. ChatGPT también recomendó este lugar y el Salón de Presidentes actualmente cerrado como un gran lugar para tomar un descanso, pero en general necesitaba un humano con más conocimiento de cómo funcionan las cosas en Disney para ayudarme a entender lo que era realista en lugar de no para nuestro viaje.
Chatgpt no incluyó ningún tiempo de espera para los paseos
Si nos fijamos en el itinerario que Chatgpt me dio por Disney, es como si tuviéramos el parque para nosotros mismos. Según ChatGPT, estaríamos en camino o en una nueva atracción cada 30 minutos.
Incluso sé lo suficiente sobre Disney para saber que eso no sonó bien. Law dijo que probablemente estaríamos en el extremo inferior de los tiempos de espera desde que iremos a principios de junio, pero acordamos que la cantidad de cosas que el itinerario dijo que logramos no parecía realista.
En cambio, ella me acompañó a través de la aplicación de Disney y me mostró cómo podré ver cuáles son los tiempos de espera para cada viaje, cuáles son los tiempos de show y cómo ver qué personajes están.
También me habló de las otras formas en que podemos reducir los tiempos de espera comprando pases de rayos o el pase Premier, que es un programa más nuevo (aunque costoso) que Disney está probando que le da una entrada a cada experiencia de Lightning Lane.
Usar ChatGPT sería excelente para preguntar qué paseos serían apropiados para mis niñas en función de su edad e intereses para que tengamos una idea de qué apuntar durante todo el día, pero la información sobre cómo usar la aplicación para ahorrar tiempo que la ley me dio será mucho más útil. También ayudó a establecer el nivel de mis expectativas sobre lo que podremos lograr en un día, lo que me ayudará a no estresarse por no poder hacerlo todo una vez que lleguemos allí.
Chatgpt se equivocó con cosas importantes que habrían arruinado nuestro día en Disney
Recuerde, soy un novato en Disney, así que tomé toda la información que me dio al pie de la letra.
El problema, dice Law, es que “ChatGPT simplemente no puede mantenerse al día con la cantidad que cambia Disney”. Se extrae de fuentes en todo Internet y no puede discernir lo que es correcto o no, así que terminé con cosas en el itinerario que no son precisos.
¿Uno de los mayores errores? El itinerario dijo que podríamos conocer a Ana y Elsa, los personajes favoritos de mis niñas, en el Princess Fairytale Hall, que no es cierto. Se encuentran y saludan en Epcot en el Royal Sommerhus.
Law sintió mi decepción y me aseguró que las chicas podrían saludar a Ana, Elsa y Olaf en la feria de amistad mágica de Mickey o en el desfile de Magic Kingdom.
¿Otras cosas importantes que Chatgpt se equivocó que habría descarrilado nuestro día? Sugirió conocer a Ariel a las 9 am cuando no está disponible hasta las 10 de la mañana; dijo que podríamos ingresar al parque a las 8 a.m., lo cual es incorrecto teniendo en cuenta que Magic Kingdom abre a las 8:30 a.m. para las personas que permanecen en la propiedad y las 9 a.m. para las personas que se mantienen fuera de la propiedad; y dijo que deberíamos usar Genie+ o un paso rápido para reducir los tiempos de espera, los cuales son servicios que ya no existen.
Es fácil suponer que lo que ChatGPT escupe es exacto, pero en nuestro caso todos estos errores habrían causado una frustración significativa para el día.
¿Debería usar ChatGPT para cualquier parte de su planificación de Disney?
Law dijo que podía ver que ChatGPT era útil para “cosas de espectro muy amplio” al planificar un viaje a Disney, como recomendaciones para qué recurre para quedarse o tener una idea general de qué personajes son los parques (aunque tenga en cuenta, ChatGPT me dio información incorrecta sobre esto).
“Creo que hay mucha seguridad laboral en lo que [travel planners] Haga por las relaciones que tenemos y el conocimiento “, dice, pero dice que no cree que sea una mala idea usar ChatGPT para obtener algunas ideas iniciales antes de hablar con un planificador.

¿Debería usar un planificador de Disney para su viaje de Disney?
No tiene que usar un planificador de Disney para planificar su viaje, pero después de mi experiencia con ChatGPT, usaré uno, ya que todavía no sé por dónde comenzar con toda la información.
Trabajar con un planificador de Disney es a menudo gratuito, ya que Disney le paga a una comisión al planificador, pero si no es así, podría valer la pena la inversión solo para asegurarse de obtener la información más precisa.
Si no desea usar un planificador, pregúntele a los amigos que hayan estado en Disney para sus consejos e itinerarios. Puede ser más fácil entender lo que es realista en lugar de no para su familia si tiene hijos de edad similar y aún reducirá el trabajo para usted (Everymom también tiene consejos de mamás para viajar a Disney World con niños pequeños, Disney con un bebé e incluso Disney World mientras está embarazada).
Veredicto final? ChatGPT podría ser bueno para algunos aspectos de la planificación de viajes, pero el itinerario que me dio en base a mi aviso no era realista y tenía muchos errores. Para algo tan complicado como Disney World, tener ideas y juicio humanos se siente como una mejor manera de tratar de garantizar más magia de Disney que los dolores de cabeza.

Sobre el autor
Elliott Harrell, escritor colaborador
Elliott es madre de dos niñas y tiene su sede en Raleigh, NC. Pasa sus días dirigiendo un equipo de ventas y lavando la ropa y sus noches escribiendo sobre las cosas que ama. Le apasiona todas las cosas de la maternidad y la salud de las mujeres. Cuando no está trabajando, escribiendo o criando, puede encontrarla probar un nuevo restaurante en la ciudad o trabajar en su último proyecto de aguja.
Noticias
Operai vs Musk Legal Feud se intensifica; Informe de la IEA
Published
14 horas agoon
15 abril, 2025
- Página principal
- >
- Noticias
- >
-
Negocio
- >
- La semana pasada en AI: OpenAi vs Musk Legal Feud se intensifica; Informe de la IEA
Operai, la compañía detrás de ChatGPT, disparó la semana pasada con un mostrador contra Elon Musk, marcando otro capítulo en lo que se ha convertido en una batalla legal muy pública entre Elon Musk, Sam Altman, Operai y unos pocos otros.
Musk ha estado en guerra con Operai y el CEO Sam Altman durante casi un año, acusando a la compañía de abandonar su misión original. La demanda original de Musk se centra en las afirmaciones de que OpenAI violó su acuerdo de fundadores y se separó de sus raíces originales sin fines de lucro en busca de ganancia comercial, específicamente a través de la creación de Operai Global LLC, su armado con fines de lucro, así como en su búsqueda de convertir su entidad sin fines de lucro en una compañía con fines de lucro.
Las acciones sin escalas de Elon contra nosotros son tácticas de mala fe para ralentizar OpenAi y tomar el control de las principales innovaciones de IA para su beneficio personal. Hoy, nos sentimos para detenerlo.
– Again Newsroom (@openainewsroom) 9 de abril de 2025
Pero esta semana, Operai respondió. La compañía presentó una respuesta legal acusando a Musk de participar en “prácticas comerciales ilegales e injustas” diseñadas para interrumpir las operaciones de OpenAi y untar su reputación. Operai también afirma que Musk está haciendo principalmente todo esto para beneficiar a su compañía de IA, Xai.
Si solo estás poniendo al día con esta disputa, todavía estamos en sus primeras entradas, y ahora es el momento de ponerte al día. Nuestra cobertura anterior desglosa las presentaciones legales, la historia entre Musk y OpenAi, y lo que está en juego para ambas compañías.
La suscripción de $ 200 de Claude
La semana pasada, Anthrope lanzó un nuevo “Plan Max” para su IA Chatbot Claude, un nivel de suscripción de $ 100 y $ 200 por mes que ofrece lo que la compañía llama “uso ampliado”, que es solo otra forma de decir que podrá hacer más (tendrá menos límites) en Claude que antes. El nivel de $ 100/mes ofrece 5 veces más uso que el plan estándar Pro y el plan de $ 200/mes aumenta el uso de 20 veces el uso.
Un movimiento como este probablemente será celebrado por desarrolladores y nuevas empresas que tienen Claude integrado en algún lugar de su pila tecnológica. Pero debajo del capó, este movimiento es más que un rendimiento para sus usuarios; Se trata de rentabilidad para Anthrope, la empresa matriz para Claude.
Anthrope probablemente espere que este nuevo plan Max abra un nuevo canal de ingresos. Después de todo, se rumorea que el PRO Pro de $ 200/mes de OpenAI ha traído $ 300 millones adicionales después de su lanzamiento.
Este cambio de precios también resalta una tendencia más grande que se ha desarrollado detrás de escena del auge de la IA. A pesar de miles de millones en el gasto, ninguna de estas compañías de IA líderes ha obtenido ganancias todavía, y los inversores están comenzando a preocuparse, por lo que están comenzando a preguntar cuándo y de dónde provendrá un retorno de su inversión.
Ofrecer un producto más costoso es una forma de acercarse a la rentabilidad que los inversores están comenzando a presionar a estas compañías de inteligencia artificial para que produzcan, pero es poco probable que confiar en esa corriente de ingresos de los modelos de suscripción por sí solos sea poco probable que cualquiera de las empresas allí, especialmente cuando comienza a analizar cómo los consumidores demandan bien y servicios de IA.
El informe de la IEA explora el consumo de energía de IA
La Agencia Internacional de Energía (IEA) publicó un informe la semana pasada titulado Energía y ai, que exploró la creciente relación entre la inteligencia artificial y el consumo de energía global.
En 301 páginas, es un informe denso, pero aquí hay algunas conclusiones que se destacaron:
1. AI está aumentando la demanda de electricidad
Según el informe, se proyecta que el consumo de electricidad por parte de los centros de datos sea más del doble para 2030, y la IA es el impulsor número uno de ese crecimiento. Se espera que Estados Unidos sea responsable de más de la mitad del aumento global. Al final de la década, el uso de electricidad del Centro de datos de EE. UU. Podría exceder la potencia total utilizada para producir acero, aluminio, cemento, productos químicos y todos los demás bienes intensivos en energía combinados.
2. ¿De dónde vendrá el poder?
No se trata solo de construir más centros de datos; La IEA señala que varias redes de energía en todo el mundo ya están bajo una fuerte tensión. Sin actualizaciones significativas de infraestructura, especialmente nuevas líneas de transmisión, que pueden tardar de 4 a 8 años en construirse, muchos de los planes de expansión del centro de datos que seguimos escuchando pueden retrasarse o cancelarse.
3. El impacto energético de la IA no se está tratando como el de Crypto.
Mientras estaba pasando por el informe, me di cuenta de que el tono en torno al consumo de energía de IA es muy diferente a la actitud que estas mismas agencias tenían hacia la minería de recompensa en bloque. A pesar de que los centros de datos podrían estar utilizando más potencia que todo Japón para 2030, la AIE no argumentó que la industria está consumiendo demasiada electricidad. En cambio, argumenta que las contribuciones de IA a la innovación, especialmente en la eficiencia energética y la optimización de la red, pueden justificar el consumo.
En general, el informe trae algunos de los componentes menos explorados pero cruciales de la industria de la inteligencia artificial a la superficie. Si bien las compañías de IA han estado diciendo durante un tiempo que Estados Unidos necesita más centros de datos para mantenerse competitivos, el informe de la AIE subraya una parte del argumento de que generalmente no escuchamos de las compañías de IA: que no se trata solo de los centros de datos, también se trata de las fuentes de energía. Si la generación de energía y las soluciones de entrega no se exploran e implementan rápidamente, tienen el potencial de ralentizar significativamente los planes que algunos de los gigantes tecnológicos tienen para la industria de la IA.
Para que la inteligencia artificial (IA) trabaje en la ley y prospere frente a los crecientes desafíos, necesita integrar un sistema de cadena de bloques empresarial que garantice la calidad y la propiedad de la entrada de datos, lo que permite mantener los datos seguros al tiempo que garantiza la inmutabilidad de los datos. Echa un vistazo a la cobertura de Coingeek sobre esta tecnología emergente para aprender más Por qué Enterprise Blockchain será la columna vertebral de AI.
RELOJ: Los micropagos son lo que permitirán a las personas confiar en la IA
https://www.youtube.com/watch?v=XC9XDZMHJ9Q title = “YouTube Video Player” FrameBorDer = “0” permitido = “acelerómetro; autoplay; portapapeles-write; cifrado-media; gyroscope; imagen-in-pinicure; web-share” referrerPolicy = “estricto-origin-when-cross-órigin” permitido aficionado = “>”> “>”
Related posts










































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo