Connect with us

Noticias

VERSES AI’s Genius System Crushes OpenAI in Code-Breaking Challenge, Shows 140x Faster Performance

Published

on





VERSES AI (OTCQB:VRSSF) has announced that its Genius™ AI system has outperformed OpenAI’s o1 Preview model in the code-breaking game Mastermind. In a 100-game test, Genius achieved a 100% success rate compared to o1’s 71%, completing tasks 140 times faster and 5,260 times more cost-effectively.

Key performance metrics show Genius completed all games in just over 5 minutes at an estimated cost of $0.05 USD, while OpenAI’s model took 12.5 hours and cost $263 USD. Genius operated on a standard laptop, while o1 required GPU-based cloud computing. The company positions these results as evidence of Genius’s superior logical reasoning capabilities and potential applications in cybersecurity, fraud detection, and financial forecasting.

VERSES AI (OTCQB:VRSSF) ha annunciato che il suo sistema AI Genius™ ha superato il modello o1 Preview di OpenAI nel gioco di codice Mastermind. In un test di 100 partite, Genius ha raggiunto un tasso di successo del 100% rispetto al 71% di o1, completando i compiti 140 volte più velocemente e 5.260 volte più economicamente.

I principali indicatori di prestazione mostrano che Genius ha completato tutte le partite in poco più di 5 minuti a un costo stimato di $0,05 USD, mentre il modello di OpenAI ha impiegato 12,5 ore e costato $263 USD. Genius ha funzionato su un laptop standard, mentre o1 richiedeva l’uso del cloud computing basato su GPU. L’azienda presenta questi risultati come prova delle superiori capacità di ragionamento logico di Genius e delle sue potenziali applicazioni nella cybersecurity, nella rilevazione delle frodi e nella previsione finanziaria.

VERSES AI (OTCQB:VRSSF) ha anunciado que su sistema de IA Genius™ ha superado al modelo o1 Preview de OpenAI en el juego de resolver códigos Mastermind. En una prueba de 100 juegos, Genius logró una tasa de éxito del 100% en comparación con el 71% de o1, completando tareas 140 veces más rápido y 5,260 veces más económico.

Los principales métricos de rendimiento muestran que Genius completó todos los juegos en poco más de 5 minutos a un costo estimado de $0.05 USD, mientras que el modelo de OpenAI tomó 12.5 horas y costó $263 USD. Genius funcionó en una laptop estándar, mientras que o1 requería computación en la nube basada en GPU. La compañía presenta estos resultados como evidencia de las superiores capacidades de razonamiento lógico de Genius y sus aplicaciones potenciales en ciberseguridad, detección de fraudes y previsión financiera.

VERSES AI (OTCQB:VRSSF)는 자사의 AI 시스템 Genius™가 코드 브레이킹 게임 마스터마인드에서 OpenAI의 o1 Preview 모델을 능가했다고 발표했습니다. 100게임 테스트에서 Genius는 100% 성공률을 기록했으며, o1의 71%에 비해 140배 더 빠르게 작업을 완료하고 5,260배 더 경제적이었습니다.

주요 성과 지표에 따르면 Genius는 모든 게임을 5분 이상 걸리지 않고 완료했으며, 예상 비용은 $0.05 USD였습니다. 반면 OpenAI의 모델은 12.5시간이 소요되었고 비용은 $263 USD였습니다. Genius는 표준 노트북에서 작동했지만, o1은 GPU 기반의 클라우드 컴퓨팅을 필요로 했습니다. 회사는 이러한 결과를 Genius의 우수한 논리적 추론 능력과 사이버 보안, 사기 탐지, 재무 예측 등에서의 잠재적 응용의 증거로 사용하고 있습니다.

VERSES AI (OTCQB:VRSSF) a annoncé que son système IA Genius™ a surpassé le modèle o1 Preview d’OpenAI dans le jeu de déchiffrage de codes Mastermind. Lors d’un test de 100 parties, Genius a atteint un taux de succès de 100%, contre 71% pour o1, en accomplissant les tâches 140 fois plus rapidement et 5.260 fois plus économiquement.

Les principaux indicateurs de performance montrent que Genius a complété tous les jeux en un peu plus de 5 minutes avec un coût estimé à 0,05 USD, tandis que le modèle d’OpenAI a nécessité 12,5 heures et a coûté 263 USD. Genius a fonctionné sur un ordinateur portable standard, tandis que o1 nécessitait un calcul cloud basé sur GPU. L’entreprise présente ces résultats comme une preuve des capacités supérieures de raisonnement logique de Genius et de ses applications potentielles en cybersécurité, détection de fraudes, et prévisions financières.

VERSES AI (OTCQB:VRSSF) hat bekannt gegeben, dass sein AI-System Genius™ das o1 Preview-Modell von OpenAI im Code-Breaking-Spiel Mastermind übertroffen hat. In einem Test von 100 Spielen erzielte Genius eine Erfolgsquote von 100%, im Vergleich zu 71% von o1, und erledigte Aufgaben 140-mal schneller und 5.260-mal kostengünstiger.

Die wichtigsten Leistungskennzahlen zeigen, dass Genius alle Spiele in etwas mehr als 5 Minuten abschloss, bei geschätzten Kosten von $0,05 USD, während das Modell von OpenAI 12,5 Stunden benötigte und $263 USD kostete. Genius lief auf einem Standard-Laptop, während o1 GPU-basierte Cloud-Computing erforderte. Das Unternehmen sieht in diesen Ergebnissen den Beweis für die überlegenen logischen Denkfähigkeiten von Genius und dessen potenzielle Anwendungen in der Cybersicherheit, der Betrugserkennung und der finanziellen Vorhersage.

Positive


  • 100% success rate in code-breaking challenge vs. competitor’s 71%

  • 140x faster performance than OpenAI’s o1 Preview model

  • Significant cost efficiency: $0.05 vs. $263 for 100 games

  • Operates on standard laptop hardware vs. GPU-cloud requirements

  • Consistent performance with solve times between 1.1-4.5 seconds











High-Performance Agent Surpasses Leading AI Model in Accuracy, Speed, and Cost Efficiency

VANCOUVER, British Columbia, Dec. 17, 2024 (GLOBE NEWSWIRE) — VERSES AI Inc. (CBOE:VERS) (OTCQB:VRSSF) (“VERSES” or the “Company”), a cognitive computing company, today revealed performance highlights of its flagship product Genius winning the code-breaking game Mastermind in a side by side comparison with a leading generative AI model, OpenAI’s o1 Preview, which is positioned as an industry-leading reasoning model. Over one hundred test runs, Genius consistently outperformed OpenAI’s o1-preview model one hundred and forty (140) times faster and more than five thousand times (5,000) cheaper.

“Today we’re showcasing Genius’ advanced reasoning performance against state-of-the-art deep learning-based methods that LLMs are based on,” said Hari Thiruvengada, VERSES Chief Technology Officer. “Mastermind was the perfect choice for this test because it requires reasoning through each step logically, predicting the cause-and-effect outcomes of its decisions, and dynamically adapting to crack the code. This exercise demonstrates how Genius outperforms tasks requiring logical and cause-effect reasoning, while exposing the inherent limitations of correlational language-based approaches in today’s leading reasoning models.

“This is just a preview of what’s to come. We’re excited to show how additional reasoning capabilities, available in Genius today and demonstrated with Mastermind, will be further showcased in our upcoming Atari 10k benchmark results,” Thiruvengada continued.

The comparison involved 100 games of Mastermind, a reasoning task requiring the models to deduce a hidden code through logical guesses informed by feedback hints. Key metrics included success rate, computation time, number of guesses, and total cost.

In the exercise, VERSES compared OpenAI advanced reasoning model o1-preview to Genius. Each model attempted to crack the Mastermind code on 100 games with up to ten guesses to crack the code. Each model is given a hint for each guess and must reason about the missing part of the correct answer, requiring all six code colors to be correct to crack the code. For perspective, you can play the game at mastermindgame.org.

A highlight of the results is below. You can find a more detailed description and results of the tests on our blog at verses.ai.

The exercise: VERSES’ team conducted 100 games for each AI model, using the same secret code parameters: 4 positions and 6 possible colors. Results were measured by success rate, computation time, number of guesses, and total cost. The comparison is summarized below:

Metric Genius™ o1-preview
Success Rate 100% 71% (29% fail rate)
Total Compute Time 5 minutes, 18 seconds
(Avg 3.1s per game)
12.5 hours
(Avg 345s per game)
Total Cost for 100 Games $0.05 USD (est.) $263 USD
Hardware Requirements Standard laptop (M1) GPU-based Cloud


Performance Highlights:

  • Accuracy and Reliability. Genius solved the code every time in a consistent number of steps.
  • Speed. Genius consistently solved games in 1.1–4.5 seconds, while ChatGPT’s solve times ranged from 7.9 to 889 seconds (approximately 15 mins)
  • Efficiency. Genius’ total compute time for 100 games was just over 5 minutes, compared to ChatGPT’s 12.5 hours.
  • Cost. Genius’ compute cost was estimated at $0.05 USD for all 100 games, compared to ChatGPT’s o1 model at $263 USD.

In summary, Genius solved Mastermind 100% of the time, was 140 times faster and 5260 times cheaper than o1-preview.

“These impressive results highlight a critical gap in today’s AI landscape: the limitations of language-based models like OpenAI’s o1 to handle logical reasoning tasks precisely and reliably,” said Gabriel René, founder and CEO of VERSES. “Mastermind code-breaking is an indicative test that showcases the class of logical reasoning and understanding of cause and effect needed for real-world applications like cybersecurity, fraud detection, and financial forecasting—domains where causality, accuracy, and efficiency are non-negotiable. Genius not only excels at these tasks but does so faster, cheaper, and with unparalleled consistency, making it ideal for addressing complex business challenges. Genius not only excels at these tasks but does so faster, cheaper, and with unparalleled consistency, making it ideal for addressing complex business challenges.”

Mastermind™ is a registered trademark of Pressman Inc.

About VERSES

VERSES is a cognitive computing company building next-generation intelligent software systems modeled after the wisdom and genius of Nature. Designed around first principles found in science, physics and biology, our flagship product, Genius, is a suite of tools for machine learning practitioners to model complex dynamic systems and generate autonomous intelligent agents that continuously reason, plan, and learn. Imagine a Smarter World that elevates human potential through technology inspired by Nature. Learn more at verses.aiLinkedIn, and X.

On behalf of the Company 
Gabriel René, Founder & CEO, VERSES AI Inc.
Press Inquiries: press@verses.ai 

Investor Relations Inquiries 
U.S., Matthew Selinger, Partner, Integrous Communications, mselinger@integcom.us 415-572-8152
Canada, Leo Karabelas, President, Focus Communications, info@fcir.ca 416-543-3120

Cautionary Note Regarding Forward-Looking Statements

When used in this press release, the words “estimate”, “project”, “belief”, “anticipate”, “intend”, “expect”, “plan”, “predict”, “may” or “should” and the negative of these words or such variations thereon or comparable terminology are intended to identify forward-looking statements and information. Although VERSES believes, in light of the experience of their respective officers and directors, current conditions and expected future developments and other factors that have been considered appropriate, that the expectations reflected in the forward-looking statements and information in this press release are reasonable, undue reliance should not be placed on them because the parties can give no assurance that such statements will prove to be correct. The forward-looking statements and information in this press release include, among other things, statements regarding the Company’s goals and plans for future testing of Genius, including the Atari 10K benchmark.

There are risks and uncertainties that may cause actual results to differ materially from those contemplated in those forward-looking statements and information. In making the forward-looking statements in this news release, the Company has applied various material assumptions. By their nature, forward-looking statements involve known and unknown risks, uncertainties and other factors which may cause our actual results, performance or achievements, or other future events, to be materially different from any future results, performance or achievements expressed or implied by such forward-looking statements. There are a number of important factors that could cause VERSUS’ actual results to differ materially from those indicated or implied by forward-looking statements and information. Such factors may include, among other things, the ability of the Company to complete further testing of Genius as anticipated, or at all, and that such further testing will achieve the intended results. The Company undertakes no obligation to comment on analyses, expectations or statements made by third parties in respect of its securities or its financial or operating results (as applicable).

Additionally, forward-looking statements involve a variety of known and unknown risks, uncertainties and other factors which may cause the actual plans, intentions, activities, results, performance or achievements of the Company to be materially different from any future plans, intentions, activities, results, performance or achievements expressed or implied by such forward-looking statements. Such risks include, without limitation: the risk that the Company will be unable to complete further testing of Genius as anticipated, or at all; and risks that the Company will not achieve the intended results in such further testing. VERSES cautions that the foregoing list of material factors is not exhaustive. When relying on VERSES’ forward-looking statements and information to make decisions, investors and others should carefully consider the foregoing factors and other uncertainties and potential events. VERSES has assumed that the material factors referred to in the previous paragraph will not cause such forward-looking statements and information to differ materially from actual results or events. However, the list of these factors is not exhaustive and is subject to change and there can be no assurance that such assumptions will reflect the actual outcome of such items or factors. The forward-looking information contained in this press release represents the expectations of VERSES as of the date of this press release and, accordingly, are subject to change after such date. VERSES does not undertake to update this information at any particular time except as required in accordance with applicable laws.









FAQ



How much faster is VERSES AI’s Genius (VRSSF) compared to OpenAI’s o1 Preview?


VERSES AI’s Genius is 140 times faster than OpenAI’s o1 Preview, completing 100 Mastermind games in 5 minutes compared to OpenAI’s 12.5 hours.


What is the cost difference between VRSSF Genius and OpenAI for 100 Mastermind games?


VERSES AI’s Genius costs approximately $0.05 USD for 100 games, while OpenAI’s o1 Preview costs $263 USD, making Genius 5,260 times more cost-effective.


What was the success rate of VERSES AI’s Genius (VRSSF) in the Mastermind challenge?


VERSES AI’s Genius achieved a 100% success rate in the Mastermind challenge, compared to OpenAI’s o1 Preview’s 71% success rate.


What hardware requirements does VERSES AI’s Genius (VRSSF) need compared to OpenAI?


VERSES AI’s Genius can operate on a standard laptop (M1), while OpenAI’s o1 Preview requires GPU-based cloud computing.


What are the potential real-world applications for VERSES AI’s Genius (VRSSF)?


VERSES AI’s Genius is positioned for applications in cybersecurity, fraud detection, and financial forecasting, where causality, accuracy, and efficiency are crucial.





Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Soy un entrenador personal. Chatgpt me construyó una rutina de movilidad de 15 minutos para las caderas más sueltas, y me sorprende los resultados

Published

on

Como entrenador que ha estado viendo ChatGPT y AI se vuelven cada vez más prominentes en la industria del fitness, quería ponerlo a prueba. No es la primera vez: le pedí a Chat GPT que construyera un programa de entrenamiento de 4 semanas hace un tiempo, y tuve emociones mixtas sobre los resultados.

Más de dos años después, e incluso más adelante en la línea de desarrollo de IA, decidí ponerlo a prueba nuevamente. Esta vez, pedí una rutina de movilidad de la cadera de 15 minutos que pudiera hacer desde casa usando solo una de las mejores esteras de yoga como equipo. Le expliqué que me considero hacia el extremo avanzado de la escala de movilidad y dejo que haga lo suyo.

Continue Reading

Noticias

Ai ahora ‘en la cúspide de hacer una nueva ciencia’

Published

on

[Image created via OpenAI’s image generation technology]

“Estamos en la cúspide de sistemas que pueden hacer una nueva ciencia”.

Esa línea, en la página 3 del último “Marco de preparación” de OpenAI (versión 2, actualizada el 15 de abril de 2025), señala un posible cambio de paradigma para el ecosistema de I + D, que rápidamente está pasando de ser una etapa interna ansiosa, si no siempre precisa, a una colega potencial de AA, o incluso un investigador principal.

Mirando hacia el futuro, el marco lidia con el potencial de la IA para convertirse en “mejorando recursivamente”. Advierte que la “aceleración importante en la tasa de IA I + D” podría introducir rápidamente nuevas capacidades y riesgos. Esta aceleración podría superar las medidas de seguridad actuales, haciendo que la supervisión sea “insuficiente” y marcando explícitamente el peligro de perder el “mantenimiento del control humano” sobre el sistema de IA.

Hablando en un evento de Goldman Sachs solo unas semanas antes, el 5 de marzo (lanzado el 11 de abril en YouTube), la directora financiera de Operai Sarah Friar reforzó este punto de vista, afirmando que los modelos ya están “presentando cosas novedosas en su campo” y superando simplemente reflejando el conocimiento existente para “extender eso”. Friar señaló además el rápido enfoque hacia la inteligencia general artificial (AGI), lo que sugiere “Podemos estar allí”.

Si bien reconoce el debate en curso con algunos expertos que se balancean incluso en el término AGI y mucho menos su viabilidad, al menos con modelos de idiomas grandes), Friar mencionó la opinión del CEO Sam Altman de que la inteligencia general artificial (AGI), la IA que maneja el trabajo humano más valioso, podría ser “inminente”. Esto sugiere que la transición de la IA como herramienta para los investigadores de la IA como investigador puede estar más cerca de lo que muchos se dan cuenta, con primeros ejemplos potencialmente emergentes en campos como el desarrollo de software.

https://www.youtube.com/watch?v=2kzqm_bue7e

Las principales instituciones de I + D están construyendo activamente capacidades de ‘investigación autónoma’. Por ejemplo, los laboratorios nacionales como Argonne y Oak Ridge están desarrollando ‘laboratorios autónomos’ diseñados específicamente para la ciencia y la química de los materiales. Los Alamos también está trabajando con OpenAi
Probar sus modelos de razonamiento en Energía y Aplicaciones de Seguridad Nacional en su supercomputadora de Venado.

En general, los laboratorios nacionales están explorando el uso de IA para asumir tareas de investigación básicas: generar hipótesis (a menudo a través de estrategias de optimización), diseñar experimentos de varios pasos, controlar la ejecución robótica, analizar los resultados en tiempo real e iterando hacia objetivos de descubrimiento con una intervención humana significativamente reducida dentro de dominios operativos específicos. Si bien aún requiere supervisión humana para la validación y la dirección estratégica, que funciona quizás en un ‘nivel 3’ o ‘nivel 4’ emergente de la autonomía de la investigación, tales iniciativas demuestran que la IA se va más allá del análisis de datos pasivos para participar directamente en el proceso de descubrimiento científico. Esto se extiende más allá de la construcción de sistemas integrados; Implica empoderar directamente a los investigadores, como se ve en el reciente Doe ‘1,000 científico Ai Jam’. Esta colaboración a gran escala reunió a unos 1.500 científicos en múltiples laboratorios nacionales, incluido Argonne, para probar modelos avanzados de razonamiento de IA de compañías como OpenAi y Anthrope en problemas científicos del mundo real. Los investigadores exploraron específicamente su potencial para mejorar las tareas como la generación de hipótesis y la automatización del experimento.

Una transición similar ya está en marcha en el desarrollo de software, aunque los desarrolladores actualmente tienen vistas mixtas sobre el potencial de las herramientas habilitadas para Genai. La IA de hoy a menudo sirve como asistente, pero la tecnología está aumentando rápidamente su juego de software, especialmente para lenguajes comunes que van desde Javascript hasta Python. Los modelos de OpenAI están demostrando un progreso significativo, “acercándose a nivel humano” en puntos de referencia clave, y Fray señaló que uno ya es “literalmente el mejor codificador del mundo”. Esto respalda el potencial fraile descrito para un “ingeniero de software de agente”, una IA que “puede salir y trabajar de forma independiente para usted”, incluidas la construcción, las pruebas y las aplicaciones de documentación. Esta evolución hacia capacidades más autónomas podría remodelar el campo por completo.

AI de 5 niveles de Openai
marco de madurez

Según los informes, Operai utiliza un marco interno de cinco niveles para comparar su progreso hacia la inteligencia general artificial (AGI). Esta estructura, discutida dentro de la compañía a mediados de 2024 y luego informada por puntos de venta como Bloomberg, describe distintas etapas de capacidad de IA:

  1. Nivel 1: Chatbots / AI conversacional: Sistemas expertos en el lenguaje natural, como Chatgpt.
  2. Nivel 2: razonadores: AI capaz de resolver problemas básicos comparables a un humano altamente educado. En este nivel, los modelos también pueden demostrar habilidades de razonamiento emergentes sin herramientas externas.
  3. Nivel 3: Agentes: Sistemas de IA autónomos que pueden administrar tareas complejas y tomar decisiones durante períodos prolongados en nombre de los usuarios.
  4. Nivel 4: Innovadores: La IA contribuye significativamente a la creatividad y el descubrimiento generando ideas novedosas, ayudando a la invención o impulsando los avances.
  5. Nivel 5: Organizaciones: La etapa del ápice donde la IA puede gestionar y operar las funciones complejas de toda una organización, potencialmente excediendo la eficiencia humana.

En general, los laboratorios nacionales están explorando el uso de IA para asumir tareas de investigación básicas: generar hipótesis (a menudo a través de estrategias de optimización), diseñar experimentos de varios pasos, controlar la ejecución robótica, analizar los resultados en tiempo real e iterando hacia objetivos de descubrimiento con una intervención humana significativamente reducida dentro de dominios operativos específicos. Si bien aún requiere supervisión humana para la validación y la dirección estratégica, que funciona quizás en un ‘nivel 3’ o ‘nivel 4’ emergente de la autonomía de la investigación, tales iniciativas demuestran que la IA se va más allá del análisis de datos pasivos para participar directamente en el proceso de descubrimiento científico. Esto se extiende más allá de la construcción de sistemas integrados; Implica empoderar directamente a los investigadores, como se ve en el reciente Doe ‘1,000 científico Ai Jam’. Esta colaboración a gran escala reunió a unos 1.500 científicos en múltiples laboratorios nacionales, incluido Argonne, para probar modelos avanzados de razonamiento de IA de compañías como OpenAi y Anthrope en problemas científicos del mundo real. Los investigadores exploraron específicamente su potencial para mejorar las tareas como la generación de hipótesis y la automatización del experimento.

Una transición similar ya está en marcha en el desarrollo de software, aunque los desarrolladores actualmente tienen vistas mixtas sobre el potencial de las herramientas habilitadas para Genai. La IA de hoy a menudo sirve como asistente, pero la tecnología está aumentando rápidamente su juego de software, especialmente para lenguajes comunes que van desde Javascript hasta Python. Los modelos de OpenAI están demostrando un progreso significativo, “acercándose a nivel humano” en puntos de referencia clave, y Fray señaló que uno ya es “literalmente el mejor codificador del mundo”. Esto respalda el potencial fraile descrito para un “ingeniero de software de agente”, una IA que “puede salir y trabajar de forma independiente para usted”, incluidas la construcción, las pruebas y las aplicaciones de documentación. Esta evolución hacia capacidades más autónomas podría remodelar el campo por completo.

Continue Reading

Noticias

Lo que se puso bien y mal

Published

on

Han pasado casi 30 años desde que fui a Disney World. Mis recuerdos de Disney son felices, pero no recuerdo ningún detalle más allá de usar oídos, hacer que los personajes firmen mi libro especial de autógrafos y permanezcan despierto hasta tarde para ver el espectáculo de fuegos artificiales en Epcot.

Tengo dos hijas, casi 4.5 y 2.5, que están obsesionados con las princesas, por lo que cuando descubrí que mi familia estaría en Orlando durante unos días en junio, decidí buscar ir a Disney World por el día. Haremos un viaje más grande de Disney World en un par de años, pero los niños menores de 3 años son gratuitos (una de las pocas cosas que sabía sobre Disney), así que pensé que aprovecharíamos eso y les daríamos una gran sorpresa.

El único problema es que pensar en planificar un día en Disney es abrumador. Hay Tanta información Acerca de cómo optimizar su tiempo en los parques.

Decidí pedirle a ChatGPT que planifique mi día, y luego tuve a Mary Helen Law, propietaria de la compañía de planificación de Disney Minnie Mouse Counselors y uno de los principales especialistas en viajes de Conde Nast Traveler, revise el itinerario. Siga leyendo para escuchar qué chatgpt se hizo bien y mal y qué tenía que decir un experto en Disney.

Conocer al experto

Mary Helen Law, fundador de Mini Mouse Counselores

Mary Helen es una madre y experta en viajes. Comenzó su carrera como agente de viajes en 2018 mientras trabajaba en marketing y desarrollo de negocios. En 2019 decidió dejar su trabajo diario para expandir su negocio. Desde entonces, ha ayudado a cientos de familias a planificar vacaciones mágicas en todo el mundo y es uno de los principales especialistas en viajes de Conde Nast Traveler.

My Disney World Chatgpt Planning de planificación

Primero, aquí está el aviso que le di a Chatgpt para crear nuestro itinerario de Disney World:

¿Puedes planificar el día de mi familia en Disney World? Seremos yo, mi esposo y mis dos hijas. Serán 2.5 y 4.5 para el viaje, y aman a Ariel, Elsa y Ana, Moana, Belle, 101 Dalmatians, Cenicienta y Mary Poppins.

Nos gustaría ir a dos parques diferentes en el transcurso del día, pero necesitaremos un descanso de tres a cuatro horas en la mitad del día para una siesta. Nos gustaría hacer un almuerzo sentado en un restaurante temático que nuestras niñas les gustaría en función de sus intereses. ¿Puede planificar un itinerario para el día para los parques que recomendaría? Además, debe haber una parada de bocadillos por la mañana y la tarde.

¿Qué chatgpt hizo lo correcto sobre la planificación de un viaje a Disney World?

Hay muchas cosas que ChatGPT se equivocó sobre la planificación de un viaje a Disney (más sobre eso en un momento), pero sí recomendó paseos y actividades que encajarían bien en función de los intereses de mis hijas, como ir al viaje “Under the Sea” y conocer a Ariel, ver “cuentos encantados con Belle”, con un almuerzo en el restaurante de invitados y ver la festival de la fantasía de Magic Kingdom.

Cuando mi hermana usó un planificador de Disney el año pasado, tuvo la experiencia opuesta. El planificador acaba de recomendar todos los paseos más populares, como Tron, en el que mi sobrino no habría tenido interés, por lo que al menos Chatgpt prestó atención a lo que le dije que le gustaban a mis chicas.

También le pregunté a ChatGPT si tenía algún consejo para tener un día exitoso en Disney, y obtuve una buena información, como usar la aplicación de Disney para verificar los tiempos de espera de viaje y pedir comida con anticipación, y que podríamos usar el programa Rider Switch en caso de que mi hijo menor fuera demasiado pequeño para viajar.

También me dio algunas recomendaciones excelentes sobre qué empacar para el día, como protector solar, toallitas para bebés y bocadillos. Law estuvo de acuerdo en que había algunas pepitas de buena información, pero señaló que ChatGPT no incluía empacar un cargador de teléfono portátil, algo que dijo que necesitaríamos.

Qué chatgpt se equivocó sobre nuestro itinerario del día de Disney

Tres cosas principales para recordar sobre ChatGPT es que solo responde a lo que le da, se está retirando de la información en Internet y puede que no siempre sea correcto, y tampoco hay un elemento humano para ayudar a racionalizar la información.

Por ejemplo, le dije a ChatGPT que quería ir a dos parques, por lo que me dio un itinerario basado en ese aviso. Nunca hubiera sugerido que no haga dos parques porque sería poco realista dadas las edades de mis hijos.

ChatGPT carece de la capacidad de decir que no o sugerir ideas alternativas

Chatgpt hizo lo que le pedí, pero si hubiera abrazado las sugerencias, supongo que nunca habríamos regresado al parque después de una siesta y está muy frustrado.

Law, por otro lado, echó un vistazo a mi aviso y me dijo que realmente recomendaría no saltar en el parque y que deberíamos quedarnos en Magic Kingdom todo el día versus tratar de irme y volver.

Law me explicó que debido a que no nos quedamos en un resort de Disney, pasaremos mucho más tiempo pasando del estacionamiento a los parques, y que mi estimación de 30 minutos probablemente fue más como una hora y media. ChatGPT no sabe cuánto tiempo lleva llegar al estacionamiento y regresar a un hotel y no pudo estimar con precisión la logística detrás de esto.

También recomendó una siesta de cochecito en el carrusel de progreso con aire acondicionado, que según ella generalmente era un lugar más tranquilo, en lugar de tratar de irse y volver al parque. ChatGPT también recomendó este lugar y el Salón de Presidentes actualmente cerrado como un gran lugar para tomar un descanso, pero en general necesitaba un humano con más conocimiento de cómo funcionan las cosas en Disney para ayudarme a entender lo que era realista en lugar de no para nuestro viaje.

Chatgpt no incluyó ningún tiempo de espera para los paseos

Si nos fijamos en el itinerario que Chatgpt me dio por Disney, es como si tuviéramos el parque para nosotros mismos. Según ChatGPT, estaríamos en camino o en una nueva atracción cada 30 minutos.

Incluso sé lo suficiente sobre Disney para saber que eso no sonó bien. Law dijo que probablemente estaríamos en el extremo inferior de los tiempos de espera desde que iremos a principios de junio, pero acordamos que la cantidad de cosas que el itinerario dijo que logramos no parecía realista.

En cambio, ella me acompañó a través de la aplicación de Disney y me mostró cómo podré ver cuáles son los tiempos de espera para cada viaje, cuáles son los tiempos de show y cómo ver qué personajes están.

También me habló de las otras formas en que podemos reducir los tiempos de espera comprando pases de rayos o el pase Premier, que es un programa más nuevo (aunque costoso) que Disney está probando que le da una entrada a cada experiencia de Lightning Lane.

Usar ChatGPT sería excelente para preguntar qué paseos serían apropiados para mis niñas en función de su edad e intereses para que tengamos una idea de qué apuntar durante todo el día, pero la información sobre cómo usar la aplicación para ahorrar tiempo que la ley me dio será mucho más útil. También ayudó a establecer el nivel de mis expectativas sobre lo que podremos lograr en un día, lo que me ayudará a no estresarse por no poder hacerlo todo una vez que lleguemos allí.

Chatgpt se equivocó con cosas importantes que habrían arruinado nuestro día en Disney

Recuerde, soy un novato en Disney, así que tomé toda la información que me dio al pie de la letra.

El problema, dice Law, es que “ChatGPT simplemente no puede mantenerse al día con la cantidad que cambia Disney”. Se extrae de fuentes en todo Internet y no puede discernir lo que es correcto o no, así que terminé con cosas en el itinerario que no son precisos.

¿Uno de los mayores errores? El itinerario dijo que podríamos conocer a Ana y Elsa, los personajes favoritos de mis niñas, en el Princess Fairytale Hall, que no es cierto. Se encuentran y saludan en Epcot en el Royal Sommerhus.

Law sintió mi decepción y me aseguró que las chicas podrían saludar a Ana, Elsa y Olaf en la feria de amistad mágica de Mickey o en el desfile de Magic Kingdom.

¿Otras cosas importantes que Chatgpt se equivocó que habría descarrilado nuestro día? Sugirió conocer a Ariel a las 9 am cuando no está disponible hasta las 10 de la mañana; dijo que podríamos ingresar al parque a las 8 a.m., lo cual es incorrecto teniendo en cuenta que Magic Kingdom abre a las 8:30 a.m. para las personas que permanecen en la propiedad y las 9 a.m. para las personas que se mantienen fuera de la propiedad; y dijo que deberíamos usar Genie+ o un paso rápido para reducir los tiempos de espera, los cuales son servicios que ya no existen.

Es fácil suponer que lo que ChatGPT escupe es exacto, pero en nuestro caso todos estos errores habrían causado una frustración significativa para el día.

¿Debería usar ChatGPT para cualquier parte de su planificación de Disney?

Law dijo que podía ver que ChatGPT era útil para “cosas de espectro muy amplio” al planificar un viaje a Disney, como recomendaciones para qué recurre para quedarse o tener una idea general de qué personajes son los parques (aunque tenga en cuenta, ChatGPT me dio información incorrecta sobre esto).

“Creo que hay mucha seguridad laboral en lo que [travel planners] Haga por las relaciones que tenemos y el conocimiento “, dice, pero dice que no cree que sea una mala idea usar ChatGPT para obtener algunas ideas iniciales antes de hablar con un planificador.

Chatgpt Disney World Itinerario
Fuente: @mrscofieldandco | Instagram

¿Debería usar un planificador de Disney para su viaje de Disney?

No tiene que usar un planificador de Disney para planificar su viaje, pero después de mi experiencia con ChatGPT, usaré uno, ya que todavía no sé por dónde comenzar con toda la información.

Trabajar con un planificador de Disney es a menudo gratuito, ya que Disney le paga a una comisión al planificador, pero si no es así, podría valer la pena la inversión solo para asegurarse de obtener la información más precisa.

Si no desea usar un planificador, pregúntele a los amigos que hayan estado en Disney para sus consejos e itinerarios. Puede ser más fácil entender lo que es realista en lugar de no para su familia si tiene hijos de edad similar y aún reducirá el trabajo para usted (Everymom también tiene consejos de mamás para viajar a Disney World con niños pequeños, Disney con un bebé e incluso Disney World mientras está embarazada).

Veredicto final? ChatGPT podría ser bueno para algunos aspectos de la planificación de viajes, pero el itinerario que me dio en base a mi aviso no era realista y tenía muchos errores. Para algo tan complicado como Disney World, tener ideas y juicio humanos se siente como una mejor manera de tratar de garantizar más magia de Disney que los dolores de cabeza.

Elliot Harrell SHOYSHOT

Sobre el autor

Elliott Harrell, escritor colaborador

Elliott es madre de dos niñas y tiene su sede en Raleigh, NC. Pasa sus días dirigiendo un equipo de ventas y lavando la ropa y sus noches escribiendo sobre las cosas que ama. Le apasiona todas las cosas de la maternidad y la salud de las mujeres. Cuando no está trabajando, escribiendo o criando, puede encontrarla probar un nuevo restaurante en la ciudad o trabajar en su último proyecto de aguja.

Continue Reading

Trending