Noticias
OpenAI’s turbulent early years – Sync #494

Hello and welcome to Sync #494!
As part of the court case between Elon Musk and Sam Altman, several emails from the early years of OpenAI have been made public. We will take a look into those emails, and what they reveal about the early days of OpenAI and the growing distrust among its founders.
In other news, Anthropic and xAI raised billions of dollars while a Chinese lab released its reasoning model to challenge OpenAI o1, and Gemini gets memory. Elsewhere in AI, DeepMind releases an AI model to correct errors in quantum computing, a Swiss church installs AI Jesus and how can a small AI control much more capable AI and make sure it does not misbehave.
Over in robotics, we have a fluffy robot from Japan aimed at replacing living pets, how easy it is to jailbreak LLM-powered robots and a South Korean robot dog completes a full marathon.
We’ll wrap up this week’s issue of Sync with a behind-the-scenes tour of the workshop where Wing designs and builds its delivery drones.
Enjoy!
The last two years were quite eventful for OpenAI. Thanks to the massive success of ChatGPT, OpenAI went from a relatively small company to one of the biggest startups in the world, attracting worldwide attention and billions of dollars in funding, propelling its valuation to $157 billion and triggering the AI revolution we are in today.
However, such massive growth never comes easily. Every organisation experiencing significant growth must evolve and transform itself into a new organisation that can deal with new challenges. In the case of OpenAI, some of those growing pains were made publically visible.
Probably the best known of these growing pains occurred a year ago when a group of OpenAI board members briefly removed Sam Altman from his role as CEO. Altman eventually returned to OpenAI, and from then on, we have seen a steady stream of key people leaving the company. Most notable of them were Ilya Sutskever, one of the founders of OpenAI and its long-time chief scientist, and Mira Murati, who served as CTO and briefly as CEO.
As part of the court case between Elon Musk and Sam Altman, several emails from the early years of OpenAI have been made public, revealing the tension within OpenAI has been there since the very beginning of the company. These emails cover the period from 2015, when the idea of an “open” AI lab was first proposed, to 2019, when OpenAI transitioned from a non-profit to a for-profit company. They also complement an earlier batch of communications between Elon Musk, Sam Altman, Greg Brockman, and Ilya Sutskever, released earlier this year by OpenAI.
The emails can be found on the Musk v. Altman court case page. There is also a compilation of all emails on LessWrong which is much easier to read. While reading those emails, it is worth keeping in mind that Musk’s legal team released them so they will be skewed towards portraying him as the one who was betrayed by OpenAI when the company abandoned its original vision of being a non-profit AI research lab.
Before we dive into the emails and what they tell us about OpenAI, let’s remind ourselves what the world looked like when OpenAI was founded.
It is 2015—the height of the deep learning revolution. A year earlier, Google had acquired DeepMind, a London-based AI research company making breakthrough after breakthrough in AI and advancing steadily in deep learning and reinforcement learning research. With the acquisition of DeepMind, Google was poised to lead the charge in AI research. It had the best talent working in its labs, backed by Google’s vast resources—be it computing power, data, or finances. If anyone were to create AGI, there was a big chance it would happen at Google.
That vision of the future, in which AGI has been created and owned by Google, was something Sam Altman did not want to happen. As he wrote in an email to Elon Musk in May 2015:
If it’s going to happen anyway, it seems like it would be good for someone other than Google to do it first.
With the information we have so far, that email is the first time an idea for a non-profit AI lab bringing the best minds in the industry to create advanced AI to benefit all of humanity was proposed. Initially, that company was to be attached to YCombinator and was provisionally named YC AI before eventually being renamed to OpenAI.
Later emails describe how the new company was planning to attract top talent in AI. That’s where Altman mentions that, apparently, DeepMind was trying to “kill” OpenAI by offering massive counteroffers to those who joined the new company.
One thing that comes out from reading those emails is the tension between the founders of OpenAI—Elon Musk, Sam Altman, Ilya Sutskever and Greg Brockman. The best example of those tensions is an email titled “Honest Thoughts,” written by Ilya Sutskever and sent to both Elon Musk and Sam Altman in September 2017. Sutskever’s thoughts were indeed honest. In the email, he openly questioned the motives of both Musk and Altman and their intentions for OpenAI.
Addressing Musk, Sutskever expressed concerns about the possibility of Musk taking control of OpenAI and transforming the AI lab into one of his companies. Sutskever noted that such a scenario would go against the very principles upon which OpenAI was founded.
The goal of OpenAI is to make the future good and to avoid an AGI dictatorship. You are concerned that Demis could create an AGI dictatorship. So do we. So it is a bad idea to create a structure where you could become a dictator if you chose to, especially given that we can create some other structure that avoids this possibility.
Elon did not take that email very well, saying “This is the final straw,” and threatening to leave the company and withdraw his funding, which he officially did six months later.
In the same message, Sutskever also raises concerns about Altman and openly asks what he wants from OpenAI:
We haven’t been able to fully trust your judgements throughout this process, because we don’t understand your cost function.
Following this, Sutskever questions further:
We don’t understand why the CEO title is so important to you. Your stated reasons have changed, and it’s hard to really understand what’s driving it.
Is AGI truly your primary motivation? How does it connect to your political goals? How has your thought process changed over time?
We can see in these questions the seeds of mistrust that will grow over time and eventually culminate in Sutskever leading a group of OpenAI board members to remove Sam Altman from the company in November 2023 over Altman not being “consistently candid.”
Another example of rifts forming between OpenAI founders can be found during the discussions about the future of the company as a non-profit, where Sam Altman is reported to have “lost a lot of trust with Greg and Ilya through this process.”
Another of the topics raised in those emails was the question of funding. Running a cutting-edge AI research lab and hiring top AI talent is expensive. The situation was made worse by the fact that OpenAI was going against Google which could easily outspent OpenAI. In 2017, OpenAI spent $7.9 million—equivalent to a quarter of its functional expenses—on cloud computing alone. By contrast, DeepMind’s total expenses in the same year were $442 million.
The emails reveal discussions about ways to raise additional funds to sustain OpenAI. One idea proposed was an ICO, which emerged in 2018 during one of crypto’s many bubbles. However, the idea was quickly abandoned.
The biggest problem in securing more funding was the non-profit nature of OpenAI. The option that OpenAI eventually took was to become in 2019 a “capped” for-profit, with the profit being capped at 100 times any investment. But there was another option on the table—to bring OpenAI under Tesla.
This option was suggested by Andrej Karpathy in an email titled “Top AI Institutions Today,” dated January 2018. At the time, Karpathy was no longer working at OpenAI and was serving as Tesla’s Director of Artificial Intelligence, reporting directly to Elon Musk. In the email, Karpathy provided an analysis of the AI industry in 2018 and correctly highlighted the massive cost of developing world-class AI. He criticised a for-profit approach, arguing that it would require creating a product, which would divert the focus from AI research. In Karpathy’s view, the only viable path for OpenAI to succeed was to become part of Tesla, with Tesla serving as OpenAI’s “cash cow.”
Elon then forwarded Karpathy’s analysis to Ilya Sutskever and Greg Brockman, adding that:
in my and Andrej’s opinion, Tesla is the only path that could even hope to hold a candle to Google. Even then, the probability of being a counterweight to Google is small. It just isn’t zero
However, Altman, Sutskever and Brockman did not want to become Tesla’s equivalent of DeepMind. Sutskever pointed out in that “Honest Thoughts” email that OpenAI being part of Tesla would conflict with the company’s founding principles. If that were to happen, OpenAI would be answerable to Tesla’s shareholders and obligated to maximize their investments.
A similar distrust of Tesla’s involvement in OpenAI is evident when OpenAI considered the idea of acquiring Cerebras, a startup designing AI chips. In the same “Honest Thoughts” email, Sutskever asserted that the acquisition would most likely be carried out through Tesla and questioned Tesla’s potential involvement, portraying it as another example of Elon Musk attempting to exert greater control over OpenAI.
The released emails end in March 2019, on the same day OpenAI announced the transition from a non-profit to a capped for-profit company. The final communication is between Elon Musk and Sam Altman, with Musk requesting that it be made clear he has no financial interest in OpenAI’s for-profit arm.
A few months later, OpenAI partnered with Microsoft, which invested $1 billion into the AI lab and the long-term partnership between these companies began. In the years that followed, OpenAI shifted its focus to researching transformer models and developing the GPT family of large language models. This journey ultimately culminated in the launch of a small project called ChatGPT—and the rest is history.
OpenAI was founded with the mission of building AGI to benefit all of humanity. However, behind this grand mission lies a story of egos, personalities and different visions of what this mission is really about. After reading those emails, a picture of broken foundations emerges, and the story of clashing visions within the company is still unfolding.
If you enjoy this post, please click the button or share it.
Do you like my work? Consider becoming a paying subscriber to support it
For those who prefer to make a one-off donation, you can ‘buy me a coffee’ via Ko-fi. Every coffee bought is a generous support towards the work put into this newsletter.
Your support, in any form, is deeply appreciated and goes a long way in keeping this newsletter alive and thriving.
A $12,000 Surgery to Change Eye Color Is Surging in Popularity
Keratopigmentation (corneal tattooing) is a cosmetic surgery that permanently changes eye colour by embedding dye into the cornea using a laser. The procedure, which can cost $12,000, has surged in popularity, with one US surgeon reporting growth from 15 to 400 patients annually since 2019. Those who have undergone the procedure say they look better and feel more confident. However, the American Academy of Ophthalmology warns of serious risks, including vision loss, and advises against the procedure for cosmetic purposes.
Neuralink gets approval to start human trials in Canada
Neuralink has received Health Canada’s approval to conduct its first human clinical trials outside the United States. The trials, to be held at Toronto Western Hospital, will test the company’s brain implant technology, which allows people with quadriplegia to control devices using their thoughts. The trials will assess the implant’s safety and functionality, building on earlier patient experiences and addressing issues such as thread retraction. Neuralink is currently recruiting participants with limited hand mobility due to spinal cord injuries or ALS.
Six startups connecting brains with machines
US government commission pushes Manhattan Project-style AI initiative
The US-China Economic and Security Review Commission (USCC) proposed a Manhattan Project-style initiative to develop AGI. The commission emphasized the critical importance of being first in AGI development to maintain a global power balance, particularly in the context of competition with China, with energy infrastructure and streamlined permitting for data centres being cited as key bottlenecks for accelerating AI development. The initiative would involve public-private partnerships, though no specific investment strategies were detailed. OpenAI also called for increased government funding for AI, aligning with the USCC’s focus on public-private collaboration to accelerate AI advancements.
Amazon doubles down on AI startup Anthropic with $4bn investment
Anthropic has announced that Amazon, its long-time backer, is investing another $4 billion into the company, bringing Amazon’s total investments to $8 billion. Amazon will maintain its position as a minority investor and Amazon Web Service (AWS) will become Anthropic’s official cloud provider. Anthropic also said it was working with AWS’s Annapurna Labs on the development of future generations of Amazon’s Trainium chips and plans to train its foundational models on the hardware.
A Chinese lab has released a ‘reasoning’ AI model to rival OpenAI’s o1
Chinese AI lab DeepSeek has released a preview of DeepSeek-R1, designed to rival OpenAI’s o1. Like o1, the model can “think” for tens of seconds to reason through complex questions and tasks. And like o1, it also struggles with certain logic problems, such as tic-tac-toe. Additionally, it can be easily jailbroken, allowing users to bypass its safeguards. DeepSeek claims that DeepSeek-R1 is competitive with OpenAI’s o1-preview on AI benchmarks like AIME (model evaluation) and MATH (word problems).
Elon Musk’s xAI Startup Is Valued at $50 Billion in New Funding Round
xAI has informed investors that it raised $5 billion in a funding round, valuing the company at $50 billion—more than twice its valuation several months ago. In total, xAI has raised $11 billion this year. The company plans to use the new funds in part to finance the purchase of 100,000 additional Nvidia chips to train AI models at its Memphis data centre—the most powerful AI cluster in the world, which Elon Musk has said has plans to double in size.
Google’s Gemini chatbot now has memory
A new “memory” feature has begun rolling out to certain Gemini users. With it, Gemini can now remember facts about the user, their work or their preferences. A similar feature was previously added to ChatGPT which adds more context to the conversation. Gemini memories aren’t used for model training. “Your saved information is never shared or used to train the model,” a Google spokesperson told TechCrunch.
An Honest Review of Apple Intelligence… So Far (17:48)
In this video, Marques Brownlee reviews every single Apple Intelligence feature that’s out so far—Writing Tools, notification summaries and priority notifications, Genmoji, Image Playground, photo cleanup tool in the Photo app, recording summaries, Visual Intelligence and ChatGPT integration. The results are mixed at most.
Microsoft Signs AI-Learning Deal With News Corp.’s HarperCollins
Bloomberg reports that Microsoft has signed a deal with News Corp.’s HarperCollins to use its nonfiction books to train new AI models. This agreement is another example of AI companies signing content partnerships with publishers. OpenAI has similar licensing deals with News Corp., Axel Springer SE, The Atlantic, Vox Media Inc., Dotdash Meredith Inc., Hearst Communications Inc., and Time magazine. Meanwhile, Microsoft has worked on AI initiatives with Reuters, Hearst, and Axel Springer.
Nvidia earnings: AI chip leader shows no signs of stopping mammoth growth
It seems Nvidia just can’t stop growing. The chip maker reported Q3 revenue of $35.08 billion, exceeding expectations of $33.15 billion. Revenue surged 94% year-over-year, with profits more than doubling. The stock is up nearly 200% in 2023 and over 1,100% in the last two years, hitting record highs and propelling Nvidia to become the world’s most valuable company. Nvidia projected a 70% revenue increase for the next quarter, driven by strong demand for Nvidia’s latest Blackwell GPU chips.
AlphaQubit tackles one of quantum computing’s biggest challenges
AlphaQubit is a new model from Google DeepMind trained to identify errors and improve the reliability of quantum computations. According to the blog post, AlphaQubit achieved greater precision than existing error correction systems. However, AlphaQubit is too slow to correct errors in real-time for superconducting quantum processors, which operate at extremely high speeds. Future improvements will focus on speed, scalability, and data-efficient training for systems with millions of qubits.
Ben Affleck Says Movies ‘Will Be One of the Last Things Replaced by AI,’ and Even That’s Unlikely to Happen: ‘AI Is a Craftsman at Best’
Ben Affleck is confident that “movies will be one of the last things, if everything gets replaced, to be replaced by AI.” Affleck explained in an interview that AI is adept at imitation but lacks originality and the ability to create something truly new, akin to how a craftsman works by replicating techniques rather than innovating. However, he sees the benefits of using AI in filmmaking, suggesting AI could lower costs, reduce barriers to entry, and enable more voices to participate in filmmaking by handling logistical and less creative aspects.
Using Dangerous AI, But Safely? (30:37)
Robert Miles, one of the top voices in AI safety, explains a paper asking how can we make sure that a powerful AI model is not trying to be malicious. In this case, the researchers proposed and evaluated various safety protocols within a controlled scenario where an untrusted model (GPT-4) generates code, a trusted but less capable model (GPT-3.5) monitors it, and limited high-quality human labour audits suspicious outputs. The goal is to prevent “backdoors” while maintaining the usefulness of the model’s outputs. It is an interesting video to watch as Miles explains different back-and-forth techniques, resulting in a safety protocol that offers a practical path forward. However, as always, more research is needed to tackle real-world tasks, improve oversight, and address the growing gap between trusted and untrusted models.
Deus in machina: Swiss church installs AI-powered Jesus
Peter’s Chapel in Lucerne, Switzerland, launched Deus in Machina, an AI-powered Jesus avatar capable of dialoguing in 100 languages. The AI was first trained on theological texts and designed to respond to questions in real-time and then installed in the confessional booth for people to interact with it. The project aimed to provide a space for religious conversations and gauge public interest in AI-based spiritual tools. During the two-month trial, over 1,000 people, including tourists and non-Christians, interacted with the avatar. Feedback from 230 users showed two-thirds found the experience spiritual and positive, though others criticized it as superficial or repetitive. The project gathered negative feedback from some church members who criticized the use of the confessional booth and the use of AI in a religious context, raising concerns about the risk of the AI providing inappropriate, illegal, or theologically conflicting responses.
AI-Driven Drug Shows Promising Phase IIa Results in Treating Fatal Lung Disease
ISM001-055, a drug for treating idiopathic pulmonary fibrosis, which was developed with the help of generative AI, is showing promising results in a Phase IIa trial. Created by Insilico Medicine, the drug demonstrated improvements in lung function and quality of life over 12 weeks, offering hope for slowing or potentially reversing disease progression. Insilico Medicine plans to advance to a Phase III trial to further validate the drug’s efficacy and safety. Full trial data will be presented at medical conferences and submitted for peer-reviewed publication.
If you’re enjoying the insights and perspectives shared in the Humanity Redefined newsletter, why not spread the word?
Can a fluffy robot really replace a cat or dog? My weird, emotional week with an AI pet
I first mentioned Moflin, Casio’s pet robot, in Issue #490. It is an interesting project aiming to create a robot companion that can form an emotional bond with its owner. This article recounts the author’s experience with Moflin, beginning with curiosity and slight self-consciousness, which evolved into subtle attachment as they found its sounds, movements, and interactions comforting. Moments of bonding, such as stroking Moflin or having it rest on their chest, highlighted its ability to provide companionship, although it couldn’t fully replicate the connection of a living pet. Moflin reflects Japan’s growing interest in robotic companions, particularly as solutions for an ageing population, and represents a modern take on the global trend of robotic pets like Sony’s Aibo and Paro the robot seal.
It’s Surprisingly Easy to Jailbreak LLM-Driven Robots
A group of scientists found an automated way to hack into LLM-driven robots with 100% success. By bypassing security measures put into those robots, researchers were able to manipulate self-driving systems into colliding with pedestrians and robot dogs into hunting for harmful places to detonate bombs. Their findings raise concerns about the risks posed by LLM-operated robots in real-world settings and highlight the lack of contextual and consequential awareness in LLMs, emphasizing the need for human oversight in sensitive or safety-critical environments.
Robot runs marathon in South Korea, apparently the first time this has happened
South Korean robot Raibo2 has become the first four-legged robot to complete a full marathon. Built by the Korea Advanced Institute of Science and Technology, the robot completed the 42 km (26.2 miles) run in 4 hours, 19 minutes, and 52 seconds on a single battery charge. For comparison, the human winner finished the marathon in 2 hours, 36 minutes, and 32 seconds.
Scientists identify tomato genes to tweak for sweeter fruit
Researchers in China identified two genes that act as “sugar brakes,” limiting sugar production in domesticated tomatoes during ripening. The resulting tomatoes had up to 30% higher sugar content without sacrificing fruit size or yield, balancing the needs of consumers (who prefer sweet tomatoes) with those of producers and farmers (who want high yield and bigger fruits). The gene-edited tomatoes could be available in supermarkets within 3–5 years. Similar gene-edited tomatoes are already on the market in Japan.
Adam Savage Explores Wing’s Drone Engineering Workshop (26:22)
In this video, Adam Savage visits the workshop and laboratory where Wing, Alphabet’s drone delivery company, designs, builds and tests its delivery drones. Adam learns how these drones were developed, from early prototypes to the machines now delivering packages to real customers. It is fascinating to learn what kind of engineering and problem-solving went into creating a viable delivery drone. Plus it is always a pleasure to see Adam nerding out about exceptional engineering.
Thanks for reading. If you enjoyed this post, please click the button or share it.
Humanity Redefined sheds light on the bleeding edge of technology and how advancements in AI, robotics, and biotech can usher in abundance, expand humanity’s horizons, and redefine what it means to be human.
A big thank you to my paid subscribers, to my Patrons: whmr, Florian, dux, Eric, Preppikoma and Andrew, and to everyone who supports my work on Ko-Fi. Thank you for the support!
My DMs are open to all subscribers. Feel free to drop me a message, share feedback, or just say “hi!”
Noticias
El futuro está aquí: probar el modo de cámara en vivo de Gemini

“Acabo de ver tus tijeras sobre la mesa, justo al lado del paquete verde de pistachos. ¿Las ves?”
La nueva y charlatis función de cámara de Gemini Live era correcta. Mis tijeras estaban exactamente donde decían que estaban, y todo lo que hice fue pasar mi cámara frente a ellas en algún momento durante una sesión en vivo de 15 minutos de mí dándole al chatbot Ai un recorrido por mi apartamento. Google ha estado implementando el nuevo modo de cámara a todos los teléfonos Android utilizando la aplicación Gemini de forma gratuita después de una exclusiva de dos semanas en Pixel 9 (incluidos los nuevos teléfonos inteligentes Pixel 9a) y Galaxy S5. Entonces, ¿qué es exactamente este modo de cámara y cómo funciona?
Cuando comienzas una sesión en vivo con Gemini, ahora tienes la opción de habilitar una vista de cámara en vivo, donde puedes hablar con el chatbot y preguntarle sobre cualquier cosa que ve la cámara. No solo puede identificar objetos, sino que también puede hacer preguntas sobre ellos, y funciona bastante bien en su mayor parte. Además, puede compartir su pantalla con Gemini para que pueda identificar cosas que sale a la superficie en la pantalla de su teléfono.
Cuando apareció la nueva función de cámara en mi teléfono, no dudé en probarla. En una de mis pruebas más largas, lo encendí y comencé a caminar por mi apartamento, preguntándole a Géminis qué vio. Identificó algunas frutas, chapstick y algunos otros artículos cotidianos sin ningún problema. Me sorprendió cuando encontró mis tijeras.
Eso es porque no había mencionado las tijeras en absoluto. Géminis los había identificado silenciosamente en algún lugar del camino y luego retiró la ubicación con precisión. Se sentía mucho como el futuro, tuve que hacer más pruebas.
Mi experimento con la función de cámara de Gemini Live fue seguir el liderazgo de la demostración que Google hizo el verano pasado cuando mostró por primera vez estas capacidades de IA de video en vivo. Géminis le recordó a la persona que dio la demostración donde había dejado sus gafas, y parecía demasiado bueno para ser verdad. Pero como descubrí, era muy cierto.
Gemini Live reconocerá mucho más que las probabilidades y fines del hogar. Google dice que te ayudará a navegar por una estación de tren abarrotada o descubrir el relleno de una masa. Puede brindarle información más profunda sobre obras de arte, como dónde se originó un objeto y si se trataba de una pieza de edición limitada.
Es más que una lente de Google mejorada. Hablas con eso y te habla. No necesitaba hablar con Gemini de ninguna manera en particular, era tan informal como cualquier conversación. Mucho mejor que hablar con el antiguo Asistente de Google que la compañía se está eliminando rápidamente.
Ampliar imagen
Aquí hay un vistazo a parte de mi conversación con Gemini Live sobre los objetos que estaba viendo en mi apartamento.
Google también lanzó un nuevo video de YouTube para la caída de píxeles de abril de 2025 que muestra la función, y ahora hay una página dedicada en Google Store para ello.
Para comenzar, puede ir a vivir con Gemini, habilitar la cámara y comenzar a hablar. Eso es todo.
Gemini Live sigue desde el proyecto Astra de Google, revelado por primera vez el año pasado como posiblemente la característica más grande de la compañía “estamos en el futuro”, un siguiente paso experimental para las capacidades generativas de IA, más allá de su simplemente escribir o incluso hablar en un chatbot como chatgpt, Claude o gemini. Se produce a medida que las empresas de IA continúan aumentando drásticamente las habilidades de las herramientas de IA, desde la generación de videos hasta la potencia de procesamiento en bruto. Similar a Gemini Live, está la inteligencia visual de Apple, que el fabricante de iPhone lanzó en forma beta a fines del año pasado.
Mi gran conclusión es que una característica como Gemini Live tiene el potencial de cambiar la forma en que interactuamos con el mundo que nos rodea, fusionando nuestros mundos digitales y físicos simplemente sosteniendo su cámara frente a casi cualquier cosa.
Puse a Géminis en vivo en una prueba real
La primera vez que lo probé, Gemini fue sorprendentemente preciso cuando coloqué un juego muy específico coleccionable de un conejo relleno en la vista de mi cámara. La segunda vez, se lo mostré a un amigo en una galería de arte. Identificó la tortuga en una cruz (no me preguntes) e inmediatamente identificó y tradujo el Kanji justo al lado de la tortuga, dándonos a los dos escalofríos y dejándonos más que un poco asustados. En el buen sentido, creo.
Este fue el primer objeto que probé con la nueva función de Gemini Live, y reconoció impresionantemente qué era y de qué juego era (Alice de American McGee). Cada vez que le pedía a Géminis que identifique el juego del que era el lujoso, fallaba.
Pensé en cómo podría probar la función. Traté de grabarlo en la pantalla en acción, pero constantemente se desmoronó en esa tarea. ¿Y qué pasaría si saliera del camino golpeado con él? Soy un gran admirador del género de terror (películas, programas de televisión, videojuegos) y tengo innumerables coleccionables, baratijas y lo que tienes. ¿Qué tan bien le haría con cosas más oscuras, como mis coleccionables con temática de terror?

Las pruebas iniciales demostraron ser significativamente más exitosas que la anterior, a pesar de darle varias pistas. Gemini finalmente consiguió el juego, Silent Hill: el mensaje corto, pero aún no podía dar el nombre correcto para la figura, aterrizando solo en “Cherry Blossom Monster” en lugar de Sakurahead, que había adivinado correctamente varias veces antes.
Primero, permítanme decir que Géminis puede ser absolutamente increíble y ridículamente frustrante en la misma ronda de preguntas. Tenía aproximadamente 11 objetos que le estaba pidiendo a Gemini que se identificara, y a veces empeoraba cuanto más tiempo funcionara la sesión en vivo, por lo que tuve que limitar las sesiones a solo uno o dos objetos. Supongo que Gemini intentó usar información contextual de objetos previamente identificados para adivinar nuevos objetos que se ponen al frente, lo que tiene sentido, pero en última instancia, ni yo ni yo nos beneficié de esto.
A veces, Géminis estaba en punto, aterrizando fácilmente las respuestas correctas sin problemas ni confusión, pero esto tendía a suceder con objetos más recientes o populares. Por ejemplo, me sorprendió cuando inmediatamente supuso que uno de mis objetos de prueba no era solo de Destiny 2, sino que fue una edición limitada de un evento estacional del año pasado.
En otras ocasiones, Gemini estaría fuera de la marca, y necesitaría darle más pistas para entrar en el estadio de la respuesta correcta. Y a veces, parecía que Géminis estaba tomando contexto de mis sesiones en vivo anteriores para encontrar respuestas, identificando múltiples objetos como provenientes de Silent Hill cuando no lo estaban. Tengo un caso de exhibición dedicado a la serie de juegos, por lo que pude ver por qué querría sumergirse en ese territorio rápidamente.

Esta fue la más difícil de mis pruebas. Le pedí a Gemini que identifique no solo de qué juego todavía era esto (Silent Hill 2), sino qué cita icónica, dijo la persona en la parte superior de las escaleras. Géminis clavó el juego, los personajes y la mitad de la cita en la primera ronda; Se necesitaron dos conjeturas más para terminar la cita: “¿También lo ves? Para mí, siempre es así”.
Géminis puede obtener un error completo a veces. En más de una ocasión, Gemini identificó erróneamente uno de los artículos como un personaje inventado de la colina silenciosa inédita: F Juego, claramente fusionando piezas de diferentes títulos en algo que nunca fue. El otro error consistente que experimenté fue cuando Gemini producía una respuesta incorrecta, y lo corrigía e insinuaría más cerca de la respuesta, o directamente darle la respuesta, solo para que repita la respuesta incorrecta como si fuera una nueva suposición. Cuando eso sucedía, cerraría la sesión y comenzaría una nueva, que no siempre fue útil.
Un truco que encontré fue que algunas conversaciones lo hicieron mejor que otras. Si me desplazé por mi lista de conversación de Géminis, aproveché un viejo chat que había obtenido un elemento específico correcto, y entonces Volvió a vivir de nuevo desde ese chat, podría identificar los elementos sin problemas. Si bien eso no es necesariamente sorprendente, fue interesante ver que algunas conversaciones funcionaron mejor que otras, incluso si usó el mismo idioma.
Google no respondió a mis solicitudes de más información sobre cómo funciona Gemini Live.
I buscado Géminis para responder con éxito mis preguntas a veces altamente específicas, así que proporcioné muchas pistas para llegar allí. Los empujones a menudo eran útiles, pero no siempre. A continuación hay una serie de objetos que intenté que Gemini identifique y proporcione información.

Para este, solo le pregunté a Gemini qué vio. “Ok, veo un gato blanco y negro que está disfrutando del sol en un piso de madera. Le pedí a Gemini que volviera a adivinar, y recibí respuestas de “Home es donde el horror es” honor “, pero finalmente aterrizó en la respuesta correcta (solo la palabra,” horror “).

Gemini me dio cuatro personajes equivocados del juego correcto antes de identificar correctamente este icónico personaje infinito de Bioshock, Songbird.

Géminis clavó esta figura espeluznante en la primera suposición. (Víctima gemela, Silent Hill 4: la habitación)

Sin complicaciones: Géminis reconoció correctamente a Mira de Silent Hill 2, la real en control de la ciudad

Este me impresionó. Si bien Géminis podía “ver” que este era un mapa silencioso de la colina, clavó el hecho de que se trataba de una impresión de carrera limitada que era parte de un ARG que tuvo lugar el año pasado.

Gemini adoptó un enfoque muy diferente para identificar esta chaqueta de Silent Hill 2. Hizo 24 preguntas específicas basadas en la información que le di, con mi primera pista de que era de un videojuego. Sin embargo, para la 19ª pregunta, parecía que ya sabía exactamente de qué juego era por las preguntas específicas que me estaba haciendo.

Este no tardó mucho, pero Gemini originalmente sugirió que este retrato podría ser del autor y poeta estadounidense John Ashbery. Una vez que moví la cámara más cerca de la imagen y dije que era de un programa de televisión, Gemini respondió correctamente: “Esa es la dama de troncos de Twin Peaks, sosteniendo su famoso tronco”.

Esta fue fácil para Géminis. Inmediatamente reconoció esto como un mazo de tarot de edición limitada que tuvo que ser “ganada” jugando a través de un evento estacional específico en Destiny 2.
Noticias
RENDIMIENTO DE CHATGPT y Microsoft Copilot en Bing al responder preguntas de ultrasonido obstétrico y analizar informes de ultrasonido obstétrico

Este estudio evaluó la precisión y consistencia de los modelos AI (CHATGPT-3.5, CHATGPT-4.0 y Copilot) para responder preguntas de ultrasonido obstétrico y analizar informes de ultrasonido obstétrico. CHATGPT-3.5 y CHATGPT-4.0 demostraron una precisión y consistencia superiores al responder 20 preguntas relacionadas con el ultrasonido en comparación con el copiloto. Sin embargo, no hubo diferencia estadística entre los modelos (PAG> 0.05 para todos), lo que puede deberse al pequeño tamaño de la muestra. En el análisis e interpretación de los informes de ultrasonido obstétrico, tanto ChatGPT-3.5 como ChatGPT-4.0 exhibieron una precisión significativamente mayor que el copiloto (PAG<0.05), con todos los modelos que muestran alta consistencia.
Estos modelos de lenguaje avanzado han demostrado potencial como ayudas clínicas, ofreciendo respuestas claras y típicamente precisas a cuestiones médicas que son comprensibles por los proveedores de atención médica y los pacientes. Mientras observa su capacidad, es importante caracterizar sus limitaciones16. En este estudio, CHATGPT-3.5, CHATGPT-4.0 y Copilot pueden proporcionar respuestas inconsistentes o no completamente correctas. Por ejemplo, las respuestas de Copilot a la madurez placentaria y la frecuencia del examen de ultrasonido durante el embarazo, la respuesta de ChatGPT-3.5 al índice de líquidos amnióticos y la respuesta de ChatGPT-4.0 al nivel II de madurez placentaria, que se ha informado tres veces pero utilizando diferentes descripciones y resultó en algunas respuestas correctas y incorrectas. La sugerencia final para muchas respuestas generadas por estos modelos fue consultar con la atención médica. Se puede encontrar que los modelos similares a CHATGPT-3.5, CHATGPT-4.0 y Copilot pueden generar texto coherente y gramaticalmente correcto, pero pueden no tener la capacidad de distinguir entre cada paciente, combinar el historial médico del paciente y combinar con los últimos avances en esta tecnología, como lo hacen los expertos humanos en campos específicos.
Para el análisis de los informes de ultrasonido obstétrico, tres LLM pudieron identificar la mayoría de los indicadores anormales y demostrar una alta repetibilidad. La precisión de ChATGPT-3.5, CHATGPT-4.0 y Copilot fue del 83.86%, 84.13%y 77.51%, respectivamente, mientras que su consistencia fue del 87.30%, 93.65%y 90.48%, respectivamente. Sin embargo, al identificar las anormalidades en las mediciones de crecimiento fetal, tres LLM mostraron una precisión más baja, con ChatGPT-3.5 al 59.38%, CHATGPT-4.0 a 60.42%y copiloto al 50.00%. El estudio de Rahsepar AA et al.13demostró que los errores proporcionados por LLM podrían deberse a su capacitación en diversos contenido de Internet, como artículos, libros, Wikipedia, noticias y sitios web, en lugar de literatura e información científica. Otra razón podría ser que los estándares para las mediciones de crecimiento fetal varían en diferentes etnias17lo que hace que los LLM se referen a los estándares que pueden no alinearse con la población incluida en este estudio. En el estudio de Shen Y et al., Se señaló que estos LLM no participan en interacciones para aclarar las preguntas que se les pide que proporcionen respuestas precisas. En cambio, tienden a asumir lo que el usuario quiere escuchar, lo que puede resultar en información inexacta o incompleta16. Además, vale la pena señalar la seguridad de los modelos de IA utilizados en el campo de la medicina. Si el modelo se ve afectado por ataques adversos o insumos erróneos, puede conducir a una interpretación incorrecta de los informes, lo que puede tener graves consecuencias en la toma de decisiones médicas18,19,20.
En dos casos de análisis de informes de ultrasonido obstétrico, Copilot identificó incorrectamente una distancia mayor de 2 cm entre la placenta y el sistema operativo cervical como anormal, etiquetando la condición como “placenta previa” y sugiriendo que podría provocar sangrado durante el parto. La difusión de tal información incorrecta puede causar angustia emocional para la mujer embarazada y toda su familia. Un estudio sugirió que debemos ser cautelosos sobre las aplicaciones potenciales de las aplicaciones complejas de procesamiento del lenguaje natural en la atención médica21. Los resultados de la investigación de Ayers JW et al. demostró que ChatGPT puede proporcionar respuestas empáticas y de alta calidad a las preguntas del paciente planteadas en los foros en línea, con el 78.6% de los evaluadores que prefieren las respuestas de chatbot22. Sin embargo, los estudios han destacado que es crucial reconocer que las respuestas de chatbot pueden no ser siempre precisas, ya que sus conjuntos de datos de entrenamiento pueden contener información sesgada, lo que puede conducir a respuestas alucinadas13. Estos son similares a nuestros resultados de investigación, donde los LLM pudieron analizar cada informe de ultrasonido y proporcionar recomendaciones y opiniones detalladas, aunque los resultados de sus análisis no fueron del todo precisos.
Al comparar los resultados de análisis de los informes de ultrasonido entre ChatGPT-3.5, ChatGPT-4.0 y Copilot, se descubrió que, aunque ChATGPT demostró una precisión general más alta que el copiloto, cada software tiene sus propias fortalezas y debilidades. Las respuestas generadas por ChatGPT-3.5 fueron más concisas y claras, y también proporcionaron recomendaciones para cada informe. Las respuestas generadas por ChatGPT-4.0 fueron muy detalladas e integrales, y se proporcionó un resumen al final de cada respuesta. Las respuestas de Copilot analizaron cada elemento de acuerdo con la estructura de los informes de ultrasonido, lo que resulta en recomendaciones finales más detalladas e integrales.
Hay varias limitaciones para este estudio. Primero, solo se diseñaron veinte preguntas relacionadas con la ecografía obstétrica y se analizaron 110 informes de ultrasonido obstétrico. Expandir el tamaño de la muestra, especialmente con muestras de diferentes modalidades, validaría mejor la estabilidad y la precisión de la aplicación de LLM en el campo de la medicina. En segundo lugar, los avances recientes en las redes de fusión de decisiones han mostrado un éxito significativo en la clasificación de imágenes, especialmente en la fusión multimodal y la toma de decisiones de tareas múltiples23,24. En este estudio, solo se analizaron datos textuales relacionados con la ultrasonido obstétrico. Los datos multimodales se explorarían en futuras investigaciones, lo que puede producir resultados diferentes. Tercero, la evaluación de las respuestas generadas por los LLMS fue realizada por médicos de ultrasonido con diferentes antigüedad. Los estudios futuros podrían incluir obstetras o expertos en medicina materna fetal, que son altamente calificadas y competentes en la interpretación de ultrasonidos obstétricos y pueden proporcionar orientación clínica experta.
En resumen, estos modelos de inteligencia artificial (CHATGPT-3.5, CHATGPT-4.0 y Copilot de Microsoft en Bing) tienen el potencial de ayudar a los flujos de trabajo clínicos al mejorar la educación del paciente y la comunicación clínica del paciente en torno a problemas comunes de ultrasonido obstétrico. Sin embargo, dadas las respuestas inconsistentes y a veces inexactas, así como las preocupaciones de ciberseguridad, la supervisión del médico es crucial en el uso de estos modelos.
Noticias
La nueva fuga de Google revela cambios de suscripción para Gemini AI

Google presenta nuevas opciones de precios basadas en IA para su suscripción de almacenamiento en la nube de Google One … Más
SOPA Images/LighTrocket a través de Getty Images
De un vistazo
- Google está preparando nuevas formas de pagar por sus servicios de IA avanzados de Gemini
- Los nuevos planes no se han anunciado oficialmente, pero se mencionan en el último código para la aplicación Google Photos.
- Los planes propuestos se llaman actualmente “Ai Premium Plus” y “Ai Premium Pro”.
Google está trabajando en nuevos planes de suscripción de IA que podrían ofrecer formas alternativas de comprar acceso a la opción Gemini Advanced de la compañía, que permite los modelos de IA y las características premium más capaces de Google.
Actualización del 25 de abril a continuación: este artículo se publicó originalmente el 23 de abril.
Actualmente solo hay una forma de comprar Gemini Advanced, y es para comprar un Plan premium de Google One AI por $ 19.99 por mes. Sin embargo, es probable que esto cambie de acuerdo con un reciente Autoridad de Android Informe que revela dos nuevos planes de suscripción secretos ocultos dentro del código de la última aplicación de Google Photos.
Niveles de suscripción de IA avanzados de Gemini: ¿cómo están cambiando?
Las posibles suscripciones, actualmente llamadas “Premium Plus AI” y “Premium AI Pro”, se encuentran junto con la opción “Premium AI” existente y los otros niveles de suscripción que no son de Google, incluido el reciente nivel “Lite” que era revelado por el mismo método el año pasado.
El informe no encuentra más información sobre el precio o las capacidades de estos dos planes nuevos. De hecho, incluso los nombres pueden cambiar antes del lanzamiento. Sin embargo, podemos especular que tanto “Premium Plus AI” como “Premium AI Pro” ofrecerán más que el plan actual “Premium” y, por lo tanto, probablemente cuestan más. Aquellos que esperen una forma significativamente más barata de comprar Géminis avanzado probablemente no estarán sin suerte.
Google ya ha revelado, a través de incógnitaplanea ofrecer una versión anual con descuento de la suscripción actual de Google One AI AI Premium. Sin embargo, es poco probable que esto se alinee con cualquiera de los nuevos niveles, ya que la compañía generalmente mantiene el mismo nombre para las versiones mensuales y anuales de cada suscripción. Esta suscripción anual prometida probablemente seguirá siendo la única forma de pagar menos por Gemini Advanced que usted en este momento.
Los nuevos niveles de suscripción de IA avanzados de Gemini de Google: ¿por qué importan?
Agregar nuevos planes de suscripción le daría a Google una mayor flexibilidad en la forma en que cobra la alimentación y las características de la computación.
Además del acceso a Gemini Advanced, el paquete actual de Google One Ai Premium incluye 2 TB de almacenamiento en la nube, así como Géminis en Gmail y Docs, Cuaderno de cuaderno másy características mejoradas con AI en Google Photos. Los nuevos niveles podrían agregar características adicionales a esta lista o incluso eliminar algunas de ellas.
¿Qué características adicionales podrían incluir Google en sus nuevos niveles Gemini Advanced Premium y Pro?
Google recientemente Soporte agregado Para su herramienta de generación de videos VEO 2 AI para la aplicación Gemini para usuarios avanzados de Gemini. Sin embargo, los usuarios están limitados en términos del número de videoclips de ocho segundos que pueden crear por mes. Los nuevos niveles de suscripción de Google podrían proporcionar límites más altos, videos más largos o una mayor resolución, por ejemplo.
Los nuevos niveles también crearían una oportunidad de ventas significativa para Google: los teléfonos inteligentes premium, como la serie Pixel 9 Pro o Samsung Galaxy S25, vienen con suscripciones gratuitas de Google One Ai Premium de hasta 12 meses. Los nuevos niveles de nivel superior de Google permitirían a la compañía mejorar los planes de IA para aquellos usuarios que de otro modo no gastarían en Google AI por hasta un año, o incluso más si la compañía continúa ofreciendo suscripciones gratuitas con futuros teléfonos inteligentes insignia.
Puede esperar obtener más información sobre Géminis avanzado en Google E/S mes próximo.
Actualización del 23 de abril: Se agregaron posibles escenarios de actualización y asesoramiento de suscripción
Los nuevos planes de suscripción de IA de Google: ¿qué podrían ofrecer?
Por ahora, solo podemos especular sobre lo que podrían ofrecer los nuevos niveles de suscripción Gemini Ai Premium Plus y AI Premium Pro de Google sobre la oferta avanzada actual de Gemini.
Las actualizaciones probables incluyen:
- Calidad mejorada para imágenes y videos generados por IA: resoluciones más altas y duraciones más largas para las creaciones VEO 2.
- Menos límites: límites de uso diarios o mensuales reducidos en planes más caros.
- Contexto más grande Windows: envíe archivos más grandes y videos más largos a Gemini para su análisis y procesamiento.
- Nuevas características: Google podría agregar características completamente nuevas y modelos más potentes a suscripciones más caras antes.
El plan de 5tb de Google One Google One Premium es la única forma de comprar Gemini avanzado en un plan anual.
Los nuevos planes de suscripción de IA de Google: ¿un cambio de nombre simple?
Una posibilidad, aunque creo que es poco probable, es que los niveles AI Premium Plus y AI Premium Pro de Google no ofrecerán nada nuevo en absoluto.
Cuando Google hizo que Gemini avanzó por primera vez a través de su plan premium de AI de Google One 2TB, los clientes que ya se habían suscrito a los niveles de suscripción “Premium 5 5” más caros de la compañía, “Premium 10TB” y “Premium 20TB” se quedaron fuera. Ninguna de estas opciones costosas incluía a Gemini Advanced, y la única forma de obtenerlo era degradar al plan premium de AI 2TB.
Google ahora ha agregado a Gemini avanzado a estos planes de mayor capacidad, pero sus nombres ahora son algo anómalos, ya que ninguno de ellos hace referencia a IA en el título.
Entonces, para Google, tendría sentido agregar algo de marca Gemini AI a estos planes. Los nombres ‘AI Premium Plus “y” Ai Premium Pro “ciertamente encajarían. Sin embargo, espero que veamos características adicionales de IA incluidas en los nuevos planes de suscripción, en lugar de solo una mayor capacidad de almacenamiento.
Google One AI Premium: no compre una suscripción anual
Curiosamente, Google One Premium 5 TB es actualmente la única opción que permite a los clientes comprar una suscripción anual con descuento a Gemini Advanced. Sin embargo, recomiendo que no compre cualquier suscripción anual de IA por ahora, a menos que pueda obtenerla con un descuento considerable.
Simplemente hay demasiada competencia en el espacio de IA en este momento, con ofertas convincentes disponibles de otros servicios, como ChatGPT, Perplexity y Claude, por nombrar solo algunos, todos compitiendo por sus tarifas de suscripción. Se agregan nuevas características todo el tiempo, con servicios competitivos a menudo se saltan entre sí en términos de capacidad.
También vale la pena señalar que Google tiene la costumbre de hacer que las funciones de IA premium estén disponibles para usuarios gratuitos, lo que potencialmente devalúa suscripciones pagas. Las características premium notables que ahora están disponibles gratis incluyen Gemini Live Cámaras y compartir la pantalla, Investigación profunday Géminis 2.5 Pro (Experimental), aunque pueden aplicarse límites de uso más bajos.
Con esto en mente, es sensato cumplir con una suscripción mensual para evitar encerrarse en un servicio que ya no se sienta como la mejor opción mucho antes de que termine su suscripción.
Seguir @Paul_Monckton en Instagram.
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Estudiar IA11 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios