Noticias
OpenAI’s turbulent early years – Sync #494
Hello and welcome to Sync #494!
As part of the court case between Elon Musk and Sam Altman, several emails from the early years of OpenAI have been made public. We will take a look into those emails, and what they reveal about the early days of OpenAI and the growing distrust among its founders.
In other news, Anthropic and xAI raised billions of dollars while a Chinese lab released its reasoning model to challenge OpenAI o1, and Gemini gets memory. Elsewhere in AI, DeepMind releases an AI model to correct errors in quantum computing, a Swiss church installs AI Jesus and how can a small AI control much more capable AI and make sure it does not misbehave.
Over in robotics, we have a fluffy robot from Japan aimed at replacing living pets, how easy it is to jailbreak LLM-powered robots and a South Korean robot dog completes a full marathon.
We’ll wrap up this week’s issue of Sync with a behind-the-scenes tour of the workshop where Wing designs and builds its delivery drones.
Enjoy!
The last two years were quite eventful for OpenAI. Thanks to the massive success of ChatGPT, OpenAI went from a relatively small company to one of the biggest startups in the world, attracting worldwide attention and billions of dollars in funding, propelling its valuation to $157 billion and triggering the AI revolution we are in today.
However, such massive growth never comes easily. Every organisation experiencing significant growth must evolve and transform itself into a new organisation that can deal with new challenges. In the case of OpenAI, some of those growing pains were made publically visible.
Probably the best known of these growing pains occurred a year ago when a group of OpenAI board members briefly removed Sam Altman from his role as CEO. Altman eventually returned to OpenAI, and from then on, we have seen a steady stream of key people leaving the company. Most notable of them were Ilya Sutskever, one of the founders of OpenAI and its long-time chief scientist, and Mira Murati, who served as CTO and briefly as CEO.
As part of the court case between Elon Musk and Sam Altman, several emails from the early years of OpenAI have been made public, revealing the tension within OpenAI has been there since the very beginning of the company. These emails cover the period from 2015, when the idea of an “open” AI lab was first proposed, to 2019, when OpenAI transitioned from a non-profit to a for-profit company. They also complement an earlier batch of communications between Elon Musk, Sam Altman, Greg Brockman, and Ilya Sutskever, released earlier this year by OpenAI.
The emails can be found on the Musk v. Altman court case page. There is also a compilation of all emails on LessWrong which is much easier to read. While reading those emails, it is worth keeping in mind that Musk’s legal team released them so they will be skewed towards portraying him as the one who was betrayed by OpenAI when the company abandoned its original vision of being a non-profit AI research lab.
Before we dive into the emails and what they tell us about OpenAI, let’s remind ourselves what the world looked like when OpenAI was founded.
It is 2015—the height of the deep learning revolution. A year earlier, Google had acquired DeepMind, a London-based AI research company making breakthrough after breakthrough in AI and advancing steadily in deep learning and reinforcement learning research. With the acquisition of DeepMind, Google was poised to lead the charge in AI research. It had the best talent working in its labs, backed by Google’s vast resources—be it computing power, data, or finances. If anyone were to create AGI, there was a big chance it would happen at Google.
That vision of the future, in which AGI has been created and owned by Google, was something Sam Altman did not want to happen. As he wrote in an email to Elon Musk in May 2015:
If it’s going to happen anyway, it seems like it would be good for someone other than Google to do it first.
With the information we have so far, that email is the first time an idea for a non-profit AI lab bringing the best minds in the industry to create advanced AI to benefit all of humanity was proposed. Initially, that company was to be attached to YCombinator and was provisionally named YC AI before eventually being renamed to OpenAI.
Later emails describe how the new company was planning to attract top talent in AI. That’s where Altman mentions that, apparently, DeepMind was trying to “kill” OpenAI by offering massive counteroffers to those who joined the new company.
One thing that comes out from reading those emails is the tension between the founders of OpenAI—Elon Musk, Sam Altman, Ilya Sutskever and Greg Brockman. The best example of those tensions is an email titled “Honest Thoughts,” written by Ilya Sutskever and sent to both Elon Musk and Sam Altman in September 2017. Sutskever’s thoughts were indeed honest. In the email, he openly questioned the motives of both Musk and Altman and their intentions for OpenAI.
Addressing Musk, Sutskever expressed concerns about the possibility of Musk taking control of OpenAI and transforming the AI lab into one of his companies. Sutskever noted that such a scenario would go against the very principles upon which OpenAI was founded.
The goal of OpenAI is to make the future good and to avoid an AGI dictatorship. You are concerned that Demis could create an AGI dictatorship. So do we. So it is a bad idea to create a structure where you could become a dictator if you chose to, especially given that we can create some other structure that avoids this possibility.
Elon did not take that email very well, saying “This is the final straw,” and threatening to leave the company and withdraw his funding, which he officially did six months later.
In the same message, Sutskever also raises concerns about Altman and openly asks what he wants from OpenAI:
We haven’t been able to fully trust your judgements throughout this process, because we don’t understand your cost function.
Following this, Sutskever questions further:
We don’t understand why the CEO title is so important to you. Your stated reasons have changed, and it’s hard to really understand what’s driving it.
Is AGI truly your primary motivation? How does it connect to your political goals? How has your thought process changed over time?
We can see in these questions the seeds of mistrust that will grow over time and eventually culminate in Sutskever leading a group of OpenAI board members to remove Sam Altman from the company in November 2023 over Altman not being “consistently candid.”
Another example of rifts forming between OpenAI founders can be found during the discussions about the future of the company as a non-profit, where Sam Altman is reported to have “lost a lot of trust with Greg and Ilya through this process.”
Another of the topics raised in those emails was the question of funding. Running a cutting-edge AI research lab and hiring top AI talent is expensive. The situation was made worse by the fact that OpenAI was going against Google which could easily outspent OpenAI. In 2017, OpenAI spent $7.9 million—equivalent to a quarter of its functional expenses—on cloud computing alone. By contrast, DeepMind’s total expenses in the same year were $442 million.
The emails reveal discussions about ways to raise additional funds to sustain OpenAI. One idea proposed was an ICO, which emerged in 2018 during one of crypto’s many bubbles. However, the idea was quickly abandoned.
The biggest problem in securing more funding was the non-profit nature of OpenAI. The option that OpenAI eventually took was to become in 2019 a “capped” for-profit, with the profit being capped at 100 times any investment. But there was another option on the table—to bring OpenAI under Tesla.
This option was suggested by Andrej Karpathy in an email titled “Top AI Institutions Today,” dated January 2018. At the time, Karpathy was no longer working at OpenAI and was serving as Tesla’s Director of Artificial Intelligence, reporting directly to Elon Musk. In the email, Karpathy provided an analysis of the AI industry in 2018 and correctly highlighted the massive cost of developing world-class AI. He criticised a for-profit approach, arguing that it would require creating a product, which would divert the focus from AI research. In Karpathy’s view, the only viable path for OpenAI to succeed was to become part of Tesla, with Tesla serving as OpenAI’s “cash cow.”
Elon then forwarded Karpathy’s analysis to Ilya Sutskever and Greg Brockman, adding that:
in my and Andrej’s opinion, Tesla is the only path that could even hope to hold a candle to Google. Even then, the probability of being a counterweight to Google is small. It just isn’t zero
However, Altman, Sutskever and Brockman did not want to become Tesla’s equivalent of DeepMind. Sutskever pointed out in that “Honest Thoughts” email that OpenAI being part of Tesla would conflict with the company’s founding principles. If that were to happen, OpenAI would be answerable to Tesla’s shareholders and obligated to maximize their investments.
A similar distrust of Tesla’s involvement in OpenAI is evident when OpenAI considered the idea of acquiring Cerebras, a startup designing AI chips. In the same “Honest Thoughts” email, Sutskever asserted that the acquisition would most likely be carried out through Tesla and questioned Tesla’s potential involvement, portraying it as another example of Elon Musk attempting to exert greater control over OpenAI.
The released emails end in March 2019, on the same day OpenAI announced the transition from a non-profit to a capped for-profit company. The final communication is between Elon Musk and Sam Altman, with Musk requesting that it be made clear he has no financial interest in OpenAI’s for-profit arm.
A few months later, OpenAI partnered with Microsoft, which invested $1 billion into the AI lab and the long-term partnership between these companies began. In the years that followed, OpenAI shifted its focus to researching transformer models and developing the GPT family of large language models. This journey ultimately culminated in the launch of a small project called ChatGPT—and the rest is history.
OpenAI was founded with the mission of building AGI to benefit all of humanity. However, behind this grand mission lies a story of egos, personalities and different visions of what this mission is really about. After reading those emails, a picture of broken foundations emerges, and the story of clashing visions within the company is still unfolding.
If you enjoy this post, please click the ❤️ button or share it.
Do you like my work? Consider becoming a paying subscriber to support it
For those who prefer to make a one-off donation, you can ‘buy me a coffee’ via Ko-fi. Every coffee bought is a generous support towards the work put into this newsletter.
Your support, in any form, is deeply appreciated and goes a long way in keeping this newsletter alive and thriving.
A $12,000 Surgery to Change Eye Color Is Surging in Popularity
Keratopigmentation (corneal tattooing) is a cosmetic surgery that permanently changes eye colour by embedding dye into the cornea using a laser. The procedure, which can cost $12,000, has surged in popularity, with one US surgeon reporting growth from 15 to 400 patients annually since 2019. Those who have undergone the procedure say they look better and feel more confident. However, the American Academy of Ophthalmology warns of serious risks, including vision loss, and advises against the procedure for cosmetic purposes.
Neuralink gets approval to start human trials in Canada
Neuralink has received Health Canada’s approval to conduct its first human clinical trials outside the United States. The trials, to be held at Toronto Western Hospital, will test the company’s brain implant technology, which allows people with quadriplegia to control devices using their thoughts. The trials will assess the implant’s safety and functionality, building on earlier patient experiences and addressing issues such as thread retraction. Neuralink is currently recruiting participants with limited hand mobility due to spinal cord injuries or ALS.
Six startups connecting brains with machines
US government commission pushes Manhattan Project-style AI initiative
The US-China Economic and Security Review Commission (USCC) proposed a Manhattan Project-style initiative to develop AGI. The commission emphasized the critical importance of being first in AGI development to maintain a global power balance, particularly in the context of competition with China, with energy infrastructure and streamlined permitting for data centres being cited as key bottlenecks for accelerating AI development. The initiative would involve public-private partnerships, though no specific investment strategies were detailed. OpenAI also called for increased government funding for AI, aligning with the USCC’s focus on public-private collaboration to accelerate AI advancements.
Amazon doubles down on AI startup Anthropic with $4bn investment
Anthropic has announced that Amazon, its long-time backer, is investing another $4 billion into the company, bringing Amazon’s total investments to $8 billion. Amazon will maintain its position as a minority investor and Amazon Web Service (AWS) will become Anthropic’s official cloud provider. Anthropic also said it was working with AWS’s Annapurna Labs on the development of future generations of Amazon’s Trainium chips and plans to train its foundational models on the hardware.
A Chinese lab has released a ‘reasoning’ AI model to rival OpenAI’s o1
Chinese AI lab DeepSeek has released a preview of DeepSeek-R1, designed to rival OpenAI’s o1. Like o1, the model can “think” for tens of seconds to reason through complex questions and tasks. And like o1, it also struggles with certain logic problems, such as tic-tac-toe. Additionally, it can be easily jailbroken, allowing users to bypass its safeguards. DeepSeek claims that DeepSeek-R1 is competitive with OpenAI’s o1-preview on AI benchmarks like AIME (model evaluation) and MATH (word problems).
Elon Musk’s xAI Startup Is Valued at $50 Billion in New Funding Round
xAI has informed investors that it raised $5 billion in a funding round, valuing the company at $50 billion—more than twice its valuation several months ago. In total, xAI has raised $11 billion this year. The company plans to use the new funds in part to finance the purchase of 100,000 additional Nvidia chips to train AI models at its Memphis data centre—the most powerful AI cluster in the world, which Elon Musk has said has plans to double in size.
Google’s Gemini chatbot now has memory
A new “memory” feature has begun rolling out to certain Gemini users. With it, Gemini can now remember facts about the user, their work or their preferences. A similar feature was previously added to ChatGPT which adds more context to the conversation. Gemini memories aren’t used for model training. “Your saved information is never shared or used to train the model,” a Google spokesperson told TechCrunch.
▶️ An Honest Review of Apple Intelligence… So Far (17:48)
In this video, Marques Brownlee reviews every single Apple Intelligence feature that’s out so far—Writing Tools, notification summaries and priority notifications, Genmoji, Image Playground, photo cleanup tool in the Photo app, recording summaries, Visual Intelligence and ChatGPT integration. The results are mixed at most.
Microsoft Signs AI-Learning Deal With News Corp.’s HarperCollins
Bloomberg reports that Microsoft has signed a deal with News Corp.’s HarperCollins to use its nonfiction books to train new AI models. This agreement is another example of AI companies signing content partnerships with publishers. OpenAI has similar licensing deals with News Corp., Axel Springer SE, The Atlantic, Vox Media Inc., Dotdash Meredith Inc., Hearst Communications Inc., and Time magazine. Meanwhile, Microsoft has worked on AI initiatives with Reuters, Hearst, and Axel Springer.
Nvidia earnings: AI chip leader shows no signs of stopping mammoth growth
It seems Nvidia just can’t stop growing. The chip maker reported Q3 revenue of $35.08 billion, exceeding expectations of $33.15 billion. Revenue surged 94% year-over-year, with profits more than doubling. The stock is up nearly 200% in 2023 and over 1,100% in the last two years, hitting record highs and propelling Nvidia to become the world’s most valuable company. Nvidia projected a 70% revenue increase for the next quarter, driven by strong demand for Nvidia’s latest Blackwell GPU chips.
AlphaQubit tackles one of quantum computing’s biggest challenges
AlphaQubit is a new model from Google DeepMind trained to identify errors and improve the reliability of quantum computations. According to the blog post, AlphaQubit achieved greater precision than existing error correction systems. However, AlphaQubit is too slow to correct errors in real-time for superconducting quantum processors, which operate at extremely high speeds. Future improvements will focus on speed, scalability, and data-efficient training for systems with millions of qubits.
Ben Affleck Says Movies ‘Will Be One of the Last Things Replaced by AI,’ and Even That’s Unlikely to Happen: ‘AI Is a Craftsman at Best’
Ben Affleck is confident that “movies will be one of the last things, if everything gets replaced, to be replaced by AI.” Affleck explained in an interview that AI is adept at imitation but lacks originality and the ability to create something truly new, akin to how a craftsman works by replicating techniques rather than innovating. However, he sees the benefits of using AI in filmmaking, suggesting AI could lower costs, reduce barriers to entry, and enable more voices to participate in filmmaking by handling logistical and less creative aspects.
▶️ Using Dangerous AI, But Safely? (30:37)
Robert Miles, one of the top voices in AI safety, explains a paper asking how can we make sure that a powerful AI model is not trying to be malicious. In this case, the researchers proposed and evaluated various safety protocols within a controlled scenario where an untrusted model (GPT-4) generates code, a trusted but less capable model (GPT-3.5) monitors it, and limited high-quality human labour audits suspicious outputs. The goal is to prevent “backdoors” while maintaining the usefulness of the model’s outputs. It is an interesting video to watch as Miles explains different back-and-forth techniques, resulting in a safety protocol that offers a practical path forward. However, as always, more research is needed to tackle real-world tasks, improve oversight, and address the growing gap between trusted and untrusted models.
Deus in machina: Swiss church installs AI-powered Jesus
Peter’s Chapel in Lucerne, Switzerland, launched Deus in Machina, an AI-powered Jesus avatar capable of dialoguing in 100 languages. The AI was first trained on theological texts and designed to respond to questions in real-time and then installed in the confessional booth for people to interact with it. The project aimed to provide a space for religious conversations and gauge public interest in AI-based spiritual tools. During the two-month trial, over 1,000 people, including tourists and non-Christians, interacted with the avatar. Feedback from 230 users showed two-thirds found the experience spiritual and positive, though others criticized it as superficial or repetitive. The project gathered negative feedback from some church members who criticized the use of the confessional booth and the use of AI in a religious context, raising concerns about the risk of the AI providing inappropriate, illegal, or theologically conflicting responses.
AI-Driven Drug Shows Promising Phase IIa Results in Treating Fatal Lung Disease
ISM001-055, a drug for treating idiopathic pulmonary fibrosis, which was developed with the help of generative AI, is showing promising results in a Phase IIa trial. Created by Insilico Medicine, the drug demonstrated improvements in lung function and quality of life over 12 weeks, offering hope for slowing or potentially reversing disease progression. Insilico Medicine plans to advance to a Phase III trial to further validate the drug’s efficacy and safety. Full trial data will be presented at medical conferences and submitted for peer-reviewed publication.
If you’re enjoying the insights and perspectives shared in the Humanity Redefined newsletter, why not spread the word?
Can a fluffy robot really replace a cat or dog? My weird, emotional week with an AI pet
I first mentioned Moflin, Casio’s pet robot, in Issue #490. It is an interesting project aiming to create a robot companion that can form an emotional bond with its owner. This article recounts the author’s experience with Moflin, beginning with curiosity and slight self-consciousness, which evolved into subtle attachment as they found its sounds, movements, and interactions comforting. Moments of bonding, such as stroking Moflin or having it rest on their chest, highlighted its ability to provide companionship, although it couldn’t fully replicate the connection of a living pet. Moflin reflects Japan’s growing interest in robotic companions, particularly as solutions for an ageing population, and represents a modern take on the global trend of robotic pets like Sony’s Aibo and Paro the robot seal.
It’s Surprisingly Easy to Jailbreak LLM-Driven Robots
A group of scientists found an automated way to hack into LLM-driven robots with 100% success. By bypassing security measures put into those robots, researchers were able to manipulate self-driving systems into colliding with pedestrians and robot dogs into hunting for harmful places to detonate bombs. Their findings raise concerns about the risks posed by LLM-operated robots in real-world settings and highlight the lack of contextual and consequential awareness in LLMs, emphasizing the need for human oversight in sensitive or safety-critical environments.
Robot runs marathon in South Korea, apparently the first time this has happened
South Korean robot Raibo2 has become the first four-legged robot to complete a full marathon. Built by the Korea Advanced Institute of Science and Technology, the robot completed the 42 km (26.2 miles) run in 4 hours, 19 minutes, and 52 seconds on a single battery charge. For comparison, the human winner finished the marathon in 2 hours, 36 minutes, and 32 seconds.
Scientists identify tomato genes to tweak for sweeter fruit
Researchers in China identified two genes that act as “sugar brakes,” limiting sugar production in domesticated tomatoes during ripening. The resulting tomatoes had up to 30% higher sugar content without sacrificing fruit size or yield, balancing the needs of consumers (who prefer sweet tomatoes) with those of producers and farmers (who want high yield and bigger fruits). The gene-edited tomatoes could be available in supermarkets within 3–5 years. Similar gene-edited tomatoes are already on the market in Japan.
▶️ Adam Savage Explores Wing’s Drone Engineering Workshop (26:22)
In this video, Adam Savage visits the workshop and laboratory where Wing, Alphabet’s drone delivery company, designs, builds and tests its delivery drones. Adam learns how these drones were developed, from early prototypes to the machines now delivering packages to real customers. It is fascinating to learn what kind of engineering and problem-solving went into creating a viable delivery drone. Plus it is always a pleasure to see Adam nerding out about exceptional engineering.
Thanks for reading. If you enjoyed this post, please click the ❤️ button or share it.
Humanity Redefined sheds light on the bleeding edge of technology and how advancements in AI, robotics, and biotech can usher in abundance, expand humanity’s horizons, and redefine what it means to be human.
A big thank you to my paid subscribers, to my Patrons: whmr, Florian, dux, Eric, Preppikoma and Andrew, and to everyone who supports my work on Ko-Fi. Thank you for the support!
My DMs are open to all subscribers. Feel free to drop me a message, share feedback, or just say “hi!”
Noticias
Google cita a OpenAI, Perplexity y Microsoft sobre herramientas de IA de generación
Para la fase de remedios en el juicio antimonopolio de búsqueda de Google, el gigante ha citado a tres de sus mayores rivales: OpenAI, Perplexity AI y Microsoft.
Las citaciones, enviadas en octubre, se hicieron públicas el lunes a través de presentaciones legales de las cuatro empresas. Las revelaciones se produjeron pocas horas después de que el juicio antimonopolio sobre tecnología publicitaria de Google concluyera los argumentos finales de los abogados que representan a Google y el Departamento de Justicia.
Cuando se les pidió comentarios, Google y Microsoft no respondieron de inmediato a Digiday y los portavoces de OpenAI y Perplexity declinaron hacer comentarios. (Las tres empresas también se enfrentan a una serie de otras demandas relacionadas con cuestiones como la infracción de derechos de autor de la IA).
Los nuevos documentos legales también arrojan luz sobre lo que Google espera descubrir y por qué está reuniendo argumentos de sus rivales para convencer al tribunal de que su monopolio de búsqueda no incluye el sector emergente de búsqueda impulsada por IA. Muchos de los materiales que Google solicita se relacionan con los esfuerzos de sus rivales en materia de búsqueda y publicidad.
Aquí hay un breve resumen con algunos ejemplos de lo que las citaciones de Google le piden a cada empresa que proporcione:
- Abierta AI: Datos de uso de ChatGPT, acuerdos de distribución con terceros, acuerdos con Microsoft relacionados con Bing Search API, cualquier acuerdo con Perplexity y tipos de datos utilizados para entrenar modelos de IA. Google también solicita acuerdos de licencia de contenido y actas de la junta directiva relacionadas con los planes de OpenAI para la distribución de búsquedas y cualquier estrategia publicitaria.
- Perplejidad: Descargue totales, datos de usuarios activos, desempeño financiero, acuerdos de licencia de contenido, información sobre datos de entrenamiento del modelo de IA e información sobre la estrategia de monetización de Perplexity, incluidas presentaciones de anunciantes y planes para integrar anuncios en torno a las consultas de los usuarios. Google también solicita cualquier comunicación entre Perplexity y los demandantes en el caso (el Departamento de Justicia y el fiscal general de Colorado) y documentos sobre la visión de Perplexity sobre el panorama de búsqueda competitivo. Google también solicitó acuerdos y comunicaciones relacionados con acuerdos de distribución, incluidos contratos de marketing, preinstalaciones, sindicación y negociación.
- Microsoft: Acuerdos entre Microsoft y otras empresas como OpenAI y Perplexity, documentos sobre los tipos y cantidades de datos utilizados para ayudar a entrenar los modelos de OpenAI y documentos relacionados con el uso de herramientas de IA generativa para impulsar los resultados de búsqueda y los servicios publicitarios. Google también solicitó información sobre acuerdos de licencia de contenido, incluidas “ofertas de contenido exclusivo”, y materiales sobre las formas en que Microsoft proporciona resultados de búsqueda a herramientas de inteligencia artificial de terceros y herramientas de búsqueda como ChatGPT y ChatGPT Search. “Si las nuevas herramientas y tecnologías de inteligencia artificial han proporcionado a Bing un modo novedoso de distribución -y todo indica que así es- Google tiene derecho a presentar esa evidencia”, escribió Google.
Las empresas citadas difieren en sus respuestas legales a las solicitudes. Después de afirmar inicialmente que Perplexity nunca recibió una citación, los abogados de esa compañía dijeron que ahora planean enviar objeciones el próximo mes y comenzar a producir documentos a principios de enero. OpenAI aceptó algunas de las solicitudes, incluidos acuerdos para Bing Search API, uso de ChatGPT y actas de la junta. Sin embargo, los abogados objetaron otras solicitudes, como el desempeño financiero y los datos de capacitación, por ser “extremadamente onerosas” debido a “secretos comerciales fundamentales e información confidencial”. Los abogados de Microsoft dijeron que la compañía proporcionará documentos para todas menos cuatro de las 41 solicitudes, con objeciones relacionadas con acuerdos confidenciales con OpenAI, Perplexity, Inflection y la empresa de inteligencia artificial G42, con sede en los Emiratos Árabes Unidos.
“Microsoft acordó realizar una búsqueda razonable y producir documentos con respecto a cinco de las seis solicitudes identificadas en la Declaración de Google”, escribieron los abogados de Microsoft. “Cuando Microsoft ha indicado que no producirá documentos, lo ha hecho basándose en objeciones de buena fe a la relevancia, la carga y la falta de proporcionalidad. Por mucho que Google quiera incluir a Microsoft como parte de esta Acción, no lo es”.
Incluso si Google se ve obligado a vender Chrome, podrían pasar meses o años de lucha legal antes de que eso suceda. El prolongado proceso podría darle tiempo a Google para crear un nuevo usuario para su última aplicación independiente para Gemini, que compite directamente con empresas como ChatGPT y Perplexity. Sin embargo, algunos ejecutivos de tecnología publicitaria creen que las nuevas empresas deberían tener la oportunidad de competir en la era de la búsqueda de inteligencia artificial.
“Si [Google] es capaz de aferrarse a este estrangulamiento de distribución que tienen sobre la búsqueda, eso les dará tiempo para continuar mejorando Gemini y, con suerte, al menos desde [Google’s] perspectiva: sacar a otros competidores del negocio”, dijo Adam Epstein, director ejecutivo de AdMarketplace.
Podrían pasar años hasta que nuevas empresas como Perplexity y OpenAI ganen participación de mercado, dijo Evelyn Mitchell-Wolf, analista senior de eMarketer. También señaló que a plataformas como Perplexity les tomará un tiempo escalar su negocio publicitario. Por ahora, cree que será demasiado difícil destronar a Google mientras la búsqueda tradicional sea omnipresente y demasiado sencilla. Sin embargo, cree que Google tendría un “escenario de pesadilla” si se viera obligado a vender Chrome.
“Si hablamos de dinámica de mercado y anuncios de búsqueda, no espero que Perplexity gane una escala significativa en el corto plazo, ya que los anunciantes tardarán tiempo en ver resultados”, dijo Mitchell-Wolf. “Tener más opciones para buscar es bueno para los consumidores, pero todavía estamos en un período en el que los efectos subyacentes de la IA en el comportamiento del consumidor aún están por verse porque todavía estamos en el gran impulso de estos importantes actores de la IA”.
La propuesta del Departamento de Justicia para que Google venda Chrome se produjo apenas una semana antes de los argumentos finales en el juicio antimonopolio de la tecnología publicitaria, que tuvo lugar el lunes en un tribunal federal antes de un fallo en los próximos meses.
Si bien la prueba de búsqueda de Google y la prueba de tecnología publicitaria son independientes, sus resultados potenciales siguen siendo objeto de conjeturas en lugar de visiones claras. Sin embargo, los expertos han dicho que el motor de búsqueda dominante de Google ha proporcionado un volante para gran parte de los datos utilizados para la orientación de los anuncios, mientras que su enorme base de usuarios ofrece a los anunciantes una manera de llegar a un gran número de clientes potenciales.
Algunos piensan que la industria está prestando más atención al juicio sobre remedios de búsqueda programado para marzo. Entre los expertos que siguieron ambos juicios se encuentra Ari Paparo, ejecutivo de tecnología publicitaria desde hace mucho tiempo y cofundador de Marketetecture Media, quien dijo que la propuesta del Departamento de Justicia para Chrome iba “mucho más allá de la línea roja en cosas y [Google] No querré que eso suceda”.
“Le he preguntado a varios abogados y ninguno entiende cuál es la fase de reparación de este caso. [ad-tech] cómo será el juicio”, dijo Paparo. “¿Va a ser una audiencia separada? ¿Va a ser una solicitud de documentos? ¿O simplemente se van a largar y escribir un remedio? Nadie sabe cuál será el remedio”.
Noticias
La herramienta Sora de OpenAI filtrada por un grupo de primeros evaluadores agraviados
La fuga de Sora de OpenAI: las implicaciones de la tecnología, la ética y la promoción
Se ha estado gestando una tormenta en el panorama de la IA luego de la filtración no autorizada del innovador modelo Sora de OpenAI, un generador de texto a video que ha estado causando sensación por su capacidad para crear videos cortos y de alta fidelidad con una estabilidad temporal notable. En el centro de la controversia hay un conflicto multifacético que involucra avances tecnológicos, preocupaciones éticas y defensa artística. La filtración se publicó en Hugging Face y supuestamente fue realizada por personas involucradas en la fase de prueba (usando el nombre de usuario “PR-Puppets”) y plantea preguntas apremiantes sobre la relación entre innovación, trabajo y responsabilidad corporativa. El modelo filtrado, publicado junto con una carta abierta dirigida a los “Señores Supremos de la IA Corporativa”, supuestamente puede producir videoclips de 10 segundos con una resolución de hasta 1080p.
¿Qué es Sora?
Sora representa un salto significativo en las capacidades de IA generativa, funcionando como un modelo de difusión para transformar indicaciones de texto en videos de hasta un minuto. Aprovechando técnicas de varios modelos, Sora ofrece una alineación precisa del texto al visual y una coherencia temporal mejorada. La visión de OpenAI para Sora es ambiciosa y la posiciona como un paso fundamental hacia el logro de la Inteligencia General Artificial (AGI). A pesar de estas aspiraciones, la tecnología no está exenta de limitaciones; Los desafíos para replicar la física compleja y garantizar la seguridad del contenido siguen siendo áreas de mejora.
Como se describe en la plataforma de discusión Hugging Face, Sora es “una muestra fascinante de destreza técnica”. La capacidad del modelo para producir “narrativas visualmente coherentes” en forma de vídeo ha sido elogiada como un logro histórico en la IA generativa.
La filtración y sus supuestas motivaciones
La filtración del modelo de Sora parece deberse a la insatisfacción entre los evaluadores y contribuyentes, particularmente aquellos en las industrias creativas. Los críticos alegan que OpenAI (actualmente valorada en más de 150 mil millones de dólares) explotó su trabajo al depender de contribuciones no remuneradas o mal compensadas para perfeccionar el modelo. Estos evaluadores, incluidos artistas visuales y cineastas, brindaron valiosos comentarios y aportes creativos, solo para supuestamente verse excluidos del reconocimiento o compensación equitativa.
“No se trataba sólo de trabajo no remunerado: se trataba de respeto”, señaló un colaborador anónimo citado en el comentario de Hugging Face. “OpenAI trató nuestros aportes como materia prima, no como experiencia creativa. No es colaboración; es extracción”.
Este acto de rebelión sirve como protesta contra la mercantilización más amplia de la experiencia creativa en el desarrollo de la IA. La filtración se enmarcó estratégicamente para resaltar el supuesto desprecio de OpenAI por el valor económico del trabajo artístico, haciéndose eco de sentimientos de descontento que ya prevalecen en el discurso ético de la IA.
El grupo declaró que, después de tres horas, “OpenAI cerró temporalmente el acceso temprano de Sora para todos los artistas”.
Complicaciones éticas y legales
La controversia de Sora también reaviva los debates sobre derechos de autor y propiedad intelectual. OpenAI se ha enfrentado anteriormente a un escrutinio por su uso de material protegido por derechos de autor con fines de formación, alegando el uso legítimo como defensa. Aunque OpenAI ha declarado que los datos de entrenamiento de Sora incluyen conjuntos de datos públicos y con licencia, la compañía se ha mostrado reticente a dar detalles específicos, dejando espacio para el escepticismo. Esta opacidad, combinada con demandas en curso de creadores y editores, subraya las tensiones entre el avance tecnológico y los derechos de propiedad intelectual.
Las preocupaciones de seguridad con respecto a los modelos de IA generativa como Sora han llevado a OpenAI a implementar salvaguardas, incluidos clasificadores de detección y mecanismos de aplicación de políticas de contenido. Sin embargo, es posible que tales medidas no sean suficientes para abordar el posible uso indebido del modelo filtrado. Los comentaristas de Hugging Face señalaron que “una filtración de esta magnitud socava los esfuerzos de OpenAI para hacer cumplir las salvaguardias éticas. Pone el poder sin control en manos de cualquiera que tenga acceso”.
Implicaciones más amplias para la IA y las industrias creativas
La filtración de Sora es emblemática de una lucha de poder más amplia en la era de la IA. Por un lado, OpenAI se posiciona como pionero en la intersección de innovación y utilidad, y Sora representa una herramienta para democratizar la creación de videos. Por otro lado, la filtración ha puesto de relieve cuestiones sistémicas, como la infravaloración del trabajo creativo y los dilemas éticos que rodean la dependencia de la IA de la creatividad humana.
Como afirmó otro colaborador de Hugging Face: “La IA no existe en el vacío. Se construye sobre los hombros de creativos que a menudo no quedan acreditados. La filtración de Sora es una llamada de atención: la innovación sin ética es explotación”.
Para los profesionales creativos, la filtración es un arma de doble filo. Si bien saca a la luz las desigualdades del sistema actual, también corre el riesgo de socavar la confianza en las colaboraciones entre artistas y desarrolladores de tecnología. En el futuro, el incidente exige repensar la forma en que las corporaciones se relacionan con las comunidades creativas, enfatizando la transparencia, la compensación justa y el respeto por la propiedad intelectual.
Un ajuste de cuentas para la IA
Las consecuencias de la filtración de Sora ofrecen lecciones críticas para el futuro de la IA generativa. A medida que la tecnología continúa desdibujando los límites entre la creatividad y la computación, la necesidad de marcos éticos se vuelve cada vez más apremiante. El manejo de la situación por parte de OpenAI probablemente sentará un precedente sobre cómo las organizaciones navegan por la compleja interacción de innovación, ética y promoción.
En última instancia, la controversia de Sora es un microcosmos de los desafíos más amplios que enfrenta la industria de la IA: cómo equilibrar la búsqueda del progreso con el imperativo de honrar y proteger el trabajo humano que lo sustenta. Como concluyó sucintamente un observador en Hugging Face: “Esto es más que una filtración; es un ajuste de cuentas”.
Noticias
Cómo GenAI cambió el trabajo tecnológico
Hace dos años, el 30 de noviembre, ChatGPT irrumpió en escena, generando una fascinación global por la IA generativa y transformándola en una innovación que deben observar tanto los consumidores como los profesionales de la tecnología. Desde entonces, ChatGPT se ha expandido y las ruedas de la regulación de la IA han comenzado a girar.
TechRepublic preguntó a los profesionales de la tecnología cómo ha evolucionado su trabajo con ChatGPT, tanto personalmente como dentro de la industria tecnológica en general.
Nuevas funciones introducidas en 2024
Durante el último año, OpenAI ha:
- Se amplió ChatGPT a nuevos formatos como la búsqueda de ChatGPT y Canvas, el último de los cuales está diseñado, en parte, para ubicarse junto a una aplicación de codificación.
- Presentados GPT-4o y OpenAI o1, nuevos modelos insignia.
- Se asoció con Apple para admitir algunas funciones de la IA integrada de Apple.
- Anunciado ChatGPT recordará conversaciones anteriores.
- Se lanzó la búsqueda ChatGPT, lo que marca la apuesta de OpenAI para reemplazar la Búsqueda de Google como el portal de facto al resto de Internet.
- Implementó el modo de voz avanzado para usuarios seleccionados en octubre, permitiéndoles hablar con la IA en voz alta.
El 3 de octubre, OpenAI lanzó Canvas, lo que marcó un experimento importante en el uso de ChatGPT.
“Hacer que la IA sea más útil y accesible requiere repensar cómo interactuamos con ella”, escribió el equipo de OpenAI en octubre con motivo del anuncio de Canvas. “Canvas es un nuevo enfoque y la primera actualización importante de la interfaz visual de ChatGPT desde su lanzamiento hace dos años”.
Cómo ha mejorado ChatGPT en 2024
Graham Glass, director ejecutivo de la plataforma de creación de cursos de inteligencia artificial Cypher Learning, señaló cómo ChatGPT ofrece acceso a modelos más sofisticados ahora que en 2023.
“En primer lugar, ChatGPT sigue mejorando”, dijo en una entrevista con TechRepublic. “Y se ha vuelto más sofisticado, lo que abre oportunidades adicionales para aprovechar esa tecnología”.
El año pasado, Glass aprovechó ChatGPT para generar ideas sobre diseños y arquitecturas de software. Preguntar a la tecnología sobre las mejores prácticas o compensaciones de diseño le brinda “el corpus de todos los diseños que todos han hecho sobre ese tema en particular”, dijo.
“Se ha vuelto más inteligente”, añadió Curt Raffi, director de productos de Acrolinx, una empresa que utiliza IA para probar contenido para documentos técnicos y otros trabajos de redacción intensa. Señaló el rendimiento mejorado de GPT-4o, así como de OpenAI o1.
Raffi también explicó que la gente se siente más cómoda usando ChatGPT. Trabaja con ingenieros que han mejorado en la activación de ChatGPT de maneras que expresan una lógica empresarial específica.
VER: La primera reunión de la Red Internacional de Institutos de Seguridad de IA, celebrada esta semana, tiene como objetivo gestionar los riesgos de la IA avanzada.
A Glass le gusta que la búsqueda ChatGPT proporcione información actual y la considera un ahorro de tiempo para tareas como comparaciones de productos. También utiliza el modo de voz avanzado para charlar con la IA en voz alta.
En general, las incorporaciones de ChatGPT durante el último año han brindado más opciones para las personas que desean utilizar la IA generativa para trabajos técnicos.
“La forma más significativa en que los asistentes de IA generativa han cambiado la programación y el desarrollo durante el último año es permitir que personas con diferentes niveles de programación participen en el desarrollo de software para ofrecer soluciones a problemas del mundo real”, dijo Houbing Herbert Song, miembro del Instituto. de Ingenieros Eléctricos y Electrónicos, dijo en un correo electrónico a TechRepublic.
¿Qué no puede hacer ChatGPT en 2024?
La IA no es inmune a los errores. Para Glass, codificar con ChatGPT a menudo implica un diálogo de ida y vuelta, incluido “recordarle” a la IA detalles que pudo haber pasado por alto.
“Aunque creo que es mucho más fiable en lo que respecta al diseño [in 2024]todavía comete muchos errores de codificación”, dijo Glass.
Por ejemplo, Glass dijo sobre una tarea reciente que ChatGPT necesitó 10 indicaciones para crear una función en JavaScript correctamente. Esto aún le ahorró tiempo, pero demuestra que ChatGPT aún es limitado. Atribuyó esto en parte a que ChatGPT fue entrenado en un corpus de código finito, aunque enorme.
Filev señaló que ChatGPT se ha vuelto tan confiable que las personas no se dan cuenta fácilmente cuando comete errores.
“Se está volviendo tan bueno que comencé a bajar la guardia, y no sé si eso es algo bueno o malo”, dijo Filev.
Para muchas tareas, comenzó a buscar fuentes físicas en la Búsqueda de Google o Perplexity AI antes de usar ChatGPT. Estos podrían ser mejores lugares para encontrar fuentes confiables, dijo, mientras que ChatGPT es mejor para intercambiar ideas.
Las regulaciones podrían afectar ChatGPT
El año pasado también reveló las limitaciones y la posible regulación de ChatGPT. Raffi dijo que su equipo está abordando cuidadosamente el código generado por IA después de un caso judicial entre los desarrolladores y GitHub Copilot. Los desarrolladores alegaron que GitHub Copilot violó los derechos de propiedad intelectual al utilizar código fuente abierto.
Raffi señaló que el uso comercial de dicho código en los mercados sigue siendo algo incierto, lo que hace que las aplicaciones de IA en la codificación sean un proceso cauteloso y exploratorio.
“Nuestra propiedad intelectual está en nuestro código, y si de repente estuviéramos abiertos o expuestos a demandas, podríamos erosionar el valor de nuestra empresa”, dijo Raffi.
Cómo ChatGPT ha afectado a los desarrolladores que inician su carrera
Durante el año pasado, otro avance clave fue el impacto de ChatGPT en los desarrolladores que inician su carrera.
“Debido a que esto mejora en gran medida la eficiencia para que los desarrolladores se concentren en el diseño y la innovación de orden superior, quizás lo más importante es que el papel de un desarrollador cambia drásticamente de creadores a supervisores de código generado por IA”, dijo Dheerendra Panwar, miembro senior de IEEE, en un correo electrónico a TechRepublic. “Lo que nos lleva a una pregunta muy importante: ¿estamos simplificando el arte de la codificación?”
En algunos casos, es posible que los desarrolladores junior no sean contratados en absoluto, ya que algunas tareas que normalmente se les asignan ahora están a cargo de la IA.
“Estos cambios parecen ser beneficiosos para los programadores senior, ya que amplían su función e importancia”, escribió en un correo electrónico Jen Stave, directora ejecutiva del Instituto de Diseño de Datos Digitales de la Universidad de Harvard. “Debido a que los desarrolladores junior a menudo carecen de la experiencia para detectar problemas como alucinaciones de IA o resultados inexactos, este papel increíblemente importante recae en los programadores senior que ahora necesitan ampliar su responsabilidad para mitigar riesgos como los errores de código inducidos por la IA”.
En otros casos, los desarrolladores junior pueden ser más competentes en ingeniería rápida que los senior.
“Para los programadores jóvenes, la historia es más compleja”, escribió Stave. “La IA generativa reduce su dependencia de la resolución colaborativa de problemas, fomentando un trabajo más autónomo. Si bien esta independencia puede acelerar la productividad, eso puede no ser algo bueno para los humanos que tienden a obtener beneficios para la salud mental de la interacción y colaboración humana”.
Andrew Filev, fundador y director ejecutivo de Zencoder, una startup de herramientas de desarrollo de software de inteligencia artificial, explicó que impulsar ChatGPT puede parecer un conjunto de habilidades distinto. Sin embargo, le recordó cómo el uso de la Búsqueda de Google alguna vez fue una habilidad incluida en los currículums. Quizás 2024 fue el año en que ChatGPT comenzó a afectar la forma en que los profesionales de la tecnología piensan sobre el portal al resto de Internet.
“Se está convirtiendo cada vez más en una parte integral de mi día a día”, dijo Filev sobre ChatGPT. “Me da un impulso de productividad, pero no me define de una forma u otra, ¿verdad?”
La búsqueda ChatGPT y Canvas ofrecen nuevos factores de forma
Los esfuerzos de OpenAI por convertirse en un nuevo portal para el resto de Internet se pueden ver más claramente en la búsqueda de ChatGPT y en Canvas.
Raffi dijo que la búsqueda ChatGPT no se mantuvo muy bien frente a la Búsqueda de Google, carecía de contexto y proporcionaba “resultados bastante malos”. Sin embargo, utiliza Canvas con frecuencia.
“Está cambiando la forma en que pensamos sobre la IA y ChatGPT”, dijo. “Se trata de introducir una capa de aplicación y hacerte pensar en las API de IA como el back-end y más en la lógica empresarial detrás de todo. Resume muchas de las complejidades confusas de muchos editores”.
Dado que Canvas almacena recuerdos, puede hacer referencia a cambios anteriores en el código. Raffi lo llamó una combinación de capa de aplicación, back-end y capa de lógica empresarial.
Habrá muchos cambios en los próximos años.
2024 demostró que la IA no puede hacerlo todo y que la tasa de casos de uso transformadores podría estar desacelerando. Por otro lado, las empresas de inteligencia artificial están entrenando modelos para digerir cada vez más datos, incluida la mejora de los modelos subyacentes a ChatGPT. La forma en que los profesionales interactúan con ChatGPT ha cambiado desde 2023 y probablemente será diferente dentro de un año.
“Sí, habrá cambios”, dijo Filev. Comparó el auge de la IA con el paso de las tarjetas perforadas a la programación de software. “Pero creo que los desarrolladores están acostumbrados a los cambios”.
“La tecnología avanza y nosotros nos mantenemos al día, y creo que nos permite hacer mucho más y mejor”, añadió. “Y ChatGPT es uno de los buenos ejemplos de tecnologías que nos ayudan”.
-
Recursos7 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups6 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos7 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos6 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Eventos7 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024
-
Estudiar IA6 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Noticias4 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo
-
Tutoriales7 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes