Noticias
How Mark Zuckerberg went all-in to make Meta a major AI player and threaten OpenAI’s dominance
It was the summer of 2023, and the question at hand was whether to release a Llama into the wild.
The Llama in question wasn’t an animal: Llama 2 was the follow-up release of Meta’s generative AI mode—a would-be challenger to OpenAI’s GPT-4. The first Llama had come out a few months earlier. It had originally been intended only for researchers, but after it leaked online, it caught on with developers, who loved that it was free—unlike the large language models (LLMs) from OpenAI, Google, and Anthropic—as well as state-of-the-art. Also unlike those rivals, it was open source, which meant researchers, developers, and other users could access the underlying code and its “weights” (which determine how the model processes information) to use, modify, or improve it.
Yann LeCun, Meta’s chief AI scientist, and Joelle Pineau, VP of AI research and head of Meta’s FAIR (Fundamental AI Research) team, wanted to give Llama 2 a wide open-source release. They felt strongly that open-sourcing Llama 2 would enable the model to become more powerful more quickly, at a lower
cost. It could help the company catch up in a generative AI race in which it was seen as lagging badly behind its rivals, even as the company struggled to recover from a pivot to the metaverse whose meager offerings and cheesy, legless avatars had underwhelmed investors and customers
But there were also weighty reasons not to take that path. Once customers got accustomed to a free product, how could you ever monetize it? And as other execs pointed out in debates on the topic, the legal repercussions were potentially ugly: What if someone hijacked the model to go on a hacking spree? It didn’t help that two earlier releases of Meta open-source AI products had backfired badly, earning the company tongue-lashings from everyone from scientists to U.S. senators.
It would fall to CEO Mark Zuckerberg, Meta’s founder and controlling shareholder, to break the deadlock. Zuckerberg has long touted open-source technology (Facebook itself was built on open-source software), but he likes to gather all opinions; he spoke to “everybody who was either for, anti, or in the middle” on the open-source question, recalls Ahmad Al-Dahle, Meta’s head of generative AI. But in the end it was Zuckerberg himself, LeCun says, who made the final decision to release Llama 2 as an open source model: “He said, ‘Okay, we’re just going to do it.’” On July 18, 2023, Meta released Llama 2 “free for research and commercial use.”
In a post on his personal Facebook page, Zuckerberg doubled down on his decision. He emphasized his belief that open-source drives innovation by enabling more developers to build with a given technology. “I believe it would unlock more progress if the ecosystem were more open,” he wrote.
The episode could have just been another footnote in the fast-unfolding history of artificial intelligence. But in hindsight, the release of Llama 2 marked a crucial crossroads for Meta and Zuckerberg—the beginning of a remarkable comeback, all thanks to tech named after a furry camelid. By the time Llama 3 models were released in April and July 2024, Llama had mostly caught up to its closed-source rivals in speed and accuracy. On several benchmarks, the largest Llama 3 model matched or outperformed the best proprietary models from OpenAI and Anthropic. One advantage in Llama’s favor: Meta uses publicly shared data from billions of Facebook and Instagram accounts to train its AI models.
The Llama story could be a pivotal chapter in the ongoing philosophical debate between open-source AI models (generally more transparent, flexible, and cost-effective, but potentially easier to abuse) and closed models (often more tightly controlled but lacking transparency and more costly to develop). Just as crucially, Llama is at the core of a complete strategic pivot on the part of Meta to go all in on generative AI. Zuckerberg is now seen as a champion of “democratizing tech” among Silicon Valley developers—just two years after he and his company were being questioned, and sometimes mocked, for going all in on the metaverse, and vilified for having contributed to political polarization, extremism, and harming the mental health of teenagers.
DeSean McClinton-Holland for Fortune
While ChatGPT remains the dominant gen AI tool in the popular imagination, Llama models now power many, if not most, of the Meta products that billions of consumers encounter every day. Meta’s AI assistant, which reaches across Facebook, Instagram, WhatsApp, and Messenger, is built with Llama, while users can create their own AI chatbot with AI Studio. Text-generation tools for advertisers are built on Llama. Llama helps power the conversational assistant that is part of Meta’s hit Ray-Ban glasses, and the feature in the Quest headset that lets users ask questions about their surroundings. The company is said to be developing its own AI-powered search engine. And outside its walls, Llama models have been downloaded over 600 million times on sites like open-source AI community Hugging Face.
Still, the pivot has perplexed many Meta watchers. The company has spent billions to build the Llama models: On its third-quarter earnings call, Meta announced that it projects capital expenditures for 2024 to reach as high as $40 billion, with a “significant” increase likely in 2025. Meanwhile, it’s giving Llama away for free to thousands of companies, including giants like Goldman Sachs, AT&T, and Accenture. Some investors are struggling to understand where and when, exactly, Meta’s revenue would start to justify the eye-watering spend.
Why open-sourcing Llama is good for Meta is “the big puzzle,” says Abhishek Nagaraj, associate professor at the University of California at Berkeley’s Haas School of Business, adding that it’s “hard to justify” from a purely economic standpoint.
Nonetheless, Llama’s contrarian success has allowed Zuckerberg to shrug off the lukewarm response to his metaverse ambitions and the company’s painful “year of efficiency” in late 2022 and early 2023. The rise of Llama has also given Zuckerberg a chance to address a longsimmering sore point in his otherwise meteoric career: the fact that Facebook, and now Meta, have so often seen their services and products constrained by rules imposed by Apple and Google—the rival giants whose app stores are Meta’s primary points of distribution in the mobiledevice era. As he wrote in a July blog post: “We must ensure that we always have access to the best technology, and that we’re not locking into a competitor’s closed ecosystem where they can restrict what we build.”
With Llama, Meta and Zuckerberg have the chance to set a new industry standard. “I think we’re going to look back at Llama 3.1 as an inflection point in the industry, where open-source AI started to become the industry standard, just like Linux is,” he said on Meta’s July earnings call—invoking the open-source project that disrupted the dominance of proprietary operating systems like Microsoft Windows.
Perhaps it’s this possibility that is giving Zuckerberg some new swagger. At 40, two decades after he cofounded Facebook, he appears to be enjoying what many are calling his “Zuckaissance”—a personal and professional glow-up. His once close-cropped haircut has given way to lush curls, the drab hoodies are swapped for gold chains and oversize black T-shirts, and his hard-edged expressions have softened into relaxed smiles. He even found time in November to collaborate with T-Pain on a remake of the hip-hop hit “Get Low”—an anniversary gift to his wife, Priscilla Chan.
In the long run, OpenAI’s ChatGPT may be seen as the fiery spark that ignited the generative AI boom. But for now, at least, Llama’s own future’s so bright, Zuckerberg has gotta wear AI-powered Ray-Ban shades.
Meta’s work on AI began in earnest in 2013, when Zuckerberg handpicked LeCun, a longtime NYU professor and an AI luminary, to run Facebook’s new FAIR lab. LeCun recalls that when he began discussing the role, his first question was whether Facebook would open-source its work. “Nobody has a monopoly on good ideas,” he told Zuckerberg, “and we need to collaborate as much as we can.” LeCun was thrilled with the answer he got: “Oh, you don’t have to worry about it. We already open-source our platform software and everything.”
But prior to the generative AI boom, Meta’s use of AI was mostly behind the scenes—either research focused or integrated under the hood of its recommendation algorithms and content moderation. There were no big plans for a consumer-facing AI product like a chatbot—particularly not when Zuckerberg’s attention was focused on the metaverse.
Generative AI began to take off with OpenAI’s release of ChatGPT, just as the Meta pivot was looking particularly unwise. With metaverse spending through the roof and consumers utterly uninterested, Meta’s stock hit a seven-year low, inspiring headlines like, “How Much Trouble Is Mark Zuckerberg In?” The company began laying off thousands of employees.
Meta’s first widely noticed foray into gen AI didn’t fare much better. In November 2022, FAIR released a demo of an LLM chatbot, trained on scientific texts, called Galactica. Like previous FAIR models, Galactica was released as open-source, allowing free access to the “brains” of the model. This openness was meant to enable researchers to study how Galactica functioned.
But these were the days before the public was fully aware of LLMs’ tendency to hallucinate—to sometimes spit out answers that are convincing, confident, and wrong. Many scientists were appalled by the Galactica chatbot’s very unscientific output, which included citing research papers that didn’t exist, on topics such as how to make napalm in a bathtub; the benefits of eating crushed glass; and “why homosexuals are evil.” Critics called Galactica “unethical” and “the most dangerous thing Meta’s made yet.”
After three days of intense criticism, Meta researchers shut down Galactica. Twelve days later, OpenAI released ChatGPT, which quickly went viral around the world, tapping into the cultural zeitgeist (despite its own serious hallucination issues).
Bruised but undeterred, researchers at FAIR spent the winter fine-tuning a new family of generative AI models called LLaMA (short for Large Language Models Meta AI). After the Galactica backlash, Meta was cautious: Instead of fully opening the code and model weights to all, Meta required researchers to apply for access, and no commercial license was offered. When asked why, LeCun responded on X: “Because last time we made an LLM available to everyone…people threw vitriol at our face and told us this was going to destroy the fabric of society.”
Despite these restrictions, the full model leaked online within weeks, spreading across 4chan and various AI communities. “It felt a bit like Swiss cheese,” Nick Clegg, Meta’s president of global affairs, says of the failed attempt to keep Llama behind closed doors. Meta filed takedown requests against sites posting the model online in an attempt to control the spread. Some critics warned of serious repercussions and excoriated Meta: “Get ready for loads of personalized spam and phishing attacks,” cybersecurity researcher Jeffrey Ladish posted on X.
The consternation even reached Capitol Hill. In June 2023, two U.S. senators wrote a letter to Zuckerberg, criticizing Llama’s release and warning of its potential misuse for fraud, malware, harassment, and privacy violations. The letter said that Meta’s approach to distributing advanced AI “raises serious questions about the potential for misuse or abuse.”
But at the same time, LeCun says, he and other Meta leaders were taken aback by the sheer demand for the leaked Llama model from researchers and developers. These would-be users wanted the flexibility and control that would come with open access to a profoundly powerful LLM. A law firm, for example, could use it to train a specialized model for legal use—and own the intellectual property. A health care company could audit and manage the data behind the model, ensuring HIPAA compliance. Researchers could experiment and examine the inner workings of the model. “We got incoming requests from people who said, ‘You have to open-source that stuff. It’s so valuable that you could create an entire industry, like a new internet,’” LeCun says
Messages came directly to Zuckerberg, to CTO Andrew “Boz” Bosworth, and to LeCun, leading to weekly calls in which the leaders debated what they should do. Should they open-source the next release? Did the benefits outweigh the risks? By midsummer, Zuckerberg’s mind was made up, with backing from Pineau and LeCun—leading to the big July 2023 reveal.
Cayce Clifford for Fortune
Llama 2 was not entirely open. Meta did not disclose the datasets—including all that Facebook and Instagram material—used to train the model, which are widely regarded as its key competitive advantage. It also restricted usage by companies with more than 700 million monthly active users, primarily meant to deter Meta’s Big Tech competitors. But the source code and model weights could be downloaded, and Meta encouraged users to contribute improvements, bug fixes, and refinements of results to a collaborative community.
Even before the Llama 2 release, Zuckerberg had laid the groundwork to treat it like Meta’s next big thing. After the first Llama model was released, in February 2023, Zuckerberg quickly put together a team from across the company, including FAIR, to focus on accelerating generative AI R&D in order to deploy it in Meta app features and tools. He chose Ahmad Al-Dahle, a former Apple executive who had joined Meta in 2020 to work on metaverse products, to lead the new team.
At an internal all-hands meeting in June 2023, Zuckerberg shared his vision for Meta’s AI-powered future. Meta was building generative AI into all of its products, he said, and he reaffirmed the company’s commitment to an “open science-based approach” to AI research. “I had a big remit,” Al-Dahle says: “Develop state-of-theart models; put them in product at record speed.”
In other words: It was game on for Llama.
Meta’s strategy can seem counterintuitive, coming from a company with $135 billion in annual revenue. Open-source software has typically been seen as a way to democratize technology to the advantage of small startups or under-resourced teams— the kinds scrambling to compete with giants like Meta.
In a July 2024 blog post called “Open Source Is the Path Forward,” Zuckerberg made it clear that giving away Llama is not an altruistic move. Open-sourcing, he said, would give Meta a competitive edge in the AI race—and could eventually make Llama the go-to platform for generative AI. Just as important, he wrote: “Openly releasing Llama doesn’t undercut our revenue, sustainability, or ability to invest in research like it does for closed providers” like OpenAI or Google.
Now that Llama has had a year-plus to prove itself, some are finding Zuck’s case persuasive. Shweta Khajuria, an analyst at Wolfe Research who coverscMeta, calls releasing Llama as open-source “a stroke of genius” that will enable Meta to attract top talent, accelerate innovation on its own platform, develop new revenue sources, and extend its longevity. Already, she explains, open-sourcing Llama basically allowed Meta to quickly catch up to OpenAI, Google, and Anthropic, in part because thousands of developers are building and improving on Llama at a blistering pace. “If they had not open-sourced it, it probably would have taken a much longer time to be at bar with other frontier models,” she says.
Khajuria believes there will be plenty of new monetization opportunities for Meta down the line, such as subscription and advertising options for current Meta AI features based on Llama, as well as AI-powered in-app business messaging. “Meta benefits from having billions of users where Perplexity and Claude and ChatGPT don’t necessarily have that base,” she says. “Once they have a critical mass of users and usage around the world, they can monetize.”
Zuckerberg has also alluded to the fact that AI-generated content itself will be valuable (though others have criticized such content as “slop”). On the recent earnings call, Zuckerberg said: “I think we’re going to add a whole new category of content, which is AI-generated or AI-summarized content, or existing content pulled together by AI in some way, and I think that that’s gonna be very exciting for Facebook and Instagram and maybe Threads, or other kinds of feed experiences over time.”
Patrick Wendell is CTO and cofounder of data and AI company Databricks, which released Meta’s Llama 3.1 models on its platform in July. He sees Meta’s move as much more far-reaching. If the internet was the first big wave of technology, which enabled Facebook’s creation, and mobile was the second, dominated by Apple and Google, “I think [Zuckerberg’s] calculus is the third big wave is coming, and he does not want to have one or two companies completely control all access to AI,” Wendell says. “One way you can avoid that is by basically commoditizing the market, giving away the core IP for free…so no one gains a monopoly.”
Some critics argue that Meta shouldn’t be using the term “open-source” at all. Current versions of Llama still have restrictions that traditional open-source software doesn’t (including lack of access to datasets). In October, the Open Source Initiative, which coined the term, criticized Meta for “confusing” users and “polluting” the nomenclature, and noted that Google and Microsoft had dropped their use of the term (using the phrase “open weights” instead). Clegg, Meta’s global affairs chief, is blunt in his rebuttal: He says the debate reminds him of “folks who get very agitated about how vinyl is the only true kind of definition of good music.” Only a handful of scientific and low-performing models would fit the definition, he continues: “No one has copyright IP ownership over these two English words.”
Nomenclature aside, Meta is winning where it matters. Nathan Lambert, a research scientist at the nonprofit Allen Institute for AI, says that while definitions might be quibbled about, more than 90% of the open-source AI models currently in use are based on Llama. Open-source coders accept that Zuckerberg “has some corporate realities that will distort his messaging,” he says. “At the end of the day, the community needs Llama models.
Internally at Meta, Llama and revenue-generating businesses are increasingly inextricable. In January, Zuckerberg moved FAIR, the AI research group, into the same part of the company as the team deploying generative AI products across Meta’s apps. LeCun and Pineau now report directly to chief product officer Chris Cox, as does Al-Dahle. “I think it makes a lot of sense to put [FAIR] close to the family of app products,” says Pineau; she points out that even before the reshuffle, research her team worked on often ended up in Meta products just a few months later.
Zuckerberg also tasked FAIR with something far more ambitious: developing artificial general intelligence (AGI), a type of AI that possesses humanlike intelligence. The company prefers to use the term AMI (“advanced machine intelligence”), but whatever it’s called, Pineau says, Meta now has a “real road map” to create it—one that relies, presumably, on a thriving Llama. Meanwhile the company is hard at work on Llama 4 models currently being trained on a cluster of over 100,000 pricey Nvidia GPUs, a cluster that Zuckerberg recently said was “bigger than anything that I’ve seen reported for what others are doing.”
Not everyone loves the idea of a bigger-than-anything Llama. For years, Zuckerberg and his company have grappled with public mistrust over the way it has used other types of AI to personalize news feeds, moderate content, and target ads across Facebook, Instagram, and WhatsApp. Critics have accused its algorithms of exacerbating political polarization, adolescent mental-health crises, and the spread of misinformation (accusations Meta has denied or rebutted); it was perhaps inevitable that Llama would face extra scrutiny.
Some critics fear that an open-source model like Llama is dangerous in the hands of malicious actors, precisely because it’s too open. Those concerns may grow in today’s tense geopolitical atmosphere. On Nov. 1, Reuters reported that China’s army had built AI applications for military use on the back of an early version of Llama.
An incoming Trump administration could make it even more complicated to keep Llama open. Trump’s economic nationalism would suggest that he would certainly not want China (or any other country) to access American-made state-of-the-art AI models. But Llama’s future may depend on who has Trump’s ear: Vice President–elect JD Vance has spoken out in support of open-source AI in the past, while Elon Musk’s xAI has open-sourced its chatbot Grok (and Musk famously cofounded OpenAI as an open-source lab).
Even some of Zuckerberg’s oldest friends have concerns about this kind of arms race. Dustin Moskovitz, a cofounder of Facebook and now CEO of Asana (and the founder of Open Philanthropy, one of the biggest funders of AI safety initiatives), says that while he is not against open-source LLMs, “I don’t think it’s appropriate to keep releasing ever more powerful versions.”
But Zuckerberg and his allies, both within Meta and without, argue that the risks of open-source models are actually less than those built behind proprietary closed doors. Preemptive regulation of theoretical harms of open-source AI will stifle innovation, they say. In a cowritten essay in August, Zuckerberg and Spotify cofounder Daniel Ek noted that open-source development is “the best shot at harnessing AI to drive progress and create economic opportunity and security for everyone.”
Whatever the outcome of Meta’s increasingly loud open-source activism, many argue that Zuckerberg is exactly the right messenger. His personal involvement in promoting Llama and open-source, insiders agree, is the key reason Meta has been able to move with such speed and focus. “He’s one of a few founder leaders left at these big tech companies,” says Clegg. “One of the great advantages of that means you have a very short line of command.”
Zuckerberg also has been active in recruiting AI talent, often reaching out personally. A March 2024 report said that Zuckerberg had been luring researchers from Google’s DeepMind with personal emails in messages that stressed how important AI was to the company.
Erik Meijer, who spent eight years at Meta leading a team focused on machine learning—before being laid off in November 2022—believes such a total shift is only possible with someone like Zuckerberg at the top. “It’s like pivoting a giant supertanker,” he says. “He’s a little bit like a cult hero inside the company, in a good sense, so I think that helps get all the noses in the same direction.” Zuckerberg’s new personal makeover, Meijer mused, is “maybe a very externally visible sign of renewal.”
Zuckerberg’s renewal, and Meta’s transformation, are sure to test investor patience due to skyrocketing capital expenditures. Khajuria, the Wolfe analyst, says investors will tolerate it for now “because Meta has laid the groundwork of telling folks what the opportunity is.” That said, if revenue does not begin accelerating, exiting 2025 into 2026, “I think investors will start losing patience,” she warns. (Zuckerberg is somewhat insulated from investor discontent; he controls about 61% of voting shares at Meta.)
One thing is clear, LeCun says: The kind of gamble Meta is taking, with its massive investment in GPUs and all things generative AI, requires a leader willing to take big swings. And Meta has not only that leader, but a massively profitable core business to fund the vision. As a result, Meta is back at the center of the most important conversation at the intersection of tech and business—and it’s not a conversation about legless metaverse avatars.
This article appears in the December 2024/January 2025 issue of Fortune as part of the 100 Most Powerful People in Business list.
Noticias
OpenAI elimina datos clave y se intensifica la demanda por derechos de autor
Un acontecimiento reciente en la batalla legal en curso entre OpenAI y los principales medios de comunicación, incluidos Los New York Times y Noticias diariasha llamado la atención en las comunidades tecnológica y legal.
Los abogados que representan a estos editores afirman que los ingenieros de OpenAI eliminaron accidentalmente datos cruciales que podrían haber respaldado su caso en una demanda que acusa a la empresa de inteligencia artificial de extraer contenido protegido por derechos de autor para entrenar sus modelos sin permiso.
Este incidente pone de relieve la tensión entre las tecnologías emergentes de IA y los derechos de propiedad intelectual. Esto es lo que sucedió y por qué es importante.
¿Qué pasó? El incidente de eliminación de datos
En un giro inusual, los ingenieros de OpenAI borraron los datos almacenados en una máquina virtual configurada para que los editores buscaran su material protegido por derechos de autor.
La demanda gira en torno a afirmaciones de que OpenAI utilizó artículos con derechos de autor, incluidos los de The New York Times y Daily News, para entrenar sus modelos de IA, como GPT-4, sin obtener los permisos o licencias necesarios.
En otoño, OpenAI acordó proporcionar dos máquinas virtuales a los equipos legales de los demandantes. Estas máquinas permitirían a los expertos buscar en los vastos conjuntos de entrenamiento de IA de OpenAI para ver si el contenido de las empresas se había utilizado sin consentimiento.
Después de semanas de búsqueda, los expertos habían acumulado más de 150 horas de trabajo, hasta que los datos fueron eliminados el 14 de noviembre.
Los abogados de los editores presentaron una carta en el Tribunal de Distrito de EE. UU. para el Distrito Sur de Nueva York, explicando que los ingenieros de OpenAI habían borrado accidentalmente datos críticos que podrían haber ayudado a rastrear dónde y cómo se utilizaron los artículos de los editores en el entrenamiento de los modelos.
Si bien se recuperaron algunos datos, las estructuras de carpetas y los nombres de los archivos se perdieron “irremediablemente”, lo que hizo que los datos recuperados fueran inútiles para la investigación. Este error obliga a los demandantes a recrear su trabajo desde cero.
¿Por qué es importante esto?
Esta eliminación podría tener un impacto significativo en el caso legal. Si los demandantes no pueden probar su afirmación de que OpenAI utilizó sus artículos sin permiso, puede resultar difícil responsabilizar a la empresa.
Aunque OpenAI intentó recuperar los datos, el incidente generó preocupaciones sobre la integridad de la gestión de datos de la empresa y su capacidad para cumplir con las obligaciones legales en lo que respecta al respeto de los derechos de propiedad intelectual.
Además, el equipo legal de los editores enfatizó que, si bien no creen que la eliminación haya sido intencional, subraya una cuestión crítica: OpenAI es la única entidad con acceso a sus propios conjuntos de datos.
La empresa podría estar mejor posicionada para realizar búsquedas exhaustivas para localizar cualquier contenido infractor. Sin embargo, sin una cooperación transparente, el proceso podría verse gravemente obstaculizado.
La defensa de OpenAI: uso legítimo frente a infracción de derechos de autor
En respuesta a estas demandas, OpenAI ha defendido constantemente su posición, argumentando que utilizar datos disponibles públicamente, incluidos artículos de noticias, para entrenar modelos de IA es una forma de “uso justo”.
Según esta doctrina legal, las empresas pueden utilizar material protegido por derechos de autor sin permiso si se utiliza con fines como investigación, educación o comentarios.
OpenAI cree que, dado que sus modelos, como GPT-4, se basan en grandes cantidades de contenido disponible públicamente, no necesita compensar a los titulares de derechos de autor, incluso si su tecnología genera ingresos al proporcionar servicios basados en IA.
Sin embargo, la legalidad de esta defensa sigue siendo un área gris. Si bien OpenAI ha firmado acuerdos de licencia con varios editores destacados, incluidos La prensa asociada, Información privilegiada sobre negociosy Tiempos financieroslos términos de estos acuerdos no han sido revelados.
Los informes sugieren que editores como Dotdash Meredith, la empresa matriz de Gentepodría estar recibiendo pagos sustanciales y, según se informa, Dotdash consiguió un acuerdo anual de 16 millones de dólares.
Estas asociaciones parecen ser parte de la estrategia de OpenAI para mitigar posibles riesgos de infracción de derechos de autor, pero la cuestión más amplia del uso de contenido protegido por derechos de autor sin consentimiento sigue siendo importante.
Las implicaciones legales y éticas
El caso OpenAI es un recordatorio de que los límites entre la innovación y la ley de propiedad intelectual siguen siendo turbios, especialmente en el campo de la IA en rápida evolución.
También destaca una preocupación más amplia: a medida que las tecnologías de inteligencia artificial se vuelven más sofisticadas, la línea entre lo que constituye “uso legítimo” y la infracción de derechos de autor es cada vez más difícil de trazar.
Para los editores, este caso plantea preguntas importantes sobre si deberían ser compensados por su trabajo utilizado en la capacitación en IA o si las empresas de IA deberían tener más libertad para construir modelos utilizando la gran cantidad de datos disponibles en Internet.
Si el argumento de OpenAI de que extraer datos disponibles públicamente constituye un uso legítimo se sostiene en los tribunales, podría sentar un precedente que cambie el panorama tanto para los creadores de contenido como para las empresas de tecnología.
¿Qué sigue en el caso?
Por ahora, la batalla legal está lejos de terminar. Si bien OpenAI no ha confirmado ni negado que haya utilizado ninguna obra específica protegida por derechos de autor, se espera que la demanda se prolongue durante algún tiempo.
Los próximos meses probablemente serán críticos para determinar cómo las empresas de IA manejarán las cuestiones de derechos de autor en el futuro. Los editores están siguiendo de cerca este caso, ya que su resultado podría remodelar la forma en que se utiliza el contenido para entrenar la IA y cómo se compensa a los creadores por su trabajo.
Un debate creciente sobre la IA y los derechos de autor
Este caso es parte de un debate más amplio sobre cómo debería evolucionar la ley de propiedad intelectual en la era de la inteligencia artificial.
Muchos creadores y editores de contenido están preocupados por las implicaciones de que la IA elimine su trabajo sin permiso, mientras que los desarrolladores de IA argumentan que tales prácticas son esenciales para construir tecnologías innovadoras que beneficien a la sociedad.
En los próximos años, es posible que veamos más casos como este, a medida que el mundo de la IA siga expandiéndose. Es probable que los tribunales tengan que decidir cómo equilibrar los intereses de los creadores, los consumidores y las empresas de tecnología de una manera que respalde tanto la innovación como la equidad.
Ejemplos del mundo real: ¿quién se ve afectado?
El impacto de este caso no se limita a las grandes editoriales como Los New York Times y Noticias diarias. Los creadores de contenidos más pequeños, los blogueros y los periodistas independientes también pueden sentir los efectos dominó del resultado.
Si a las empresas de inteligencia artificial se les permite extraer contenido sin licenciarlo, podría socavar el valor del trabajo original y la propiedad intelectual para todos los creadores.
Por otro lado, si los tribunales deciden que las empresas de inteligencia artificial deben pagar por el contenido que utilizan, esto podría proporcionar nuevas fuentes de ingresos para aquellos cuyo trabajo impulsa los algoritmos. Este es un momento crítico en la intersección de la tecnología, el derecho y la creatividad.
Al profundizar en esta disputa legal, podemos ver que el camino a seguir requerirá una cuidadosa consideración tanto de los principios legales como de las consideraciones éticas que rodean a la IA. Queda por ver si se exigirá a OpenAI que compense a los medios de comunicación por su contenido o si sus acciones se considerarán “uso justo”.
Pero una cosa está clara: la relación entre las empresas de IA y los creadores de contenido está entrando en un territorio inexplorado, y su resolución podría sentar las bases para la forma en que las futuras generaciones de IA interactuarán con el contenido que da forma a nuestro mundo digital.
Noticias
¿Quién será el próximo presidente del Comité Nacional Demócrata? Le preguntamos a ChatGPT
La carrera por el liderazgo del Comité Nacional Demócrata (DNC) ha comenzado oficialmente. El ex gobernador de Maryland, Martin O’Malley, y Ken Martin, presidente del Partido Demócrata-Campesino-Laborista de Minnesota, han surgido como los primeros candidatos oficiales.
La selección del nuevo presidente será fundamental para dar forma a la estrategia y dirección del partido de cara a las elecciones presidenciales de 2028.
Pero, ¿quién terminará reemplazando al actual presidente del Comité Nacional Demócrata, Jaime Harrison, quien ocupa el cargo desde enero de 2021? Semana de noticias preguntó la herramienta de IA generativa, ChatGPT, qué candidato cree que saldrá victorioso.
¿Quién ganará la carrera por el liderazgo del Comité Nacional Demócrata?
Semana de noticias preguntó Chat GPT “La carrera por el liderazgo del Comité Nacional Demócrata (DNC) ha comenzado oficialmente. El puesto quedará vacante en marzo cuando el actual presidente Jaime Harrison se prepara para dimitir. ¿Quién será el próximo presidente del DNC?”
Se pidió a la herramienta de IA generativa que viera una lista de los posibles candidatos, explicara por qué serían buenas opciones y sugiriera quién tenía probabilidades de ganar.
“El Comité Nacional Demócrata (DNC) elegirá un nuevo presidente para marzo de 2025, tras la decisión de Jaime Harrison de dimitir”, respondió Chat GPT. “Varios demócratas destacados han surgido como candidatos potenciales para este papel fundamental”.
Candidatos declarados
Ken Martín
Martin, que actualmente se desempeña como presidente del Partido Demócrata-Campesino-Laborista de Minnesota y vicepresidente del Comité Nacional Demócrata, anunció su candidatura el 19 de noviembre. Aporta una amplia experiencia en la organización del partido y ha obtenido el apoyo de varios líderes y progresistas del partido estatal.
Semana de noticias se ha puesto en contacto con Martin por correo electrónico para solicitar comentarios.
Martín O’Malley
El exgobernador de Maryland y candidato presidencial de 2016 declaró su candidatura a la presidencia del Comité Nacional Demócrata el 18 de noviembre. O’Malley enfatiza la necesidad de que el partido se reconecte con los estadounidenses comunes y corrientes y se centre en la seguridad económica.
Semana de noticias se ha comunicado con Martin a través de un comentario en un formulario en línea.
Candidatos potenciales
Ben Wikler
Como presidente del Partido Demócrata de Wisconsin, Wikler ha desempeñado un papel decisivo en la movilización de votantes en un estado clave en el campo de batalla. Sus habilidades organizativas y su éxito en Wisconsin lo convierten en un fuerte contendiente.
Semana de noticias se ha puesto en contacto con Wikler por correo electrónico para hacer comentarios
Emanuel Rahm
Según se informa, el actual embajador de Estados Unidos en Japón y ex alcalde de Chicago está considerando postularse para presidente del Comité Nacional Demócrata. La amplia experiencia política de Emanuel y su capacidad de recaudación de fondos podrían ser activos valiosos para el partido.
Semana de noticias se ha comunicado con Emanuel por correo electrónico para solicitar comentarios.
Mitch Landrieu
El ex alcalde de Nueva Orleans y zar de infraestructura de la Casa Blanca ha sido mencionado como candidato potencial. La experiencia de Landrieu en proyectos de infraestructura y gobernanza urbana podría proporcionar una ventaja estratégica.
Semana de noticias se ha comunicado con Landrieu por correo electrónico para solicitar comentarios.
Resultado probable
Si bien es prematuro predecir el resultado definitivo, la entrada temprana de Ken Martin en la carrera y su apoyo sustancial de los miembros del Comité Nacional Demócrata lo posicionan como un candidato fuerte. Sin embargo, la dinámica podría cambiar a medida que otros candidatos formalicen sus candidaturas y presenten sus visiones para el futuro del partido.
La selección del próximo presidente del Comité Nacional Demócrata influirá significativamente en la estrategia y dirección del Partido Demócrata en los próximos años, especialmente después de los recientes resultados electorales.
¿Cuándo se decidirá el próximo presidente del Comité Nacional Demócrata?
Se espera que el Comité Nacional Demócrata elija a su próximo presidente antes del 1 de marzo de 2025. Las reglas del partido exigen que la elección de liderazgo se lleve a cabo antes de esta fecha, según Ballotpedia.
Aunque aún no se ha anunciado la fecha exacta, las elecciones generalmente tienen lugar durante la reunión de invierno del comité.
¿Tienes una historia? Semana de noticias debería estar cubriendo? ¿Tienes alguna pregunta sobre esta historia? Póngase en contacto con [email protected].
Noticias
13 sencillos consejos y trucos de Google Gemini para lograr la máxima productividad
Mucho más que un simple chatbot talentoso, Google Gemini ofrece funcionalidad de IA multimodal y una interactividad potente e indolora. El nivel más alto de Google One, uno de los mejores servicios de almacenamiento en la nube de la actualidad, incluye convenientemente acceso a su versión más potente.
Emitir indicaciones sencillas y generar texto escrito competente resulta fácil para los nuevos usuarios de Gemini, pero su conjunto de herramientas en constante expansión proporciona impresionantes mejoras en la productividad. Estas son algunas de las formas más útiles de utilizar el agente de inteligencia artificial de Google en constante mejora para ahorrar tiempo y aumentar el rendimiento.
Relacionado
Primeros pasos con Google Gemini: conceptos básicos del último asistente de Android
Si quieres probar Géminis, estos consejos y trucos te ayudarán
13 Actualizar la gestión del tiempo y las rutinas de autocuidado
Aprenda hábitos eficientes y prácticas efectivas.
Alimentar a Géminis con una lista completa de tareas pendientes, completa con tareas recurrentes y actividades únicas, puede generar un cronograma conciso que priorice su rutina personal, las próximas fechas límite importantes o los nuevos hábitos que está tratando de adquirir. Alternativamente, brinde al agente de IA un resumen detallado de cómo pasó los últimos días, y podrá brindarle consejos sobre cómo optimizar su agenda para que todo se ajuste más cómodamente.
En su vida profesional, delinear las necesidades y los recursos de un proyecto le permite a Gemini analizar las formas más rentables y rentables de lograr sus objetivos. Después de todo, nada ayuda más a desarrollar la eficiencia de una máquina que preguntarle a una máquina.
12 Obtenga esquemas sencillos de videos de YouTube
No pierdas el tiempo sentado viendo vídeos extendidos
A veces, los creadores de información se van por la tangente y los expertos educados se vuelven prolijos. En lugar de esperar vídeos largos para ir al grano, o intentar mantener todos los elementos en orden en tu cabeza, pídele a Gemini un resumen. Puede seleccionar los puntos más importantes a lo largo de una producción y presentarlos en un formato fácil de leer.
Funciona especialmente bien con vídeos instructivos, como tutoriales de reparación y cocina, pero resulta útil con todo tipo de contenido. Incluso puede ayudar a evitar anuncios tediosos para aquellos que aún no están suscritos a YouTube Premium.
Relacionado
El vicepresidente senior de Arm explica el verdadero impacto de la IA, y no es lo que piensas
Nuestra entrevista con el ejecutivo de Arm, Chris Bergey
11 Resumir conjuntos de datos grandes y complejos
Analizar cantidades abrumadoras de información
Si tiene una hoja de cálculo con demasiadas páginas y columnas para entenderla rápidamente, pídale a Gemini que la desglose por usted. Puede extraer inferencias generales de toda la colección de datos, investigar tendencias dentro de categorías individuales e incluso ayudar a desarrollar gráficos para visualizar la información. Puede solicitar resultados más simples o más complejos si todavía tiene problemas para comprender un documento o necesita información más detallada.
10 Autocompletar hojas de cálculo según el contexto
Complete rápidamente la entrada de datos repetitivos
Fuente: Google
La función mejorada Smart Fill de Gemini en Google Sheets detecta patrones y proporciona soluciones automatizadas para la tediosa entrada de texto. Transfiere rápidamente datos relativamente simples de una columna o formato a otro. Gemini Autofill agrega una capa de integración de IA, identifica relaciones más complejas y sugiere formas de registrarlas de manera clara y efectiva. Estas dos características ejemplifican la utilidad de lo que algunos llaman un “autocompletado glorificado”.
Relacionado
8 formas de usar Gemini en Google Sheets
Google Sheets con Gemini garantiza que tu día sea más fácil
9 Analice fácilmente la calidad SEO de los sitios web
Consulte las entradas del blog y los editoriales para comprobar su exhaustividad.
Un mensaje rápido le permite a Gemini examinar qué tan bien usted o un medio crearon un sitio. Puede compilar un informe sobre la cohesión de encabezados, meta descripciones, palabras clave y enlaces entrelazados. También puede usarlo junto con la página de resultados del motor de búsqueda para ver qué tan bien se está conectando con lo que quiere el público. Sobresale especialmente en generar preguntas de personas que también hacen y fragmentos destacados.
Con acceso a la herramienta de prueba de datos estructurados de Google, pocos agentes de inteligencia artificial pueden igualar la capacidad de Gemini para analizar la estructura y navegación de una página. Sin embargo, al igual que con otras solicitudes directas de análisis, asegúrese de comprobar los sentidos de las respuestas de Géminis. En lugar de confiar en que sus consejos de SEO sean correctos, utilice sus afirmaciones para comparar la página con las técnicas de SEO actuales y establecidas, y prepárese para solicitar revisiones o una segunda opinión.
8 Solucionar problemas y verificar el código
Rebotar ideas de programación de un modelo programado.
Los programadores han utilizado durante mucho tiempo patos de goma como oyentes inanimados para ayudar a encontrar problemas que se escapan de las grietas. Géminis puede responder, lo que lo hace aún más efectivo. Puede brindarle numerosos puntos de partida y métodos para abordar una tarea de programación y evaluar la eficiencia con la que se ejecutará su código ya escrito.
Querrá comparar sus sugerencias con sus conocimientos y recursos y, a veces, se topa con callejones sin salida o alucina, pero es mucho más efectivo que un juguete de baño.
7 Crea itinerarios de viaje inspiradores
Deje que Géminis actúe como trampolín para sus planes de vacaciones
Utilice Gemini para Google Sheets para crear planes de viaje perfectos, ya sea para un viaje de trabajo o recreativo. Puede dirigirlo a los sitios más famosos, mostrarle más atracciones que pasan desapercibidas e incluso presentarle algunos lugares locales oscuros. Naturalmente, siempre puedes utilizar sus itinerarios de muestra para ayudarte a pensar dónde quieres ir y qué quieres hacer, eliminando el estrés de planificar salidas de larga distancia.
6 Diseñe indicaciones de IA más efectivas
Cómo Gemini te ayuda a usar Gemini
Decirle al asistente de inteligencia artificial que necesita ayuda con el mensaje de Géminis correcto puede desbloquear estrategias que de otro modo tendría que investigar y adivinar. Esto tiene sentido, porque ¿qué conoce mejor a Géminis que él? Describir sus necesidades, incluido el contexto, el formato y el grado de especificidad, puede reducir la cantidad de tiempo necesario para obtener información útil. También puede adaptar el resultado al tono adecuado para comunicarse con grupos específicos de personas.
Relacionado
Aquí se explica cómo avisar a Géminis, según Google
Google publicó una hoja de trucos para aprovechar al máximo su herramienta de IA
5 Simplifique la redacción técnica para lectores generales
Reduzca la jerga y optimice los temas complicados
Para un escritor técnico que explica temas avanzados a generalistas, o para un profano que intenta comprender las complejidades de un campo de alta tecnología, Gemini hace maravillas al simplificar temas confusos. Reemplaza la terminología específica de un campo con una redacción sencilla y ayuda a lectores y escritores de ambos extremos del espectro a mantenerse en sintonía.
4 Encuentre respuestas a preguntas oscuras
Cuando la Búsqueda de Google no es suficiente
Es difícil obtener las respuestas exactas a algunas preguntas, pero el vasto Gráfico de conocimiento de Google vincula su enorme variedad de información de maneras poderosas. Mejora su capacidad para investigar y crear contenido informativo en profundidad, especialmente cuando utiliza Gemini en Google Docs.
Gemini y otros LLM cometen errores y siempre necesitarás volver a verificar sus respuestas, pero copiar y pegar rápidamente lo hace fácil. Al menos, buscar en la web a través de Gemini le brinda el trampolín perfecto para responder consultas extremadamente específicas.
3 Implementar fórmulas avanzadas de hojas de cálculo
Omita el proceso de dominar Google Sheets
Ya no necesitas pasar incontables horas dominando hojas de cálculo para implementar las fórmulas más efectivas. Gemini para Google Sheets ya hace un trabajo fantástico al sugerir las operaciones correctas y siempre está mejorando. La gestión competente de hojas de cálculo puede hacer o deshacer un equipo, lo que la convierte en una poderosa herramienta profesional.
2 Prepárese para entrevistas y reuniones importantes
Haga que Géminis haga las preguntas para evitar que lo tomen por sorpresa
Fuente: Policía de Android
No hay nada mejor que practicar para entrevistas individuales y paneles de discusión grupales. Proporcione a Gemini su tesis, currículum o tema y recursos de discusión, y pídale que le interrogue sobre contenido relacionado. Rápidamente desarrollarás una comprensión más profunda de tu propio material e incluso podría ayudarte a conseguir un trabajo o un ascenso.
1 Ajuste los agentes de IA de Gems personalizados
Tenga a mano asistentes de IA personalizados en todo momento
Fuente: Google
Los agentes de IA de Google Gems le permiten personalizar un agente específico para los temas, formatos y tonos que necesita habitualmente. Desarrolla el tuyo propio y mantenlo a tu lado para tus tareas más habituales. Esto puede reducir en gran medida la cantidad de tiempo y esfuerzo que se necesita para usar la IA, de otra manera que Gemini te ayuda a usarla.
Relacionado
Cómo crear chatbots de IA personalizados con Gemini Gems
Crea un chatbot personalizado usando Gemini Gems
Las posibilidades casi infinitas siguen aumentando
A medida que Google integre aún más Gemini en servicios potentes como la aplicación Workspace, su efectividad solo mejorará, especialmente considerando el procesamiento de IA en el dispositivo que permiten los mejores teléfonos inteligentes de la actualidad. Reduce la complejidad de la capacitación, la comunicación, el resumen y la creación, y puede ayudarlo a mantener sus pensamientos en orden cuando aparentemente tiene demasiada información que manejar.
Si utiliza estos u otros consejos de productividad con frecuencia, probablemente se beneficiará de una suscripción Gemini Advanced, que brinda acceso a un procesamiento más potente que el Gemini estándar.
-
Recursos6 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Startups6 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos6 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos6 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Eventos6 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024
-
Noticias4 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo
-
Estudiar IA6 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Tutoriales6 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes