Connect with us

Noticias

How Mark Zuckerberg went all-in to make Meta a major AI player and threaten OpenAI’s dominance

Published

on

It was the summer of 2023, and the question at hand was whether to release a Llama into the wild.

The Llama in question wasn’t an animal: Llama 2 was the follow-up release of Meta’s generative AI mode—a would-be challenger to OpenAI’s GPT-4. The first Llama had come out a few months earlier. It had originally been intended only for researchers, but after it leaked online, it caught on with developers, who loved that it was free—unlike the large language models (LLMs) from OpenAI, Google, and Anthropic—as well as state-of-the-art. Also unlike those rivals, it was open source, which meant researchers, developers, and other users could access the underlying code and its “weights” (which determine how the model processes information) to use, modify, or improve it.

Yann LeCun, Meta’s chief AI scientist, and Joelle Pineau, VP of AI research and head of Meta’s FAIR (Fundamental AI Research) team, wanted to give Llama 2 a wide open-source release. They felt strongly that open-sourcing Llama 2 would enable the model to become more powerful more quickly, at a lower
cost. It could help the company catch up in a generative AI race in which it was seen as lagging badly behind its rivals, even as the company struggled to recover from a pivot to the metaverse whose meager offerings and cheesy, legless avatars had underwhelmed investors and customers

But there were also weighty reasons not to take that path. Once customers got accustomed to a free product, how could you ever monetize it? And as other execs pointed out in debates on the topic, the legal repercussions were potentially ugly: What if someone hijacked the model to go on a hacking spree? It didn’t help that two earlier releases of Meta open-source AI products had backfired badly, earning the company tongue-lashings from everyone from scientists to U.S. senators.

It would fall to CEO Mark Zuckerberg, Meta’s founder and controlling shareholder, to break the deadlock. Zuckerberg has long touted open-source technology (Facebook itself was built on open-source software), but he likes to gather all opinions; he spoke to “everybody who was either for, anti, or in the middle” on the open-source question, recalls Ahmad Al-Dahle, Meta’s head of generative AI. But in the end it was Zuckerberg himself, LeCun says, who made the final decision to release Llama 2 as an open source model: “He said, ‘Okay, we’re just going to do it.’” On July 18, 2023, Meta released Llama 2 “free for research and commercial use.”

In a post on his personal Facebook page, Zuckerberg doubled down on his decision. He emphasized his belief that open-source drives innovation by enabling more developers to build with a given technology. “I believe it would unlock more progress if the ecosystem were more open,” he wrote.

The episode could have just been another footnote in the fast-unfolding history of artificial intelligence. But in hindsight, the release of Llama 2 marked a crucial crossroads for Meta and Zuckerberg—the beginning of a remarkable comeback, all thanks to tech named after a furry camelid. By the time Llama 3 models were released in April and July 2024, Llama had mostly caught up to its closed-source rivals in speed and accuracy. On several benchmarks, the largest Llama 3 model matched or outperformed the best proprietary models from OpenAI and Anthropic. One advantage in Llama’s favor: Meta uses publicly shared data from billions of Facebook and Instagram accounts to train its AI models.

The Llama story could be a pivotal chapter in the ongoing philosophical debate between open-source AI models (generally more transparent, flexible, and cost-effective, but potentially easier to abuse) and closed models (often more tightly controlled but lacking transparency and more costly to develop). Just as crucially, Llama is at the core of a complete strategic pivot on the part of Meta to go all in on generative AI. Zuckerberg is now seen as a champion of “democratizing tech” among Silicon Valley developers—just two years after he and his company were being questioned, and sometimes mocked, for going all in on the metaverse, and vilified for having contributed to political polarization, extremism, and harming the mental health of teenagers.

Yann LeCun, Meta’s chief AI scientist, built Meta’s AI research around open-source work long before Llama launched.

DeSean McClinton-Holland for Fortune

While ChatGPT remains the dominant gen AI tool in the popular imagination, Llama models now power many, if not most, of the Meta products that billions of consumers encounter every day. Meta’s AI assistant, which reaches across Facebook, Instagram, WhatsApp, and Messenger, is built with Llama, while users can create their own AI chatbot with AI Studio. Text-generation tools for advertisers are built on Llama. Llama helps power the conversational assistant that is part of Meta’s hit Ray-Ban glasses, and the feature in the Quest headset that lets users ask questions about their surroundings. The company is said to be developing its own AI-powered search engine. And outside its walls, Llama models have been downloaded over 600 million times on sites like open-source AI community Hugging Face.

Still, the pivot has perplexed many Meta watchers. The company has spent billions to build the Llama models: On its third-quarter earnings call, Meta announced that it projects capital expenditures for 2024 to reach as high as $40 billion, with a “significant” increase likely in 2025. Meanwhile, it’s giving Llama away for free to thousands of companies, including giants like Goldman Sachs, AT&T, and Accenture. Some investors are struggling to understand where and when, exactly, Meta’s revenue would start to justify the eye-watering spend.

Why open-sourcing Llama is good for Meta is “the big puzzle,” says Abhishek Nagaraj, associate professor at the University of California at Berkeley’s Haas School of Business, adding that it’s “hard to justify” from a purely economic standpoint.

Nonetheless, Llama’s contrarian success has allowed Zuckerberg to shrug off the lukewarm response to his metaverse ambitions and the company’s painful “year of efficiency” in late 2022 and early 2023. The rise of Llama has also given Zuckerberg a chance to address a longsimmering sore point in his otherwise meteoric career: the fact that Facebook, and now Meta, have so often seen their services and products constrained by rules imposed by Apple and Google—the rival giants whose app stores are Meta’s primary points of distribution in the mobiledevice era. As he wrote in a July blog post: “We must ensure that we always have access to the best technology, and that we’re not locking into a competitor’s closed ecosystem where they can restrict what we build.”

“We got incoming requests from people who said, ‘You have to open-source that stuff. It’s so valuable that you could create an entire industry, like a new internet.’”

Yann Lecun, describing reactions to the 2023 leak of Llama

With Llama, Meta and Zuckerberg have the chance to set a new industry standard. “I think we’re going to look back at Llama 3.1 as an inflection point in the industry, where open-source AI started to become the industry standard, just like Linux is,” he said on Meta’s July earnings call—invoking the open-source project that disrupted the dominance of proprietary operating systems like Microsoft Windows.

Perhaps it’s this possibility that is giving Zuckerberg some new swagger. At 40, two decades after he cofounded Facebook, he appears to be enjoying what many are calling his “Zuckaissance”—a personal and professional glow-up. His once close-cropped haircut has given way to lush curls, the drab hoodies are swapped for gold chains and oversize black T-shirts, and his hard-edged expressions have softened into relaxed smiles. He even found time in November to collaborate with T-Pain on a remake of the hip-hop hit “Get Low”—an anniversary gift to his wife, Priscilla Chan.

In the long run, OpenAI’s ChatGPT may be seen as the fiery spark that ignited the generative AI boom. But for now, at least, Llama’s own future’s so bright, Zuckerberg has gotta wear AI-powered Ray-Ban shades.


Meta’s work on AI began in earnest in 2013, when Zuckerberg handpicked LeCun, a longtime NYU professor and an AI luminary, to run Facebook’s new FAIR lab. LeCun recalls that when he began discussing the role, his first question was whether Facebook would open-source its work. “Nobody has a monopoly on good ideas,” he told Zuckerberg, “and we need to collaborate as much as we can.” LeCun was thrilled with the answer he got: “Oh, you don’t have to worry about it. We already open-source our platform software and everything.”

But prior to the generative AI boom, Meta’s use of AI was mostly behind the scenes—either research focused or integrated under the hood of its recommendation algorithms and content moderation. There were no big plans for a consumer-facing AI product like a chatbot—particularly not when Zuckerberg’s attention was focused on the metaverse.

Generative AI began to take off with OpenAI’s release of ChatGPT, just as the Meta pivot was looking particularly unwise. With metaverse spending through the roof and consumers utterly uninterested, Meta’s stock hit a seven-year low, inspiring headlines like, “How Much Trouble Is Mark Zuckerberg In?” The company began laying off thousands of employees.

Meta’s first widely noticed foray into gen AI didn’t fare much better. In November 2022, FAIR released a demo of an LLM chatbot, trained on scientific texts, called Galactica. Like previous FAIR models, Galactica was released as open-source, allowing free access to the “brains” of the model. This openness was meant to enable researchers to study how Galactica functioned.

But these were the days before the public was fully aware of LLMs’ tendency to hallucinate—to sometimes spit out answers that are convincing, confident, and wrong. Many scientists were appalled by the Galactica chatbot’s very unscientific output, which included citing research papers that didn’t exist, on topics such as how to make napalm in a bathtub; the benefits of eating crushed glass; and “why homosexuals are evil.” Critics called Galactica “unethical” and “the most dangerous thing Meta’s made yet.”

After three days of intense criticism, Meta researchers shut down Galactica. Twelve days later, OpenAI released ChatGPT, which quickly went viral around the world, tapping into the cultural zeitgeist (despite its own serious hallucination issues).

Bruised but undeterred, researchers at FAIR spent the winter fine-tuning a new family of generative AI models called LLaMA (short for Large Language Models Meta AI). After the Galactica backlash, Meta was cautious: Instead of fully opening the code and model weights to all, Meta required researchers to apply for access, and no commercial license was offered. When asked why, LeCun responded on X: “Because last time we made an LLM available to everyone…people threw vitriol at our face and told us this was going to destroy the fabric of society.”

Despite these restrictions, the full model leaked online within weeks, spreading across 4chan and various AI communities. “It felt a bit like Swiss cheese,” Nick Clegg, Meta’s president of global affairs, says of the failed attempt to keep Llama behind closed doors. Meta filed takedown requests against sites posting the model online in an attempt to control the spread. Some critics warned of serious repercussions and excoriated Meta: “Get ready for loads of personalized spam and phishing attacks,” cybersecurity researcher Jeffrey Ladish posted on X.

The consternation even reached Capitol Hill. In June 2023, two U.S. senators wrote a letter to Zuckerberg, criticizing Llama’s release and warning of its potential misuse for fraud, malware, harassment, and privacy violations. The letter said that Meta’s approach to distributing advanced AI “raises serious questions about the potential for misuse or abuse.”

But at the same time, LeCun says, he and other Meta leaders were taken aback by the sheer demand for the leaked Llama model from researchers and developers. These would-be users wanted the flexibility and control that would come with open access to a profoundly powerful LLM. A law firm, for example, could use it to train a specialized model for legal use—and own the intellectual property. A health care company could audit and manage the data behind the model, ensuring HIPAA compliance. Researchers could experiment and examine the inner workings of the model. “We got incoming requests from people who said, ‘You have to open-source that stuff. It’s so valuable that you could create an entire industry, like a new internet,’” LeCun says

Messages came directly to Zuckerberg, to CTO Andrew “Boz” Bosworth, and to LeCun, leading to weekly calls in which the leaders debated what they should do. Should they open-source the next release? Did the benefits outweigh the risks? By midsummer, Zuckerberg’s mind was made up, with backing from Pineau and LeCun—leading to the big July 2023 reveal.

Joelle Pineau (left) and Ahmad Al-Dahle have helped lead Meta’s generative-AI R&D efforts. This year, they began reporting to the chief product officer—a sign of how quickly their work was being deployed in Facebook, Instagram, and elsewhere.

Cayce Clifford for Fortune

Llama 2 was not entirely open. Meta did not disclose the datasets—including all that Facebook and Instagram material—used to train the model, which are widely regarded as its key competitive advantage. It also restricted usage by companies with more than 700 million monthly active users, primarily meant to deter Meta’s Big Tech competitors. But the source code and model weights could be downloaded, and Meta encouraged users to contribute improvements, bug fixes, and refinements of results to a collaborative community.

Even before the Llama 2 release, Zuckerberg had laid the groundwork to treat it like Meta’s next big thing. After the first Llama model was released, in February 2023, Zuckerberg quickly put together a team from across the company, including FAIR, to focus on accelerating generative AI R&D in order to deploy it in Meta app features and tools. He chose Ahmad Al-Dahle, a former Apple executive who had joined Meta in 2020 to work on metaverse products, to lead the new team.

At an internal all-hands meeting in June 2023, Zuckerberg shared his vision for Meta’s AI-powered future. Meta was building generative AI into all of its products, he said, and he reaffirmed the company’s commitment to an “open science-based approach” to AI research. “I had a big remit,” Al-Dahle says: “Develop state-of-theart models; put them in product at record speed.”

In other words: It was game on for Llama.


Meta’s strategy can seem counterintuitive, coming from a company with $135 billion in annual revenue. Open-source software has typically been seen as a way to democratize technology to the advantage of small startups or under-resourced teams— the kinds scrambling to compete with giants like Meta.

In a July 2024 blog post called “Open Source Is the Path Forward,” Zuckerberg made it clear that giving away Llama is not an altruistic move. Open-sourcing, he said, would give Meta a competitive edge in the AI race—and could eventually make Llama the go-to platform for generative AI. Just as important, he wrote: “Openly releasing Llama doesn’t undercut our revenue, sustainability, or ability to invest in research like it does for closed providers” like OpenAI or Google.

Now that Llama has had a year-plus to prove itself, some are finding Zuck’s case persuasive. Shweta Khajuria, an analyst at Wolfe Research who coverscMeta, calls releasing Llama as open-source “a stroke of genius” that will enable Meta to attract top talent, accelerate innovation on its own platform, develop new revenue sources, and extend its longevity. Already, she explains, open-sourcing Llama basically allowed Meta to quickly catch up to OpenAI, Google, and Anthropic, in part because thousands of developers are building and improving on Llama at a blistering pace. “If they had not open-sourced it, it probably would have taken a much longer time to be at bar with other frontier models,” she says.

Khajuria believes there will be plenty of new monetization opportunities for Meta down the line, such as subscription and advertising options for current Meta AI features based on Llama, as well as AI-powered in-app business messaging. “Meta benefits from having billions of users where Perplexity and Claude and ChatGPT don’t necessarily have that base,” she says. “Once they have a critical mass of users and usage around the world, they can monetize.”

Zuckerberg has also alluded to the fact that AI-generated content itself will be valuable (though others have criticized such content as “slop”). On the recent earnings call, Zuckerberg said: “I think we’re going to add a whole new category of content, which is AI-generated or AI-summarized content, or existing content pulled together by AI in some way, and I think that that’s gonna be very exciting for Facebook and Instagram and maybe Threads, or other kinds of feed experiences over time.”

Patrick Wendell is CTO and cofounder of data and AI company Databricks, which released Meta’s Llama 3.1 models on its platform in July. He sees Meta’s move as much more far-reaching. If the internet was the first big wave of technology, which enabled Facebook’s creation, and mobile was the second, dominated by Apple and Google, “I think [Zuckerberg’s] calculus is the third big wave is coming, and he does not want to have one or two companies completely control all access to AI,” Wendell says. “One way you can avoid that is by basically commoditizing the market, giving away the core IP for free…so no one gains a monopoly.”

Some critics argue that Meta shouldn’t be using the term “open-source” at all. Current versions of Llama still have restrictions that traditional open-source software doesn’t (including lack of access to datasets). In October, the Open Source Initiative, which coined the term, criticized Meta for “confusing” users and “polluting” the nomenclature, and noted that Google and Microsoft had dropped their use of the term (using the phrase “open weights” instead). Clegg, Meta’s global affairs chief, is blunt in his rebuttal: He says the debate reminds him of “folks who get very agitated about how vinyl is the only true kind of definition of good music.” Only a handful of scientific and low-performing models would fit the definition, he continues: “No one has copyright IP ownership over these two English words.”

Nomenclature aside, Meta is winning where it matters. Nathan Lambert, a research scientist at the nonprofit Allen Institute for AI, says that while definitions might be quibbled about, more than 90% of the open-source AI models currently in use are based on Llama. Open-source coders accept that Zuckerberg “has some corporate realities that will distort his messaging,” he says. “At the end of the day, the community needs Llama models.


Internally at Meta, Llama and revenue-generating businesses are increasingly inextricable. In January, Zuckerberg moved FAIR, the AI research group, into the same part of the company as the team deploying generative AI products across Meta’s apps. LeCun and Pineau now report directly to chief product officer Chris Cox, as does Al-Dahle. “I think it makes a lot of sense to put [FAIR] close to the family of app products,” says Pineau; she points out that even before the reshuffle, research her team worked on often ended up in Meta products just a few months later.

Zuckerberg also tasked FAIR with something far more ambitious: developing artificial general intelligence (AGI), a type of AI that possesses humanlike intelligence. The company prefers to use the term AMI (“advanced machine intelligence”), but whatever it’s called, Pineau says, Meta now has a “real road map” to create it—one that relies, presumably, on a thriving Llama. Meanwhile the company is hard at work on Llama 4 models currently being trained on a cluster of over 100,000 pricey Nvidia GPUs, a cluster that Zuckerberg recently said was “bigger than anything that I’ve seen reported for what others are doing.”

Not everyone loves the idea of a bigger-than-anything Llama. For years, Zuckerberg and his company have grappled with public mistrust over the way it has used other types of AI to personalize news feeds, moderate content, and target ads across Facebook, Instagram, and WhatsApp. Critics have accused its algorithms of exacerbating political polarization, adolescent mental-health crises, and the spread of misinformation (accusations Meta has denied or rebutted); it was perhaps inevitable that Llama would face extra scrutiny.

Zuckerberg “does not want to have one or two companies completely control all access to AI. One way you can avoid that is by giving away the core IP for free, so no one gains a monopoly.”

PATRICK WENDELL, cofounder and CTO, Databricks

Some critics fear that an open-source model like Llama is dangerous in the hands of malicious actors, precisely because it’s too open. Those concerns may grow in today’s tense geopolitical atmosphere. On Nov. 1, Reuters reported that China’s army had built AI applications for military use on the back of an early version of Llama.

An incoming Trump administration could make it even more complicated to keep Llama open. Trump’s economic nationalism would suggest that he would certainly not want China (or any other country) to access American-made state-of-the-art AI models. But Llama’s future may depend on who has Trump’s ear: Vice President–elect JD Vance has spoken out in support of open-source AI in the past, while Elon Musk’s xAI has open-sourced its chatbot Grok (and Musk famously cofounded OpenAI as an open-source lab).

Even some of Zuckerberg’s oldest friends have concerns about this kind of arms race. Dustin Moskovitz, a cofounder of Facebook and now CEO of Asana (and the founder of Open Philanthropy, one of the biggest funders of AI safety initiatives), says that while he is not against open-source LLMs, “I don’t think it’s appropriate to keep releasing ever more powerful versions.”

But Zuckerberg and his allies, both within Meta and without, argue that the risks of open-source models are actually less than those built behind proprietary closed doors. Preemptive regulation of theoretical harms of open-source AI will stifle innovation, they say. In a cowritten essay in August, Zuckerberg and Spotify cofounder Daniel Ek noted that open-source development is “the best shot at harnessing AI to drive progress and create economic opportunity and security for everyone.”


Whatever the outcome of Meta’s increasingly loud open-source activism, many argue that Zuckerberg is exactly the right messenger. His personal involvement in promoting Llama and open-source, insiders agree, is the key reason Meta has been able to move with such speed and focus. “He’s one of a few founder leaders left at these big tech companies,” says Clegg. “One of the great advantages of that means you have a very short line of command.”

Zuckerberg also has been active in recruiting AI talent, often reaching out personally. A March 2024 report said that Zuckerberg had been luring researchers from Google’s DeepMind with personal emails in messages that stressed how important AI was to the company.

Erik Meijer, who spent eight years at Meta leading a team focused on machine learning—before being laid off in November 2022—believes such a total shift is only possible with someone like Zuckerberg at the top. “It’s like pivoting a giant supertanker,” he says. “He’s a little bit like a cult hero inside the company, in a good sense, so I think that helps get all the noses in the same direction.” Zuckerberg’s new personal makeover, Meijer mused, is “maybe a very externally visible sign of renewal.”

Zuckerberg’s renewal, and Meta’s transformation, are sure to test investor patience due to skyrocketing capital expenditures. Khajuria, the Wolfe analyst, says investors will tolerate it for now “because Meta has laid the groundwork of telling folks what the opportunity is.” That said, if revenue does not begin accelerating, exiting 2025 into 2026, “I think investors will start losing patience,” she warns. (Zuckerberg is somewhat insulated from investor discontent; he controls about 61% of voting shares at Meta.)

One thing is clear, LeCun says: The kind of gamble Meta is taking, with its massive investment in GPUs and all things generative AI, requires a leader willing to take big swings. And Meta has not only that leader, but a massively profitable core business to fund the vision. As a result, Meta is back at the center of the most important conversation at the intersection of tech and business—and it’s not a conversation about legless metaverse avatars.

This article appears in the December 2024/January 2025 issue of Fortune as part of the 100 Most Powerful People in Business list.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Un marco de descubrimiento de arquitectura neuronal de parámetros múltiples automatizados utilizando chatgpt en el backend

Published

on

  • Chua, M. et al. Abordar la incertidumbre de predicción en el aprendizaje automático para la atención médica. Nat. Biomed. Ing. 7711–718 (2023).

    Artículo PubMed Google Scholar

  • Bhardwaj, R. y Tripathi, I. Un algoritmo de ocultación de datos reversibles mejorados que utiliza una red neuronal profunda para E-Healthcare. J. Amb. Intell. Humaniz. Computación. 1410567–10585 (2023).

    Artículo Google Scholar

  • Nandy, S. et al. Un sistema inteligente de predicción de enfermedades cardíacas basado en la red neuronal artificial enjambre. Computación neuronal. Aplicación 3514723–14737 (2023).

    Artículo Google Scholar

  • Jaafar, N. y Lachiri, Z. Métodos de fusión multimodal con redes neuronales profundas y metainformación para la detección de agresión en vigilancia. Sistema de expertos. Aplicación 211118523 (2023).

    Artículo Google Scholar

  • Mahum, R. et al. Un marco robusto para generar resúmenes de video de vigilancia utilizando la combinación de momentos de Zernike y una transformación R y una red neuronal profunda. Multimed. Herramientas apl. 8213811–13835 (2023).

    Artículo Google Scholar

  • Jan, Z. et al. Inteligencia artificial para la industria 4.0: Revisión sistemática de aplicaciones, desafíos y oportunidades. Sistema de expertos. Aplicación 216119456 (2023).

    Artículo Google Scholar

  • Raja Santhi, A. y Muthuswamy, P. Industry 5.0 o Industry 4.0 s? Introducción a la industria 4.0 y un vistazo a las posibles tecnologías de la industria 5.0. Int. J. Interact. Des. Manuf. (Ijidem) 17947–979 (2023).

    Artículo Google Scholar

  • Shafiq, M. et al. Evaluación continua de control de calidad durante la fabricación utilizando algoritmo de aprendizaje supervisado para la industria 4.0. Int. J. Adv. Manuf. Technol. (2023).

  • Rajput, DS, Meena, G., Acharya, M. y Mohbey, KK Predicción de fallas utilizando red neuronal de convolución difusa en entorno IoT con fusión de datos de detección heterogénea. Medición Sensación 26100701 (2023).

    Artículo Google Scholar

  • Liyakat, KK S. Enfoque de aprendizaje automático utilizando redes neuronales artificiales para detectar nodos maliciosos en redes IoT. En Conferencia internacional sobre aprendizaje automático, IoT y Big Data 123–134 (Springer, 2023).

  • Thakkar, A. y Lohiya, R. Clasificación de ataque de datos de intrusión desequilibrados para la red IoT utilizando una red neuronal profunda basada en el aprendizaje. IEEE Internet Things J. 1011888–11895 (2023).

    Artículo Google Scholar

  • Openai, R. GPT-4 Informe técnico. Preprint en ARXIV: 2303.08774. Ver en el artículo213 (2023).

  • Wang, J. et al. EL-NAS: Eficiente búsqueda de arquitectura de dominio de atención cruzada para la clasificación de imágenes hiperespectrales. Sensación remota. 154688 (2023).

    Anuncios de artículos Google Scholar

  • Yang, T., He, Q. y Huang, L. OM-NAS: Clasificación de imagen de lesión de piel pigmentada basada en una búsqueda de arquitectura neural. Biomed. Optar. Expresar 142153–2165 (2023).

    Artículo CAS PubMed PubMed Central Google Scholar

  • Yang, Y., Wei, J., Yu, Z. y Zhang, R. Un marco de búsqueda de arquitectura neuronal confiable para la clasificación de imágenes de neumonía utilizando tecnología blockchain. J. Supercomput. 801694-1727 (2024).

  • Hassan, E. et al. Enmascarar modelos R-CNN. Nilo J. Commun. Computación. Sci. 317–27 (2022).

    Artículo Google Scholar

  • Dong, P. et al. RD-NAS: Mejora de la capacidad de clasificación SuperNet de un solo disparo a través de la destilación de clasificación de proxies de costo cero. En ICASSP 2023-2023 Conferencia internacional IEEE sobre acústica, procesamiento de habla y señales (ICASSP) 1–5 (IEEE, 2023).

  • Wang, J. et al. NAS-DYMC: red neuronal de convolucional múltiple dinámica basada en NAS para la detección de eventos de sonido. En ICASSP 2023-2023 Conferencia internacional IEEE sobre acústica, procesamiento de habla y señales (ICASSP) 1–5 (IEEE, 2023).

  • Li, J. et al. Graph Neural Network Architecture Busque para el diagnóstico de fallas de maquinaria giratoria basado en el aprendizaje de refuerzo. Mech. Syst. Proceso de señal. 202110701 (2023).

    Artículo Google Scholar

  • Yuan, W., Fu, C., Liu, R. y Fan, X. Ssob: Buscando una arquitectura orientada a la escena para la detección de objetos submarinos. VIS. Computación. 395199–5208 (2023).

    Artículo Google Scholar

  • Jia, X. et al. Detector de objetos rápido y preciso para la conducción autónoma basada en yolov5 mejorado. Sci. Reps. 131–13 (2023).

    Anuncios de Google Scholar

  • Mehta, R., Jurečková, O. y Stamp, M. Un enfoque de procesamiento del lenguaje natural para la clasificación de malware. J. Comput. Virol. Tech de piratería. 20173-184 (2024).

  • Girdhar, N., Coustaty, M. y Doucet, A. Benchmarking Nas para la separación de artículos en periódicos históricos. En Conferencia internacional sobre bibliotecas digitales asiáticas76–88 (Springer, 2023).

  • Real, E., Aggarwal, A., Huang, Y. y LE, QV Evolución regularizada para la búsqueda de arquitectura del clasificador de imágenes. En Actas de la Conferencia AAAI sobre inteligencia artificial volumen 33, 4780–4789 (2019).

  • Liu, C. et al. Búsqueda de arquitectura neuronal progresiva. En Actas de la Conferencia Europea sobre Visión Computadora (ECCV) 19–34 (2018).

  • Cai, H., Chen, T., Zhang, W., Yu, Y. y Wang, J. Búsqueda de arquitectura eficiente por transformación de red. En Actas de la Conferencia AAAI sobre inteligencia artificialvol. 32 (2018).

  • Pham, H., Guan, M., Zoph, B., Le, Q. y Dean, J. Búsqueda eficiente de arquitectura neuronal a través de parámetros compartiendo. En Conferencia internacional sobre aprendizaje automático 4095–4104 (PMLR, 2018).

  • Liu, H., Simonyan, K. y Yang, Y. Darts: búsqueda de arquitectura diferenciable. Preimpresión en ARXIV: 1806.09055 (2018).

  • Ying, C. et al. NAS-Bench-101: Hacia la búsqueda reproducible de arquitectura neuronal. En Conferencia internacional sobre aprendizaje automático 7105–7114 (PMLR, 2019).

  • Dong, X. y Yang, Y. Nas Bench-201-201: Extendiendo el alcance de la búsqueda de arquitectura neuronal reproducible. Preprint en ARXIV: 2001.00326 (2020).

  • Krizhevsky, A. y Hinton, G. Aprender múltiples capas de características de pequeñas imágenes (Tech. Rep, Toronto, ON, Canadá, 2009).

  • Chrabaszcz, P., Loshchilov, I. y Hutter, F. Una variante a la baja de Imagenet como alternativa a los conjuntos de datos CIFAR. Preprint en ARXIV: 1707.08819 (2017).

  • Ye, P. et al. \(\beta\)-Darts: regularización de beta para la búsqueda de arquitectura diferenciable. En 2022 Conferencia IEEE/CVF sobre visión por computadora y reconocimiento de patrones (CVPR) 10864–10873 (IEEE, 2022).

  • Movahedi, S. et al. \ (\ lambda \) -Darts: mitigar el colapso del rendimiento al armonizar la selección de operaciones entre las células. Preprint en ARXIV: 2210.07998 (2022).

  • Zheng, M. et al. ¿Puede GPT-4 realizar la búsqueda de arquitectura neural? Preimpresión en ARXIV: 2304.10970 (2023).

  • Achiam, J. et al. Informe técnico GPT-4. Preimpresión en ARXIV: 2303.08774 (2023).

  • Wang, H. et al. Búsqueda de arquitectura neuronal gráfica con GPT-4. Preimpresión en ARXIV: 2310.01436 (2023).

  • Hassan, E., Bhatnagar, R. y Shams, M. Y. Avance de la investigación científica en ciencias de la computación por Chatgpt y Llama-A Review. En Conferencia internacional sobre fabricación inteligente y sostenibilidad energética 23–37 (Springer, 2023).

  • Helber, P., Bischke, B., Dengel, A. y Borth, D. Eurosat: un nuevo conjunto de datos y un punto de referencia de aprendizaje profundo para el uso de la tierra y la clasificación de la cobertura de la tierra. IEEE J. Sel. Arriba. Aplicación Tierra obs. Sensación remota. 12(7), 2217–2226 (2019).

    Anuncios de artículos Google Scholar

  • Rajaraman, S. et al. Redes neuronales convolucionales previamente entrenadas como extractores de características hacia la detección de parásitos de malaria mejorados en imágenes de frotis de sangre delgada. Peerj 6E4568 (2018).

    Artículo PubMed PubMed Central Google Scholar

  • Maas, A. et al. Vectores de palabras de aprendizaje para el análisis de sentimientos. En Actas de la 49ª Reunión Anual de la Asociación de Lingüística Computacional: Tecnologías de lenguaje humano 142–150 (2011).

  • Powerapi. Pyjoules: Biblioteca de medición de energía basada en Python para varios dominios, incluidas las GPU NVIDIA. https://github.com/powerapi-ng/pyjoulles (2024). Consultado: 2024-05-31.

  • Loni, M., Sinaei, S., Zoljodi, A., Daneshtalab, M. y Sjödin, M. Deepmaker: un marco de optimización de objetivos múltiples para redes neuronales profundas en sistemas integrados. Microprocesos. Microsyst. 73102989 (2020).

    Artículo Google Scholar

  • Suganuma, M., Kobayashi, M., Shirakawa, S. y Nagao, T. Evolución de redes neuronales convolucionales profundas utilizando programación genética cartesiana. Evol. Computación. 28141–163 (2020).

    Artículo PubMed Google Scholar

  • Ren, J. et al. Eigen: enfoque genético de inspiración ecológica para la búsqueda de estructuras de redes neuronales desde cero. En Actas de la conferencia IEEE/CVF sobre visión por computadora y reconocimiento de patrones 9059–9068 (2019).

  • Xie, L. y Yuille, A. Genetic CNN. En Actas de la Conferencia Internacional IEEE sobre visión por computadora 1379–1388 (2017).

  • Lu, Z. et al. Diseño evolutivo de criterio múltiple de redes neuronales convolucionales profundas. Preprint en ARXIV: 1912.01369 (2019).

  • Kandasamy, K., Neiswanger, W., Schneider, J., Poczos, B. y Xing, EP Búsqueda de arquitectura neural con optimización bayesiana y transporte óptimo. Adv. Inf. Neural. Proceso. Syst. 31 (2018).

  • Elsken, T., Metzen, J.-H. & Hutter, F. Búsqueda de arquitectura simple y eficiente para redes neuronales convolucionales. Preimpresión en ARXIV: 1711.04528 (2017).

  • Dong, X. y Yang, Y. Buscando una arquitectura neuronal robusta en cuatro horas de GPU. En Actas de la conferencia IEEE/CVF sobre visión por computadora y reconocimiento de patrones 1761–1770 (2019).

  • Chu, X. et al. DARTS-: Salir de manera robusta del colapso de rendimiento sin indicadores. Preprint en ARXIV: 2009.01027 (2020).

  • Chen, X., Wang, R., Cheng, M., Tang, X. y Hsieh, C.-J. DRNAS: búsqueda de arquitectura neural de Dirichlet. Preprint en ARXIV: 2006.10355 (2020).

  • Hu, Y., Wang, X., Li, L. y Gu, Q. Mejora de NAS de un solo disparo con Supernet reducida y expansiva. Reconocimiento de patrones. 118108025 (2021).

    Artículo Google Scholar

  • Chu, X., Zhang, B. y Xu, R. Fairnas: Repensar la equidad de evaluación de la búsqueda de arquitectura neuronal compartiendo peso. En Actas de la conferencia internacional IEEE/CVF sobre visión por computadora 12239–12248 (2021).

  • Xiao, H., Wang, Z., Zhu, Z., Zhou, J. y Lu, J. Shapley-NAS: Descubrimiento de la contribución de la operación para la búsqueda de arquitectura neural. En Actas de la conferencia IEEE/CVF sobre visión por computadora y reconocimiento de patrones 11892–11901 (2022).

  • Yu, K., Ranftl, R. y Salzmann, M. Regularización histórica: clasificación de entrenamiento guiado de Super Net en la búsqueda de arquitectura neural. En Actas de la conferencia IEEE/CVF sobre visión por computadora y reconocimiento de patrones 13723–13732 (2021).

  • Cavagnero, N., Robbiano, L., Caputo, B. y Avera, G. Freerea: Búsqueda de arquitectura basada en la evolución libre de capacitación. En Actas de la conferencia de invierno IEEE/CVF sobre aplicaciones de visión por computadora 1493–1502 (2023).

  • Zheng, X. et al. Búsqueda de arquitectura neuronal con representación de información mutua. En Actas de la conferencia IEEE/CVF sobre visión por computadora y reconocimiento de patrones 11912–11921 (2022).

  • Strubell, E., Ganesh, A. y McCallum, A. Consideraciones de energía y política para el aprendizaje profundo en la PNL. Preprint en ARXIV: 1906.02243 (2019).

  • Zoph, B., Vasudevan, V., Shlens, J. y Le, Q. V. Aprender arquitecturas transferibles para el reconocimiento de imágenes escalables. En Actas de la conferencia IEEE sobre visión por computadora y reconocimiento de patrones 8697–8710 (2018).

  • Continue Reading

    Noticias

    El ex ejecutivo de Operai se une a la IA, el sector público y los líderes de ciberseguridad que encabezan Info-Tech Live 2025 en Las Vegas

    Published

    on

    A medida que Momentum continúa construyendo en las semanas previas a la muy esperada conferencia anual de la industria para CIO y líderes de TI, Info-Tech Research Group ha anunciado tres nuevos oradores destacados para Info-Tech Live 2025 en Las Vegas en junio. Los altavoces recién revelados incluyen Zack Kassex jefe del mercado de ir al mercado en Openai; Bob LeeCIO para Condado de Clark, Nevada; y David TyburskiVicepresidente de Seguridad de la Información y CISO en Wynn Resorts – Voces líderes en IA, innovación del sector público y ciberseguridad. Sus notas clave Ofrezca claridad, estrategia y ideas prácticas sobre los desafíos de TI más urgentes de hoy al proporcionar diversas perspectivas sobre cómo la tecnología está remodelando las industrias, las instituciones y el liderazgo en sí.

    Toronto, 14 de mayo de 2025 / PRNewswire/-Info-Tech Research Group, una firma líder mundial de investigación y asesoramiento de TI, ha anunciado tres oradores destacados adicionales para su próximo Info-Tech Live 2025 en Las Vegas Conferencia de TI. Los altavoces son Zack Kassex jefe del mercado de ir al mercado en Openai; Bob LeeCIO para Condado de Clark, Nevada; y David TyburskiVicepresidente de Seguridad de la Información y CISO en Wynn Resorts. Estos oradores compartirán su experiencia en innovación de IA, liderazgo del sector público y ciberseguridad empresarial en el escenario principal del evento insignia de la firma, que tiene lugar. 10-12 de junio, 2025en Bellagio en Las Vegas.

    Info-Tech Live 2025 reunirá a miles de CIO, CDO, CISO y líderes de TI durante tres días de notas clave, Insights de analistas y compromiso entre pares. La urgencia y la oportunidad que enfrentan los líderes tecnológicos hoy mientras navegan por la interrupción y la innovación se refleja en el tema de este año “Transformarlo. Transformar todo”.

    “Estos altavoces destacados para Info-Tech Live 2025 en Las Vegas Refleja las prioridades y presiones en evolución que enfrentan los líderes de TI hoy, en todas las industrias y mercados “, dice el director de investigación del grupo de investigación de información de información, Gord Harrison. “Desde redefinir cómo las organizaciones se involucran con la IA, hasta la transformación de la prestación de servicios públicos, hasta la defensa de la infraestructura digital en las industrias de alto riesgo, estos líderes aportan información crítica del futuro. Juntos, sus perspectivas ayudarán a los asistentes a ir más allá de la conciencia y tomar una acción estratégica y confidencial”.

    Recientemente anunciados oradores destacados para información-tech en vivo 2025 en Las Vegas:

    Las últimas incorporaciones a la lista de oradores 2025 de Info-Tech ofrecen a los asistentes una gran cantidad de experiencia en décadas de liderazgo práctico, consultoría e innovación. Sus sesiones proporcionarán nuevas perspectivas sobre los desafíos empresariales actuales, desde la navegación de tecnologías emergentes y las demandas de cumplimiento hasta las estrategias de transformación de escala y alinear las inversiones de TI con el crecimiento empresarial. Los oradores recién anunciados incluyen:

    • Zack Kass, Asesor global de IA, ex jefe de Go To-Mercado, OpenAI
      Zack Kass es un asesor futurista y global que ayuda a Fortune 1000 empresas y gobiernos a adaptarse al panorama de IA que cambia rápidamente. Como ex jefe del mercado de ir a OpenAI, ayudó a construir y liderar a los equipos responsables de traducir la investigación en aplicaciones del mundo real. Kass ahora trabaja para desmitificar la IA y dar forma a un futuro donde la tecnología sirve a las personas y la sociedad.
    • Bob LeeCIO para Condado de Clark, Nevada
      Bob Lee sirve como CIO para Condado de Clark, Nevadaapoyando a más de 2.4 millones de residentes, 90,000 empresas y más de 50 millones de visitantes anualmente. Con más de 25 años de experiencia en los sectores público y privado, Leek se centra en el cambio transformador, el liderazgo inclusivo y el uso de la tecnología para mejorar los resultados para las comunidades a las que sirve.
    • David TyburskiVP de seguridad de la información y director de seguridad de la información para Wynn Resorts
      David Tyburski Lidera la estrategia global de ciberseguridad de Wynn Resorts, supervisando la identidad y el acceso, la gestión de riesgos y la respuesta a los incidentes. Con más de 30 años en TI y seguridad, Tyburski también asesora sobre múltiples juntas de la industria y sirve en la Junta Asesora de Tecnología de la Información del Estado de Nevada.

    Info-tech en vivo 2025 en Las Vegas Proporcionará estrategias procesables e información de investigación en profundidad a los líderes y ejecutivos de TI en todas las industrias. Los asistentes tendrán la oportunidad de interactuar con los analistas expertos de Info-Tech, participar en sesiones interactivas y mesas redondas, y obtener un conocimiento crítico sobre el panorama de TI en rápida evolución. La conferencia también contará con una impresionante línea de oradores principales, talleres y eventos de redes diseñados para equipar a los asistentes con las herramientas para impulsar la transformación de TI exponencial. Se publicarán anuncios adicionales en las semanas previas a la conferencia.

    Para obtener los últimos detalles, visite el Info-Tech Live 2025 en Las Vegas página, y siga el grupo de investigación de información de información sobre LinkedIn y incógnita.

    Media pasa por información-Tech Live 2025 en Las Vegas

    Los profesionales de los medios, incluidos periodistas, podcasters e influencers, están invitados a asistir a Info-Tech Live 2025 para obtener acceso exclusivo a la investigación, el contenido y las entrevistas con los líderes de la industria. Para aquellos que no pueden asistir en persona, Info-Tech ofrece una opción de pase digital, proporcionando acceso a notas clave en vivo, sesiones seleccionadas y entrevistas virtuales exclusivas con oradores y analistas.

    Los profesionales de los medios que buscan solicitar pases en persona o digitales pueden contactar pr@infotech.com Para asegurar su lugar y cubrir los últimos avances en él para su público.

    Oportunidades de expositor

    Los expositores también están invitados a formar parte de Info-Tech Live y mostrar sus productos y servicios a un público altamente comprometido de tomadores de decisiones de TI. Para obtener más información sobre cómo convertirse en un expositor de información en vivo, comuníquese con events@infotech.com.

    Acerca del grupo de investigación de tecnología de información

    Info-Tech Research Group es una de las principales empresas de investigación y asesoramiento del mundo, que atiende con orgullo a más de 30,000 profesionales. La compañía produce una investigación imparcial y altamente relevante y brinda servicios de asesoramiento para ayudar a los líderes a tomar decisiones estratégicas, oportunas y bien informadas. Durante casi 30 años, Info-Tech se ha asociado estrechamente con los equipos para proporcionarles todo lo que necesitan, desde herramientas procesables hasta orientación de analistas, asegurando que brinden resultados medibles para sus organizaciones.

    Para obtener más información sobre las divisiones de Info-Tech, visite McLean & Company para obtener servicios de investigación y asesoramiento de recursos humanos y SoftWarReviews para obtener información sobre la compra de software.

    Los profesionales de los medios pueden registrarse para un acceso sin restricciones a la investigación a través de TI, recursos humanos y software y cientos de analistas de la industria a través del Programa de Insiders de Medios de la empresa. Para obtener acceso, contactar pr@infotech.com.

    Grupo de investigación de tecnología de información de origen

    Continue Reading

    Noticias

    Operai trae GPT-4.1 y 4.1 mini a Chatgpt-Lo que las empresas deben saber

    Published

    on

    Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


    Operai está implementando GPT-4.1, su nuevo modelo de lenguaje grande (LLM) no inicial que equilibra el alto rendimiento con menor costo, para los usuarios de ChatGPT. La compañía está comenzando con sus suscriptores que pagan en ChatGPT Plus, Pro y Equipo, con el acceso a los usuarios de la empresa y la educación esperada en las próximas semanas.

    También está agregando GPT-4.1 Mini, que reemplaza a GPT-4O Mini como el valor predeterminado para todos los usuarios de ChatGPT, incluidos los de nivel gratuito. La versión “Mini” proporciona un parámetro a menor escala y, por lo tanto, una versión menos potente con estándares de seguridad similares.

    Ambos modelos están disponibles a través de la selección desplegable “Más modelos” en la esquina superior de la ventana de chat dentro de ChatGPT, dando a los usuarios flexibilidad para elegir entre modelos GPT-4.1, GPT-4.1 mini y razonamiento como O3, O4-Mini y O4-Mini-High.

    Inicialmente destinado a usar solo por el software de terceros y los desarrolladores de IA a través de la interfaz de programación de aplicaciones (API) de OpenAI, se agregó GPT-4.1 a ChatGPT siguiendo fuertes comentarios de los usuarios.

    El líder de investigación de la capacitación posterior de Operai, Michelle Pokrass, confirmó en X, el cambio fue impulsado por la demanda, escribiendo: “Inicialmente estábamos planeando mantener esta API de modelo solo, pero todos lo querían en Chatgpt 🙂 ¡feliz codificación!”

    El director de productos de Operai, Kevin Weil, publicó en X diciendo: “Lo construimos para los desarrolladores, por lo que es muy bueno para la codificación e instrucciones siguientes, ¡hágalo un intento!”

    Un modelo centrado en la empresa

    GPT-4.1 fue diseñado desde cero para la practicidad de grado empresarial.

    Lanzado en abril de 2025 junto con GPT-4.1 Mini y Nano, esta familia modelo priorizó las necesidades de los desarrolladores y los casos de uso de producción.

    GPT-4.1 ofrece una mejora de 21.4 puntos sobre GPT-4O en el punto de referencia de ingeniería de software verificado SWE-Bench, y una ganancia de 10.5 puntos en tareas de seguimiento de instrucciones en el punto de referencia MultiChallenge de Scale. También reduce la verbosidad en un 50% en comparación con otros modelos, un rasgo de los usuarios de la empresa elogió durante las pruebas tempranas.

    Contexto, velocidad y acceso al modelo

    GPT-4.1 admite el contexto estándar Windows para ChatGPT: 8,000 tokens para usuarios gratuitos, 32,000 tokens para usuarios más y 128,000 tokens para usuarios de Pro.

    Según el desarrollador Angel Bogado Publicing en X, estos límites coinciden con los utilizados por los modelos de CHATGPT anteriores, aunque los planes están en marcha para aumentar aún más el tamaño del contexto.

    Si bien las versiones API de GPT-4.1 pueden procesar hasta un millón de tokens, esta capacidad ampliada aún no está disponible en ChatGPT, aunque el soporte futuro se ha insinuado.

    Esta capacidad de contexto extendida permite a los usuarios de la API alimentar las bases de código enteras o grandes documentos legales y financieros en el modelo, útil para revisar contratos de documentos múltiples o analizar grandes archivos de registro.

    Operai ha reconocido cierta degradación del rendimiento con entradas extremadamente grandes, pero los casos de prueba empresarial sugieren un rendimiento sólido de hasta varios cientos de miles de tokens.

    Evaluaciones y seguridad

    Operai también ha lanzado un sitio web de Safety Evaluations Hub para brindar a los usuarios acceso a métricas clave de rendimiento en todos los modelos.

    GPT-4.1 muestra resultados sólidos en estas evaluaciones. En las pruebas de precisión de hecho, obtuvo 0.40 en el punto de referencia SimpleQA y 0.63 en Personqa, superando a varios predecesores.

    También obtuvo 0.99 en la medida “no insegura” de OpenAI en las pruebas de rechazo estándar, y 0.86 en indicaciones más desafiantes.

    Sin embargo, en la prueba de jailbreak Strongject, un punto de referencia académico para la seguridad en condiciones adversas, GPT-4.1 obtuvo 0.23, detrás de modelos como GPT-4O-Mini y O3.

    Dicho esto, obtuvo un fuerte 0.96 en indicaciones de jailbreak de origen humano, lo que indica una seguridad más robusta del mundo real bajo el uso típico.

    En la adhesión de instrucciones, GPT-4.1 sigue la jerarquía definida de OpenAI (sistema sobre desarrollador, desarrollador sobre mensajes de usuario) con una puntuación de 0.71 para resolver conflictos de mensajes del sistema frente a usuario. También funciona bien para proteger frases protegidas y evitar regalos de soluciones en escenarios de tutoría.

    Contextualización de GPT-4.1 contra predecesores

    El lanzamiento de GPT-4.1 se produce después del escrutinio alrededor de GPT-4.5, que debutó en febrero de 2025 como una vista previa de investigación. Ese modelo enfatizó un mejor aprendizaje sin supervisión, una base de conocimiento más rica y alucinaciones reducidas, que caían del 61.8% en GPT-4O al 37.1%. También mostró mejoras en los matices emocionales y la escritura de forma larga, pero muchos usuarios encontraron las mejoras sutiles.

    A pesar de estas ganancias, GPT-4.5 generó críticas por su alto precio, hasta $ 180 por millón de tokens de producción a través de API, y por un rendimiento decepcionante en matemáticas y puntos de referencia de codificación en relación con los modelos O-Series O de OpenAi. Las cifras de la industria señalaron que si bien GPT-4.5 era más fuerte en la conversación general y la generación de contenido, tuvo un rendimiento inferior en aplicaciones específicas del desarrollador.

    Por el contrario, GPT-4.1 se pretende como una alternativa más rápida y más enfocada. Si bien carece de la amplitud de conocimiento de GPT-4.5 y un modelado emocional extenso, está mejor sintonizado para la asistencia de codificación práctica y se adhiere de manera más confiable a las instrucciones del usuario.

    En la API de OpenAI, GPT-4.1 tiene un precio de $ 2.00 por millón de tokens de entrada, $ 0.50 por millón de tokens de entrada en caché y tokens de salida de $ 8.00 por millón.

    Para aquellos que buscan un saldo entre velocidad e inteligencia a un costo más bajo, GPT-4.1 Mini está disponible en $ 0.40 por millón de tokens de entrada, $ 0.10 por millón de tokens de entrada en caché y tokens de salida de $ 1.60 por millón.

    Los modelos Flash-Lite y Flash de Google están disponibles a partir de $ 0.075– $ 0.10 por millón de tokens de entrada y $ 0.30– $ 0.40 por millón de tokens de salida, menos de una décima parte del costo de las tasas base de GPT-4.1.

    Pero si bien GPT-4.1 tiene un precio más alto, ofrece puntos de referencia de ingeniería de software más fuertes y una instrucción más precisa después, lo que puede ser crítico para los escenarios de implementación empresarial que requieren confiabilidad sobre el costo. En última instancia, el GPT-4.1 de OpenAI ofrece una experiencia premium para el rendimiento de precisión y desarrollo, mientras que los modelos Gemini de Google atraen a empresas conscientes de costos que necesitan niveles de modelos flexibles y capacidades multimodales.

    Lo que significa para los tomadores de decisiones empresariales

    La introducción de GPT-4.1 aporta beneficios específicos a los equipos empresariales que administran la implementación de LLM, la orquestación y las operaciones de datos:

    • Ingenieros de IA Supervisando la implementación de LLM puede esperar una velocidad mejorada e instrucción de adherencia. Para los equipos que administran el ciclo de vida LLM completo, desde el modelo de ajuste hasta la resolución de problemas, GPT-4.1 ofrece un conjunto de herramientas más receptivo y eficiente. Es particularmente adecuado para equipos Lean bajo presión para enviar modelos de alto rendimiento rápidamente sin comprometer la seguridad o el cumplimiento.
    • La orquestación de IA conduce Centrado en el diseño de tuberías escalable apreciará la robustez de GPT-4.1 contra la mayoría de las fallas inducidas por el usuario y su fuerte rendimiento en las pruebas de jerarquía de mensajes. Esto facilita la integración en los sistemas de orquestación que priorizan la consistencia, la validación del modelo y la confiabilidad operativa.
    • Ingenieros de datos Responsable de mantener una alta calidad de datos e integrar nuevas herramientas se beneficiará de la tasa de alucinación más baja de GPT-4.1 y una mayor precisión objetiva. Su comportamiento de salida más predecible ayuda a construir flujos de trabajo de datos confiables, incluso cuando los recursos del equipo están limitados.
    • Profesionales de seguridad de TI La tarea de integrar la seguridad en las tuberías de DevOps puede encontrar valor en la resistencia de GPT-4.1 a jailbreaks comunes y su comportamiento de salida controlado. Si bien su puntaje académico de resistencia de jailbreak deja espacio para mejorar, el alto rendimiento del modelo contra las exploits de origen humano ayuda a apoyar la integración segura en herramientas internas.

    En estos roles, el posicionamiento de GPT-4.1 como un modelo optimizado para mayor claridad, cumplimiento y eficiencia de implementación lo convierte en una opción convincente para empresas medianas que buscan equilibrar el rendimiento con las demandas operativas.

    Un nuevo paso adelante

    Mientras que GPT-4.5 representaba un hito de escala en el desarrollo del modelo, GPT-4.1 se centra en la utilidad. No es el más caro o el más multimodal, pero ofrece ganancias significativas en áreas que importan para las empresas: precisión, eficiencia de implementación y costo.

    Este reposicionamiento refleja una tendencia de la industria más amplia, alejada de la construcción de los modelos más grandes a cualquier costo y hacia los modelos capaces más accesibles y adaptables. GPT-4.1 cumple con esa necesidad, ofreciendo una herramienta flexible y lista para la producción para equipos que intentan integrar la IA más profundamente en sus operaciones comerciales.

    A medida que OpenAI continúa evolucionando sus ofertas de modelos, GPT-4.1 representa un paso adelante en la democratización de IA avanzada para entornos empresariales. Para la capacidad de equilibrio de los tomadores de decisiones con el ROI, ofrece un camino más claro hacia el despliegue sin sacrificar el rendimiento o la seguridad.

    Continue Reading

    Trending