Noticias
El nuevo ‘acaparamiento de tierras’ para las empresas de IA, desde Meta hasta OpenAI, son los contratos militares
Published
5 meses agoon

Las empresas de inteligencia artificial de Silicon Valley tienen un nuevo mejor amigo: el Departamento de Defensa de Estados Unidos.
Las empresas líderes que desarrollan tecnología de inteligencia artificial generativa han intensificado, profundizado o comenzado a establecer relaciones con los militares en los últimos meses, en algunos casos incluso revisando o haciendo excepciones a las políticas internas para eliminar obstáculos y restricciones al trabajo de defensa.
Varias agencias dentro del Departamento de Defensa, desde la Fuerza Aérea hasta varios grupos de inteligencia, están probando activamente casos de uso para modelos y herramientas de IA de Meta, Google, OpenAI, Anthropic y Mistral, junto con tecnología de nuevas empresas como Gladstone AI y ScaleAI, varias personas con conocimiento de las pruebas dijeron Fortuna.
Es un giro notable de los acontecimientos para las empresas de Internet, que hasta hace muy poco trataban el trabajo de defensa como si fuera un tabú, si no abiertamente. prohibido. Pero como el costo de desarrollar y ejecutar servicios de IA generativa ya asciende a cientos de miles de millones de dólares y no muestra signos de desaceleración, las empresas de IA están sintiendo la presión de mostrar algunos retornos sobre las inversiones masivas. El Departamento de Defensa, con su presupuesto esencialmente ilimitado y su interés de larga data en la tecnología de punta, de repente no luce tan mal.
Aunque conseguir un contrato con Defensa puede ser complicado, con varias certificaciones que recibir y estrictos estándares de cumplimiento a seguir, “las recompensas son significativas” y el dinero puede llegar durante años, Erica Brescia, socia gerente de Redpoint Ventures que se enfoca en Inversión en IA, dijo
“Los contratos del Departamento de Defensa proporcionan valores contractuales anuales sustanciales, o ACV, y crean oportunidades a largo plazo para el crecimiento y la defensa del mercado”, dijo Brescia.
Brescia añadió que perseguir el trabajo de Defensa se ha vuelto recientemente más aceptable socialmente en los círculos tecnológicos. Los líderes de las empresas no sólo están mirando los cientos de millones de dólares en contratos que están recaudando las nuevas empresas centradas en la defensa como Palantir y Anduril, sino que el “panorama político cambiante” ha hecho que “buscar la defensa como segmento primario del mercado sea una opción cada vez más atractiva para empresas preparadas para navegar por ciclos de ventas más largos y manejar implementaciones complejas”.
De hecho, la adopción del trabajo militar puede convenir bien al momento político, con una administración Trump favorable a las empresas que asumirá el cargo en enero, y una cohorte de miembros halcones de Silicon Valley, encabezados por el “primer amigo” Elon Musk, en el círculo interno del presidente electo. círculo. El mandato de Musk en su papel oficial como codirector del nuevo Departamento de Eficiencia Gubernamental es reducir drásticamente el gasto. Pero pocos esperan que el presupuesto del Pentágono sufra recortes importantes, particularmente en lo que respecta a la IA en un momento en que Estados Unidos y China están enfrascados en una batalla por la supremacía de la IA.
Por ahora, gran parte del trabajo militar con IA generativa parecen ser proyectos y pruebas a pequeña escala, pero el potencial de que la tecnología de IA generativa se convierta en un aspecto fundamental de la informática en el futuro significa que la relación entre Silicon Valley y el Pentágono podría ser enorme. .
Los usos de la IA en materia de defensa no implican necesariamente la guerra con aviones no tripulados o la explosión de objetos. Gran parte del trabajo específico de IA dentro del Departamento de Defensa es la actividad más mundana que cualquier oficina estaría encantada de confiar a una tecnología capaz. El etiquetado, la recopilación y la clasificación de datos son usos comunes de la IA dentro del departamento, al igual que el uso de los chatbots Chat-GPT y Claude a los que la mayoría de las personas pueden acceder en línea, pero que requieren seguridad adicional cuando los utiliza el Departamento de Defensa. Los modelos de lenguaje grandes también podrían resultar útiles para analizar y buscar información clasificada, ayudar en el trabajo de ciberseguridad del gobierno y proporcionar una mejor visión por computadora y autonomía para cosas como herramientas robóticas, drones y tanques.
Algunas empresas de tecnología intentan evitar específicamente involucrarse en proyectos del Departamento de Defensa que podrían utilizarse en “la cadena de muerte”, un término militar que se refiere a la estructura de un ataque a un enemigo, dijo a Fortune un ex funcionario del Departamento de Defensa sobre las empresas que ganan. contratos de adquisiciones. Sin embargo, estas preocupaciones a veces se disipan cuando se dispone de millones o miles de millones de dólares. “Una vez que entras, quieres expandirte”, agregó la persona.
Un conjunto de reglas cambiantes
Algunas empresas de tecnología, como Palantir y Anduril, durante años han hecho de los usos y contratos de defensa la columna vertebral de todo su negocio.
Sin embargo, dentro de las empresas de Internet establecidas en Silicon Valley y algunas de sus nuevas empresas de inteligencia artificial más jóvenes, se evitó el trabajo militar ya que las empresas buscaban reclutar y retener talentos de ingeniería de tendencia izquierdista. Cuando Google adquirió DeepMind en 2014, se comprometió a no utilizar nunca la tecnología de la startup con fines militares. Y en 2018, el director ejecutivo de Alphabet, Sundar Pichai, enfrentó una reacción interna por la participación de Google en el Proyecto Maven, un esfuerzo de guerra con drones del Pentágono. Si bien Google insistió en que su tecnología se utilizaba únicamente con “fines no ofensivos”, como analizar imágenes de vídeo de drones, la protesta de los empleados fue lo suficientemente fuerte como para que Pichai cancelara unas vacaciones para tranquilizar al personal y finalmente prometiera que Google no desarrollaría su IA para armas.
Chip Somodevilla/Getty Images
Los “principios de IA” de Google ahora estipulan que “no buscará… armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar directamente daños a las personas”, ni para “vigilar que violen las normas aceptadas internacionalmente”. Pero la política deja mucho margen de maniobra y la compañía ha dicho explícitamente que no renunciará por completo a trabajar con el ejército.
La historia es similar en otros grandes jugadores de IA. Meta inicialmente prohibió el uso de su modelo Llama en trabajos militares, al igual que OpenAI, mientras que Anthropic inicialmente construyó su modelo Claude para que fuera “inofensivo”. Ahora, los tres han anunciado que ese tipo de trabajo con sus modelos está bien y están buscando activamente dichos usos. Sam Altman, quien cofundó OpenAI basándose en el principio de desarrollar IA para “beneficiar a la humanidad en su conjunto” y quien una vez dijo que había cosas que “nunca haría con el Departamento de Defensa”, desde entonces ha eliminado cualquier compromiso con tales restricciones. de su política de uso.
Un capitalista de riesgo centrado en invertir en empresas de inteligencia artificial señaló el ensayo “American Dynamism” de la firma de capital riesgo Andreessen Horowitz hace dos años como un momento en el que la evitación de los contratos de defensa comenzó a cambiar. El ensayo decía explícitamente que las empresas de tecnología que trabajaban en defensa estaban trabajando en apoyo del interés nacional de Estados Unidos.
“Los ejecutivos empezaron a pensar: ‘Oh, está bien, defender a Estados Unidos, trabajar con el ejército, en realidad es bueno'”, dijo el VC.
Los despidos generalizados posteriores a la pandemia en las empresas de tecnología también han tenido un efecto paralizador en las protestas de los empleados, dando a los empleadores de tecnología más libertad para dedicarse a negocios militares.
El Departamento de Defensa ya ha pagado cerca de mil millones de dólares en contratos oficiales a empresas de inteligencia artificial en los últimos dos años, según un Fortuna análisis. Si bien los detalles de dichos contratos son vagos, se han adjudicado a empresas como Morsecorp, que se centra en la tecnología de vehículos autónomos, y una filial de ASGN, una empresa de gestión y consultoría, para desarrollar nuevos prototipos de IA.
No todos estos contratos se hacen públicos. Pero cualquier contrato de adquisiciones gubernamentales otorgado a una importante empresa de inteligencia artificial probablemente valdría decenas de millones a cientos de millones, si no miles de millones, de dólares en ingresos para esas empresas y para sus mayores patrocinadores.
El mayor inversor de OpenAI es Microsoft, que recientemente dijo que su servicio en la nube Azure había sido aprobado para que las agencias del Departamento de Defensa utilizaran los modelos de IA de OpenAI para obtener información con niveles más bajos de autorización de seguridad, algo que llevó años de inversión en infraestructura especializada para lograr. De manera similar, el mayor patrocinador de Anthropic es Amazon. Amazon Web Services es quizás el mayor proveedor de nube del Departamento de Defensa y tiene contratos gubernamentales por valor de decenas de miles de millones de dólares. Para ambas empresas, poder agregar nuevos servicios y herramientas de inteligencia artificial a las ofertas del Departamento de Defensa podría resultar valioso. Lo mismo ocurre con una empresa como Google, que también ha conseguido valiosos contratos gubernamentales, y su modelo Gemini AI.
“Básicamente, están construyendo el avión mientras lo vuelan, por lo que es una apropiación masiva de tierras”, dijo a Fortune un ejecutivo de IA, refiriéndose a más empresas de tecnología repentinamente ansiosas por tener sus herramientas y modelos de IA en manos del Departamento de Defensa.
Una tecnología “crítica” para el Departamento de Defensa
El Departamento de Defensa define la IA entre sus 14 “áreas tecnológicas críticas”, ya que encierra una “tremenda promesa” y es “imperativa para dominar conflictos futuros”.
Hace aproximadamente un año, el Departamento de Defensa creó oficialmente la Oficina de Capital Estratégico, un nuevo programa de crédito federal en asociación con la Administración de Pequeñas Empresas, para garantizar que tecnologías críticas como la IA reciban financiación a través de préstamos directos. Para el año fiscal 2024, OSC puso a disposición 984 millones de dólares que tenía la intención de entregar a 10 empresas centradas en cosas como robótica autónoma y fabricación de microelectrónica, que normalmente incluye la fabricación de chips de IA. El Departamento de Defensa está invirtiendo otros 700 millones de dólares aproximadamente en la fabricación de chips y en el desarrollo de la fabricación nacional de semiconductores, que es fundamental para la creación de chips de IA.
A pesar de miles de millones de inversiones y de que no hay signos de desaceleración dentro de la Defensa, el ejecutivo de IA admitió que la mayoría de los productos de IA actuales simplemente “aún no son tan útiles”, ni para la Defensa ni para el público en general. Pero aplicarlos a escala en un entorno gubernamental o de defensa podría hacerlos más útiles y más rápidamente. “Los militares también crearon efectivamente Internet”. ARPANET, una base tecnológica clave de la Internet moderna, se construyó dentro del Departamento de Defensa, al igual que ahora tecnologías comunes como los sistemas de radar y GPS.
Aunque un departamento como el de Defensa quiere productos útiles, también ve cómo su presupuesto aumenta año tras año, llegando a poco menos de 1 billón de dólares en 2024. Aproximadamente la mitad de ese presupuesto se otorga a empresas que tienen contratos con el departamento.
“Honestamente, sí, les encanta gastar dinero”, dijo el ejecutivo.
Información adicional de Jeremy Kahn y Sharon Goldman.
¿Es usted un empleado de una empresa de tecnología o alguien con conocimientos o un consejo para compartir? Contacta con Kali Hays de forma segura a través de Señal al +1-949-280-0267 o en kali.hays@fortune.com.
You may like
Noticias
Apocalipsis Biosciencias para desarrollar Géminis para la infección en pacientes con quemaduras graves
Published
55 minutos agoon
30 abril, 2025
– Esta nueva indicación es otro paso para desbloquear todo el potencial de la plataforma Gemini –
San Diego-(Business Wire)-$ Revb #GÉMINIS–Apocalipsis Biosciences, Inc. (NASDAQ: RevB) (la “empresa” o “revelación”), una compañía de ciencias de la vida de etapas clínicas que se centra en reequilibrar la inflamación para optimizar la salud, anunció una nueva indicación de objetivo para Géminis para la prevención de la infección en pacientes con quemaduras graves que requieren hospitalización (el Gema-PBI programa). El uso de Géminis para la prevención de la infección en pacientes con quemaduras severas, así como la prevención de la infección después de la cirugía (el Gema-PSI programa) son parte de la revelación familiar de patentes anteriormente con licencia de la Universidad de Vanderbilt.
“Estamos muy contentos de colaborar con el equipo de Apocalipsis para el avance de Géminis para la prevención de la infección en esta población de pacientes desatendida”, dijo Dra. Julia BohannonProfesor Asociado, Departamento de Anestesiología, Departamento de Patología, Microbiología e Inmunología, Universidad de Vanderbilt. “Creemos que la actividad de biomarcador clínico observada con Gemini se correlaciona fuertemente con nuestra experiencia preclínica en modelos de quemaduras de infecciones”.
El equipo de investigación de Vanderbilt demostrado El tratamiento posterior a la quemadura reduce significativamente la gravedad y la duración de la infección pulmonar de Pseudomonas, así como un nivel general reducido de inflamación en un modelo preclínico.
“La prevención de la infección en pacientes severamente quemados es un esfuerzo importante y complementa que la revelación laboral ha completado hasta la fecha”, dijo “, dijo”, dijo James RolkeCEO de Revelation “El programa Gemini-PBI puede ofrecer varias oportunidades regulatorias, de desarrollo y financiación que la compañía planea explorar”.
Sobre quemaduras e infección después de quemar
Las quemaduras son lesiones en la piel que involucran las dos capas principales: la epidermis externa delgada y/o la dermis más gruesa y profunda. Las quemaduras pueden ser el resultado de una variedad de causas que incluyen fuego, líquidos calientes, productos químicos (como ácidos fuertes o bases fuertes), electricidad, vapor, radiación de radiografías o radioterapia, luz solar o luz ultravioleta. Cada año, aproximadamente medio millón de estadounidenses sufren lesiones por quemaduras que requieren intervención médica. Si bien la mayoría de las lesiones por quemaduras no requieren ingreso a un hospital, se admiten alrededor de 40,000 pacientes, y aproximadamente 30,000 de ellos necesitan tratamiento especializado en un centro de quemaduras certificadas.
El número total anual de muertes relacionadas con quemaduras es de aproximadamente 3.400, siendo la infección invasiva la razón principal de la muerte después de las primeras 24 horas. La tasa de mortalidad general para pacientes con quemaduras graves es de aproximadamente 3.3%, pero esto aumenta al 20.6% en pacientes con quemaduras con lesión cutánea de quemaduras y inhalación, versus 10.5% por lesión por inhalación solo. La infección invasiva, incluida la sepsis, es la causa principal de la muerte después de la lesión por quemaduras, lo que representa aproximadamente el 51% de las muertes.
Actualmente no hay tratamientos aprobados para prevenir la infección sistémica en pacientes con quemaduras.
Sobre Géminis
Géminis es una formulación propietaria y propietaria de disacárido hexaacil fosforilada (PHAD (PHAD®) que reduce el daño asociado con la inflamación al reprogramarse del sistema inmune innato para responder al estrés (trauma, infección, etc.) de manera atenuada. La revelación ha realizado múltiples estudios preclínicos que demuestran el potencial terapéutico de Géminis en las indicaciones objetivo. Revelación anunciado previamente Datos clínicos positivos de fase 1 para el tratamiento intravenoso con Géminis. El punto final de seguridad primario se cumplió en el estudio de fase 1, y los resultados demostraron la actividad farmacodinámica estadísticamente significativa como se observó a través de los cambios esperados en múltiples biomarcadores, incluida la regulación positiva de IL-10.
Géminis se está desarrollando para múltiples indicaciones, incluso como pretratamiento para prevenir o reducir la gravedad y la duración de la lesión renal aguda (programa Gemini-AKI), y como pretratamiento para prevenir o reducir la gravedad y la duración de la infección posquirúrgica (programa GEMINI-PSI). Además, Gemini puede ser un tratamiento para detener o retrasar la progresión de la enfermedad renal crónica (programa Gemini-CKD).
Acerca de Apocalipsis Biosciences, Inc.
Revelation Biosciences, Inc. es una compañía de ciencias de la vida en estadio clínico centrada en aprovechar el poder de la inmunidad entrenada para la prevención y el tratamiento de la enfermedad utilizando su formulación patentada Géminis. Revelation tiene múltiples programas en curso para evaluar Géminis, incluso como prevención de la infección posquirúrgica, como prevención de lesiones renales agudas y para el tratamiento de la enfermedad renal crónica.
Para obtener más información sobre Apocalipsis, visite www.revbiosciences.com.
Declaraciones con avance
Este comunicado de prensa contiene declaraciones prospectivas definidas en la Ley de Reforma de Litigios de Valores Privados de 1995, según enmendada. Las declaraciones prospectivas son declaraciones que no son hechos históricos. Estas declaraciones prospectivas generalmente se identifican por las palabras “anticipar”, “creer”, “esperar”, “estimar”, “plan”, “perspectiva” y “proyecto” y otras expresiones similares. Advirtemos a los inversores que las declaraciones prospectivas se basan en las expectativas de la gerencia y son solo predicciones o declaraciones de las expectativas actuales e involucran riesgos, incertidumbres y otros factores conocidos y desconocidos que pueden hacer que los resultados reales sean materialmente diferentes de los previstos por las declaraciones de prospección. Apocalipsis advierte a los lectores que no depositen una dependencia indebida de tales declaraciones de vista hacia adelante, que solo hablan a partir de la fecha en que se hicieron. Los siguientes factores, entre otros, podrían hacer que los resultados reales difieran materialmente de los descritos en estas declaraciones prospectivas: la capacidad de la revelación para cumplir con sus objetivos financieros y estratégicos, debido a, entre otras cosas, la competencia; la capacidad de la revelación para crecer y gestionar la rentabilidad del crecimiento y retener a sus empleados clave; la posibilidad de que la revelación pueda verse afectada negativamente por otros factores económicos, comerciales y/o competitivos; riesgos relacionados con el desarrollo exitoso de los candidatos de productos de Apocalipsis; la capacidad de completar con éxito los estudios clínicos planificados de sus candidatos de productos; El riesgo de que no podamos inscribir completamente nuestros estudios clínicos o la inscripción llevará más tiempo de lo esperado; riesgos relacionados con la aparición de eventos de seguridad adversos y/o preocupaciones inesperadas que pueden surgir de los datos o análisis de nuestros estudios clínicos; cambios en las leyes o regulaciones aplicables; Iniciación esperada de los estudios clínicos, el momento de los datos clínicos; El resultado de los datos clínicos, incluido si los resultados de dicho estudio son positivos o si se puede replicar; El resultado de los datos recopilados, incluido si los resultados de dichos datos y/o correlación se pueden replicar; el momento, los costos, la conducta y el resultado de nuestros otros estudios clínicos; El tratamiento anticipado de datos clínicos futuros por parte de la FDA, la EMA u otras autoridades reguladoras, incluidos si dichos datos serán suficientes para su aprobación; el éxito de futuras actividades de desarrollo para sus candidatos de productos; posibles indicaciones para las cuales se pueden desarrollar candidatos de productos; la capacidad de revelación para mantener la lista de sus valores en NASDAQ; la duración esperada sobre la cual los saldos de Apocalipsis financiarán sus operaciones; y otros riesgos e incertidumbres descritos en este documento, así como aquellos riesgos e incertidumbres discutidos de vez en cuando en otros informes y otras presentaciones públicas con la SEC por Apocalipsis.
Contactos
Mike Porter
Relaciones con inversores
Porter Levay & Rose Inc.
Correo electrónico: mike@plrinvest.com
Chester Zygmont, III
Director financiero
Apocalipsis Biosciences Inc.
Correo electrónico: czygmont@revbiosciences.com

An illustration photograph taken on Feb. 20, 2025 shows Grok, DeepSeek and ChatGPT apps displayed on a phone screen. The Justice Department’s 2020 complaint against Google has few mentions of artificial intelligence or AI chatbots. But nearly five years later, as the remedy phase of the trial enters its second week of testimony, the focus has shifted to AI.
Michael M. Santiago/Getty Images/Getty Images North America
hide caption
toggle caption
Michael M. Santiago/Getty Images/Getty Images North America
When the U.S. Department of Justice originally brought — and then won — its case against Google, arguing that the tech behemoth monopolized the search engine market, the focus was on, well … search.
Back then, in 2020, the government’s antitrust complaint against Google had few mentions of artificial intelligence or AI chatbots. But nearly five years later, as the remedy phase of the trial enters its second week of testimony, the focus has shifted to AI, underscoring just how quickly this emerging technology has expanded.
In the past few days, before a federal judge who will assess penalties against Google, the DOJ has argued that the company could use its artificial intelligence products to strengthen its monopoly in online search — and to use the data from its powerful search index to become the dominant player in AI.
In his opening statements last Monday, David Dahlquist, the acting deputy director of the DOJ’s antitrust civil litigation division, argued that the court should consider remedies that could nip a potential Google AI monopoly in the bud. “This court’s remedy should be forward-looking and not ignore what is on the horizon,” he said.
Dahlquist argued that Google has created a system in which its control of search helps improve its AI products, sending more users back to Google search — creating a cycle that maintains the tech company’s dominance and blocks competitors out of both marketplaces.
The integration of search and Gemini, the company’s AI chatbot — which the DOJ sees as powerful fuel for this cycle — is a big focus of the government’s proposed remedies. The DOJ is arguing that to be most effective, those remedies must address all ways users access Google search, so any penalties approved by the court that don’t include Gemini (or other Google AI products now or in the future) would undermine their broader efforts.

Department of Justice lawyer David Dahlquist leaves the Washington, D.C. federal courthouse on Sept. 20, 2023 during the original trial phase of the antitrust case against Google.
Jose Luis Magana/AP/FR159526 AP
hide caption
toggle caption
Jose Luis Magana/AP/FR159526 AP
AI and search are connected like this: Search engine indices are essentially giant databases of pages and information on the web. Google has its own such index, which contains hundreds of billions of webpages and is over 100,000,000 gigabytes, according to court documents. This is the data Google’s search engine scans when responding to a user’s query.
AI developers use these kinds of databases to build and train the models used to power chatbots. In court, attorneys for the DOJ have argued that Google’s Gemini pulls information from the company’s search index, including citing search links and results, extending what they say is a self-serving cycle. They argue that Google’s ability to monopolize the search market gives it user data, at a huge scale — an advantage over other AI developers.
The Justice Department argues Google’s monopoly over search could have a direct effect on the development of generative AI, a type of artificial intelligence that uses existing data to create new content like text, videos or photos, based on a user’s prompts or questions. Last week, the government called executives from several major AI companies, like OpenAI and Perplexity, in an attempt to argue that Google’s stranglehold on search is preventing some of those companies from truly growing.
The government argues that to level the playing field, Google should be forced to open its search data — like users’ search queries, clicks and results — and license it to other competitors at a cost.
This is on top of demands related to Google’s search engine business, most notably that it should be forced to sell off its Chrome browser.
Google flatly rejects the argument that it could monopolize the field of generative AI, saying competition in the AI race is healthy. In a recent blog post on Google’s website, Lee-Anne Mulholland, the company’s vice president of regulatory affairs, wrote that since the federal judge first ruled against Google over a year ago, “AI has already rapidly reshaped the industry, with new entrants and new ways of finding information, making it even more competitive.”
In court, Google’s lawyers have argued that there are a host of AI companies with chatbots — some of which are outperforming Gemini. OpenAI has ChatGPT, Meta has MetaAI and Perplexity has Perplexity AI.
“There is no shortage of competition in that market, and ChatGPT and Meta are way ahead of everybody in terms of the distribution and usage at this point,” said John E. Schmidtlein, a lawyer for Google, during his opening statement. “But don’t take my word for it. Look at the data. Hundreds and hundreds of millions of downloads by ChatGPT.”
Competing in a growing AI field
It should be no surprise that AI is coming up so much at this point in the trial, said Alissa Cooper, the executive director of the Knight-Georgetown Institute, a nonpartisan tech research and policy center at Georgetown University focusing on AI, disinformation and data privacy.
“If you look at search as a product today, you can’t really think about search without thinking about AI,” she said. “I think the case is a really great opportunity to try to … analyze how Google has benefited specifically from the monopoly that it has in search, and ensure that the behavior that led to that can’t be used to gain an unfair advantage in these other markets which are more nascent.”
Having access to Google’s data, she said, “would provide them with the ability to build better chatbots, build better search engines, and potentially build other products that we haven’t even thought of.”
To make that point, the DOJ called Nick Turley, OpenAI’s head of product for ChatGPT, to the stand last Tuesday. During a long day of testimony, Turley detailed how without access to Google’s search index and data, engineers for the growing company tried to build their own.
ChatGPT, a large language model that can generate human-like responses, engage in conversations and perform tasks like explaining a tough-to-understand math lesson, was never intended to be a product for OpenAI, Turley said. But once it launched and went viral, the company found that people were using it for a host of needs.
Though popular, ChatGPT had its drawbacks, like the bot’s limited “knowledge,” Turley said. Early on, ChatGPT was not connected to the internet and could only use information that it had been fed up to a certain point in its training. For example, Turley said, if a user asked “Who is the president?” the program would give a 2022 answer — from when its “knowledge” effectively stopped.
OpenAI couldn’t build their own index fast enough to address their problems; they found that process incredibly expensive, time consuming and potentially years from coming to fruition, Turley said.
So instead, they sought a partnership with a third party search provider. At one point, OpenAI tried to make a deal with Google to gain access to their search, but Google declined, seeing OpenAI as a direct competitor, Turley testified.
But Google says companies like OpenAI are doing just fine without gaining access to the tech giant’s own technology — which it spent decades developing. These companies just want “handouts,” said Schmidtlein.
On the third day of the remedy trial, internal Google documents shared in court by the company’s lawyers compared how many people are using Gemini versus its competitors. According to those documents, ChatGPT and MetaAI are the two leaders, with Gemini coming in third.
They showed that this March, Gemini saw 35 million active daily users and 350 million monthly active users worldwide. That was up from 9 million daily active users in October 2024. But according to those documents, Gemini was still lagging behind ChatGPT, which reached 160 million daily users and around 600 million active users in March.
These numbers show that competitors have no need to use Google’s search data, valuable intellectual property that the tech giant spent decades building and maintaining, the company argues.
“The notion that somehow ChatGPT can’t get distribution is absurd,” Schmidtlein said in court last week. “They have more distribution than anyone.”
Google’s exclusive deals
In his ruling last year, U.S. District Judge Amit Mehta said Google’s exclusive agreements with device makers, like Apple and Samsung, to make its search engine the default on those companies’ phones helped maintain its monopoly. It remains a core issue for this remedy trial.
Now, the DOJ is arguing that Google’s deals with device manufacturers are also directly affecting AI companies and AI tech.
In court, the DOJ argued that Google has replicated this kind of distribution deal by agreeing to pay Samsung what Dahlquist called a monthly “enormous sum” for Gemini to be installed on smartphones and other devices.
Last Wednesday, the DOJ also called Dmitry Shevelenko, Perplexity’s chief business officer, to testify that Google has effectively cut his company out from making deals with manufacturers and mobile carriers.
Perplexity AIs not preloaded on any mobile devices in the U.S., despite many efforts to get phone companies to establish Perplexity as a default or exclusive app on devices, Shevelenko said. He compared Google’s control in that space to that of a “mob boss.”
But Google’s attorney, Christopher Yeager, noted in questioning Shevelenko that Perplexity has reached a valuation of over $9 billion — insinuating the company is doing just fine in the marketplace.
Despite testifying in court (for which he was subpoenaed, Shevelenko noted), he and other leaders at Perplexity are against the breakup of Google. In a statement on the company’s website, the Perplexity team wrote that neither forcing Google to sell off Chrome nor to license search data to its competitors are the best solutions. “Neither of these address the root issue: consumers deserve choice,” they wrote.

Google and Alphabet CEO Sundar Pichai departs federal court after testifying in October 2023 in Washington, DC. Pichai testified to defend his company in the original antitrust trial. Pichai is expected to testify again during the remedy phase of the legal proceedings.
Drew Angerer/Getty Images/Getty Images North America
hide caption
toggle caption
Drew Angerer/Getty Images/Getty Images North America
What to expect next
This week the trial continues, with the DOJ calling its final witnesses this morning to testify about the feasibility of a Chrome divestiture and how the government’s proposed remedies would help rivals compete. On Tuesday afternoon, Google will begin presenting its case, which is expected to feature the testimony of CEO Sundar Pichai, although the date of his appearance has not been specified.
Closing arguments are expected at the end of May, and then Mehta will make his ruling. Google says once this phase is settled the company will appeal Mehta’s ruling in the underlying case.
Whatever Mehta decides in this remedy phase, Cooper thinks it will have effects beyond just the business of search engines. No matter what it is, she said, “it will be having some kind of impact on AI.”
Google is a financial supporter of NPR.
Noticias
API de Meta Oleleshes Llama que se ejecuta 18 veces más rápido que OpenAI: Cerebras Partnership ofrece 2.600 tokens por segundo
Published
10 horas agoon
29 abril, 2025
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Meta anunció hoy una asociación con Cerebras Systems para alimentar su nueva API de LLAMA, ofreciendo a los desarrolladores acceso a velocidades de inferencia hasta 18 veces más rápido que las soluciones tradicionales basadas en GPU.
El anuncio, realizado en la Conferencia inaugural de desarrolladores de Llamacon de Meta en Menlo Park, posiciona a la compañía para competir directamente con Operai, Anthrope y Google en el mercado de servicios de inferencia de IA en rápido crecimiento, donde los desarrolladores compran tokens por miles de millones para impulsar sus aplicaciones.
“Meta ha seleccionado a Cerebras para colaborar para ofrecer la inferencia ultra rápida que necesitan para servir a los desarrolladores a través de su nueva API de LLAMA”, dijo Julie Shin Choi, directora de marketing de Cerebras, durante una sesión de prensa. “En Cerebras estamos muy, muy emocionados de anunciar nuestra primera asociación HyperScaler CSP para ofrecer una inferencia ultra rápida a todos los desarrolladores”.
La asociación marca la entrada formal de Meta en el negocio de la venta de AI Computation, transformando sus populares modelos de llama de código abierto en un servicio comercial. Si bien los modelos de LLAMA de Meta se han acumulado en mil millones de descargas, hasta ahora la compañía no había ofrecido una infraestructura en la nube de primera parte para que los desarrolladores creen aplicaciones con ellos.
“Esto es muy emocionante, incluso sin hablar sobre cerebras específicamente”, dijo James Wang, un ejecutivo senior de Cerebras. “Openai, Anthrope, Google: han construido un nuevo negocio de IA completamente nuevo desde cero, que es el negocio de inferencia de IA. Los desarrolladores que están construyendo aplicaciones de IA comprarán tokens por millones, a veces por miles de millones. Y estas son como las nuevas instrucciones de cómputo que las personas necesitan para construir aplicaciones AI”.
Breaking the Speed Barrier: Cómo modelos de Llama de Cerebras Supercharges
Lo que distingue a la oferta de Meta es el aumento de la velocidad dramática proporcionado por los chips de IA especializados de Cerebras. El sistema de cerebras ofrece más de 2.600 fichas por segundo para Llama 4 Scout, en comparación con aproximadamente 130 tokens por segundo para ChatGPT y alrededor de 25 tokens por segundo para Deepseek, según puntos de referencia del análisis artificial.
“Si solo se compara con API a API, Gemini y GPT, todos son grandes modelos, pero todos se ejecutan a velocidades de GPU, que son aproximadamente 100 tokens por segundo”, explicó Wang. “Y 100 tokens por segundo están bien para el chat, pero es muy lento para el razonamiento. Es muy lento para los agentes. Y la gente está luchando con eso hoy”.
Esta ventaja de velocidad permite categorías completamente nuevas de aplicaciones que antes no eran prácticas, incluidos los agentes en tiempo real, los sistemas de voz de baja latencia conversacional, la generación de código interactivo y el razonamiento instantáneo de múltiples pasos, todos los cuales requieren encadenamiento de múltiples llamadas de modelo de lenguaje grandes que ahora se pueden completar en segundos en lugar de minutos.
La API de LLAMA representa un cambio significativo en la estrategia de IA de Meta, en la transición de ser un proveedor de modelos a convertirse en una compañía de infraestructura de IA de servicio completo. Al ofrecer un servicio API, Meta está creando un flujo de ingresos a partir de sus inversiones de IA mientras mantiene su compromiso de abrir modelos.
“Meta ahora está en el negocio de vender tokens, y es excelente para el tipo de ecosistema de IA estadounidense”, señaló Wang durante la conferencia de prensa. “Traen mucho a la mesa”.
La API ofrecerá herramientas para el ajuste y la evaluación, comenzando con el modelo LLAMA 3.3 8B, permitiendo a los desarrolladores generar datos, entrenar y probar la calidad de sus modelos personalizados. Meta enfatiza que no utilizará datos de clientes para capacitar a sus propios modelos, y los modelos construidos con la API de LLAMA se pueden transferir a otros hosts, una clara diferenciación de los enfoques más cerrados de algunos competidores.
Las cerebras alimentarán el nuevo servicio de Meta a través de su red de centros de datos ubicados en toda América del Norte, incluidas las instalaciones en Dallas, Oklahoma, Minnesota, Montreal y California.
“Todos nuestros centros de datos que sirven a la inferencia están en América del Norte en este momento”, explicó Choi. “Serviremos Meta con toda la capacidad de las cerebras. La carga de trabajo se equilibrará en todos estos diferentes centros de datos”.
El arreglo comercial sigue lo que Choi describió como “el proveedor de cómputo clásico para un modelo hiperscalador”, similar a la forma en que NVIDIA proporciona hardware a los principales proveedores de la nube. “Están reservando bloques de nuestro cómputo para que puedan servir a su población de desarrolladores”, dijo.
Más allá de las cerebras, Meta también ha anunciado una asociación con Groq para proporcionar opciones de inferencia rápida, brindando a los desarrolladores múltiples alternativas de alto rendimiento más allá de la inferencia tradicional basada en GPU.
La entrada de Meta en el mercado de API de inferencia con métricas de rendimiento superiores podría potencialmente alterar el orden establecido dominado por Operai, Google y Anthrope. Al combinar la popularidad de sus modelos de código abierto con capacidades de inferencia dramáticamente más rápidas, Meta se está posicionando como un competidor formidable en el espacio comercial de IA.
“Meta está en una posición única con 3 mil millones de usuarios, centros de datos de hiper escala y un gran ecosistema de desarrolladores”, según los materiales de presentación de Cerebras. La integración de la tecnología de cerebras “ayuda a Meta Leapfrog OpenAi y Google en rendimiento en aproximadamente 20X”.
Para las cerebras, esta asociación representa un hito importante y la validación de su enfoque especializado de hardware de IA. “Hemos estado construyendo este motor a escala de obleas durante años, y siempre supimos que la primera tarifa de la tecnología, pero en última instancia tiene que terminar como parte de la nube de hiperescala de otra persona. Ese fue el objetivo final desde una perspectiva de estrategia comercial, y finalmente hemos alcanzado ese hito”, dijo Wang.
La API de LLAMA está actualmente disponible como una vista previa limitada, con Meta planifica un despliegue más amplio en las próximas semanas y meses. Los desarrolladores interesados en acceder a la inferencia Ultra-Fast Llama 4 pueden solicitar el acceso temprano seleccionando cerebras de las opciones del modelo dentro de la API de LLAMA.
“Si te imaginas a un desarrollador que no sabe nada sobre cerebras porque somos una empresa relativamente pequeña, solo pueden hacer clic en dos botones en el SDK estándar de SDK estándar de Meta, generar una tecla API, seleccionar la bandera de cerebras y luego, de repente, sus tokens se procesan en un motor gigante a escala de dafers”, explicó las cejas. “Ese tipo de hacernos estar en el back -end del ecosistema de desarrolladores de Meta todo el ecosistema es tremendo para nosotros”.
La elección de Meta de silicio especializada señala algo profundo: en la siguiente fase de la IA, no es solo lo que saben sus modelos, sino lo rápido que pueden pensarlo. En ese futuro, la velocidad no es solo una característica, es todo el punto.
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.

Related posts

































































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo