Noticias
Anthropic y OpenAI muestran por qué Musk debería construir una nube
Si Amazon va a hacerle pagar por la ventaja de la IA personalizada que quiere construir sobre sus rivales Google y Microsoft, entonces necesita tener los mejores modelos posibles funcionando con sus aceleradores locales. Tal como ya lo hace Google con sus propios Gemini LLM en sus propias TPU y como eventualmente hará Microsoft con el GPT de OpenAI en sus aceleradores Maia.
Y es por eso que Amazon, la empresa matriz de la nube de Amazon Web Services y el mayor beneficiario del gasto masivo que todos están haciendo en esa nube mientras pagan una prima por un producto de TI premium, realizó otra inversión de $4 mil millones en Anthropic la semana pasada. Era absolutamente predecible. Este hecho, así como otros, es la razón por la que podemos esperar ver bolsas de dinero viajando entre Amazon, Anthropic, Microsoft y OpenAI en los próximos años, al menos hasta que Anthropic y OpenAI se vuelvan lo suficientemente ricos como para crear sus propios aceleradores de IA y construir sus propios. infraestructura.
Aquí hay estrategias holísticas y de gran alcance en juego entre los creadores de modelos y los constructores de la nube. Explicamos parte de esto en agosto en El efecto boomerang de Sugar Daddy: cómo las inversiones en IA inflan las nubes cuando repasamos las finanzas de Microsoft Azure y Amazon Web Services y hablamos de las inversiones de 13 mil millones de dólares y 4 mil millones de dólares de sus empresas matrices, respectivamente, en OpenAI y Anthropic. Y nos preguntamos en voz alta cuánto del aumento en el gasto en computación en la nube en 2024 se debió a las inversiones realizadas en nuevas empresas de inteligencia artificial por parte de Amazon y Microsoft. Creemos que es un número grande y también pensamos que, dado esto, el número debería revelarse en sus finanzas. La empresa matriz de Google, Alphabet, ha invertido 2.550 millones de dólares en Anthropic hasta ahora y está cubriendo sus apuestas en grandes modelos lingüísticos.
Wall Street simplemente está contento de que alguien siga invirtiendo en IA y de que esta ciudad en auge siga creciendo. Con el tiempo, toda esta inversión en IA tendrá que proporcionar un retorno de la inversión y, hasta ahora, la gente en general tiene esperanzas de que así sea, aunque al mismo tiempo está un poco preocupada por el impacto que la IA tendrá en la economía del conocimiento.
Hicimos una inmersión profunda en Anthropic en septiembre de 2023 y no vamos a repasar la historia una y otra vez. En ese momento, AWS aportó 1.250 millones de dólares a Anthropic, y los dos acordaron comenzar a trasladar la familia Claude de LLM a los chips de entrenamiento Trainium AI y a los chips de inferencia Inferentia AI del constructor de la nube. Profundizamos en los chips Trainium e Inferentia en diciembre de 2023 y explicamos cómo AWS podría socavar las GPU de Nvidia para el entrenamiento y la inferencia de IA con su estrategia. En marzo de este año, Amazon aportó otros 2.750 millones de dólares a Anthropic, y la semana pasada aportó otros 4.000 millones de dólares más. En ese momento, utilizando los aceleradores Nvidia “Hopper” H100 en la nube, calculamos que 4 mil millones de dólares solo cubrían el costo de capacitar alrededor de tres docenas de LLM de parámetros de 2 billones de dólares en un período de 90 días.
Con chips de IA creíbles de cosecha propia y volúmenes suficientes de ellos para reducir el costo unitario, AWS puede ofrecer una mejor inversión en clústeres de IA que utilizando GPU Nvidia muy costosas. Y con los modelos Claude ajustados para Trainium e Inferentia, Anthropic puede ser el mayor cliente para ellos, ya que amplía sus modelos para hacerlos mejores y más precisos. AWS puede seguir iterando en hardware para satisfacer las necesidades del software Anthropic, creando un bucle virtuoso que luego puede extenderse al servicio de plataforma Bedrock AI operado por AWS, que salió de la versión beta hace un año y que admite a Claude y a muchos otros LLM y que ya cuenta con decenas de miles de clientes que pagan por Claude en la nube.
En algún momento, el flujo de ingresos de los modelos Claude que se ejecutan en Bedrock es lo suficientemente grande como para generar suficientes ganancias que realmente puedan cubrir los costos de las necesidades de inferencia y capacitación en inteligencia artificial de Amazon, la empresa minorista y de entretenimiento. Este punto de cruce probablemente se produjo hace varios años con la infraestructura genérica de centros de datos, aunque es difícil calcularlo con precisión.
Esa es la genialidad de ejecutar una nube muy grande y al mismo tiempo estar en otro negocio: en el caso de Microsoft, distribuye software y rastrea su uso, y con Amazon, vende cosas en línea y nos las hace llegar. ya sea a través de las carreteras o a través de Internet. Curiosamente, la infraestructura de TI necesaria para los negocios de búsqueda, transmisión de vídeo y publicidad de Google sigue siendo muy grande y Google Cloud todavía no es lo suficientemente rentable como para que este efecto se arraigue en la Fábrica de Chocolate. Pero creemos que ese día llegará inevitablemente.
Y, como dijimos, creemos que las inversiones de las grandes nubes en los grandes proveedores de LLM continuarán a buen ritmo incluso cuando estos últimos sigan intentando recaudar dinero de forma independiente y mantengan a sus papás de la nube como accionistas minoritarios.
Este es el truco, y probablemente también sea una de las razones por las que Elon Musk decidió no construir la máquina “Colossus” de 100.000 GPU en xAI junto con Oracle Cloud y decidió hacerse cargo de una antigua fábrica de aspiradoras Electrolux en las afueras de Memphis. Tennessee y hacer que Supermicro y Dell construyan el hierro para Colossus. Musk sabe muy bien, gracias a Tesla y SpaceX, que la IA en la nube es mucho más cara que la IA local. Y a largo plazo, no nos sorprendería ver que los motores de IA “Dojo” y los sistemas relacionados creados por Tesla se utilicen en las cuatro empresas controladas por Musk. (Incluido X, anteriormente conocido como Twitter, además de xAI, Tesla y SpaceX). ¿Por qué no? Musk claramente quiere controlar el destino de estas empresas y es lo suficientemente rico como para invertir en la construcción de su propia plataforma para esas empresas.
Sería aún más divertido ver a Dojo separarse de Tesla y vender tecnología a otras empresas de Musk. ¿Por qué no?
Para OpenAI y Anthropic, su independencia depende de poder recaudar financiación “up round” cada vez mayor, lo que eleva su valoración y, por tanto, diluye las apuestas de sus papás de azúcar en la nube.
Hurgando en Internet, vemos que Anthropic tiene una valoración de sólo 18.000 millones de dólares, lo que parece bastante pequeño para que AWS todavía tenga una participación minoritaria en la empresa. Según nuestros cálculos, eso es 44,4 por ciento propiedad de Amazon si se compara la inversión con la valoración. Si se compara la inversión de AWS con los 13.700 millones de dólares de financiación total, entonces se trata de una participación del 58,4 por ciento, lo que no convertiría a AWS en un accionista minoritario. (Y por lo tanto, creemos que esta no puede ser la forma en que las empresas calculan sus participaciones).
OpenAI acaba de recaudar 6.600 millones de dólares el mes pasado y tiene una valoración de 157.000 millones de dólares; Microsoft, Nvidia, SoftBank y un grupo de capitalistas de riesgo han aportado un total de 21.900 millones de dólares en financiación para OpenAI, y está en camino de obtener quizás 3.700 millones de dólares en ingresos este año, pero también se espera que pierda 5.000 millones de dólares. Si las inversiones de Microsoft se contabilizaran como financiación (y no sugerimos que lo sean), tendría al menos una participación del 59,3 por ciento en OpenAI. Claramente, esto no ha sucedido porque, si así fuera, Microsoft sería propietario de OpenAI y se comportaría en consecuencia. Pero en algún lugar por encima de los 13.000 millones de dólares frente a la valoración de 157.000 millones de dólares se encuentra nada menos que una participación del 8,3 por ciento.
Con la recaudación de fondos en este momento en xAI, los rumores dicen que la compañía Musk AI vale entre $ 40 mil millones y $ 45 mil millones. xAI ha recaudado 11.400 millones de dólares en cuatro rondas de financiación, incluida una ronda de 5.000 millones de dólares la semana pasada. Creemos que esa ronda de financiación cubre el costo de la máquina Colossus y su centro de datos, basándonos en cálculos aproximados. Sólo comprar sistemas con 100.000 GPU H100 costaría alrededor de 4.700 millones de dólares, incluidas las redes.
¿Quizás Musk construya una nube? Parece inevitable, una vez que ves cómo funcionan las matemáticas. Entonces todos ustedes podrían usar xCloud (como podríamos llamarlo) y subsidiar las necesidades de procesamiento de datos de Tesla, SpaceX, xAI y X.
En algún momento, también pensamos que es inevitable que Nvidia construya una nube. Las ganancias son demasiado buenas para evitarlas. ¿Quizás Jensen Huang, cofundador y director ejecutivo de Nvidia, y Musk puedan hacerlo juntos?
te hizo reir. Pero han sucedido cosas más extrañas en este negocio de TI.