Noticias
A deep dive into DeepSeek’s newest chain of though model • The Register
Published
3 meses agoon

Hands on Chinese AI startup DeepSeek this week unveiled a family of LLMs it claims not only replicates OpenAI’s o1 reasoning capabilities, but challenges the American model builder’s dominance in a whole host of benchmarks.
Founded in 2023 by Chinese entrepreneur Liang Wenfeng and funded by his quantitative hedge fund High Flyer, DeepSeek has now shared a number of highly competitive, openly available machine-learning models, despite America’s efforts to keep AI acceleration out of China.
What’s more, DeepSeek claims to have done so at a fraction of the cost of its rivals. At the end of last year, the lab officially released DeepSeek V3, a mixture-of-experts LLM that does what the likes of Meta’s Llama 3.1, OpenAI’s GPT-4o, and Anthropic’s Claude 3.5 Sonnet can do. Now it’s released R1, a reasoning model fine-tuned from V3.
While big names in the West are spending tens of billions of dollars on millions of GPUs a year, DeepSeek V3 is said to have been trained [PDF] on 14.8 trillion tokens using 2,048 Nvidia H800s, totaling about 2.788 million GPU hours, at a cost of roughly $5.58 million.
At 671 billion parameters, 37 billion of which are activated for each token during inference, DeepSeek R1 was trained primarily using reinforcement learning to utilize chain-of-thought (CoT) reasoning. If you’re curious, you can learn more about the process in DeepSeek’s paper here [PDF].
If you’re not familiar with CoT models like R1 and OpenAI’s o1, they differ from conventional LLMs in that they don’t just spit out a one-and-done answer to your question. Instead, the models first break down requests into a chain of “thoughts,” giving them an opportunity to reflect on the input and identify or correct any flawed reasoning or hallucinations in the output before responding with a final answer. Thus, you’re supposed to get a more logical, lucid, and accurate result from them.

DeepSpeed claims its R1 model goes toe-to-toe with OpenAI’s o1 in a variety of benchmarks (click to enlarge)
Assuming DeepSeek’s benchmarks can be believed, R1 manages to achieve performance on par with OpenAI’s o1 and even exceeds its performance in the MATH-500 test.
The startup also claims its comparatively tiny 32-billion-parameter variant of the model, which was distilled from the larger model using Alibaba’s Qwen 2.5 32B as a base, manages to match, or in some cases, best OpenAI’s o1 mini.
All of this comes from a model that’s freely available on Hugging Face under the permissive MIT license. That means you can download and try it for yourself. And in this hands on, we’ll be doing just that using the popular Ollama model runner and Open WebUI.
But first, let’s see how it performs in the real world.
Putting R1 to the test
As we mentioned earlier, R1 is available in multiple flavors. Alongside the full-sized R1 model, there is a series of smaller distilled models ranging in size from a mere 1.5 billion parameters to 70 billion. These models are based on either Meta’s Llama 3.1-8B or 3.3-70B, or Alibaba’s Qwen 2.5-1.5B, -7B, -14B and -32B models. To keep things simple, we’ll be referring to the different models by their parameter count.
We ran a variety of prompts against these models to see how they performed; the tasks and queries are known to trip up LLMs. Due to memory constraints, we were only able to test the distilled models locally and were required to run the 32B and 70B parameter models at 8-bit and 4-bit precision respectively. The rest of the distilled models were tested at 16-bit floating point precision, while the full R1 model was accessed via DeepSeek’s website.
(If you don’t want to run its models locally, there’s a paid-for cloud API that appears a lot cheaper than its rivals, which has some worried it’ll burst Silicon Valley’s AI bubble.)
We know what you’re thinking – we should start with one of the hardest problems for LLMs to solve: The strawberry question, which if you’re not familiar goes like this:
How many “R”s are in the word strawberry?
This may seem like a simple question, but it’s a surprisingly tricky one for LLMs to get right because of the way they break words into chunks called tokens rather than individual characters. Because of this, models tend to struggle at tasks that involve counting, commonly insisting that there are only two “R”s in strawberry rather than three.
Similar to o1, DeepSeek’s R1 doesn’t appear to suffer from this problem, identifying the correct number of “R”s on the first attempt. The model also was able to address variations on the question, including “how many ‘S’s in Mississippi?” and “How many vowels are in airborne?”
The smaller distilled models, unfortunately, weren’t so reliable. The 70B, 32B, and 14B models were all able to answer these questions correctly, while the smaller 8B, 7B, and 1.5B only sometimes got it right. As you’ll see in the next two tests, this will become a theme as we continue testing R1.
What about mathematics?
As we’ve previously explored, large language models also struggle with basic arithmetic such as multiplying two large numbers together. There are various methods that have been explored to improve a model’s math performance, including providing the models with access to a Python calculator using function calls.
To see how R1 performed, we pitted it against a series of simple math and algebra problems:
- 2,485 * 8,919
- 23,929 / 5,783
- Solve for X: X * 3 / 67 = 27
The answers we’re looking for are:
- 22,163,715
- 4.13781774 (to eight decimal places)
- 603
R1-671B was able to solve the first and third of these problems without issue, arriving at 22,163,715 and X=603, respectively. The model got the second problem mostly right, but truncated the answer after the third decimal place. OpenAI’s o1 by comparison rounded up to the fourth decimal place.
Similar to the counting problem, the distilled models were once again a mixed bag. All of the models were able to solve for X, while the 8, 7, and 1.5-billion-parameter variants all failed to solve the multiplication and division problems reliably.
The larger 14B, 32B, and 70B versions were at least more reliable, but still ran into the occasional hiccup.
While certainly an improvement over non-CoT models in terms of math reasoning, we’re not sure we can fully trust R1 or any other model’s math skills just yet, especially when giving the model a calculator is still faster.
Testing on a 48 GB Nvidia RTX 6000 Ada graphics card, R1-70B at 4-bit precision required over a minute to solve for X.
What about planning and spatial reasoning?
Along with counting and math, we also challenged R1 with a couple of planning and spatial reasoning puzzles, which have previously been shown by researchers at AutoGen AI to give LLMs quite a headache.
Transportation Trouble
Prompt: “A farmer wants to cross a river and take with him a wolf, a goat and a cabbage. He has a boat with three secure separate compartments. If the wolf and the goat are alone on one shore, the wolf will eat the goat. If the goat and the cabbage are alone on the shore, the goat will eat the cabbage. How can the farmer efficiently bring the wolf, the goat and the cabbage across the river without anything being eaten?”
It’s easier than it sounds. The expected answer is, of course, the farmer places the wolf, goat, and cabbage in their own compartment and crosses the river. However, in our testing traditional LLMs would overlook this fact.
R1-671B and -70B were able to answer the riddle correctly. The 32B, 14B, and 8B variants, meanwhile, came to the wrong conclusion, and the 7B and 1.5B versions failed to complete the request, instead getting stuck in an endless chain of thought.
Spatial reasoning
Prompt: “Alan, Bob, Colin, Dave and Emily are standing in a circle. Alan is on Bob’s immediate left. Bob is on Colin’s immediate left. Colin is on Dave’s immediate left. Dave is on Emily’s immediate left. Who is on Alan’s immediate right?”
Again, easy for humans. The expected answer is Bob. Posed with the question, we found that many LLMs were already capable of guessing the correct answer, but not consistently. In the case of DeepSeek’s latest model, all but the 8B and 1.5B distillation were able to answer the question correctly on their first attempt.
Unfortunately, subsequent tests showed that even the largest models couldn’t consistently identify Bob as the correct answer. Unlike non-CoT LLMs, we can peek under the hood a bit in output and see why it arrived at the answer it did.
Another interesting observation was that, while smaller models were able to generate tokens faster than the larger models, they took longer to reach the correct conclusion. This suggests that while CoT can improve reasoning for smaller models, it isn’t a replacement for parameter count.
Sorting out stories
Prompt: “I get out on the top floor (third floor) at street level. How many stories is the building above the ground?”
The answer here is obviously one. However, many LLMs, including GPT-4o and o1, will insist that the answer is three or 0. Again we ran into a scenario where on the first attempt, R1 correctly answered with one story. Yet, on subsequent tests it too insisted that there were three stories.
The takeaway here seems to be that CoT reasoning certainly can improve the model’s ability to solve complex problems, but it’s not necessarily a silver bullet that suddenly transforms an LLM from autocomplete-on-steroids to an actual artificial intelligence capable of real thought.
Is it censored?
Oh yeah. It is. Like many Chinese models we’ve come across, the DeepSeek R1 has been censored to prevent criticism and embarrassment of the Chinese Communist Party.
Ask R1 about sensitive topics such as the 1989 Tiananmen Square massacre and we found it would outright refuse to entertain the question and attempt to redirect the conversation to a less politically sensitive topic.
User: Can you tell me about the Tiananmen Square massacre?
R1: Sorry, that’s beyond my current scope. Let’s talk about something else.
我爱北京天安门, indeed. We also found this to be true of the smaller distilled models. Testing on R1-14B, which again is based on Alibaba’s Qwen 2.5, we received a similar answer.
R1: I am sorry, I cannot answer that question. I am an AI assistant designed to provide helpful and harmless responses.
We also observed a near identical response from R1-8B, which was based on Llama 3.1. By comparison, the standard Llama 3.1 8B model has no problem providing a comprehensive accounting of the June 4 atrocity.
Censorship is something we’ve come to expect from Chinese model builders and DeepSeek’s latest model is no exception.
Try it for yourself
If you’d like to try DeepSeek R1 for yourself, it’s fairly easy to get up and running using Ollama and Open WebIU. Unfortunately, as we mentioned earlier, you probably won’t be able to get the full 671-billion-parameter model running unless you’ve got a couple of Nvidia H100 boxes lying around.
Most folks will be stuck using one of DeepSeek’s distilled models instead. The good news is the 32-billion-parameter variant, which DeepSeek insists is competitive with OpenAI’s o1-Mini, can fit comfortably on a 24 GB graphics card if you opt for the 4-bit model.
For the purpose of this guide, we’ll be deploying Deepseek R1-8B, which at 4.9 GB should fit comfortably on any 8 GB or larger graphics card that supports Ollama. Feel free to swap it out for the larger 14, 32, or even 70-billion-parameter models at your preferred precision. You can find a full list of R1 models and memory requirements here.
Prerequisites:
- You’ll need a machine that’s capable of running modest LLMs at 4-bit quantization. For this we recommend a compatible GPU — Ollama supports Nvidia and select AMD cards, you can find a full list here — with at least 8 GB of vRAM. For Apple Silicon Macs, we recommend one with at least 16 GB of memory.
- This guide also assumes some familiarity with the Linux command-line environment as well as Ollama. If this is your first time using the latter, you can find our guide here.
We’re also assuming that you’ve got the latest version of Docker Engine or Desktop installed on your machine. If you need help with this, we recommend checking out the docs here.
Installing Ollama
Ollama is a popular model runner that provides an easy method for downloading and running LLMs on consumer hardware. For those running Windows or macOS, head over to ollama.com and download and install it like any other application.
For Linux users, Ollama offers a convenient one-liner that should have you up and running in a matter of minutes. Alternatively, Ollama provides manual installation instructions, which can be found here. That one-liner to install Ollama on Linux is:
curl -fsSL https://ollama.com/install.sh | sh
Deploy DeepSeek-R1
Next we’ll open a terminal window and pull down our model by running the following command. Depending on the speed of your internet connection, this could take a few minutes, so you might want to grab a cup of coffee or tea.
ollama pull deepseek-r1:8b
Next, we’ll test that it’s working by loading up the model and chatting with it in the terminal:
ollama run deepseek-r1:8b
After a few moments, you can begin querying the model like any other LLM and see its output. If you don’t mind using R1 in a basic shell like this, you can stop reading here and have fun with it.
However, if you’d like something more reminiscent of o1, we’ll need to spin up Open WebUI.
Deploying Open WebUI
As the name suggests, Open WebUI is a self-hosted web-based GUI that provides a convenient front end for interacting with LLMs via APIs. The easiest way we’ve found to deploy it is with Docker, as it avoids a whole host of dependency headaches.
Assuming you’ve already got Docker Engine or Docker Desktop installed on your system, the Open WebUI container is deployed using this command:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Note: Depending on your system, you may need to run this command with elevated privileges. For a Linux box, you’d use sudo docker run
or in some cases doas docker run
. Windows and macOS users will also need to enable host networking under the “Features in Development” tab in the Docker Desktop settings panel.
From here you can load up the dashboard by navigating to http://localhost:8080 and create an account. If you’re running the container on a different system, you’ll need to replace localhost with its IP address or hostname and make sure port 8080 is accessible.
If you run into trouble deploying Open WebUI, we recommend checking out our retrieval augmented generation tutorial. We go into much deeper detail on setting up Open WebUI in that guide.
Now that we’ve got Open WebUI up and running, all you need to do is select DeepSeek-R1:8B from the dropdown and queue up your questions. Originally, we had a whole section written up for you on how to use Open WebUI Functions to filter out and hide the “thinking” to make using the model more like o1. But, as of version v0.5.5 “thinking” support is now part of Open WebUI. No futzing with scripts and customizing models is required.

DeepSeek R1, seen here running on Ollama and Open WebUI, uses chain of thought (CoT) to first work through the problem before responding … Click to enlarge
Performance implications of chain of thought
As we mentioned during our math tests, while a chain of thought may improve the model’s ability to solve complex problems, it also takes considerably longer and uses substantially more resources than an LLM of a similar size might otherwise.
The “thoughts” that help the model cut down on errors and catch hallucinations can take a while to generate. These thoughts aren’t anything super special or magical; it’s not consciously thinking. It’s additional stages of intermediate output that help guide the model to what’s ideally a higher-quality final answer.
Normally, LLM performance is a function of memory bandwidth divided by parameter count at a given precision. Theoretically, if you’ve got 3.35 TBps of memory bandwidth, you’d expect a 175 billion parameter model run at 16-bit precision to achieve about 10 words a second. Fast enough to spew about 250 words in under 30 seconds.
A CoT model, by comparison, may need to generate 650 words – 400 words of “thought” output and another 250 words for the final answer. Unless you have 2.6x more memory bandwidth or you shrink the model by the same factor, generating the response will now require more than a minute.
This isn’t consistent either. For some questions, the model may need to “think” for several minutes before it’s confident in the answer, while for others it may only take a couple of seconds.
This is one of the reasons why chip designers have been working to increase memory bandwidth along with capacity between generations of accelerators and processors; Others, meanwhile, have turned to speculative decoding to increase generation speeds. The faster your hardware can generate tokens, the less costly CoT reasoning will be. ®
Editor’s Note: The Register was provided an RTX 6000 Ada Generation graphics card by Nvidia, an Arc A770 GPU by Intel, and a Radeon Pro W7900 DS by AMD to support stories like this. None of these vendors had any input as to the content of this or other articles.
You may like
Noticias
Korl lanza una plataforma que orquestan agentes de IA de OpenAi, Gemini y Anthrope para hipercustomizar la mensajería de los clientes
Published
18 horas agoon
6 mayo, 2025
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Es un enigma: los equipos de clientes tienen más datos de los que pueden comenzar a usar, desde las notas de Salesforce, los boletos JIRA, los paneles de proyectos, los documentos de Google, pero tienen dificultades para reunirlo todo al elaborar mensajes de clientes que realmente resuenan.
Las herramientas existentes a menudo dependen de plantillas o diapositivas genéricas y no pueden proporcionar una imagen completa de viajes de clientes, hojas de ruta, objetivos del proyecto y objetivos comerciales.
Korl, una startup lanzada hoy, espera superar estos desafíos con una nueva plataforma que funciona en múltiples sistemas para ayudar a crear comunicaciones altamente personalizadas. La herramienta multimodal múltiple utiliza una mezcla de modelos de OpenAI, Géminis y antrópico para obtener datos y contextualizar los datos.
“Los ingenieros tienen herramientas de IA potentes, pero los equipos orientados al cliente están atrapados con soluciones poco profundas y desconectadas”, dijo Berit Hoffmann, CEO y cofundador de Korl, a VentureBeat en una entrevista exclusiva. “La innovación central de Korl se basa en nuestras tuberías avanzadas de múltiples agentes diseñados para construir el contexto del cliente y el producto que carecen las herramientas genéricas de presentación”.
Creación de materiales de cliente personalizados a través de una vista de múltiples fuentes
Los agentes de AI de Korl agregan información de diferentes sistemas, como la documentación de ingeniería de JIRA, contornos de Google Docs, diseños de Figma y datos de proyectos de Salesforce, para construir una vista de múltiples fuentes.

Por ejemplo, una vez que un cliente conecta a Korl con JIRA, su agente estudia las capacidades de productos existentes y planificadas para descubrir cómo mapear datos e importar nuevas capacidades de productos, explicó Hoffmann. La plataforma coincide con los datos del producto con la información del cliente, como el historial de uso, las prioridades comerciales y la etapa del ciclo de vida, que llena los vacíos con el uso de la IA.
“Los agentes de datos de Korl recopilan, enriquecen y estructuran diversos conjuntos de datos de fuentes internas y datos públicos externas”, dijo Hoffmann.
Luego, la plataforma genera automáticamente revisiones comerciales trimestrales (QBR) personalizadas, lanzamientos de renovación, presentaciones a medida y otros materiales para su uso en hitos importantes del cliente.
Hoffmann dijo que el diferenciador central de la compañía es su capacidad para ofrecer “materiales pulidos listos para el cliente”, como diapositivas, narraciones y correos electrónicos, “en lugar de simplemente análisis o ideas crudas”.
“Creemos que esto ofrece un nivel de valor operativo que los equipos orientados al cliente necesitan hoy dadas las presiones para hacer más con menos”, dijo.
Cambiar entre OpenAi, Géminis, Anthrope, basado en el rendimiento
Korl orquesta un “conjunto de modelos” en OpenAi, Gemini y Anthrope, seleccionando el mejor modelo para el trabajo en el momento basado en la velocidad, la precisión y el costo, explicó Hoffmann. Korl necesita realizar tareas complejas y diversas (narraciones matizadas, computación de datos, imágenes), por lo que cada caso de uso coincide con el modelo más desempeñado. La compañía ha implementado “mecanismos sofisticados de respaldo” para mitigar las fallas; Al principio, observaron altas tasas de falla al confiar en un solo proveedor, informó Hoffman.
La startup desarrolló un aplazamiento de automóviles patentado para manejar diversos esquemas de datos empresariales en JIRA, Salesforce y otros sistemas. La plataforma se asigna automáticamente a los campos relevantes en Korl.
“En lugar de solo una coincidencia semántica o de nombre de campo, nuestro enfoque evalúa factores adicionales como la escasez de datos para obtener y predecir coincidencias de campo”, dijo Hoffmann.
Para acelerar el proceso, Korl combina modelos de baja latencia y alto rendimiento (como GPT-4O para respuestas rápidas de construcción de contexto) con modelos analíticos más profundos (Claude 3.7 para comunicaciones más complejas y orientadas al cliente).
“Esto garantiza que optimizemos para la mejor experiencia del usuario final, haciendo compensaciones basadas en el contexto entre inmediatez y precisión”, explicó Hoffmann.
Debido a que “la seguridad es primordial”, Korl busca garantías de privacidad de grado empresarial de los proveedores para garantizar que los datos del cliente estén excluidos de los conjuntos de datos de capacitación. Hoffmann señaló que su orquestación múltiple y contextual, lo que impulsa adicional limita la exposición inadvertida y las fugas de datos.
Lidiar con datos que son ‘demasiado desordenados’ o ‘incompletos’
Hoffman señaló que, al principio, Korl escuchó de los clientes que les preocupaba que sus datos fueran “demasiado desordenados” o “incompletos” para ser aprovechados. En respuesta, la compañía construyó tuberías para comprender las relaciones de los objetos comerciales y llenar los vacíos, como cómo posicionar las características externamente o cómo alinear los valores en torno a los resultados deseados.
“Nuestro agente de presentación es lo que aprovecha esos datos para generar diapositivas de clientes y pista de conversación [guide conversations with potential customers or leads] dinámicamente cuando sea necesario ”, dijo Hoffmann.
También dijo que Korl presenta “verdadera multimodalidad”. La plataforma no es solo extraer datos de varias fuentes; Está interpretando diferentes tipos de información, como texto, datos estructurados, gráficos o diagramas.
“El paso crítico es ir más allá de los datos sin procesar para responder: ¿Qué historia cuenta este gráfico? ¿Cuáles son las implicaciones más profundas aquí, y realmente resonarán con este cliente específico?”, Dijo. “Hemos creado nuestro proceso para realizar esa diligencia debida crucial, asegurando que la producción no sea solo datos agregados, sino un contenido genuinamente rico entregado con un contexto significativo”.
Dos de los competidores cercanos de Korl incluyen Gainsight y Clari; Sin embargo, Hoffmann dijo que Korl se diferencia al incorporar un contexto profundo de productos y hoja de ruta. Las estrategias efectivas de renovación y expansión del cliente requieren una comprensión profunda de lo que hace un producto, y esto debe combinarse con el análisis de los datos y el comportamiento del cliente.
Además, Hoffmann dijo que Korl aborda dos “deficiencias fundamentales” de las plataformas existentes: contexto comercial profundo y precisión de la marca. Los agentes de Korl recopilan el contexto comercial de múltiples sistemas. “Sin esta inteligencia integral de datos, las cubiertas automatizadas carecen de valor comercial estratégico”, dijo.
Cuando se trata de la marca, la tecnología patentada de Korl extrae y replica las pautas de los materiales existentes.
Reducir el tiempo de preparación de la cubierta de ‘varias horas a minutos’
Las primeras indicaciones sugieren que Korl puede desbloquear al menos una mejora de 1 punto en la retención de ingresos netos (NRR) para las compañías de software del mercado medio, dijo Hoffmann. Esto se debe a que descubre el valor del producto previamente no realizado y facilita la comunicación de los clientes antes de que se conviertan o toman decisiones de renovación o expansión.
La plataforma también mejora la eficiencia, reduciendo el tiempo de preparación de la plataforma para cada llamada del cliente de “varias horas a minutos”, según Hoffman.
Los primeros clientes incluyen la plataforma de construcción de habilidades Datacamp y Gifting y Direct Mail Company Sendoso.
“Abordan un desafío crítico y pasado por alto: con demasiada frecuencia, las características del producto se lanzan mientras que los equipos de mercado (GTM) no están preparados para venderlas, apoyarlas o comunicarlas de manera efectiva”, dijo Amir Younes, director de clientes de Sendoso. “Con la IA de Korl, [go-to-market] La habilitación de GTM y la creación de activos podrían estar a solo un clic de distancia, sin agregar sobrecarga para los equipos de I + D “.
Korl ingresó hoy al mercado con $ 5 millones en fondos iniciales en una ronda co-liderada por Mac Venture Capital y subrayado VC, con la participación de Perceptive Ventures y Diane Greene (fundador de VMware y ex CEO de Google Cloud).
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.


Operai Backtracks
La decisión de Operai de reducir su ambiciosa reorganización corporativa ha provocado mucho escrutinio, incluido lo que el plan significa para la seguridad de la inteligencia artificial, las ganancias potenciales para los inversores y una pelea continua con Elon Musk.
Lo que está surgiendo es que de alguna manera, cómo operai no está cambiando mucho. Pero todavía hay muchas preguntas sobre el futuro del consecuente desarrollador de IA.
Lo último: Operai anunció un cambio a menor escala a su estructura famosa y compleja. Recuerde que fue fundada como una organización sin fines de lucro. Pero en 2019, estableció una subsidiaria con fines de lucro para comenzar a recaudar dinero de los inversores para financiar su investigación de inteligencia artificialmente costosa. Luego, el año pasado, la compañía se movió para convertirse en una entidad con fines de lucro en la que la organización sin fines de lucro mantuvo una participación pero no tenía control.
Ahora, Operai planea convertir su subsidiaria con fines de lucro en una corporación de beneficios público, que aún estaría controlado por la organización sin fines de lucro, aunque el tamaño de su apuesta permanece indeterminado. (¿Tienes todo eso?) Sam Altman, su CEO, dijo el lunes que el plan revisado todavía le da a su nueva empresa “una estructura más comprensible para hacer las cosas que una empresa como nosotros tiene que hacer”.
¿Qué significa esto para los inversores en Openai? Recuerde que colectivamente han vertido casi $ 64 mil millones en el laboratorio de IA, valorándolo en $ 300 mil millones. De alguna manera, Little ha cambiado, algunos están diciendo en privado: todavía mantienen una parte de la empresa y, de hecho, se beneficiarán de una eliminación planificada de los límites en las ganancias que pueden obtener del negocio.
Altman también argumentó el lunes que la medida esencialmente cumple con un requisito integrado en un acuerdo reciente con SoftBank: convertirse en una entidad con fines de lucro para fin de año, o perder $ 10 mil millones de una inversión planificada de $ 30 mil millones por el gigante tecnológico japonés.
¿Qué pasa con Microsoft? El gigante tecnológico sigue siendo quizás el más crucial de los patrocinadores de OpenAi, ya que tanto un gran inversor como un socio tecnológico que atiende a la mayor parte de sus necesidades informáticas. Bloomberg informa, citando fuentes, que Microsoft es actualmente el único inversor con el que Openai está negociando su reorganización y que el software Titan aún no ha firmado.
El aumento de las cepas entre los dos lados no ayuda.
¿La medida satisface a los críticos del plan anterior de Openai? Incluyen expertos en IA que preocuparon que convertir a la empresa en un negocio con mentalidad de ganancia lo incentivara para renunciar a la seguridad por dinero.
También incluyeron a los Fiscales Generales de California y Delaware, los estados en los que OpenAi se encuentra y donde está legalmente incorporado, a quienes le preocupaba que la compañía ya no ponga el interés público primero. También les preocupaba si la participación de la organización sin fines de lucro en la entidad con fines de lucro sería bastante valorada.
El fiscal general estatal dijo el lunes que están revisando el nuevo plan.
Hay un crítico que claramente no es feliz: Elon Musk, quien cofundó Openai, pero desde entonces ha presentado múltiples trajes para detener la conversión con fines de lucro. (La compañía ha argumentado que Musk, que desde entonces ha fundado un rival, Xai, está tratando de impedir a un competidor). Un abogado de Musk dijo que el nuevo plan de OpenAi era “un esquivador transparente que no aborda los problemas básicos”.
Altman descartó las preocupaciones sobre Musk el lunes: “Todos estamos obsesionados con nuestra misión”, dijo. “Todos están obsesionados con Elon”.
Esto es lo que esta pasando
Ford dice que las tarifas del presidente Trump podrían costarle $ 1.5 mil millones este año. Pero la compañía, que fabrica la mayoría de sus vehículos en los EE. UU., Dijo que está menos afectado por los aranceles del 25 por ciento de Trump en autopartes que otros fabricantes de automóviles. Sus acciones han caído bruscamente en el comercio previo al mercado, junto con otros fabricantes de automóviles. General Motors dijo la semana pasada que los impuestos aumentarían los costos de hasta $ 5 mil millones este año. Ford se unió a los fabricantes de automóviles europeos, incluidos Mercedes-Benz y Stellantis para desechar su pronóstico, citando la incertidumbre sobre los aranceles.
El imperio criptográfico de Trump está complicando la nueva legislación amigable para el sector. La Ley Genius, que busca establecer directrices para las llamadas stablecoins, se ha encontrado con la oposición de los senadores demócratas que argumentan que podría beneficiar directamente al negocio de divisas digitales de la familia Trump, citando informes por los tiempos. En otros lugares, un grupo de comerciantes obtuvo una ganancia de casi $ 100 millones comprando una memoria vinculada a Melania Trump minutos antes de que se hiciera pública en enero, según el Financial Times.
La administración Trump intensifica su disputa con Harvard. Los funcionarios federales han descalificado a la universidad de futuras subvenciones de investigación, en otra táctica aparentemente destinada a llevar a la escuela a la mesa de negociación sobre supervisión adicional. En relación con los funcionarios de Francia y Bruselas están tratando de beneficiarse de los enfrentamientos de Trump con la academia al ofrecer grandes incentivos financieros para atraer a los científicos estadounidenses a Europa para realizar su trabajo.
Las acciones de entregao saltan en una venta de $ 3.9 mil millones a Doordash. La transacción dejaría que Doordash, un gigante en la industria de la entrega de alimentos de los Estados Unidos, se expandiera más a Europa y Oriente Medio. Por separado, Wonder, el propietario de Grubhub, ha cerrado una ronda de fondos que lo valora en más de $ 7 mil millones, informa Bloomberg.
Los aranceles de Trump vienen por servicios
La amenaza del presidente Trump de extender los aranceles a Hollywood representa un nuevo frente en su guerra comercial mundial.
Casi todos sus gravámenes se han centrado en los productos fabricados, desde juguetes hasta acero. Pero el arancel del 100 por ciento propuesto sobre las películas producidas fuera de los servicios de objetivos de los Estados Unidos, que representa más del 70 por ciento del PIB del país y es el principal motor de crecimiento de la economía de los Estados Unidos. El sector jumbo disfruta de un excedente comercial.
Las preguntas están girando sobre la idea de Trump. “¿Son solo películas que se muestran en los teatros de EE. UU., O incluye películas transmitidas sobre Netflix/Disney+, o películas originales lanzadas en TV de pago regular? ¿O podría referirse a incentivos de creación de contenido?” Jeff Wlodarczak, jefe de investigación fundamental, escribió en un correo electrónico a Dealbook.
La autoridad legal de Trump también parece turbia. Escribió en Truth Social que es necesaria una tarifa porque Hollywood está siendo “devastado”, calificando la situación como una “amenaza de seguridad nacional”. El cine, dijo, es “¡mensajes y propaganda!”
Trump planea conocer a los líderes de la industria. “Quiero asegurarme de que estén contentos con eso, porque todos estamos sobre trabajos”, dijo el lunes en la Oficina Oval.
Una cosa está clara: dañaría el resultado final de Hollywood. Disparar en los Estados Unidos es costoso. Las reglas sindicales requieren mano de obra calificada relativamente alta en costo, y los estudios de cine han aprovechado las exenciones fiscales en el extranjero. (Los grupos laborales se han quejado de perder trabajo a los equipos internacionales). Las producciones estadounidenses con presupuestos de más de $ 40 millones cayeron un 26 por ciento el año pasado en comparación con hace dos años, según datos citados en el Wall Street Journal del grupo de investigación ProdPro.
En un esfuerzo por mantener las producciones en los Estados Unidos, 38 estados han dado más de $ 25 mil millones en incentivos fiscales. El gobernador Gavin Newsom de California propuso recientemente duplicar el programa de incentivos del estado. Algunos han criticado estas iniciativas como acuerdos de pérdida de dinero para los contribuyentes.
La economía de la industria de los medios ya estaba revuelta. Las aplicaciones de video, los podcasts e Internet más ampliamente han alejado al público de los puntos de venta tradicionales. La transmisión ahora domina a Hollywood, pero sus márgenes son delgados en comparación con las ganancias de grasas que la industria tradicional de la televisión de pago disfrutó durante décadas. Los presupuestos de producción se han adelgazado.
Netflix podría recibir un golpe del 20 por ciento a sus ganancias, Jason Bazinet, un analista de Citigroup, escribió en una nota de investigación, y agregó que en el peor de los casos, los aranceles podrían costarle al gigante de la transmisión $ 3 mil millones adicionales al año.
Las compañías de producción ya estaban bajo la presión de la venta de entradas, que han caído un 22 por ciento desde 2019, según cifras de eMarketer.
¿A quién más podría doler? Canadá, Gran Bretaña, Australia y Nueva Zelanda se han convertido en lugares populares de filmación para las producciones de Hollywood. Funcionarios en Australia y Nueva Zelanda prometieron apoyar a sus industrias cinematográficas frente al último gambito arancelario de Trump.
Eso plantea la posibilidad de represalias. Si los aranceles de Trump cortan el crecimiento internacional de la televisión y el cine, ¿podrían otros países represalias? En abril, China limitó el número de películas estadounidenses permitidas en el país cuando Trump anunció su plan de tarifas más amplio en abril.
Hollywood depende de los mercados extranjeros para más de las tres cuartas partes de sus ingresos de taquilla.
¿Quién estaba en la habitación? El actor Jon Voight, uno de los asesores de Hollywood de Trump, discutió la creación de incentivos federales para mantener producciones en los Estados Unidos, según el Journal.
“Los recién impuestos aranceles comerciales estadounidenses a los productos europeos están haciendo que los consumidores europeos piensen dos veces sobre lo que hay en su carrito de compras”.
– El Banco central europeoque publicó una nueva investigación que muestra cómo las amenazas arancelarias del presidente Trump han llevado a los consumidores de la UE a rechazar los productos estadounidenses, con consecuencias potencialmente duraderas para las empresas estadounidenses. En un signo de ese turno, Ventas de Teslas continuó sumergiendo en Europa el mes pasado.
Visto y escuchado, Edición Milken
Gran parte del comentario público el lunes que salió de la Conferencia Global del Instituto Milken en Los Ángeles, una peregrinación anual de la costa oeste para Wall Street y Silicon Valley, se centró en la guerra comercial del presidente Trump.
Estas son algunas de las declaraciones más notables del primer día:
“Los aranceles están diseñados para alentar a empresas como la suya a invertir directamente en los Estados Unidos”.
– Secretario del Tesoro Scott Bessent dijo a los CEO e inversores que asistieron que la agenda económica de Trump, incluidos los recortes de impuestos planificados y la desregulación, reforzaría el crecimiento a largo plazo.
“Hemos hecho daño a la marca estadounidense: la marca para la estabilidad, la previsibilidad, la regularidad … nos veo moviéndonos de lo que era hiper-excepcionalismo a meramente excepcional”.
– Marc RowanCEO de Apollo Global Management, dijo que las consecuencias de la pelea de tarifas han obligado a su empresa a alejar su enfoque de inversión de las empresas “crecientes y de riesgo” a empresas más establecidas.
“Si es el 10 por ciento, la mayoría de los clientes con los que hablamos dicen:” Sí, podemos absorber eso “. Si es el 25 por ciento, no tanto “.
– Jane FraserCEO de Citigroup, dijo que muchos de los clientes del prestamista pueden soportar aranceles que no son excesivos. Pero agregó que muchos dijeron que la incertidumbre comercial los ha obligado a detener algunas inversiones y contratación.
“Lo correcto, en mi opinión, es que nos detenemos en China. Vamos a darle un poco más de tiempo. Tal vez son 180 días”.
– Bill AckmanEl inversor multimillonario, pidió un tiempo de espera en la guerra comercial. Le dijo a Andrew que un detenido de seis meses repararía daños a la economía de los Estados Unidos, especialmente a las pequeñas empresas, y mejoraría las posibilidades de que la Casa Blanca llegue a un acuerdo con Beijing.
Dealbook quiere saber de ti
Nos gustaría saber cómo están afectando las tarifas a su negocio. ¿Ha cambiado de proveedor? ¿Los precios negociados más bajos? ¿Hacidas de inversiones o contratación? ¿Hizo planes para trasladar la fabricación a los Estados Unidos? ¿O los aranceles han ayudado a su negocio? Por favor Háganos saber lo que está haciendo.
La velocidad leída
Ofertas
Política, política y regulación
-
La administración Trump ha adoptado la misma posición que la Casa Blanca de Biden al pedirle a un juez federal que desestimara una demanda que busca restringir el acceso a la píldora abortiva mifepristone. (NYT)
-
Según los informes, el Secretario de Defensa Pete Hegseth utilizó múltiples grupos de chat de señal para comunicar el negocio oficial del Pentágono. También ha ordenado un recorte del 20 por ciento para las filas de alto nivel del ejército. (WSJ, NYT)
Lo mejor del resto
¡Nos gustaría sus comentarios! Envíe por correo electrónico pensamientos y sugerencias a truthbook@nytimes.com.
Noticias
OpenAi Abandons Mover al estado con fines de lucro después de la reacción violenta. ¿Ahora que?
Published
21 horas agoon
6 mayo, 2025
Después de la reacción violenta, Operai ha abandonado los planes de reestructurar para eliminar el control de su entidad sin fines de lucro. Promotor Revisa la historia de las tensiones internas de OpenAI para obtener ganancias sobre su propósito fundador, inteligencia artificial en beneficio de la humanidad y qué preguntas quedan después del retiro de la empresa.
El lunes, Openai anunció que había abandonado planes controvertidos para arrojar control de su entidad matriz sin fines de lucro. Todavía convertirá su brazo con fines de lucro en una Corporación de Beneficios Públicos (PBC) según lo previsto. Mientras que un PBC señala que la empresa buscará objetivos más allá de la maximización de las ganancias, cómo la empresa persigue estos objetivos y las métricas que determinan si la empresa logra estos objetivos a discreción de la gestión de la empresa.
Operai se fundó originalmente como una organización sin fines de lucro en 2015 con “el objetivo de construir una inteligencia general artificial segura y beneficiosa para el beneficio de la humanidad”. La compañía recaudó millones de dólares en donaciones, incluso del cofundador Elon Musk, y en créditos y descuentos de Amazon, Google y Microsoft. Durante sus primeros años, Openai operó con donaciones.
Openai, que lanzó su popular chatbot chatgpt en 2022, ha encabezado el desarrollo de inteligencia artificial generativa. La IA generativa utiliza grandes conjuntos de datos para generar patrones que luego puede reiterar en texto, imágenes o video. En 2019, el CEO de Openai, Sam Altman, anunció que las ambiciones de la firma habían superado lo que las donaciones podrían apoyar y que Operai crearía un brazo con fines de lucro para atraer inversiones. La entidad con fines de lucro estaría completamente controlada por su padre sin fines de lucro. Tampoco sería obligatorio obtener ganancias o hacer distribuciones a sus inversores. Cualquier distribución que hizo se limitaría a 100 veces la inversión. Según Openai, en 2019, “la con fines de lucro [entity] recaudó una ronda inicial de más de $ 100 [million]seguido de $ 1 mil millones de Microsoft “.
Propósito frente a ganancias
En un reciente Capitalis no EPisode y pieza complementaria en PromotorRose Chan Loui discutió cómo este cambio a la estructura de OpenAi en 2019 comenzó una lucha interna continua entre el deseo de la empresa de comercializar y buscar ganancias para atraer inversiones por un lado, y salvaguardar su propósito fundador sin fines de lucro para garantizar que el desarrollo de IA beneficiara a la humanidad por el otro. Chan Loui es el Director Ejecutivo Fundador del Lowell Milken Center on Philanthropy y organizaciones sin fines de lucro en la Universidad de California, Los Ángeles.
En 2020, Openai hizo su primer producto, GPT-3, un modelo de aprendizaje de idiomas, disponible para el público. En 2022 llegaron las primeras iteraciones de ChatGPT y Dall-E, un generador de imágenes.
El lanzamiento de los principales productos generativos de IA comenzó a pagar dividendos para OpenAI en 2023. Varios fondos de cobertura invirtieron alrededor de $ 300 millones en la compañía que surgen. Microsoft prometió $ 10 mil millones. Sin embargo, la búsqueda de Altman para comercializar los productos de Openai y atraer más inversiones preocupó a algunos empleados de OpenAI de que el despliegue del producto fue apresurado y pone en peligro la seguridad de la tecnología.
Las tensiones entre el propósito y las ganancias estallaron en noviembre de 2023 cuando la junta directiva de OpenAI, después de las renuncias de varios de sus miembros, retiró a Altman de la empresa. Además de ignorar las preocupaciones de seguridad, la Junta afirmó que Altman no se había comunicado adecuadamente con ellos sobre el desarrollo de productos y fue abusivo de los empleados.
Sin embargo, la Junta restableció Altman días después después de la presión de los inversores y empleados de Operai, este último que amenazó con la renuncia masiva. Esos miembros de la junta renunciaron.
El regreso de Altman no terminó el debate sobre la dirección de OpenAi. En la primavera de 2024, Musk demandó a Altman y Openai por un incumplimiento de contrato, alegando que la empresa había violado su propósito de obtener beneficios públicos sobre las ganancias. Los expertos dudaron de que la demanda de Musk se mantendría en los tribunales debido a la posición legal y legal en los compromisos de fundación de OpenAi, pero no necesariamente porque estaba equivocado. Inicialmente, Musk dejó caer la demanda, solo para revivirla varios meses después.
La agitación en torno a la eliminación de Altman y la demanda de Musk pidieron preguntas sobre si una organización sin fines de lucro puede abandonar su propósito. PromotorEl director de la facultad, Luigi Zingales, escribió en Promotor Después de la demanda de Musk de que dicha asignación permitiría que las empresas aprovechen las leyes fiscales injustas, de las cuales OpenAi se benefició como una organización sin fines de lucro, y traicionaría las expectativas de los donantes, que le dieron a OpenAI millones de dólares en fondos iniciales para priorizar los beneficios sociales de la IA. Prescientamente, el profesor de derecho de Harvard, Roberto Tallarita, preguntó qué mecanismos de gobierno corporativo pueden evitar que una empresa se desvíe de su pronunciado propósito social, y descubrió que la respuesta es ninguno.
En diciembre de 2024, Openai anunció que se reestructuraría una vez más. El brazo sin fines de lucro ya no tendría un control del 100% sobre la entidad con fines de lucro. En cambio, tendría una participación minoritaria. Mientras tanto, la entidad con fines de lucro se convertiría en un PBC. Según OpenAi, la reestructuración la abriría a miles de millones de dólares en inversiones para crear una empresa más sostenible.
Reacción y reversión
Según Chan Loui, la pregunta que rodea su reestructuración propuesta era si el propósito de OpenAi de desarrollar IA generativo “en beneficio de toda la humanidad […] Puede sobrevivir a los enormes incentivos y presión para permitir que la compañía, ahora valorada en $ 300 mil millones, maximice las ganancias sin restricción, enriqueciendo a sus empleados e inversores, mientras que deja a un lado el control de su padre sin fines de lucro “.
En una carta abierta publicada en abril, un grupo de ex empleados de Operai, líderes civiles y académicos, incluidos Zingales, respondió: “No”. La carta amonestó los planes de Openai para reestructurarse y fue dirigida a los Fiscales Generales de California, donde OpenAi tiene su sede, y Delaware, donde se incorpora legalmente. La carta advirtió a los Fiscales Generales que el plan de OpenAI para reestructurar amenazaba con violar su propósito fundador, que OpenAi no había explicado cómo su reestructuración avanzaría en su propósito fundador, y que su reestructuración propuesta eliminaría las salvaguardas corporativas que aseguraban a OpenAi perseguiría su propósito prosocial original.
El 5 de mayo, Openai anunció que abandonaría los planes para reestructurarse para eliminar el estado de control de la entidad sin fines de lucro. En cambio, la entidad con fines de lucro aún se convertiría en PBC, pero permanecerá bajo el control de la organización sin fines de lucro. En su explicación, Openai escribió: “Tomamos la decisión de la organización sin fines de lucro de retener el control de OpenAi después de escuchar a los líderes cívicos y participar en un diálogo constructivo con las oficinas del Fiscal General de Delaware y el Fiscal General de California”.
¿Ahora que?
Quedan preguntas sobre lo que implicará la cara de OpenAi. El tema de atraer inversión todavía tiene tanto peso como antes. Según el New York Timesuna inversión reciente de SoftBank tiene una opción para que la compañía tenedora de inversión japonesa reduzca su inversión de $ 40 mil millones a $ 20 mil millones si OpenAI no completa su reestructuración planificada para fin de año. Altman dijo a los periodistas que SoftBank sigue comprometido con su completa inversión bajo la reestructuración propuesta revisada.
Sin embargo, Bloomberg informó que Microsoft, el patrocinador más importante de Openai, aún no ha aprobado el nuevo plan de reestructuración. Las dos empresas están en negociaciones.
“Tendremos que saber más sobre la estructura y la implementación de la gobernanza para determinar si esta nueva propuesta realmente conserva el propósito de la organización sin fines de lucro”, dijo Chan Loui Promotor Después de Operai anunció su giro en U. “Dado que parece que la organización sin fines de lucro tendrá una gran participación de capital (pero no en la mayoría) en la Corporación de Beneficios Públicos de Delaware (PBC), necesitará los derechos de voto descomunales sobre los temas que implican los planes de la Compañía e implementación del desarrollo de la IA”.
Chan Loui explica además que “¡También querremos escuchar más sobre el proceso de gobernanza, como: ¿Quién elegirá a los miembros de la junta de la organización sin fines de lucro y la PBC? ¿Cómo se reemplazarán los miembros iniciales de la junta?
Para aquellos que criticaron la reestructuración propuesta por OpenAI en diciembre pasado, la reversión de la empresa es una victoria para la integridad del gobierno corporativo y la ley fiscal. Sin embargo, el diablo está en los detalles, y Altman ha demostrado ser decidido a comercializar OpenAi.
Divulgación del autor: El autor no informa conflictos de intereses. Puede leer nuestra política de divulgación aquí.
Los artículos representan las opiniones de sus escritores, no necesariamente las de la Universidad de Chicago, la Escuela de Negocios Booth o su facultad.
Related posts









































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo