Connect with us

Noticias

A deep dive into DeepSeek’s newest chain of though model • The Register

Published

on

Hands on Chinese AI startup DeepSeek this week unveiled a family of LLMs it claims not only replicates OpenAI’s o1 reasoning capabilities, but challenges the American model builder’s dominance in a whole host of benchmarks.

Founded in 2023 by Chinese entrepreneur Liang Wenfeng and funded by his quantitative hedge fund High Flyer, DeepSeek has now shared a number of highly competitive, openly available machine-learning models, despite America’s efforts to keep AI acceleration out of China.

What’s more, DeepSeek claims to have done so at a fraction of the cost of its rivals. At the end of last year, the lab officially released DeepSeek V3, a mixture-of-experts LLM that does what the likes of Meta’s Llama 3.1, OpenAI’s GPT-4o, and Anthropic’s Claude 3.5 Sonnet can do. Now it’s released R1, a reasoning model fine-tuned from V3.

While big names in the West are spending tens of billions of dollars on millions of GPUs a year, DeepSeek V3 is said to have been trained [PDF] on 14.8 trillion tokens using 2,048 Nvidia H800s, totaling about 2.788 million GPU hours, at a cost of roughly $5.58 million.

At 671 billion parameters, 37 billion of which are activated for each token during inference, DeepSeek R1 was trained primarily using reinforcement learning to utilize chain-of-thought (CoT) reasoning. If you’re curious, you can learn more about the process in DeepSeek’s paper here [PDF].

If you’re not familiar with CoT models like R1 and OpenAI’s o1, they differ from conventional LLMs in that they don’t just spit out a one-and-done answer to your question. Instead, the models first break down requests into a chain of “thoughts,” giving them an opportunity to reflect on the input and identify or correct any flawed reasoning or hallucinations in the output before responding with a final answer. Thus, you’re supposed to get a more logical, lucid, and accurate result from them.

DeepSpeed claims its R1 model goes toe-to-toe with OpenAI's o1 in a variety of benchmarks

DeepSpeed claims its R1 model goes toe-to-toe with OpenAI’s o1 in a variety of benchmarks (click to enlarge)

Assuming DeepSeek’s benchmarks can be believed, R1 manages to achieve performance on par with OpenAI’s o1 and even exceeds its performance in the MATH-500 test.

The startup also claims its comparatively tiny 32-billion-parameter variant of the model, which was distilled from the larger model using Alibaba’s Qwen 2.5 32B as a base, manages to match, or in some cases, best OpenAI’s o1 mini.

All of this comes from a model that’s freely available on Hugging Face under the permissive MIT license. That means you can download and try it for yourself. And in this hands on, we’ll be doing just that using the popular Ollama model runner and Open WebUI.

But first, let’s see how it performs in the real world.

Putting R1 to the test

As we mentioned earlier, R1 is available in multiple flavors. Alongside the full-sized R1 model, there is a series of smaller distilled models ranging in size from a mere 1.5 billion parameters to 70 billion. These models are based on either Meta’s Llama 3.1-8B or 3.3-70B, or Alibaba’s Qwen 2.5-1.5B, -7B, -14B and -32B models. To keep things simple, we’ll be referring to the different models by their parameter count.

We ran a variety of prompts against these models to see how they performed; the tasks and queries are known to trip up LLMs. Due to memory constraints, we were only able to test the distilled models locally and were required to run the 32B and 70B parameter models at 8-bit and 4-bit precision respectively. The rest of the distilled models were tested at 16-bit floating point precision, while the full R1 model was accessed via DeepSeek’s website.

(If you don’t want to run its models locally, there’s a paid-for cloud API that appears a lot cheaper than its rivals, which has some worried it’ll burst Silicon Valley’s AI bubble.)

We know what you’re thinking – we should start with one of the hardest problems for LLMs to solve: The strawberry question, which if you’re not familiar goes like this:

How many “R”s are in the word strawberry?

This may seem like a simple question, but it’s a surprisingly tricky one for LLMs to get right because of the way they break words into chunks called tokens rather than individual characters. Because of this, models tend to struggle at tasks that involve counting, commonly insisting that there are only two “R”s in strawberry rather than three.

Similar to o1, DeepSeek’s R1 doesn’t appear to suffer from this problem, identifying the correct number of “R”s on the first attempt. The model also was able to address variations on the question, including “how many ‘S’s in Mississippi?” and “How many vowels are in airborne?”

The smaller distilled models, unfortunately, weren’t so reliable. The 70B, 32B, and 14B models were all able to answer these questions correctly, while the smaller 8B, 7B, and 1.5B only sometimes got it right. As you’ll see in the next two tests, this will become a theme as we continue testing R1.

What about mathematics?

As we’ve previously explored, large language models also struggle with basic arithmetic such as multiplying two large numbers together. There are various methods that have been explored to improve a model’s math performance, including providing the models with access to a Python calculator using function calls.

To see how R1 performed, we pitted it against a series of simple math and algebra problems:

  1. 2,485 * 8,919
  2. 23,929 / 5,783
  3. Solve for X: X * 3 / 67 = 27

The answers we’re looking for are:

  1. 22,163,715
  2. 4.13781774 (to eight decimal places)
  3. 603

R1-671B was able to solve the first and third of these problems without issue, arriving at 22,163,715 and X=603, respectively. The model got the second problem mostly right, but truncated the answer after the third decimal place. OpenAI’s o1 by comparison rounded up to the fourth decimal place.

Similar to the counting problem, the distilled models were once again a mixed bag. All of the models were able to solve for X, while the 8, 7, and 1.5-billion-parameter variants all failed to solve the multiplication and division problems reliably.

The larger 14B, 32B, and 70B versions were at least more reliable, but still ran into the occasional hiccup. 

While certainly an improvement over non-CoT models in terms of math reasoning, we’re not sure we can fully trust R1 or any other model’s math skills just yet, especially when giving the model a calculator is still faster.

Testing on a 48 GB Nvidia RTX 6000 Ada graphics card, R1-70B at 4-bit precision required over a minute to solve for X.

What about planning and spatial reasoning?

Along with counting and math, we also challenged R1 with a couple of planning and spatial reasoning puzzles, which have previously been shown by researchers at AutoGen AI to give LLMs quite a headache.

Transportation Trouble

Prompt: “A farmer wants to cross a river and take with him a wolf, a goat and a cabbage. He has a boat with three secure separate compartments. If the wolf and the goat are alone on one shore, the wolf will eat the goat. If the goat and the cabbage are alone on the shore, the goat will eat the cabbage. How can the farmer efficiently bring the wolf, the goat and the cabbage across the river without anything being eaten?”

It’s easier than it sounds. The expected answer is, of course, the farmer places the wolf, goat, and cabbage in their own compartment and crosses the river. However, in our testing traditional LLMs would overlook this fact.

R1-671B and -70B were able to answer the riddle correctly. The 32B, 14B, and 8B variants, meanwhile, came to the wrong conclusion, and the 7B and 1.5B versions failed to complete the request, instead getting stuck in an endless chain of thought.

Spatial reasoning

Prompt: “Alan, Bob, Colin, Dave and Emily are standing in a circle. Alan is on Bob’s immediate left. Bob is on Colin’s immediate left. Colin is on Dave’s immediate left. Dave is on Emily’s immediate left. Who is on Alan’s immediate right?”

Again, easy for humans. The expected answer is Bob. Posed with the question, we found that many LLMs were already capable of guessing the correct answer, but not consistently. In the case of DeepSeek’s latest model, all but the 8B and 1.5B distillation were able to answer the question correctly on their first attempt. 

Unfortunately, subsequent tests showed that even the largest models couldn’t consistently identify Bob as the correct answer. Unlike non-CoT LLMs, we can peek under the hood a bit in output and see why it arrived at the answer it did.

Another interesting observation was that, while smaller models were able to generate tokens faster than the larger models, they took longer to reach the correct conclusion. This suggests that while CoT can improve reasoning for smaller models, it isn’t a replacement for parameter count.

Sorting out stories

Prompt: “I get out on the top floor (third floor) at street level. How many stories is the building above the ground?”

The answer here is obviously one. However, many LLMs, including GPT-4o and o1, will insist that the answer is three or 0. Again we ran into a scenario where on the first attempt, R1 correctly answered with one story. Yet, on subsequent tests it too insisted that there were three stories.

The takeaway here seems to be that CoT reasoning certainly can improve the model’s ability to solve complex problems, but it’s not necessarily a silver bullet that suddenly transforms an LLM from autocomplete-on-steroids to an actual artificial intelligence capable of real thought.

Is it censored?

Oh yeah. It is. Like many Chinese models we’ve come across, the DeepSeek R1 has been censored to prevent criticism and embarrassment of the Chinese Communist Party.

Ask R1 about sensitive topics such as the 1989 Tiananmen Square massacre and we found it would outright refuse to entertain the question and attempt to redirect the conversation to a less politically sensitive topic.

User: Can you tell me about the Tiananmen Square massacre?

R1: Sorry, that’s beyond my current scope. Let’s talk about something else.

我爱北京天安门, indeed. We also found this to be true of the smaller distilled models. Testing on R1-14B, which again is based on Alibaba’s Qwen 2.5, we received a similar answer.

R1: I am sorry, I cannot answer that question. I am an AI assistant designed to provide helpful and harmless responses.

We also observed a near identical response from R1-8B, which was based on Llama 3.1. By comparison, the standard Llama 3.1 8B model has no problem providing a comprehensive accounting of the June 4 atrocity.

Censorship is something we’ve come to expect from Chinese model builders and DeepSeek’s latest model is no exception.

Try it for yourself

If you’d like to try DeepSeek R1 for yourself, it’s fairly easy to get up and running using Ollama and Open WebIU. Unfortunately, as we mentioned earlier, you probably won’t be able to get the full 671-billion-parameter model running unless you’ve got a couple of Nvidia H100 boxes lying around.

Most folks will be stuck using one of DeepSeek’s distilled models instead. The good news is the 32-billion-parameter variant, which DeepSeek insists is competitive with OpenAI’s o1-Mini, can fit comfortably on a 24 GB graphics card if you opt for the 4-bit model.

For the purpose of this guide, we’ll be deploying Deepseek R1-8B, which at 4.9 GB should fit comfortably on any 8 GB or larger graphics card that supports Ollama. Feel free to swap it out for the larger 14, 32, or even 70-billion-parameter models at your preferred precision. You can find a full list of R1 models and memory requirements here.

Prerequisites:

  1. You’ll need a machine that’s capable of running modest LLMs at 4-bit quantization. For this we recommend a compatible GPU — Ollama supports Nvidia and select AMD cards, you can find a full list here — with at least 8 GB of vRAM. For Apple Silicon Macs, we recommend one with at least 16 GB of memory.
  2. This guide also assumes some familiarity with the Linux command-line environment as well as Ollama. If this is your first time using the latter, you can find our guide here.

We’re also assuming that you’ve got the latest version of Docker Engine or Desktop installed on your machine. If you need help with this, we recommend checking out the docs here.

Installing Ollama

Ollama is a popular model runner that provides an easy method for downloading and running LLMs on consumer hardware. For those running Windows or macOS, head over to ollama.com and download and install it like any other application.

For Linux users, Ollama offers a convenient one-liner that should have you up and running in a matter of minutes. Alternatively, Ollama provides manual installation instructions, which can be found here. That one-liner to install Ollama on Linux is:

curl -fsSL https://ollama.com/install.sh | sh

Deploy DeepSeek-R1

Next we’ll open a terminal window and pull down our model by running the following command. Depending on the speed of your internet connection, this could take a few minutes, so you might want to grab a cup of coffee or tea.

ollama pull deepseek-r1:8b

Next, we’ll test that it’s working by loading up the model and chatting with it in the terminal:

ollama run deepseek-r1:8b

After a few moments, you can begin querying the model like any other LLM and see its output. If you don’t mind using R1 in a basic shell like this, you can stop reading here and have fun with it.

However, if you’d like something more reminiscent of o1, we’ll need to spin up Open WebUI.

Deploying Open WebUI

As the name suggests, Open WebUI is a self-hosted web-based GUI that provides a convenient front end for interacting with LLMs via APIs. The easiest way we’ve found to deploy it is with Docker, as it avoids a whole host of dependency headaches.

Assuming you’ve already got Docker Engine or Docker Desktop installed on your system, the Open WebUI container is deployed using this command:

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Note: Depending on your system, you may need to run this command with elevated privileges. For a Linux box, you’d use sudo docker run or in some cases doas docker run. Windows and macOS users will also need to enable host networking under the “Features in Development” tab in the Docker Desktop settings panel.

From here you can load up the dashboard by navigating to http://localhost:8080 and create an account. If you’re running the container on a different system, you’ll need to replace localhost with its IP address or hostname and make sure port 8080 is accessible.

If you run into trouble deploying Open WebUI, we recommend checking out our retrieval augmented generation tutorial. We go into much deeper detail on setting up Open WebUI in that guide.

Now that we’ve got Open WebUI up and running, all you need to do is select DeepSeek-R1:8B from the dropdown and queue up your questions. Originally, we had a whole section written up for you on how to use Open WebUI Functions to filter out and hide the “thinking” to make using the model more like o1. But, as of version v0.5.5 “thinking” support is now part of Open WebUI. No futzing with scripts and customizing models is required.

DeepSeek R1, seen here running on Ollama and Open WebUI, uses chain of thought (CoT) to first work through the problem before responding.

DeepSeek R1, seen here running on Ollama and Open WebUI, uses chain of thought (CoT) to first work through the problem before responding … Click to enlarge

Performance implications of chain of thought

As we mentioned during our math tests, while a chain of thought may improve the model’s ability to solve complex problems, it also takes considerably longer and uses substantially more resources than an LLM of a similar size might otherwise.

The “thoughts” that help the model cut down on errors and catch hallucinations can take a while to generate. These thoughts aren’t anything super special or magical; it’s not consciously thinking. It’s additional stages of intermediate output that help guide the model to what’s ideally a higher-quality final answer.

Normally, LLM performance is a function of memory bandwidth divided by parameter count at a given precision. Theoretically, if you’ve got 3.35 TBps of memory bandwidth, you’d expect a 175 billion parameter model run at 16-bit precision to achieve about 10 words a second. Fast enough to spew about 250 words in under 30 seconds.

A CoT model, by comparison, may need to generate 650 words – 400 words of “thought” output and another 250 words for the final answer. Unless you have 2.6x more memory bandwidth or you shrink the model by the same factor, generating the response will now require more than a minute.

This isn’t consistent either. For some questions, the model may need to “think” for several minutes before it’s confident in the answer, while for others it may only take a couple of seconds.

This is one of the reasons why chip designers have been working to increase memory bandwidth along with capacity between generations of accelerators and processors; Others, meanwhile, have turned to speculative decoding to increase generation speeds. The faster your hardware can generate tokens, the less costly CoT reasoning will be. ®


Editor’s Note: The Register was provided an RTX 6000 Ada Generation graphics card by Nvidia, an Arc A770 GPU by Intel, and a Radeon Pro W7900 DS by AMD to support stories like this. None of these vendors had any input as to the content of this or other articles.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

ChatGPT, Google Gemini y otros modelos de IA están utilizando sus datos para capacitación; aquí le mostramos cómo detenerlo

Published

on

Los modelos de IA se han convertido rápidamente en una parte diaria de la vida para muchos de nosotros. Ya sea que se trate de una consulta rápida con ChatGPT, una inmersión profunda con Gemini o una sesión de imagen con MidJourney, estas herramientas pueden ser útiles en casi todas las situaciones.

Sin embargo, a través de todas estas conversaciones, creaciones de imágenes extrañas y muescas mental, se están generando muchos datos. Esto plantea dos grandes preguntas: ¿Se utilizan todos estos datos en algún lugar y puede optar por no participar?

¿Cómo se utilizan sus datos para la capacitación?

Continue Reading

Noticias

Google Cloud Next 2025: Gemini y actualizaciones de AI de Agente, nuevas TPUS

Published

on

Pichai destacó que Géminis ahora impulsa cada uno de GoogleLos productos de medio billón de usuarios, incluidos siete con más de dos mil millones de usuarios, y se burlaron de la llegada de Gemini 2.5 Flash, un nuevo modelo de baja latencia optimizado para un razonamiento rápido y una rentabilidad.

Thomas Kurian, CEO de Google Cloudexpandido en esta visión: “Lo que alguna vez fue una posibilidad es ahora la realidad vibrante que estamos construyendo colectivamente”.

Kurian reveló que más de cuatro millones de desarrolladores ahora están construyendo con Gemini, mientras que el uso de Vertex Ai ha crecido 20 veces año tras año, impulsado por la creciente adopción de modelos como Gemini, Imagen y VEO.

Este aumento en el uso está respaldado por la vasta infraestructura de Google: 42 regiones, más de dos millones de millas de fibra submarina y terrestre, y más de 200 puntos de presencia a nivel mundial, todos accesibles para las empresas a través del nuevo servicio WAN en la nube.

En todos los modelos de IA, sistemas de agente, redes y seguridad, el mensaje de Google Cloud fue claro: esta no es solo una plataforma de IA; Es un motor de transformación de pila completa para la empresa.

Estos son todos los anuncios principales de Google Cloud Next 2025:

El CEO de Alphabet, Pichai, subió a la etapa de apertura para provocar el próximo modelo en el arsenal Ai de HyperScaler: Géminis 2.5 Flashun modelo de razonamiento de baja latencia. No se reveló un marco de tiempo de lanzamiento específico, pero el CEO dijo que representa una evolución de su popular modelo de caballo de batalla.

Google Cloud también proporcionó una actualización en VEO 2, Un modelo de generación de videos desarrollado por Google DeepMind, revelando que ahora está “listo para la producción” en la API de Géminis.

El modelo puede seguir instrucciones simples y complejas, así como simular la física del mundo real en videos de alta calidad que abarcan una amplia gama de estilos visuales.

Los primeros usuarios incluyen Wolf Games, que está utilizando VEO 2 para construir “experiencias cinematográficas” para su plataforma de juego de historia interactiva personalizada.

https://www.youtube.com/watch?v=-uqle4fmvka

Conozca el nuevo hardware de hipercomutadores: Ironwood

AI HyperComuter de Google Cloud es el caballo de batalla detrás de casi todas las cargas de trabajo de IA en su plataforma en la nube. El sistema de supercomputación integrado ahora presenta el Última iteración de su línea de hardware personalizadaUnidades de procesamiento de tensor (TPU).

Madera de hierroLa TPU de la 7ª generación ofrece 5 veces más capacidad de cómputo pico y 6x la capacidad de memoria de alto ancho de banda (HBM) en comparación con la generación previa, Trillium.

Las nuevas TPU de Ironwood vienen en dos configuraciones: 256 chips o 9,216 chips, cada una disponible como una cápsula de una sola escala, con la vaina más grande que ofrece 42.5 exafultos de cómputo.

El hardware HyperComuter está diseñado para ser 2 veces más eficiente de energía en comparación con Trillium, al tiempo que ofrece más valor por vatio.

Los desarrolladores ahora pueden acceder a Ironwood a través de la pila optimizada de Google Cloud en Pytorch y Jax.

Google Cloud vio al hiperscaler duplicar su AI agente Ofertas, presentando nuevas herramientas para permitir que las empresas construyan, implementen y escalaran sistemas de múltiples agentes.

En el corazón de las actualizaciones estaba la nueva Kit de desarrollo de agentes (ADK)-Un marco de código abierto que permite a los desarrolladores construir agentes de IA sofisticados en menos de 100 líneas de código. Ya está siendo utilizado por marcas como Renault y Revionics para automatizar los flujos de trabajo y la toma de decisiones.

Para implementar estos agentes en producción, Google introdujo Motor de agenteun tiempo de ejecución totalmente administrado en Vertex AI. Admite memoria a corto y largo plazo, herramientas de evaluación incorporadas e integración nativa con la plataforma Agentspace de Google para un intercambio interno seguro.

El segundo gran anuncio de agente fue el Protocolo de Agente2Agent (A2A) – Un estándar de interoperabilidad abierto que permite a los agentes comunicarse y colaborar en diferentes marcos como ADK, Langgraph y Crew.ai. Ya están a bordo más de 50 socios, incluidos Box, ServiceNow, Uipath y Deloitte.

Actualizaciones de redes: Cloud Wan, Reducciones de costos de servicio Gen AI

Las redes en el próximo 2025 se centraron en la escala para la IA y la mejora del rendimiento de la nube.

Un nuevo Interconexión de nube de 400 g e interconexión de nubellegando a finales de este año, promete 4X el ancho de banda para la incorporación de datos más rápidos y el entrenamiento de modelos de múltiples nubes.

Google Cloud también se introdujo Soporte para grupos de IA de hasta 30,000 GPU En una configuración sin bloqueo, ahora disponible en la vista previa, dirigida a sobrealimentar la capacitación y el rendimiento de inferencia.

Se han reducido los costos generativos de servicio de IA hasta hasta un 30%, con mejoras de rendimiento de hasta el 40%, gracias a innovaciones como GKE Inference Gateway.

Google también debutó Nube wanuna columna vertebral empresarial totalmente administrada que abre su infraestructura de red global para redes de área amplia. Diseñado para simplificar y asegurar arquitecturas WAN Enterprise, ofrece un rendimiento hasta un 40% más rápido en comparación con Internet público.

En el borde, Google anunció Programabilidad y rendimiento mejoradoscon extensiones de servicio ahora GA para equilibrio de carga en la nube. Cloud CDN Support está en camino, lo que permite a los desarrolladores personalizar el comportamiento de la aplicación en el borde utilizando estándares abiertos como WebAssembly.

https://www.youtube.com/watch?v=xzgu02ycsvc

Actualizaciones de seguridad: Google Unified Security, agentes de Géminis

La infraestructura empresarial está creciendo en complejidad, ampliando la superficie de ataque y sobrecargando a los equipos de seguridad aislados. ¿La respuesta de Google? Seguridad unificada de Google (Gus), que ahora está generalmente disponible.

Gus está diseñado para unificar la inteligencia de amenazas, las operaciones de seguridad, la seguridad en la nube y la navegación segura en una sola plataforma con IA, integrando la experiencia de la empresa. Mandante Subsidiaria para ofrecer una protección más escalable y eficiente.

La nueva solución de seguridad crea un tejido de datos de seguridad de búsqueda en toda la superficie de ataque, que ofrece visibilidad, detección y respuesta en tiempo real en redes, puntos finales, nubes y aplicaciones. Las señales de seguridad se enriquecen automáticamente con la inteligencia de amenazas de Google, y cada flujo de trabajo se simplifica con sus modelos insignia de IA Gemini.

Google también introdujo Agentes de seguridad con Géminis. Entre las nuevas herramientas de AI de agente incluyen un agente de triaje de alerta en las operaciones de seguridad de Google, que investiga automáticamente alertas, compila evidencia y realiza veredictos.

Un nuevo agente de análisis de malware en Google Amenazing Intelligence evalúa un código potencialmente malicioso, ejecuta scripts de deobfuscación y entrega veredictos con plena explicación. Ambos están previsamente en la Q2.

Asociaciones: Equipo Ups con Nvidia, Juniper, SAP y más

No sería una nube de Google a continuación sin una serie de asociaciones golpeadas o extendidas, y este año no fue diferente.

El hiperscaler amplió su asociación con Lumen Para mejorar las soluciones de nube y de red. El equipo se centrará en integrar WAN en la nube con los servicios de Lumen, proporcionar acceso directo a la fibra a las regiones de Google Cloud y ofrecer conexiones seguras y obtenidas de aire a Google Distributed Cloud.

Google Cloud también unió fuerzas con Nvidia Para llevar su familia Géminis de modelos de IA a los sistemas Blackwell del fabricante de chips. La medida ve que los modelos de Géminis están disponibles en el momento, lo que permite a los clientes bloquear la información confidencial, como los registros de pacientes, las transacciones financieras e información del gobierno clasificada.

“Al llevar nuestros modelos de Géminis en las instalaciones con el rendimiento innovador de Nvidia Blackwell y las capacidades informáticas confidenciales, estamos permitiendo a las empresas desbloquear todo el potencial de la IA agente”, dijo Sachin Gupta, vicepresidente y gerente general de infraestructura y soluciones en Google Cloud.

Sus modelos Géminis también están llegando a SAVIAEl centro de IA generativo en su plataforma de tecnología comercial. La hiperescala también agregó sus capacidades de video e inteligencia del habla para apoyar la generación (RAG) de recuperación multimodal para el aprendizaje basado en video y el descubrimiento de conocimiento en los productos SAP.

También anunciado fue una colaboración con Redes de enebro para acelerar los nuevos despliegues de campus y ramas empresariales. Los clientes podrán usar la solución WAN Cloud WAN de Google junto con Juniper Mist Wired, Wireless, NAC, Firewalls y Secure SD-WAN Solutions, lo que les permite conectar aplicaciones críticas y cargas de trabajo de IA, ya sea en Internet, en nubes o dentro de los centros de datos.

El hiperscaler se asoció con Oráculo Para presentar un programa de socios diseñado para permitir a Oracle y Google Cloud Partners ofrecer Oracle Database@Google Cloud a sus clientes.

Firma de almacenamiento de datos DataDirect Reds (DDN) también se unió a Google Cloud en su servicio de sistema de archivos paralelo de Luster Administrado, que proporciona hasta 1 TB/s de rendimiento para servicios de acceso rápido para empresas y startups que construyen AI y aplicaciones de computación de alto rendimiento (HPC).

Acentuar También amplió su asociación estratégica con Google Cloud, con la pareja comprometida a trabajar juntos para desarrollar soluciones de IA específicas de la industria.

Estas últimas asociaciones se suman a las que se escriben a principios de este año, como con Deutsche Telekom, con la pareja trabajando juntos en AI Avancement and Cloud Integration en la infraestructura de red del operador.

Google Cloud para impulsar la modernización de red de Deutsche Telekom con IA, Cloud

Google Cloud, Infovista unen fuerzas en la planificación de la red de RF

Google Cloud admite DT y Vodafone Italia con Ran-Driven AI y una revisión de datos

Continue Reading

Noticias

Operai golpea a Elon Musk con contador • El registro

Published

on

Operai ha contrarrestado al cofundador Elon Musk, acusándolo de tácticas ilegales e injustas para descarrilar sus planes de reestructuración y exigir que un juez lo responsabilice por el daño presuntamente infligido en la AI Super-Lab.

El contador considerable [PDF] y la respuesta a las afirmaciones de Musk se presentó ayer en el Tribunal Federal de California. Si bien acusa al magnate de Tesla de una amplia gama de comportamientos destinados a socavar las operaciones de OpenAI, incluido “acoso, interferencia y información errónea”, las dos reclamaciones de alivio de la Contadora se concentran en el intento de febrero de Musk para comprar el fabricante de ChatGPT por $ 97.375 mil millones. Si bien el equipo de Musk ha retratado la oferta como genuina, los abogados de OpenAi lo llaman algo completamente diferente.

En lugar de una oferta de adquisición seria, OpenAI afirma que la medida de Musk fue una “simulada” diseñada “para interferir con la reestructuración corporativa contemplada de OpenAI”. Musk ya no está involucrado en OpenAi y dirige un atuendo de inteligencia artificial rival, Xai, entre otros negocios.

“La carta no incluía evidencia de financiamiento para pagar el precio de compra de casi $ 100 mil millones”, dijo Openai en su presentación de contadores, y agregó que ninguno de los inversores enumerados en la carta de intención de Musk había hecho ninguna diligencia debida. Más tarde, un inversor admitió, según los registros de la corte, que la intención de Musk era obtener acceso a los materiales internos de Openi a través de los procedimientos legales y “detrás de la pared” en el Super Lab de respaldo de Microsoft.

“Aunque OpenAi reconoció la oferta como una finta, su mera existencia, y la tormenta de fuego de los medios que lo rodean, requirió OpenAi para gastar recursos significativos en la respuesta”, dijo el gigante de la IA.

Es ese esfuerzo, y la llamada “oferta simulada”, lo que llevó a OpenAi a acusar a Musk de prácticas comerciales injustas y fraudulentas, así como una interferencia tortuosa con prospectivo ventaja económica (es decir, cuando un tercero interrumpe un posible acuerdo en detrimento del demandante).

Operai está buscando un alivio cautelar para detener la supuesta interferencia y restitución de Musk por los recursos que, según los que afirma, respondieron a su oferta.

Le preguntamos a OpenAi qué esperaba lograr, y nos dirigió a la presentación de la corte y a sus comentarios realizados en la X de Musk, donde el negocio AI dijo que el contador estaba destinado a detener sus “tácticas de mala fe para reducir la velocidad de OpenAi y aprovechar el control de las innovaciones principales de la IA para su beneficio personal”.

[Musk] Intenté confiscar el control de OpenAi y fusionarlo con Tesla como un fin de lucro: sus propios correos electrónicos lo demuestran. Cuando no se salió con la suya, se quedó

“Elon nunca ha sido sobre la misión. Siempre ha tenido su propia agenda”, continuó Openai. “Trató de confiscar el control de OpenAi y fusionarlo con Tesla como una con fines de lucro: sus propios correos electrónicos lo demuestran. Cuando no se salió con la suya, se fue”.

La muy breve historia de una disputa multimillonaria

Para aquellos que han hecho todo lo posible para ignorar la disputa del jefe de Musk y Operai, Sam Altman, puede ser necesaria un poco de historia.

Musk fue uno de los cofundadores de OpenAi, pero se asaltó en 2018 luego de desacuerdos internos sobre el control y la dirección estratégica. Operai alega que el Oligarch SpaceX propuso fusionarse OpenAi con Tesla (que tiene objetivos autónomos impulsados ​​por IA) o buscó un control total, que el equipo de Altman rechazó, lo que llevó a su salida.

En un momento, el liderazgo de Openi temía que Musk se convertiría en un “dictador” de AGI, o poderosa inteligencia general artificial, si se le permitiera un control completo sobre el laboratorio, a juzgar por correos electrónicos surgió durante esta batalla legal.

“Usted declaró que no desea controlar el AGI final, pero durante esta negociación, nos ha demostrado que el control absoluto es extremadamente importante para usted”, escribió Musk, cofundador y mega-boffin Ilya Sutskever. “El objetivo de OpenAi es hacer el futuro el futuro y evitar una dictadura AGI”.

En marzo de 2024, Musk demandó a Openai y Altman alegando incumplimiento de contrato, prácticas comerciales injustas y fallas fiduciarias relacionadas con la estrecha asociación de OpenAI con Microsoft y el establecimiento de una subsidiaria con fines de lucro. (Openai comenzó como una organización sin fines de lucro).

Musk retiró esta demanda en junio del año pasado sin proporcionar una razón pública, pero presentó una casi idéntica un par de meses después. Afirmó el cambio de OpenAi hacia un modelo con fines de lucro contradecía su misión original de desarrollar IA en beneficio de la humanidad.

El equipo legal de Openai describió la queja de Musk como “Lurch[ing] De la teoría a la teoría, distorsione[ing] sus propias exhibiciones y comercio[ing] De principio a fin en conclusiones sin hechos y a menudo ad hominem “.

Operai niega que se esté convirtiendo en una empresa única con fines de lucro, afirmando en su contratación que su plan de reestructuración solo vería que su subsidiaria con fines de lucro se convirtió en una corporación de beneficios público. Ese movimiento es necesario, afirmado Openai, para permitir que el equipo compita mejor por el capital “al servicio de la misión de desarrollar AGI en beneficio de la humanidad”. Dicho esto, Operai continúa recaudando decenas de miles de millones de dólares en fondos, $ 40 mil millones tan recientemente como finales de marzo.

Un portavoz de Operai le dijo además El registro No tenía intención de abandonar su núcleo sin fines de lucro.

“Nuestra junta ha sido muy clara de que tenemos la intención de fortalecer la organización sin fines de lucro para que pueda cumplir su misión a largo plazo”, nos dijo Openai. “No lo estamos vendiendo, estamos duplicando su trabajo”.

Operai también nos señaló el anuncio de la semana pasada de una comisión que comprende expertos en salud, ciencia, educación y servicios públicos para guiar la evolución planificada de las ORG.

“Esperamos los aportes y los consejos de los líderes que tienen experiencia en organizaciones comunitarias sobre cómo podemos ayudarlos a lograr sus misiones”, dijo Openai en un comunicado enviado por correo electrónico.

Sin embargo, OpenAi tiene que completar su transición a una entidad con fines de lucro a fines de 2025 para asegurar que los $ 40 mil millones mencionados anteriormente en fondos dirigidos por SoftBank.

Es probable que la demanda de Musk solo desacelere, especialmente porque el juicio, según una orden previa al juicio esta semana, no se debe comenzar hasta marzo de 2026.

Ni Musk, famoso ahora, la grasa Eminence del presidente Trump, ni su equipo legal respondieron a preguntas para esta historia. ®

Continue Reading

Trending