Connect with us

Noticias

DeepSeek’s AI is bad for OpenAI and NVIDIA. But it might be great for you.

Published

on

When it comes to AI, I’d consider myself a casual user and a curious one. It’s been creeping into my daily life for a couple of years, and at the very least, AI chatbots can be good at making drudgery slightly less drudgerous.

But whenever I start to feel convinced that tools like ChatGPT and Claude can actually make my life better, I seem to hit a paywall, because the most advanced and arguably most useful tools require a subscription. Then came DeepSeek.

The Chinese startup DeepSeek sunk the stock prices of several major tech companies on Monday after it released a new open-source model that can reason on the cheap: DeepSeek-R1. The company says R1’s performance matches OpenAI’s initial “reasoning” model, o1, and it does so using a fraction of the resources. It also cost a lot less to use. That adds up to an advanced AI model that’s free to the public and a bargain to developers who want to build apps on top of it.

While OpenAI, Anthropic, Google, Meta, and Microsoft have collectively spent billions of dollars training their models, DeepSeek claims it spent less than $6 million on using the equipment to train R1’s predecessor, DeepSeek-V3. (Disclosure: Vox Media is one of several publishers that has signed partnership agreements with OpenAI. Our reporting remains editorially independent.)

To get unlimited access to OpenAI’s o1, you’ll need a pro account, which costs $200 a month. DeepSeek does charge companies for access to its application programming interface (API), which allows apps to talk to each other and helps developers bake AI models into their apps. But what DeepSeek charges for API access is a tiny fraction of the cost that OpenAI charges for access to o1. So it might not come as a surprise that, as of Wednesday morning, DeepSeek wasn’t just the most popular AI app in the Apple and Google app stores. It was the most popular app, period.

“The main reason people are very excited about DeepSeek is not because it’s way better than any of the other models,” said Leandro von Werra, head of research at the AI platform Hugging Face. “It’s more that it’s an open model, and coming from a place where people didn’t expect it to come from.”

So as Silicon Valley and Washington pondered the geopolitical implications of what’s been called a “Sputnik moment” for AI, I’ve been fixated on the promise that AI tools can be both powerful and cheap. And on top of that, I imagined how a future powered by artificially intelligent software could be built on the same open-source principles that brought us things like Linux and the World Web Web.

This could be wishful thinking and a little bit naive. After all, OpenAI was originally founded as a nonprofit company with the mission to create AI that would serve the entire world, regardless of financial return. That’s no longer the case.

But this is why DeepSeek’s explosive entrance into the global AI arena could make my wishful thinking a bit more realistic. While my own experiments with the R1 model showed a chatbot that basically acts like other chatbots — while walking you through its reasoning, which is interesting — the real value is that it points toward a future of AI that is, at least partially, open source. It indicates that even the most advanced AI capabilities don’t need to cost billions of dollars to build — or be built by trillion-dollar Silicon Valley companies. That means more companies could be competing to build more interesting applications for AI.

And while American tech companies have spent billions trying to get ahead in the AI arms race, DeepSeek’s sudden popularity also shows that while it is heating up, the digital cold war between the US and China doesn’t have to be a zero-sum game.

DeepSeek’s unconventional, almost-open-source approach

While you may not have heard of DeepSeek until this week, the company’s work caught the attention in the AI research world a few years ago. The company actually grew out of High-Flyer, a China-based hedge fund founded in 2016 by engineer Liang Wenfeng. High-Flyer found great success using AI to anticipate movement in the stock market. That, however, prompted a crackdown on what Beijing deemed to be speculative trading, so in 2023, Liang spun off his company’s research division into DeepSeek, a company focused on advanced AI research.

From the outset, DeepSeek set itself apart by building powerful open-source models cheaply and offering developers access for cheap. In the software world, open source means that the code can be used, modified, and distributed by anyone. In the context of AI, that applies to the entire system, including its training data, licenses, and other components. Thanks to DeepSeek’s open-source approach, anyone can download its models, tweak them, and even run them on local servers.

The major US players in the AI race — OpenAI, Google, Anthropic, Microsoft — have closed models built on proprietary data and guarded as trade secrets. Meta has set itself apart by releasing open-source models. Conventional wisdom suggested that open models lagged behind closed models by a year or so. DeepSeek apparently just shattered that notion.

DeepSeek’s models are not, however, truly open source. They’re what’s known as open-weight AI models. That means the data that allows the model to generate content, also known as the model’s weights, is public, but the company hasn’t released its training data or code. Von Werra, of Hugging Face, is working on a project to fully reproduce DeepSeek-R1, including its data and training pipelines. One of the goals is to figure out how exactly DeepSeek managed to pull off such advanced reasoning with far fewer resources than competitors, like OpenAI, and then release those findings to the public to give open-source AI development another leg up.

“If more people have access to open models, more people will build on top of it,” von Werra said.

Still, we already know a lot more about how DeepSeek’s model works than we do about OpenAI’s. DeepSeek published a detailed technical report on R1 under an MIT License, which gives permission to reuse, modify, or distribute the software. A similar technical report on the V3 model released in December says that it was trained on 2,000 NVIDIA H800 chips versus the 16,000 or so integrated circuits competing models needed for training. Training took 55 days and cost $5.6 million, according to DeepSeek, while the cost of training Meta’s latest open-source model, Llama 3.1, is estimated to be anywhere from about $100 million to $640 million. But because Meta does not share all components of its models, including training data, some do not consider Llama to be truly open source.

When it comes to performance, there’s little doubt that DeepSeek-R1 delivers impressive results that rival its most expensive competitors. A comparison of models from Artificial Analysis shows that R1 is second only to OpenAI’s o1 in reasoning and artificial analysis. It actually slightly outperforms o1 in terms of quantitative reasoning and coding. The big tradeoff appears to be speed. DeepSeek is kind of slow, and you’ll notice it if you use R1 in the app or on the web. It does show you what it’s thinking as it’s thinking, though, which is kind of neat.

Now, the number of chips used or dollars spent on computing power are super important metrics in the AI industry, but they don’t mean much to the average user. The most basic versions of ChatGPT, the model that put OpenAI on the map, and Claude, Anthropic’s chatbot, are powerful enough for a lot of people, and they’re free. They can summarize stuff, help you plan a vacation, and help you search the web with varying results. But chatbots are far from the coolest thing AI can do.

The challenge to America’s global AI supremacy

What’s most exciting about DeepSeek and its more open approach is how it will make it cheaper and easier to build AI into stuff. This is a huge deal for developers trying to create killer apps as well as scientists trying to make breakthrough discoveries. It’s also a huge challenge to the Silicon Valley establishment, which has poured billions of dollars into companies like OpenAI with the understanding that the massive capital expenditures would be necessary to lead the burgeoning global AI industry.

It’s not an understatement to say that DeepSeek is shaking the AI industry to its very core. The stock market’s reaction to the arrival of DeepSeek-R1’s arrival wiped out nearly $1 trillion in value from tech stocks and reversed two years of seemingly neverending gains for companies propping up the AI industry, including most prominently NVIDIA, whose chips were used to train DeepSeek’s models.

It also indicated that the Biden administration’s moves to curb chip exports in an effort to slow China’s progress in AI innovation may not have had the desired effect. Joe Biden started blocking exports of advanced AI chips to China in 2022 and expanded those efforts just before Trump took office. However, China’s AI industry has continued to advance apace its US rivals. DeepSeek is joined by Chinese tech giants like Alibaba, Baidu, ByteDance, and Tencent, who have also continued to roll out powerful AI tools, despite the embargo.

What this means for the future of America’s quest for AI dominance is up for debate. President Donald Trump praised DeepSeek’s ability to come up “with a faster method of AI and much less expensive method.” He added, “The release of DeepSeek, AI from a Chinese company should be a wakeup call for our industries that we need to be laser-focused on competing to win.”

But we’re far too early in this race to have any idea who will ultimately take home the gold. “This is like being in the late 1990s or even right around the year 2000 and trying to predict who would be the leading tech companies, or the leading internet companies in 20 years,” said Jennifer Huddleston, a senior fellow at the Cato Institute.

What is clear is that the competitors are aiming for the same finish line. Liang said in a July 2024 interview with Chinese tech outlet 36kr that, like OpenAI, his company wants to achieve general artificial intelligence and would keep its models open going forward. He added, “OpenAI is not a god.” Liang’s goals line up with those of Sam Altman and OpenAI, which has cast doubt on DeepSeek’s recent success. Microsoft and OpenAI are reportedly investigating whether DeepSeek used ChatGPT output to train its models, an allegation that David Sacks, the newly appointed White House AI and crypto czar, repeated this week.

There is, of course, the chance that this all goes the way of TikTok, another Chinese company that challenged US tech supremacy. It was originally Trump who cited national security concerns as a reason to ban the app, which is owned by ByteDance. Congress and the Biden administration took up the mantle, and now TikTok is banned, pending the app’s sale to an American company.

DeepSeek uses ByteDance as a cloud provider and hosts American user data on Chinese servers, which is what got TikTok in trouble years ago. The concern here is that the Chinese government could access that data and threaten US national security. DeepSeek also says in its privacy policy that it can use this data to “review, improve, and develop the service,” which is not an unusual thing to find in any privacy policy.

Unsurprisingly, DeepSeek does abide by China’s censorship laws, which means its chatbot will not give you any information about the Tiananmen Square massacre, among other censored subjects. But it’s not yet clear that Beijing is using the popular new tool to ramp up surveillance on Americans. At least, it’s not doing so any more than companies like Google and Apple already do, according to Sean O’Brien, founder of the Yale Privacy Lab, who recently did some network analysis of DeepSeek’s app.

“From a privacy standpoint, people need to understand that most mainstream apps are spying on them, and this is no different,” O’Brien told me. “It’s just a question of who’s doing the spying.”

Which brings us back to that paywall question. There’s an old adage that if something online is free on the internet, you’re the product. So while it’s exciting and even admirable that DeepSeek is building powerful AI models and offering them up to the public for free, it makes you wonder what the company has planned for the future.

In the meantime, you can expect more surprises on the AI front. You might even be able to tinker with these surprises, too. OpenAI recently rolled out its Operator agent, which can effectively use a computer on your behalf — if you pay $200 for the pro subscription. This week, people started sharing code that can do the same thing with DeepSeek for free.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Vista previa de Google I/O 2025: Gemini AI, Android XR y todo lo demás para esperar

Published

on

Cuando el CEO de Google, Sundar Pichai, suba al escenario en la Conferencia de desarrolladores de Google I/O 2025 la próxima semana para entregar sus comentarios de apertura, espere que dos cartas dominen la discusión: la IA.

La inteligencia artificial se ocupa de gran parte del enfoque en Google en estos días, con características de IA que llegan a través de múltiples productos, proyectos centrados en la IA que capturan gran parte de la atención y predicciones del público sobre el futuro de la IA que asume muchos de los pronunciamientos públicos de la compañía.

Continue Reading

Noticias

AI generativa: todo para saber sobre la tecnología detrás de chatbots como chatgpt

Published

on

Ya sea que se dé cuenta o no, la inteligencia artificial está en todas partes. Se encuentra detrás de los chatbots con los que hablas en línea, las listas de reproducción que transmites y los anuncios personalizados que aparecen en tu desplazamiento. Y ahora está tomando una personalidad más pública. Piense en Meta AI, que ahora está integrado en aplicaciones como Facebook, Messenger y WhatsApp; o Géminis de Google, trabajando en segundo plano en las plataformas de la compañía; o Apple Intelligence, lanzando a través de iPhones ahora.

AI tiene una larga historia, volviendo a una conferencia en Dartmouth en 1956 que primero discutió la inteligencia artificial como una cosa. Los hitos en el camino incluyen Eliza, esencialmente el primer chatbot, desarrollado en 1964 por el informático del MIT Joseph Weizenbaum y, saltando 40 años, cuando la función de autocompleta de Google apareció por primera vez en 2004.

Luego llegó 2022 y el ascenso de Chatgpt a la fama. Los desarrollos generativos de IA y los lanzamientos de productos se han acelerado rápidamente desde entonces, incluidos Google Bard (ahora Gemini), Microsoft Copilot, IBM Watsonx.ai y los modelos de LLAMA de código abierto de Meta.

Desglosemos qué es la IA generativa, cómo difiere de la inteligencia artificial “regular” y si la Generación AI puede estar a la altura de las expectativas.

IA generativa en pocas palabras

En esencia, la IA generativa se refiere a sistemas de inteligencia artificial que están diseñados para producir un nuevo contenido basado en patrones y datos que han aprendido. En lugar de solo analizar números o predecir tendencias, estos sistemas generan salidas creativas como texto, música de imágenes, videos y código de software.

Algunas de las herramientas de IA generativas más populares en el mercado incluyen:

El principal entre sus habilidades, ChatGPT puede crear conversaciones o ensayos similares a los humanos basados ​​en algunas indicaciones simples. Dall-E y MidJourney crean obras de arte detalladas a partir de una breve descripción, mientras que Adobe Firefly se centra en la edición y el diseño de imágenes.

Imagen generada por chatgpt de una ardilla con ojos grandes sosteniendo una bellota

Chatgpt / captura de pantalla por cnet

Ai eso no es generativo

No toda la IA es generativa. Si bien Gen AI se enfoca en crear contenido nuevo, la IA tradicional se destaca por analizar datos y hacer predicciones. Esto incluye tecnologías como el reconocimiento de imágenes y el texto predictivo. También se usa para soluciones novedosas en:

  • Ciencia
  • Diagnóstico médico
  • Pronóstico del tiempo
  • Detección de fraude
  • Análisis financiero para pronósticos e informes

La IA que venció a los grandes campeones humanos en el ajedrez y el juego de mesa no fue una IA generativa.

Es posible que estos sistemas no sean tan llamativos como la Generación AI, pero la inteligencia artificial clásica es una gran parte de la tecnología en la que confiamos todos los días.

¿Cómo funciona Gen AI?

Detrás de la magia de la IA generativa hay modelos de idiomas grandes y técnicas avanzadas de aprendizaje automático. Estos sistemas están capacitados en grandes cantidades de datos, como bibliotecas completas de libros, millones de imágenes, años de música grabada y datos raspados de Internet.

Los desarrolladores de IA, desde gigantes tecnológicos hasta nuevas empresas, son conscientes de que la IA es tan buena como los datos que lo alimenta. Si se alimenta de datos de baja calidad, la IA puede producir resultados sesgados. Es algo con lo que incluso los jugadores más grandes en el campo, como Google, no han sido inmunes.

La IA aprende patrones, relaciones y estructuras dentro de estos datos durante el entrenamiento. Luego, cuando se le solicita, aplica ese conocimiento para generar algo nuevo. Por ejemplo, si le pide a una herramienta Gen AI que escriba un poema sobre el océano, no solo extrae versos preescritos de una base de datos. En cambio, está usando lo que aprendió sobre la poesía, los océanos y la estructura del lenguaje para crear una pieza completamente original.

Un poema de 12 líneas llamado The Ocean's Whisper

Chatgpt / captura de pantalla por cnet

Es impresionante, pero no es perfecto. A veces los resultados pueden sentirse un poco apagados. Tal vez la IA malinterpreta su solicitud, o se vuelve demasiado creativo de una manera que no esperaba. Puede proporcionar con confianza información completamente falsa, y depende de usted verificarla. Esas peculiaridades, a menudo llamadas alucinaciones, son parte de lo que hace que la IA generativa sea fascinante y frustrante.

Las capacidades generativas de IA están creciendo. Ahora puede comprender múltiples tipos de datos combinando tecnologías como el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. El resultado se llama IA multimodal que puede integrar alguna combinación de texto, imágenes, video y habla dentro de un solo marco, ofreciendo respuestas más contextualmente relevantes y precisas. El modo de voz avanzado de ChatGPT es un ejemplo, al igual que el proyecto Astra de Google.

Desafíos con IA generativa

No hay escasez de herramientas de IA generativas, cada una con su talento único. Estas herramientas han provocado la creatividad, pero también han planteado muchas preguntas además del sesgo y las alucinaciones, como, ¿quién posee los derechos del contenido generado por IA? O qué material es un juego justo o fuera de los límites para que las compañías de IA los usen para capacitar a sus modelos de idiomas; vea, por ejemplo, la demanda del New York Times contra Openai y Microsoft.

Otras preocupaciones, no son asuntos pequeños, implican privacidad, responsabilidad en la IA, los profundos profundos generados por IA y el desplazamiento laboral.

“Escribir, animación, fotografía, ilustración, diseño gráfico: las herramientas de IA ahora pueden manejar todo eso con una facilidad sorprendente. Pero eso no significa que estos roles desaparezcan. Simplemente puede significar que los creativos deberán mejorar y usar estas herramientas para amplificar su propio trabajo”, Fang Liu, profesor de la Universidad de Notre Dame Dame y Coeditor-Chief de las transacciones de ACM en las transacciones de Probabilista, contó el aprendizaje en el poderoso de la máquina probabilística, le dijo a Cetnet.

“También ofrece una forma para las personas que tal vez carecen de la habilidad, como alguien con una visión clara que no puede dibujar, pero que puede describirlo a través de un aviso. Así que no, no creo que interrumpa a la industria creativa. Con suerte, será una co-creación o un aumento, no un reemplazo”.

Otro problema es el impacto en el medio ambiente porque la capacitación de grandes modelos de IA utiliza mucha energía, lo que lleva a grandes huellas de carbono. El rápido ascenso de la Generación AI en los últimos años ha acelerado las preocupaciones sobre los riesgos de la IA en general. Los gobiernos están aumentando las regulaciones de IA para garantizar el desarrollo responsable y ético, especialmente la Ley de IA de la Unión Europea.

Recepción de IA generativa

Muchas personas han interactuado con los chatbots en el servicio al cliente o han utilizado asistentes virtuales como Siri, Alexa y Google Assistant, que ahora están en la cúspide de convertirse en Gen AI Power Tools. Todo eso, junto con las aplicaciones para ChatGPT, Claude y otras herramientas nuevas, es poner ai en sus manos. Y la reacción pública a la IA generativa se ha mezclado. Muchos usuarios disfrutan de la conveniencia y la creatividad que ofrece, especialmente para cosas como escribir ayuda, creación de imágenes, soporte de tareas y productividad.

Mientras tanto, en la encuesta global de IA 2024 de McKinsey, el 65% de los encuestados dijo que sus organizaciones usan regularmente IA generativa, casi el doble de la cifra reportada solo 10 meses antes. Industrias como la atención médica y las finanzas están utilizando Gen AI para racionalizar las operaciones comerciales y automatizar tareas mundanas.

Como se mencionó, existen preocupaciones obvias sobre la ética, la transparencia, la pérdida de empleos y el potencial del mal uso de los datos personales. Esas son las principales críticas detrás de la resistencia a aceptar la IA generativa.

Y las personas que usan herramientas de IA generativas también encontrarán que los resultados aún no son lo suficientemente buenos para el tiempo. A pesar de los avances tecnológicos, la mayoría de las personas pueden reconocer si el contenido se ha creado utilizando Gen AI, ya sean artículos, imágenes o música.

AI ha secuestrado ciertas frases que siempre he usado, por lo que debo autocorrectar mi escritura a menudo porque puede parecer una IA. Muchos artículos escritos por AI contienen frases como “en la era de”, o todo es un “testimonio de” o un “tapiz de”. La IA carece de la emoción y la experiencia que viene, bueno, ser una vida humana y viviente. Como explicó un artista en Quora, “lo que AI hace no es lo mismo que el arte que evoluciona de un pensamiento en un cerebro humano” y “no se crea a partir de la pasión que se encuentra en un corazón humano”.

AI generativa: vida cotidiana

La IA generativa no es solo para técnicos o personas creativas. Una vez que obtienes la habilidad de darle indicaciones, tiene el potencial de hacer gran parte del trabajo preliminar por ti en una variedad de tareas diarias.

Digamos que está planeando un viaje. En lugar de desplazarse por páginas de resultados de búsqueda, le pide a un chatbot que planifique su itinerario. En cuestión de segundos, tiene un plan detallado adaptado a sus preferencias. (Ese es el ideal. Por favor, verifique siempre sus recomendaciones).

Un propietario de una pequeña empresa que necesita una campaña de marketing pero que no tiene un equipo de diseño puede usar una IA generativa para crear imágenes llamativas e incluso pedirle que sugiera copia publicitaria.

Un itinerario de viaje para Nueva Orleans, creado por chatgpt

Chatgpt / captura de pantalla por cnet

Gen Ai está aquí para quedarse

No ha habido un avance tecnológico que haya causado tal boom desde Internet y, más tarde, el iPhone. A pesar de sus desafíos, la IA generativa es innegablemente transformadora. Está haciendo que la creatividad sea más accesible, ayudando a las empresas a racionalizar los flujos de trabajo e incluso inspirar formas completamente nuevas de pensar y resolver problemas.

Pero quizás lo más emocionante es su potencial, y estamos rascando la superficie de lo que estas herramientas pueden hacer.

Preguntas frecuentes

¿Cuál es un ejemplo de IA generativa?

ChatGPT es probablemente el ejemplo más popular de IA generativa. Le das un aviso y puede generar texto e imágenes; Código de escritura; Responder preguntas; resumir el texto; borrador de correos electrónicos; y mucho más.

¿Cuál es la diferencia entre la IA y la IA generativa?

La IA generativa crea contenido nuevo como texto, imágenes o música, mientras que la IA tradicional analiza los datos, reconoce patrones o imágenes y hace predicciones (por ejemplo, en medicina, ciencia y finanzas).

Continue Reading

Noticias

Probé 5 sitios gratuitos de ‘chatgpt clon’ – no intentes esto en casa

Published

on

Si busca “CHATGPT” en su navegador, es probable que se tope en sitios web que parecen estar alimentados por OpenAI, pero no lo son. Uno de esos sitios, chat.chatbotapp.ai, ofrece acceso a “GPT-3.5” de forma gratuita y utiliza marca familiar.

Pero aquí está la cosa: no está dirigida por OpenAi. Y, francamente, ¿por qué usar un GPT-3.5 potencialmente falso cuando puedes usar GPT-4O de forma gratuita en el actual ¿Sitio de chatgpt?

Continue Reading

Trending