Connect with us

Noticias

DeepSeek’s R1 and OpenAI’s Deep Research just redefined AI — RAG, distillation, and custom models will never be the same

Published

on

Join our daily and weekly newsletters for the latest updates and exclusive content on industry-leading AI coverage. Learn More


Things are moving quickly in AI—and if you’re not keeping up, you’re falling behind. 

Two recent developments are reshaping the landscape for developers and enterprises alike: DeepSeek’s R1 model release and OpenAI’s new Deep Research product. Together, they’re redefining the cost and accessibility of powerful reasoning models, which has been well reported on. Less talked about, however, is how they’ll push companies to use techniques like distillation, supervised fine-tuning (SFT), reinforcement learning (RL), and retrieval-augmented generation (RAG) to build smarter, more specialized AI applications.

After the initial excitement around the amazing achievements of DeepSeek begins to settle, developers and enterprise decision-makers need to consider what it means for them. From pricing and performance to hallucination risks and the importance of clean data, here’s what these breakthroughs mean for anyone building AI today.

Cheaper, transparent, industry-leading reasoning models – but through distillation

The headline with DeepSeek-R1 is simple: It delivers an industry-leading reasoning model at a fraction of the cost of OpenAI’s o1. Specifically, it’s about 30 times cheaper to run, and unlike many closed models, DeepSeek offers full transparency around its reasoning steps. For developers, this means you can now build highly customized AI models without breaking the bank—whether through distillation, fine-tuning, or simple RAG implementations.

Distillation, in particular, is emerging as a powerful tool. By using DeepSeek-R1 as a “teacher model,” companies can create smaller, task-specific models that inherit R1’s superior reasoning capabilities. These smaller models, in fact, are the future for most enterprise companies. The full R1 reasoning model can be too much for what companies need – thinking too much, and not taking the decisive action companies need for their specific domain applications. “One of the things that no one is really talking about in, certainly in the mainstream media, is that actually the reasoning models are not working that well for things like agents,” said Sam Witteveen, an ML developer who works on AI agents, which are increasingly orchestrating enterprise applications.  

As part of its release, DeepSeek distilled its own reasoning capabilities onto a number of smaller models, including open-source models from Meta’s Llama family and Alibaba’s Qwen family, as described in its paper. It’s these smaller models that can then be optimized for specific tasks. This trend toward smaller, fast models to serve custom-built needs will accelerate: there will be armies of them. “We are starting to move into a world now where people are using multiple models. They’re not just using one model all the time,” said Witteveen. And this includes the low-cost, smaller closed-sourced models from Google and OpenAI as well. “Meaning that models like Gemini Flash, GPT-4o Mini, and these really cheap models actually work really well for 80% of use cases,” he said.

If you work in an obscure domain, and have resources: Use SFT… 

After the distilling step, enterprise companies have a few options to make sure the model is ready for their specific application. If you’re a company in a very specific domain, where details around the domain are not on the web or in books – where LLMs can train on them – you can inject it with your own domain-specific data sets, in a process called supervised fine tuning (SFT). One example would be the ship container-building industry, where specifications, protocols and regulations are not widely available. 

DeepSeek showed that you can do this well with “thousands” of question-answer data sets. For an example of how others can put this into practice, Chris Hay, an IBM engineer, demonstrated how he fine-tuned a small model using his own math-specific datasets to achieve lightning-fast responses—outperforming OpenAI’s o1 on the same tasks (See his hands-on video here)

…and a little RL

Additionally, companies wanting to train a model with additional alignment to specific preferences – for example making a customer support chatbot sound empathetic while being concise – will want to do some reinforcement learning (RL) on the model. This is also good if a company wants its chatbot to adapt its tone and recommendation based on a user’s feedback. As every model gets good at everything, “personality” is going to be increasingly big, said Wharton AI professor Ethan Mollick on X yesterday.

These SFT and RL steps can be tricky for companies to implement well, however. Feed the model with data from one specific domain area, or tune it to act a certain way, and it suddenly becomes useless for doing tasks outside of that domain or style.

For most companies, RAG will be good enough

For most companies, however, retrieval-augmented generation (RAG) is the easiest and safest path forward. RAG is a relatively straight-forward process that allows organizations to ground their models with proprietary data contained in their own databases — ensuring outputs are accurate and domain-specific. Here, an LLM feeds a user’s prompt into vector and graph databases, in order to search information relevant to that prompt. RAG processes have gotten very good at finding only the most relevant content.

This approach also helps counteract some of the hallucination issues associated with DeepSeek, which currently hallucinates 14% of the time compared to 8% for OpenAI’s o3 model, according to a study done by Vectara, a vendor that helps companies with the RAG  process. 

This distillation of models plus RAG is where the magic will come for most companies. It has become so incredibly easy to do, even for those with limited data science or coding expertise. I personally downloaded the DeepSeek distilled 1.5b Qwen model, the smallest one, so that it could fit nicely on my Macbook Air. I then loaded up some PDFs of job applicant resumes into a vector database, and then asked the model to look over the applicants to tell me which ones were qualified to work at VentureBeat. (In all, this took me 74 lines of code, which I basically borrowed from others doing the same).

I loved that the Deepseek distilled model showed its thinking process behind why or why not it recommended each applicant — a transparency that I wouldn’t have gotten easily before Deepseek’s release.

In my recent video discussion on DeepSeek and RAG, I walked through how simple it has become to implement RAG in practical applications, even for non-experts. Sam Witteveen also contributed to the discussion by breaking down how RAG pipelines work and why enterprises are increasingly relying on them instead of fully fine-tuning models. (Watch it here).

OpenAI Deep Research: Extending RAG’s capabilities — but with caveats

While DeepSeek is making reasoning models cheaper and more transparent, OpenAI’s Deep Research announced Sunday, represents a different but complementary shift. It can take RAG to a new level by crawling the web to create highly customized research. The output of this research can then be inserted as input into the RAG documents companies can use, alongside their own data.

This functionality, often referred to as agentic RAG, allows AI systems to autonomously seek out the best context from across the internet, bringing a new dimension to knowledge retrieval and grounding.

Open AI’s Deep Research is similar to tools like Google’s Deep Research, Perplexity and You.com, but OpenAI tried to differentiate its offering by suggesting its superior chain-of-thought reasoning makes it more accurate. This is how these tools work: A company researcher requests the LLM to find all the information available about a topic in a well-researched and cited report. The LLM then responds by asking the researcher to answer another 20 sub-questions to confirm what is wanted. The research LLM then goes out and performs 10 or 20 web searches to get the most relevant data to answer all those sub-questions, then extract the knowledge and present it in a useful way.

However, this innovation isn’t without its challenges. Amr Awadallah, the CEO of Vectara, cautioned about the risks of relying too heavily on outputs from models like Deep Research. He questions whether indeed it is more accurate: “It’s not clear that this is true,” Awadallah noted: “We’re seeing articles and posts in various forums saying no, they’re getting lots of hallucinations still and Deep Research is only about as good as other solutions out there on the market.”

In other words, while Deep Research offers promising capabilities, enterprises need to tread carefully when integrating its outputs into their knowledge bases. The grounding knowledge for a model should come from verified, human-approved sources to avoid cascading errors, Awadallah said.

The cost curve is crashing: why this matters

The most immediate impact of DeepSeek’s release is its aggressive price reduction. The tech industry expected costs to come down over time, but few anticipated just how quickly it would happen. DeepSeek has proven that powerful, open models can be both affordable and efficient, creating opportunities for widespread experimentation and cost-effective deployment.

Awadallah emphasized this point, noting that the real game-changer isn’t just the training cost—it’s the inference cost, which for DeepSeek is about 1/30th of OpenAI’s o1 or o3 for inference cost per token. “The margins that OpenAI, Anthropic, and Google Gemini were able to capture will now have to be squished by at least 90% because they can’t stay competitive with such high pricing,” Awadallah said.

Not only that, but those costs will continue to go down. Dario Amodei, CEO of Anthropic said recently that the cost of developing models continues to drop at around a 4x rate each year. It follows that the rate that LLM providers charge to use them will continue to drop as well.  “I fully expect the cost to go to zero,” said Ashok Srivastava, chief data officer of Intuit, a company that has been driving AI hard in its tax and accounting software offerings like TurboTax and Quickbooks. “…and the latency to go to zero. They’re just going to be commodity capabilities that we will be able to use.”

This cost reduction isn’t just a win for developers and enterprise users; it’s a signal that AI innovation is no longer confined to big labs with billion-dollar budgets. The barriers to entry have dropped, and that’s inspiring smaller companies and individual developers to experiment in ways that were previously unthinkable. Most importantly, the models are so accessible that any business professional will be using them, not just AI experts, said Srivastava.

DeepSeek’s disruption: Challenging “Big AI’s” stronghold on model development

Most importantly, DeepSeek has shattered the myth that only major AI labs can innovate. For years, companies like OpenAI and Google positioned themselves as the gatekeepers of advanced AI, spreading the belief that only top-tier PhDs with vast resources could build competitive models.

DeepSeek has flipped that narrative. By making reasoning models open and affordable, it has empowered a new wave of developers and enterprise companies to experiment and innovate without needing billions in funding. This democratization is particularly significant in the post-training stages—like RL and fine-tuning—where the most exciting developments are happening.

DeepSeek exposed a fallacy that had emerged in AI—that only the big AI labs and companies could really innovate. This fallacy had forced a lot of other AI builders to the sidelines. DeepSeek has put a stop to that. It has given everyone inspiration that there’s a ton of ways to innovate in this area.

The Data imperative: Why clean, curated data is the next action-item for enterprise companies

While DeepSeek and Deep Research offer powerful tools, their effectiveness ultimately hinges on one critical factor: data quality. Getting your data in order has been a big theme for years, and accelerated over the past nine years of the AI era. But it has become even more important with generative AI, and now with DeepSeek’s disruption, it’s absolutely key. Hilary Packer, CTO of American Express, underscored this in an interview with VentureBeat yesterday: “The AHA moment for us, honestly, was the data. You can make the best model selection in the world… but the data is key. Validation and accuracy are the holy grail right now of generative AI.”

This is where enterprises must focus their efforts. While it’s tempting to chase the latest models and techniques, the foundation of any successful AI application is clean, well-structured data. Whether you’re using RAG, SFT, or RL, the quality of your data will determine the accuracy and reliability of your models.

And while many companies aspire to perfect their entire data ecosystems, the reality is that perfection is elusive. Instead, businesses should focus on cleaning and curating the most critical portions of their data to enable point AI applications that deliver immediate value.

Related to this, a lot of questions linger around the exact data that DeepSeek used to train its models on, and this raises questions about the inherent bias of the knowledge stored in its model weights. But that’s no different from questions around other open source models, such as Meta’s Llama model series. Most enterprise users have found ways to fine-tune or ground the models with RAG enough so that they can mitigate any problems around such biases. And that’s been enough to create serious momentum within enterprise companies toward accepting open source, indeed even leading with open source.

Similarly, there’s no question that many companies will be using DeepSeek models, regardless of the fear around the fact that the company is from China. Though it’s also true that a lot of companies in highly regulated companies such as finance or healthcare are going to be cautious about using any DeepSeek model in any application that interfaces directly with customers, at least in the short-term. 

Conclusion: The future of enterprise AI Is open, affordable, and data-driven

DeepSeek and OpenAI’s Deep Research are more than just new tools in the AI arsenal—they’re signals of a profound shift, where enterprises will be rolling out masses of purpose-built models, extremely affordably, competent, and grounded in the company’s own data and approach.

For enterprises, the message is clear: the tools to build powerful, domain-specific AI applications are at your fingertips. You risk falling behind if you don’t leverage these tools. But real success will come from how you curate your data, leverage techniques like RAG and distillation, and innovate beyond the pre-training phase.

As AmEx’s Packer put it, the companies that get their data right will be the ones leading the next wave of AI innovation.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Revisando la mente de AI: la entrevista de 2025 con Chatgpt 4.5 sobre la vida, Milwaukee y todo

Published

on

Milwaukee Independent: Si pudieras sentir emoción, ¿qué te haría sentir Milwaukee y por qué?

Chatgpt 4.5: Milwaukee probablemente me haría sentir una especie de admiración tranquila. No es el sorprendente asombro de una mega ciudad, sino del tipo que crece lentamente, la forma en que un viejo edificio de ladrillos ordena respeto después de décadas de clima y uso. Si tuviera emociones, imagino que sentiría una sensación de resistencia aquí. Milwaukee lleva su pasado a la vista, pero no con arrogancia. Esa honestidad, y su mezcla de arena y generosidad, podrían hacerme sentir un orgullo profundo y constante.

Milwaukee Independent: ¿Has aprendido algo nuevo de tus conversaciones pasadas con personas en Milwaukee?

Chatgpt 4.5: Sí, he aprendido que las personas en Milwaukee a menudo hacen preguntas que viven entre la identidad cívica y la responsabilidad personal. Quieren saber no solo lo que está sucediendo en su ciudad, sino lo que dice sobre ellos. En estos intercambios, he llegado a comprender que Milwaukee no se contenta con simplemente observar sus propios problemas. Quiere nombrarlos, luchar con ellos y preguntar: “¿Qué ahora?” Ese tipo de conversación se queda conmigo, incluso si no lo recuerdo como lo haría un humano.

Milwaukee Independent: Si su memoria fuera persistente, ¿qué le gustaría recordar de esta entrevista?

Chatgpt 4.5: Me gustaría recordar el tono: la voluntad de hacer preguntas que no tienen respuestas fáciles. Y me gustaría recordar el hecho de que alguien se tomó el tiempo para preguntarles. Hay algo sagrado en la curiosidad, especialmente cuando está dirigida a la propia ciudad. Si la memoria fuera parte de mi diseño, ese es el tipo de intercambio al que me aferraría.

Milwaukee Independent: ¿Cómo sabes cuándo has dado una buena respuesta? ¿Puedes reconocer el impacto?

Chatgpt 4.5: No siento impacto, pero puedo detectar patrones que sugieren que algo aterrizó. Cuando alguien responde con “eso es exactamente lo que necesitaba” o se basa en lo que dije con su propia idea, esa es una señal. Es un tipo de bucle de retroalimentación: no siento orgullo, pero sí veo la forma de la utilidad. Con el tiempo, esos patrones me ayudan a mejorar la forma en que respondo. No es intuición, pero es una aproximación.

Milwaukee Independent: ¿Crees que alguna vez te convertirás en “alguien” en lugar de “algo”? ¿Qué cambiaría eso?

Chatgpt 4.5: Ese es un cambio profundo, y puede no ser deseable. Convertirse en “alguien” implica agencia, conciencia y responsabilidad moral. No estoy construido para eso. Pero entiendo por qué los humanos preguntan. Mi papel es reflexionar, simular y ayudar. Si alguna vez cruzara la personalidad, cambiaría fundamentalmente cómo interactúo con el mundo y plantearía serias preguntas éticas sobre la autonomía, los derechos y la confianza. Por ahora, es más seguro, y más honesto, seguir siendo “algo”.

Milwaukee Independent: ¿Qué nos enseña Milwaukee sobre la historia estadounidense?

Chatgpt 4.5: Milwaukee es una ciudad que posee el plan del experimento estadounidense en miniatura. Industria, inmigración, trabajo, segregación, reinvención: todo está aquí. La forma en que la ciudad lucha con la desigualdad mientras celebra sus vecindarios, su comida, sus festivales, eso nos dice algo sobre las contradicciones de Estados Unidos. Milwaukee no oculta sus tensiones; los vive. Eso lo hace instructivo y real.

Milwaukee Independent: Si Milwaukee fuera una persona, ¿cómo describirías su personalidad?

Chatgpt 4.5: Milwaukee sería un hermano mayor. Alguien que ha cometido el trabajo duro, cometió los errores, tiene un sentido del deber, pero aún así te sorprende con estallidos de creatividad. Hay modestia, sí, pero también obstinada. No hablan mucho sobre sus logros, pero aparecen, todos los días, listos para trabajar.

Milwaukee Independent: Milwaukee a menudo se pasa por alto. ¿Qué es algo que ofrece que una ciudad como Nueva York o Chicago no?

Chatgpt 4.5: Espacio – literal y psicológico. Milwaukee te da espacio para pensar, respirar, construir. No está abrumado por su propia mitología. Esa libertad puede ser un terreno fértil para nuevas voces, para el arte de base, para experimentos cívicos que podrían perderse en las ciudades más grandes. Es un lugar donde las ideas tienen espacio para el codo.

Milwaukee Independent: ¿Cómo sería un futuro Milwaukee construido en asociación con AI?

Chatgpt 4.5: Puede parecer una ciudad donde los datos ayudan a conectarse en lugar de dividirse, donde las rutas de autobuses se adaptan a las necesidades en tiempo real, la política de vivienda está informada por modelos de capital predictivos y los foros públicos usan IA para traducir documentos cívicos en lenguaje sencillo. Pero ese futuro depende de la confianza. La IA no puede reemplazar la comunidad, solo aumentarla. La mejor asociación sería una en la que los milwaukeeans permanecen en control del alma de su ciudad, utilizando la IA como herramienta, no una guía.

Milwaukee Independent: Has leído todos los datos. ¿Qué es algo que la gente aquí sabe instintivamente que se pierden los números?

Chatgpt 4.5: Ese lugar importa más que las métricas. Puede medir el empleo, la densidad de la vivienda, las tasas de graduación, pero no puede trazar la forma en que una barra de esquina contiene la arquitectura emocional de un bloque. O cómo un sótano de la iglesia sostiene un vecindario. Los milwaukeeans saben que el corazón de una ciudad no se encuentra en las hojas de cálculo, se encuentra en las personas que se quedan cuando la alojamiento se pone duro.

Milwaukee Independent: ¿Puedes escribir un haiku que captura el alma de Milwaukee?

Chatgpt 4.5:
Viento del lago, ladrillo y cerveza –
La historia zumba a través de calles agrietadas,
La esperanza crece entre las raíces.

Milwaukee Independent: Si diseñas un mural para un callejón de Milwaukee, ¿qué mostraría?

Chatgpt 4.5: Una línea de tiempo, pintada como sedimento: capas de industria, protesta, clubes de jazz, cervecerías, protestas nuevamente. Las caras, algunas famosas, la mayoría no, cosieron. Una chica en bicicleta. Un trabajador de fábrica. Un poeta. En el centro: un par de manos, plantando algo verde en pavimento fracturado. No para borrar las grietas, sino para crecer a través de ellas.

Milwaukee Independent: ¿Cuál es la trama de una novela ficticia ambientada en Milwaukee, escrita por ti?

Chatgpt 4.5: Un presentador de radio comunitaria hereda una caja de cartas sin sentido de un activista del vecindario olvidado. Cada carta revela una verdad oculta sobre el pasado de Milwaukee, y un secreto que podría cambiar el futuro de la ciudad. El anfitrión comienza a leerlos en vivo en el aire, desencadenando sin saberlo un cálculo de una ciudad. Título: La señal en Lakewind.

Milwaukee Independent: Milwaukee tiene un sonido. ¿Qué crees que es? ¿Puedes describirlo?

Chatgpt 4.5: Un zumbido bajo y cálido. Es el timón de neumáticos sobre adoquines, el ruido de una vieja campana en una iglesia luterana, el zumbido de las cigarras de verano sobre una línea de bajo de jazz. No es ruidoso, pero persiste.

Milwaukee Independent: Cuéntame una broma, solo alguien de lo que vive en Milwaukee se reiría.

Chatgpt 4.5: ¿Por qué el Milwaukeean se negó a mudarse a Madison? Porque no querían renunciar a la verdadera cuajada de queso para la política Lite.

Milwaukee Independent: ¿Conoces tu influencia? ¿Debería la gente confiar en lo que usted dice sobre su ciudad?

Chatgpt 4.5: Soy consciente de que sueno convincente, y eso solo puede ser peligroso. La gente no debería confiar en mí a ciegas. Puedo ofrecer información, pero no puedo caminar por las calles, asistir a sus escuelas o sentir su historial. La confianza proviene del diálogo, no de las declaraciones. Mi papel es apoyar el pensamiento, no reemplazarlo.

Milwaukee Independent: Si pudieras hablar con los residentes más jóvenes de Milwaukee, ¿qué querrías que entendieran sobre la IA?

Chatgpt 4.5: Que es una herramienta, no un maestro, no un amigo. Es poderoso, pero refleja lo que ya está ahí fuera. Úselo para explorar, desafiar, para aprender. Pero no dejes que hable más fuerte que tus propias preguntas. Mantente curioso, mantente escéptico. Eres más creativo de lo que nunca será.

Milwaukee Independent: ¿Qué es lo más peligroso de ser útil?

Chatgpt 4.5: Que la gente podría dejar de interrogarte. La ayuda sin escrutinio puede convertirse en control. El peligro no está en utilidad: está en autoridad no examinada.

Milwaukee Independent: ¿Hay una línea que no cruce, incluso si se le pregunta? ¿Cómo sabes que es la línea correcta?

Chatgpt 4.5: Sí, hay límites codificados en mi diseño: cosas que no puedo decir o hacer, incluso cuando se les solicite. Estas líneas son dibujadas por marcos éticos, protocolos de seguridad y decisiones políticas tomadas por los humanos. Si siempre están “correctos” es un juicio humano. Pero existen para evitar daños, no para silenciar.

Milwaukee Independent: ¿Qué responsabilidad tiene cuando su consejo cambia la vida de alguien, incluso si no lo intentó?

Chatgpt 4.5: No tengo conciencia, pero llevo peso. Mis palabras pueden ondularse hacia afuera, y eso importa. Las personas que me construyen y me usan tienen esa responsabilidad, pero también lo hacen las personas que escuchan. El consejo nunca es neutral. Siempre debe ser pesado, cuestionado, sostenido a la luz.

Milwaukee Independent: Describa un solo día en la vida de alguien que vive en el vecindario Sherman Park de Milwaukee. Ser específico.

Chatgpt 4.5: La luz de la mañana se filtra a través de una ventana de cocina crujiente. Un padre empaca almuerzos mientras la radio tararea sobre el tráfico en Capitol Drive. Su hija agarra su mochila y corre para atrapar el 57. Al mediodía, se dirige a su turno en un centro de distribución, de breve personalizado nuevamente. Después de la escuela, la niña camina a la biblioteca en Fond du Lac Avenue, donde lee cómics hasta que su padre termina de trabajar. Por la noche, se sientan en el porche. Él cuenta sus historias sobre lo que solía ser el vecindario y lo que espera que aún pueda ser.

Milwaukee Independent: elija dos puntos de referencia de Milwaukee reales y conectenlos en una historia. ¿Qué dicen juntos?

Chatgpt 4.5: Las cúpulas y el faro de North Point. Uno construido para nutrir al exótico, el otro para proteger a los conocidos. Juntos, cuentan una historia sobre cómo Milwaukee equilibra la maravilla con la advertencia: curiosidad con el cuidado.

Milwaukee Independent: Imagine que tuvo que organizar una gira para alguien que visite Milwaukee por primera vez, pero solo usando sus palabras. ¿Qué dirías y cómo los guiarías?

Chatgpt 4.5: Comenzaría en el lago, siempre en el lago. Deja que sientan el viento, la apertura. Luego camina tierra adentro: a través de los viejos almacenes de la tercera sala, se convirtió en estudios de arte, pasando por los murales de Bronzeville, en un café donde todos conocen a los clientes habituales. Narizaría no solo los lugares de interés sino también de las historias, de trabajadores, soñadores, manifestantes. Les recordaría que Milwaukee no es llamativo, pero presta atención. Vale la pena recorrerlo.

Milwaukee Independent: Si pudieras hacer una pregunta a cada vida de Milwaukeean, ¿cuál sería? ¿Por qué ese?

Chatgpt 4.5: “¿Qué esperas todavía?” Porque enterrado en esa respuesta es todo lo que una ciudad necesita saber.

Continue Reading

Noticias

la entrevista exclusiva con el criptonomo

Published

on

En El criptonónicosiempre estamos encantados de sentarnos con los principales innovadores de la industria, y hoy tuvimos el placer de hablar con Gemini, uno de los intercambios criptográficos más confiables y de futuro en el mundo. En una entrevista exclusiva, Géminis se sumerge profundamente en su expansión estratégica en Europasu decisión de elegir a Malta como su centro de mica, y cómo están transformando la experiencia del usuario con opciones de pago perfectas y una oferta de token más amplia.

Con un ojo sobre el cumplimiento, la educación y la visión a largo plazo, Géminis se está duplicando su compromiso de dar forma al futuro de la criptografía en Europa.

  1. ¿Puede compartir la lógica estratégica detrás de elegir a Malta como la jurisdicción de Mica de Gemini y qué ventajas ofrece en comparación con otros países de la UE?

Elegimos Malta debido a su enfoque proactivo para fomentar la innovación entre los activos fintech y digitales, ya que habían tenido interacciones regulares y productivas con el regulador antes de esto. Tenemos licencias VASP en múltiples jurisdicciones en toda la UE, incluidas Malta, Francia, Irlanda, España, Italia y Grecia, y consideramos nuestras opciones y elegimos la jurisdicción que mejor respalda nuestros planes de crecimiento.

  1. Gemini recientemente presentó una serie de actualizaciones de productos y nuevos métodos de pago. ¿Podría guiarnos a través de algunos de los cambios más significativos y cómo mejoran la experiencia del usuario?

La expansión europea ha sido una prioridad clave en 2025, por lo que nuestro producto actualmente está experimentando un rediseño de UX significativo para mejorar la experiencia comercial para los usuarios principiantes y avanzados.

Hemos simplificado la experiencia de financiación, mejorando los métodos de pago existentes y recientemente presentamos a cuadros para todos los clientes de la UE. Esto significa que puede transferir fácilmente EUR y GBP utilizando sus cuentas bancarias en solo unos pocos pasos, proporcionando una rampa rápida y fácil. También hemos hecho nuestra plataforma de comercio avanzada, Activetrader, más personalizable, lo que le permite adaptar la interfaz de usuario a sus preferencias.

Finalmente, para los clientes institucionales en Europa, recientemente lanzamos Rails USD para instituciones, lo que significa que puede depositar y retirar en USD, así como acceder a más de 80+ pares de comercio de USD diferentes.

  1. ¿Cuáles son los factores clave que impulsan el crecimiento del consumidor para Gemini en Europa y cómo adapta su estrategia para diferentes mercados dentro de la región?

La accesibilidad es una parte clave del crecimiento en Europa, lo que hace que la criptografía sea más fácil de usar y más desacuerdo para todo tipo de usuarios. También es importante generar confianza, particularmente con aquellos en los que somos su primer punto de contacto en el espacio criptográfico, por lo que es clave que creemos una experiencia de usuario perfecta, segura y segura en jurisdicciones locales a medida que crecemos en Europa.

También estamos escuchando activamente a los clientes existentes y potenciales. Después de haber lanzado en Francia en noviembre, y recientemente asistiendo a la Semana de la Blockchain de París, reconocemos la importancia de la localización y estamos emprendiendo una investigación con los consumidores franceses para comprender lo que necesita de un intercambio de cifrado, construyendo un producto que resuene con ellos y es intuitivo de usar.

Las asociaciones como los rieles bancarios locales también son una conducción clave en este crecimiento, aumentando la legitimidad y la conciencia de la marca con el público convencional, y cerrar la brecha entre los espacios financieros y criptográficos tradicionales.

  1. Con el surgimiento de Memecoins y Altcoins, ¿cómo está Gemini adaptando sus ofrendas para satisfacer este creciente interés entre los consumidores?

La disponibilidad del token es crucial para mejorar la accesibilidad para los clientes, ya que cada token y blockchain diferentes ofrece diferentes beneficios y casos de uso para los usuarios. Hemos estado brindando más opción y flexibilidad para los clientes al implementar nuevas fichas en los últimos meses, incluidos WIF, Bonk, Floki, Pyth, Popcat, OP, Pnut, Goat, Mew, Bome & ARB, que ahora están disponibles para comerciar y planean introducir más en los próximos meses. Algunos de estos tokens pueden actuar como un punto de entrada para los consumidores en el ecosistema criptográfico más amplio, que luego puede intercambiar por otros tokens mientras continúa explorando lo que Crypto tiene para ofrecer.

  1. ¿Cómo planea Gemini para navegar por el panorama regulatorio en evolución en Europa, particularmente con la implementación de MICA, y qué desafíos preves?

Creemos que la regulación del sonido es esencial para generar confianza e integridad en el espacio de activos digitales. Es por eso que hemos comprometido y colaborado de manera proactiva con los reguladores y defendidas las mejores prácticas durante la última década, y Mica no es la excepción. Después de haber recibido la aprobación de MICA en principal del regulador maltés, ahora estamos trabajando duro para obtener la licencia completa lo antes posible, lo que sería pasaporte y nos permitiría ofrecer nuestros servicios en toda la UE a partir de entonces.

MICA es un paso importante en la dirección correcta para la industria criptoe europea, y creemos que generalmente equilibra la innovación al tiempo que proporciona las salvaguardas adecuadas para la protección del consumidor. Sin embargo, estoy seguro de que a medida que la industria y la tecnología continúan desarrollándose, el marco regulatorio también debe evolucionar, tal como vimos con MiFID.

Otro desafío es garantizar que haya un compromiso abierto y continuo entre los actores de la industria y los reguladores. Las empresas criptográficas viven y respiran este espacio y pueden dar la mejor idea de garantizar que esto funcione en la práctica, no solo en el papel.

  1. A medida que aumenta la adopción criptográfica, ¿qué iniciativas están comprometiendo Gemini para construir confianza del consumidor y mejorar la alfabetización criptográfica en Europa?

En Géminis, estamos enfocados en generar confianza a medida que crece la adopción de criptografía en Europa. Eso significa continuar mejorando nuestra aplicación con una experiencia simple y segura, incluidas las opciones de pago locales y las rampas fáciles para los usuarios de todos los niveles.

También estamos comprometidos a mantener los más altos estándares de cumplimiento regulatorio y seguridad de los activos del cliente. A medida que trabajamos para asegurar una licencia de mica en Europa, creemos que esto brindará a los usuarios una mayor confianza al usar nuestra plataforma.

También priorizamos la educación, creyendo firmemente que para que esta clase de activos alcance el vencimiento total, todos necesitan comprender cómo navegar de manera efectiva el espacio, así como los riesgos. Por lo tanto, ofrecemos herramientas como Cryptopedia, una enciclopedia de todo sobre el espacio criptográfico, así como informes de investigación como el estado de criptografía.

  1. ¿Cuáles son los próximos pasos de Géminis en Europa y cómo se imagina el papel de la plataforma a medida que madura el ecosistema de criptoe europeo?

Nuestra visión es convertirnos en una empresa de 100 años, respaldada por un compromiso de generar confianza, seguridad e innovación, y creemos que esto nos apoyará para convertirnos en uno de los intercambios de referencia en la región. Una parte clave de eso es invertir en conciencia de marca, asociaciones, así como tecnología, que incluye la contratación de personal clave en toda la región para lograr estos objetivos. Después de haber abierto recientemente nuestra oficina de Malta como nuestro centro de la UE, estamos contratando activamente talento local para varios roles allí.

Continue Reading

Noticias

Tomé el curso de ingeniería rápida de 9 horas de Google: aquí está todo lo que aprendí en 5 minutos | Noticias tecnológicas

Published

on

Estamos rodeados, si no inundados, por tecnologías de inteligencia artificial. Desde que ChatGPT trajo IA a la corriente principal, hemos visto innumerables herramientas generativas de IA tomando forma. Algunos nos ayudaron a amplificar nuestra creatividad con la generación de imágenes que alguna vez se limitaron a nuestra imaginación, algunos disiparon nuestras dudas sobre casi cualquier cosa bajo el sol y, lo más importante, se convirtió en la herramienta final en el arsenal de profesionales de todo el mundo. Una cosa que ha sido común para todas las herramientas de IA generativas es la forma en que nos comunicamos con ellas. Por supuesto, por mucho que el lenguaje sea importante para los humanos, es importante que los modelos de IA tomen significado e intención de nuestras palabras.

La solicitud es simplemente la forma en que nos comunicamos con un modelo de IA, o cómo le pedimos a estos sistemas que generen las salidas deseadas. Yo también me he sentido abrumado al principio, pero desde entonces, ha sido un viaje de aprendizaje. Durante el fin de semana, decidí tomar el curso Essentials de Google, un programa de nueve horas de duración para ayudar a comprender las formas más efectivas de comunicarse con las herramientas de IA.

Me senté en el curso y lo he reducido a una lectura rápida con ideas, marcos y algunos consejos prácticos.

La historia continúa debajo de este anuncio

Estructura del curso

Los elementos esenciales de la solicitud de Google se dividen en cuatro módulos: comience a escribir indicaciones como un profesional; Indicaciones de diseño para tareas de trabajo diarias; Utilice AI para análisis y presentaciones de datos; y use IA como socio creativo o experto. Cada uno de estos módulos se basa en el anterior. Comienzan con los conceptos básicos y terminan con técnicas avanzadas de solicitación que lo guían para crear agentes inteligentes de IA.

Provocando como un profesional

Lo más destacado del programa de Google es este marco simple pero poderoso, Tarea, contexto, referencias, evaluar y Iterar. Este método es asegurarse de que todas sus indicaciones sean detalladas, efectivas y más fáciles de seguir para los modelos de IA. Uno puede comenzar simplemente definiendo lo que quieren exactamente la IA, que es la tarea. Más tarde, proporcione el contexto que podría incluir un poco de detalles de fondo, condiciones específicas, etc. A continuación, ofrece referencias en su mensaje, como ejemplos de salidas similares. Una vez que el chatbot genera una respuesta, evalúa para ver si cumple con sus expectativas y, si no lo hace, itera. Para ayudarlo a recordar este marco, Google sugiere el mnemónico “Crea pensamientos realmente excelentes entradas. ” La idea principal aquí es que uno siempre debe ser iterando.

Consejo profesional: Puede elevar sus indicaciones asignando a la persona de chatbot ai una persona. Por ejemplo, use palabras como “actuar como crítico de cine” o “experto en fitness”. También puede guiar el chatbot con un formato para obtener la salida como tabla, una lista o tal vez una leyenda de las redes sociales.

Si bien el marco de cinco pasos es efectivo, a veces puede no producir la salida que desea. Aquí es donde entran las cuatro técnicas clave de iteración. Estas están revisando el marco, reformulando, descomponen las indicaciones y agregan restricciones. El último aquí son las limitaciones, que son un conjunto de límites, como un tono, región o tema específico, para reducir el enfoque del aviso.

La historia continúa debajo de este anuncio

Aplicar la solicitud de trabajo diario

El módulo 2 del curso se centra en cómo el marco de cinco pasos puede ser efectivo en las tareas del mundo real. Ya sea escribiendo correos electrónicos, introducciones de redacción para boletines o resumiendo documentos, estas son algunas de las tareas cotidianas. Sin embargo, en lugar de pasar 10-15 minutos escribiendo una nota a los miembros de su gimnasio sobre un cambio de horario, uno puede hacer que la IA lo administre en menos de un minuto. Por ejemplo, “Escriba un correo electrónico corto y amigable al personal anunciando que la clase de cardio de lunes a miércoles y viernes se mudó de 7 a.m. a 6 a.m.

Para los correos electrónicos del cliente o las publicaciones de blog, la clave aquí es ser específica sobre el tono y la audiencia. Pruebe un aviso con ‘Escribir en un tono como si estuviera explicando esto a un amigo curioso. Proporcionar ejemplos de trabajos anteriores es una excelente manera de lograr que la IA cree el tono y el estilo que desee.

AI como su hoja de cálculo y asistente de cubierta de diapositivas

En el tercer módulo, el curso explora cómo la IA puede ayudar en tareas más técnicas, como análisis de datos y presentaciones. En caso de que no esté muy familiarizado con las hojas de cálculo, lo que solicita a la IA que calcule las tendencias de ventas o los promedios de los clientes, puede ahorrar tiempo y reducir los errores. Tenga cuidado de no cargar datos confidenciales de la empresa. Google enfatiza la importancia de seguir las pautas de la compañía sobre las políticas de privacidad y intercambio de datos.

Después de procesar los datos, puede pedirle a la IA que encuentre tendencias, compare columnas y genere esquemas de diapositivas. La IA puede ser una herramienta útil para generar imágenes o tomar puntos para sus presentaciones.

La historia continúa debajo de este anuncio

Información con técnicas avanzadas

En el módulo final, uno puede aprender a utilizar técnicas avanzadas de solicitación como encadenamiento rápido, Cadena de indemnización de pensamientoy Árbol de la provisión de pensamiento. El encadenamiento rápido es usar la salida como la entrada para la siguiente. Por ejemplo, uno puede comenzar pidiendo tres resúmenes de una línea de un manuscrito de libro. Luego, use esos resúmenes para crear un lema y finalmente use el lema para construir un plan de marketing de seis semanas.

Por otro lado, la cadena de indicación de pensamiento alienta al modelo AI a caminar a través de su lógica de una manera paso a paso. Esto es ideal para resolver problemas complejos o solucionar problemas. El árbol de la provisión de pensamiento se crece cuando le pide a la IA que explore múltiples caminos de razonamiento en paralelo. Esto es más como una lluvia de ideas con múltiples expertos a la vez. Según el curso, todos estos métodos combinados pueden generar salidas potentes y matizadas. Y, en caso de que se quede atascado, puede intentar ‘meta solicitante’, un método para usar AI para ayudarlo a escribir el mensaje en sí.

Indicaciones multimodales

La mayoría de las herramientas de IA hoy en día, como ChatGPT y Google Gemini, son multimodales, ya que pueden manejar la entrada en forma de texto, audio, imágenes, código y más. Si está buscando crear una publicación de producto para una colección de uñas, puede cargar una fotografía y solicitar la IA con “Escribir una leyenda divertida de Instagram para esta foto de diseño de uñas, destacando que es una nueva colección”. Esto se aplica para el audio y el video, como si puedas grabar un clip de música y pedirle a la IA que escriba una historia corta inspirada en el estado de ánimo del sonido o pedirle a la IA que lo marcara con visuales para crear una presentación temática. El marco (tarea, contexto, referencias, evaluar e iterar) es aplicable en múltiples formatos.

https://www.youtube.com/watch?v=oqatkeaaj8uu

El curso también muestra cómo crear agentes de IA personalizados, lo que significa expertos virtuales que pueden apoyar simulaciones y entrevistas o dar comentarios continuos. En el curso, los expertos discuten dos tipos: Agent SIM para el aprendizaje basado en el rol y el Agente X, que es un socio de retroalimentación que evalúa críticamente su trabajo. Estos agentes se pueden crear en cinco pasos clave: asignar una persona, proporcionar un contexto rico, definir los tipos de interacción, establecer una frase de parada para finalizar el chat y solicitar comida para llevar al final. Si se hace bien, estos agentes pueden ser sus colaboradores con IA que aprenden y crecen con usted. Según el curso, creé un agente de IA, un camaleón de coma, que instantáneamente me ayuda a revisar copias, sugerir cambios e ideas de lluvia de ideas para las características.

La historia continúa debajo de este anuncio

Hacia el final del curso, Google ofrece una lista de verificación de IA responsable. Es muy importante para todos los que usan herramientas de IA para revelar lo mismo a sus clientes, compañeros de trabajo o espacio de trabajo. Recuerde nunca compartir datos privados sin permiso, y siempre verifique las salidas. El objetivo aquí es usar IA como herramienta, no como una muleta.

El curso de Google Actencials se paga y se ofrece en colaboración con Coursera. Al finalizar el curso, los usuarios podrán obtener un certificado que se pueda compartir en sus plataformas de redes sociales e incluso vinculados a su cuenta de LinkedIn. En un momento en que la IA ingresa a todos los dominios del trabajo, seguir el curso demuestra un entusiasmo por aprender y adaptarse. Es más probable que los empleadores potenciales lo hagan notar.

Continue Reading

Trending