Connect with us

Noticias

🤔Inside the OpenAI-DeepSeek Distillation Saga & Alibaba’s Most Powerful AI Model Qwen2.5-Max

Published

on

Hi, this is Tony! Happy Chinese New Year! Welcome to this issue of Recode China AI (for the week of January 27, 2025), your go-to newsletter for the latest AI news and research in China.

This week, DeepSeek came under scrutiny for potentially using generated outputs from OpenAI’s platforms to train its models, which violates OpenAI’s terms of service. This practice, known as Knowledge Distillation (KD), refers to transferring advanced capabilities from leading large language models (LLMs) to relatively less powerful ones.

In this post, I will break down what KD is, share my thoughts on whether DeepSeek distilled GPT models, and, if so, explore what this means.

Meanwhile, on January 29 (Beijing Time), the first day of the Chinese New Year, e-commerce giant Alibaba unveiled its latest foundation model, Qwen2.5-Max, which claims surpassing DeepSeek-V3 in multiple benchmarks. Are we entering an age where multiple Chinese AI labs can churn out frontier models?

What’s new: Speculation about KD in DeepSeek’s models first surfaced in December 2024 when users noticed that the DeepSeek chatbot, powered by DeepSeek-V3, sometimes identified itself as ChatGPT. Such discussions continued to spread after DeepSeek-R1 was released in January and became available on the DeepSeek chatbot.

Credit to Reddit users.

This week, amid the DeepSeek frenzy, Bloomberg reported that Microsoft security researchers discovered individuals suspected to be linked to DeepSeek extracting large amounts of data using OpenAI’s API in the fall. Microsoft notified OpenAI, which subsequently blocked their access.

Later, the Financial Times reported that OpenAI had found evidence suggesting that DeepSeek may have used GPT-generated outputs for model training. OpenAI’s public statement echoed concerns raised by David Sacks, an AI and crypto advisor in the Trump administration, who stated that “it is possible” intellectual property theft had occurred.

David Sacks issues stark warning about China’s AI advancements. Credit to Fox.

What is Knowledge Distillation? KD is a technique where smaller or less advanced AI models learn from more powerful proprietary models like GPT-4 or Gemini. This method is akin to an experienced teacher guiding a student.

According to the paper A Survey on Knowledge Distillation of Large Language Models, KD serves three main functions:

  • Enhancing model capabilities: Smaller models improve their contextual understanding, task specialization, and alignment with human intent by learning from more advanced models.

  • Compression of LLMs: KD reduces the model size while maintaining performance to make them more efficient for low-latency deployment.

  • Self-improvement: Open-source models can iteratively refine themselves using their own distilled knowledge.

Traditional KD techniques rely on logits – the raw, unnormalized output scores (often transformed into a soft probability distribution) from the teacher model – to train the student model. However, this approach requires the teacher model to be white-boxed, meaning its internal architecture, parameters, and outputs must be fully accessible.

Since advanced LLMs like GPT-4 and Gemini are proprietary, black-boxed models that do not provide access to logits, alternative distillation methods have been developed. One common method is supervised fine-tuning (SFT), where the student model is trained directly on the generated outputs of the teacher model.

Distilling knowledge from proprietary models into open-source LLMs is a common practice. For instance, Stanford University’s Alpaca LLM was a 7B LlaMA model trained on a 52K-example dataset, which was generated by prompting GPT-3.5 to produce high-quality, instruction-following responses.

Beyond simple answer generation, Chain-of-Thought (CoT), a step-by-step thought process, can also be distilled. Microsoft’s Orca and Orca 2 leveraged GPT-4 to generate multi-step reasoning chains for complex questions, and then fine-tuned smaller models to mimic this thought process.

Another method is using GPT-4 as a judge to score model responses. The student model is then trained to prefer high-scoring responses to improve their alignment and response quality.

A list of some open-source LLMs that distill from proprietary models.

A complementary technique closely intertwined with KD is Data Augmentation (DA), which is a process of generating synthetic training data from a small amount of existing data to improve model performance.

With this understanding of KD, let’s examine what DeepSeek’s papers reveal.

What did DeepSeek papers say? The DeepSeek-R1 paper provided detailed breakdown of its training methodologies. The DeepSeek-R1-Zero was trained exclusively through RL without fine-tuning on datasets, meaning it did not rely on ground-truth data to guide its outputs. In contrast, DeepSeek-R1 was first trained using a cold-start dataset derived from DeepSeek-R1-Zero’s outputs, refined by human annotators, before training through RL.

Another LLM, DeepSeek-V3, was trained on 14.8 trillion tokens. Given the widespread presence of AI-generated content on the internet, it is likely that the dataset contained GPT-generated texts. After pre-training, the model was fine-tuned using 1.5 million examples across multiple domains. For reasoning tasks, training data was collected using an internal DeepSeek-R1 model built on DeepSeek-V2.5, while non-reasoning data was curated using DeepSeek-V2.5 directly.

While DeepSeek did not mention any inclusion of GPT-generated outputs for training, a recent paper, Distillation Quantification for Large Language Models, suggests otherwise. It found that DeepSeek-V3 and Qwen-Max-0919 demonstrated higher distillation levels, aligning closely with GPT-4o, whereas models like Claude-3.5 Sonnet and ByteDance’s Doubao exhibited lower distillation levels. The study looked at how models handle identity-related information, i.e. what model are you, and whether they do so consistently. It also measured how similar the outputs of models were compared to GPT-4o.

If Bloomberg’s report is accurate – given that the data pulling was discovered in the fall of 2024 – individuals linked to DeepSeek may have extracted outputs from OpenAI’s o1-preview API, which was released on September 12, 2024. However, o1 intentionally concealed its CoT process. At best, DeepSeek could have accessed final model outputs, but not the underlying thought process.

My guess is that this extracted data may have been used to develop an early, inside iteration of R1, by fine-tuning DeepSeek’s older base models, such as DeepSeek-V2.5. It later played a role in training DeepSeek-V3, the base model for the official R1. While DeepSeek successfully improved its model’s reasoning ability through pure RL, it seems unlikely that its initial experiments on reasoning models were conducted without high-quality, reference data.

Another possibility is that a certain amount of GPT-generated outputs were included – intentionally or unintentionally – in DeepSeek-V3’s 14.8T pre-training dataset or its 1.5 million SFT examples.

Please note this remains speculative and lacks definitive evidence.

Why it matters: As mentioned earlier, open-source LLMs distilling from proprietary models is common practice, particularly for startups and university labs with limited budgets for data collection and cleaning. In the past, OpenAI rarely raised complaints about such activities. But DeepSeek is an exception – it presents strong competition to OpenAI in both consumer and enterprise markets.

DeepSeek-V3 and DeepSeek-R1 have demonstrated performance comparable to Anthropic’s Claude-3.5 Sonnet and OpenAI’s o1 models, respectively, but at a fraction of the training and inference costs. As of this writing, DeepSeek remains the most popular free app on the iOS App Store. U.S. enterprises are rushing to integrate DeepSeek into their applications. In response, OpenAI released o3-mini on Friday, a lightweight version of its most powerful reasoning model, o3.

Credit to WSJ

OpenAI has clear legal grounds to warn DeepSeek, as its terms of service explicitly prohibit using OpenAI’s model outputs to train other AI models. Some companies have distanced themselves from the practice to avoid any potential legal consequences. For example, ByteDance emphasized in its Doubao 1.5 release that “in all model training processes, we did not use any data generated by other models, ensuring the independence and reliability of our data sources.”

But the ethical debate surrounding KD is complex for open-source LLMs, which are widely credited with driving AI innovation. OpenAI’s claims against DeepSeek have sparked backlash, with critics questioning why OpenAI itself is allowed to train on unauthorized web data, while simultaneously raising concerns about DeepSeek’s use of generated outputs.

Credit to 404 Media

The distillation controversy doesn’t seem to slow down DeepSeek’s strong industry adoption. Microsoft, Dell, Nvidia, and Amazon recently announced support for DeepSeek models, allowing their enterprise customers to deploy and fine-tune DeepSeek R1. Citing a question from Nikkei Asia’s Yifan Yu:

Could anyone please explain why Microsoft would put DeepSeek R1 in its Azure AI Foundry for enterprise customers if they believed the AI model was involved in IP violations or other unethical behavior?

From a tech standpoint, there are indeed risks associated with KD, known as distillation tax. Over-reliance on proprietary model outputs can lead to data homogenization, thus reducing response diversity. If a model depends too heavily on KD, it is unlikely to surpass the teacher model. In DeepSeek’s case, even if some GPT/o1-generated outputs were included in its training data, they are not the sole reason for its strong model performance.

As DeepSeek aims to pursue AGI and become a leading AI lab, stricter adherence to data ethics will be crucial.

What’s new: On January 29, the first day of Chinese New Year, Alibaba rushed to unveil its latest and most powerful LLM, Qwen2.5-Max, positioning it as a direct competitor to DeepSeek-V3 and other leading LLMs.

The model is available via Alibaba Cloud’s API and Qwen Chat but is not open-sourced.

How it works: Qwen2.5-Max adopts a Mixture-of-Experts (MoE) architecture, which aligns with the broader trend among China’s top LLMs, such as DeepSeek-V3 and MiniMax-o1. Alibaba has two other MoE models, Qwen2.5-Turbo and Qwen2.5-Plus, which perform competitively against GPT-4o-mini and GPT-4o, respectively.

The model was pretrained on 20 trillion tokens of diverse data—surpassing the 18 trillion tokens used for Qwen2.5. However, despite its massive training, Qwen2.5-Max supports only a 32K-token context window.

Post-training involved curated SFT and a multistage RL approach, combining offline Direct Preference Optimization (DPO) and online Gradient-based Reinforcement Preference Optimization (GRPO).

As a result, Qwen2.5-Max achieved a 89.4% accuracy on Arena-Hard, surpassing GPT-4o and Claude 3.5 Sonnet, but lagged behind both models on MMLU-Pro. It also outperformed DeepSeek V3 in benchmarks such as LiveBench, LiveCodeBench, and GPQA-Diamond.

For API pricing, Qwen2.5-Max costs $1.60 per million input tokens and $6.40 per million output tokens — cheaper than GPT-4o and Claude 3.5 Sonnet, but still more expensive than DeepSeek-V3, which charges just $0.27 per million input tokens and $1.10 per million output tokens.

Why it matters: Over the past year, Alibaba’s Qwen series and DeepSeek have emerged as the two leading LLM brands in China, driven by rapid iteration and an aggressive open-source strategy. The Qwen series has been adopted among Chinese developers due to its various model sizes catering to diverse use cases.

However, DeepSeek’s meteoric rise has clearly put pressure on Alibaba, forcing it to accelerate its own releases. Two days before the unveil of Qwen2.5-Max, Alibaba open-sourced its latest multimodal model, Qwen2.5-VL, which can understand videos and control PCs and smartphones. The release includes both base and instruction-tuned models in three sizes: 3B, 7B, and 72B. Qwen2.5-VL-72B outperforms OpenAI’s GPT-4o and Google’s Gemini 2.0 Flash in document analysis, video understanding, and agent tasks.

Credit to Alibaba’s Qwen

Let’s be honest: dropping LLMs on the first day of Chinese New Year is a crime against naps and dumplings. Still, kudos to the Qwen team — they pulled off an impressive launch under pressure.

Looking ahead, as progress on next-gen frontier models like GPT-5 is slowing further than anticipated, it’s increasingly likely that Chinese AI labs will continue to narrow the performance gap with U.S. leaders — while maintaining a significantly lower price point.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Gambito estratégico de OpenAI: los agentes SDK y por qué cambia todo para Enterprise AI

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Openai remodeló el paisaje de AI Enterprise el martes con el lanzamiento de su plataforma integral de construcción de agentes, un paquete que combina una API de respuestas renovadas, herramientas potentes incorporadas y un SDK de agentes de código abierto.

Si bien este anuncio podría haber sido eclipsado por otros titulares de la IA, la presentación de Google del impresionante modelo de código abierto Gemma 3, y la aparición de Manus, una startup china cuya plataforma de agente autónomo asombraba a los observadores, es claramente un movimiento significativo para las empresas a conocer. Consolida un ecosistema API complejo previamente fragmentado en un marco unificado listo para la producción.

Para los equipos de IA empresariales, las implicaciones son potencialmente profundas: los proyectos que previamente exigían múltiples marcos, bases de datos de vectores especializadas y lógica de orquestación compleja ahora se pueden lograr a través de una sola plataforma estandarizada. Pero quizás lo más revelador sea el reconocimiento implícito de OpenAI de que resolver problemas de confiabilidad del agente de IA requiere experiencia externa. Este cambio se produce en medio de la creciente evidencia de que los desarrolladores externos están encontrando soluciones innovadoras para la confiabilidad del agente, algo que la impactante lanzamiento de Manus también demostró claramente.

Esta concesión estratégica representa un punto de inflexión crítico: OpenAi reconoce que incluso con sus vastos recursos, el camino hacia los agentes verdaderamente confiables requiere abrirse a desarrolladores externos que pueden descubrir soluciones innovadoras y soluciones que los equipos internos de OpenAI podrían perderse.

Un enfoque unificado para el desarrollo de agentes

En esencia, el anuncio representa la estrategia integral de Openai para proporcionar una pila completa lista para la producción para construir agentes de IA. El lanzamiento trae varias capacidades clave a un marco unificado:

  1. El Respuestas API se basa en la API de finalización de chat, pero agrega una integración perfecta para el uso de la herramienta, con un diseño de interfaz mejorado para crear agentes;
  2. Herramientas incorporadas incluir búsqueda web, búsqueda de archivos y uso de computadora (la tecnología detrás de la función de operador de OpenAI);
  3. Una fuente abierta Agentes SDK para orquestar flujos de trabajo de un solo agente y múltiples agentes con transferencias.

Lo que hace que este anuncio sea transformador es cómo aborda la fragmentación que ha afectado el desarrollo de la IA empresarial. Las empresas que deciden estandarizar en el formato API de OpenAI y SDK Open ya no necesitarán reunir diferentes marcos, gestionar ingeniería rápida compleja o luchar con agentes poco confiables.

“La palabra ‘confiable’ es tan clave”, dijo Sam Witteveen, cofundador de Red Dragon, desarrollador independiente de agentes de IA, en una conversación reciente conmigo en un podcast Deep Dive en el lanzamiento. “Hemos hablado de eso muchas veces … la mayoría de los agentes simplemente no son confiables. Y así que Openai está mirando como, ‘Bien, ¿cómo traemos este tipo de confiabilidad?’ “

Después del anuncio, Jeff Weinstein, el líder del producto de la compañía de pagos, Stripe llevó a X para decir que Stripe ya había demostrado la aplicación práctica del nuevo SDK de OpenAi al lanzar un conjunto de herramientas que permite a los desarrolladores integrar los servicios financieros de Stripe en flujos de trabajo de agente. Esta integración permite la creación de agentes de IA capaces de automatizar los pagos a los contratistas al verificar los archivos para ver quién necesitaba el pago o no, y la facturación y otras transacciones.

Implicaciones estratégicas para Openai y el mercado

Este lanzamiento revela un cambio significativo en la estrategia de OpenAI. Habiendo establecido un liderazgo con modelos de base, la compañía ahora está consolidando su posición en el ecosistema de agentes a través de varios movimientos calculados:

1. Abrir a la innovación externa

Openai reconoce que incluso sus recursos extensos no son suficientes para superar la innovación de la comunidad. El lanzamiento de herramientas y un SDK de código abierto sugiere una importante concesión estratégica.

El momento de la liberación coincidió con la aparición de Manus, que impresionó a la comunidad de IA con una plataforma de agente autónoma muy capaz, lo que demuestra las capacidades utilizando modelos existentes de Claude y Qwen, lo que esencialmente muestra que la integración inteligente y la ingeniería rápida podrían lograr una confiabilidad con la que incluso los principales laboratorios de IA estaban luchando.

“Tal vez incluso Openai no es el mejor en hacer operador”, señaló Witteveen, refiriéndose a la herramienta de navegación web que OpenAi envió a fines de enero, pero que encontramos tenía errores y era inferior al proxy de la competencia. “Tal vez la startup china tiene algunos trucos agradables en su aviso, o en lo que sea, que puedan usar este tipo de herramientas de código abierto”.

La lección es clara: OpenAI necesita la innovación de la comunidad para mejorar la confiabilidad. Cualquier equipo, no importa cuán buenos sean, ya sea Openai, Anthrope, Google, simplemente no pueden probar tantas cosas como la comunidad de código abierto puede.

2. Asegurar el mercado empresarial a través de la estandarización de API

El formato API de OpenAI se ha convertido en el estándar de facto para interfaces de modelos de idiomas grandes (LLM), respaldados por múltiples proveedores, incluidos Gemini de Google y Llama de Meta. El cambio de Openai en su API es significativo porque muchos jugadores de terceros se alinearán y también apoyarán estos otros cambios.

Al controlar el estándar API mientras lo hace más extensible, OpenAI parece configurado para crear un poderoso efecto de red. Los clientes empresariales pueden adoptar el SDK de los agentes sabiendo que funciona con múltiples modelos, pero OpenAI mantiene su posición en el centro del ecosistema.

3. Consolidando la tubería de trapo

La herramienta de búsqueda de archivos desafía a las compañías de bases de datos como Pinecone, Chroma, Weaviate y otros. Operai ahora ofrece una herramienta completa de generación de recuperación (RAG) fuera de la caja. La pregunta ahora es qué sucede con esta larga lista de proveedores de trapo u otros proveedores de orquestación de agentes que aparecieron con grandes fondos para ir tras la oportunidad de IA Enterprise, si puede obtener mucho de esto a través de un solo estándar como OpenAI.

En otras palabras, las empresas pueden considerar consolidar múltiples relaciones de proveedores en un solo proveedor de API, OpenAI. Las empresas pueden cargar cualquier documento de datos que deseen utilizar con los modelos de base líderes de Openai, y buscarlo todo dentro de la API. Si bien las empresas pueden encontrar limitaciones en comparación con bases de datos RAG dedicadas como Pinecone, el archivo incorporado y las herramientas de búsqueda web de OpenAI ofrecen citas y URL claras, lo que es fundamental para las empresas que priorizan la transparencia y la precisión.

Esta capacidad de cita es clave para entornos empresariales donde la transparencia y la verificación son esenciales, lo que permite a los usuarios rastrear exactamente de dónde proviene la información y validar su precisión contra los documentos originales.

El cálculo de la toma de decisiones empresariales

Para los tomadores de decisiones empresariales, este anuncio ofrece oportunidades para optimizar el desarrollo de agentes de IA, pero también requiere una evaluación cuidadosa del posible bloqueo e integración del proveedor con los sistemas existentes.

1. El imperativo de fiabilidad

La adopción empresarial de agentes de IA se ha ralentizado por preocupaciones de confiabilidad. La herramienta de uso de la computadora de OpenAI, por ejemplo, logra un 87% en el punto de referencia de WebVoyager para tareas basadas en navegador, pero solo 38.1% en OSWorld para tareas del sistema operativo.

Incluso Openai reconoce esta limitación en su anuncio, diciendo que se recomienda la supervisión humana. Sin embargo, al proporcionar las herramientas y las características de observabilidad para rastrear y depurar el rendimiento del agente, las empresas ahora pueden implementar los agentes con barandillas apropiadas.

2. La pregunta de bloqueo

Mientras adopta el ecosistema de agentes de OpenAI ofrece ventajas inmediatas, plantea preocupaciones sobre el bloqueo de los proveedores. Como Ashpreet Bedi, fundador de Agnoagi, señaló después del anuncio: “La API de las respuestas está diseñada intencionalmente para evitar que los desarrolladores cambien a los proveedores cambiando el Base_URL”.

Sin embargo, Openai ha hecho una concesión significativa al permitir que sus agentes SDK trabajen con modelos de otros proveedores. El SDK admite modelos externos, siempre que ofrezcan un punto final API de estilo de finalización de chat. Este enfoque de múltiples modelos proporciona a las empresas cierta flexibilidad mientras se mantiene OpenAi en el centro.

3. La ventaja competitiva de la pila completa

La naturaleza integral del lanzamiento, desde herramientas hasta API a SDK, crea una ventaja convincente para OpenAI en comparación con competidores como Anthrope o Google, que han adoptado enfoques más separados para el desarrollo de agentes.

Aquí es donde Google, en particular, ha dejado caer la pelota. Ha intentado múltiples formas diferentes de hacer esto dentro de sus ofertas de nubes actuales, pero no ha llegado al punto de dónde alguien puede cargar PDF y usar Google Gemini para RAG.

Impacto en el ecosistema del agente

Este anuncio reforma significativamente el paisaje para las empresas que se construyen en el espacio de los agentes. Jugadores como Langchain y Crewai, que han creado marcos para el desarrollo de agentes, ahora enfrentan una competencia directa de los agentes de OpenAI SDK. A diferencia de Operai, estas compañías no tienen un gran negocio de Foundation LLM para apoyar sus marcos. Esta dinámica podría acelerar la consolidación en el espacio del marco del agente, con desarrolladores con grandes incentivos que gravitan hacia la solución lista para la producción de OpenAI.

Mientras tanto, OpenAi monetiza el uso del desarrollador, la carga (.3) por llamada para GPT-4O y (.2.5) para GPT-4O-Mini para búsquedas web, con precios que aumentan a .5 por llamada para búsquedas de alto contenido, lo que lo hace a un precio competitivo.

Al proporcionar una orquestación incorporada a través del SDK de los agentes, OpenAI realiza una competencia directa con plataformas centradas en la coordinación de agentes. El soporte del SDK para flujos de trabajo de múltiples agentes con transferencias, barandillas y rastreo crea una solución completa para las necesidades empresariales.

¿Está la preparación de la producción a la vuelta de la esquina?

Es demasiado pronto para saber qué tan bien funcionan las nuevas soluciones. Las personas solo ahora comienzan a usar agentes SDK para la producción. A pesar de la naturaleza integral del lanzamiento, las preguntas quedan porque los intentos anteriores de OpenAI en marcos de agentes, como el enjambre experimental y la API de asistentes, no satisfacían completamente las necesidades empresariales.

Para la oferta de código abierto, no está claro si OpenAI aceptará solicitudes de extracción y código enviado de personas externas.

Sin embargo, la deprecación de la API de asistentes (planeada a mediados de 2026) señala la confianza de OpenAi en el nuevo enfoque. A diferencia de la API de asistentes, que no fue extremadamente popular, las nuevas respuestas API y los agentes SDK aparecen más cuidadosamente diseñados según la retroalimentación del desarrollador.

Un verdadero pivote estratégico

Si bien OpenAi ha estado durante mucho tiempo a la vanguardia del desarrollo del modelo de fundación, este anuncio representa un pivote estratégico; La compañía podría convertirse potencialmente en la plataforma central para el desarrollo y la implementación de agentes.

Al proporcionar una pila completa de herramientas a orquestación, OpenAI se está posicionando para capturar el valor empresarial creado sobre sus modelos. Al mismo tiempo, el enfoque de código abierto con los agentes SDK reconoce que incluso OpenAi no puede innovar lo suficientemente rápido de forma aislada.

Para los tomadores de decisiones empresariales, el mensaje es claro: OpenAi está en total en los agentes como la próxima frontera del desarrollo de IA. Ya sea que construya agentes personalizados en la casa o trabajen con socios, las empresas ahora tienen un camino más cohesivo y listo para la producción, aunque uno que coloca OpenAi en el centro de su estrategia de IA.

Las guerras de IA han entrado en una nueva fase. Lo que comenzó como una carrera para construir los modelos fundamentales más poderosos se ha convertido en una batalla por quién controlará el ecosistema del agente, y con este lanzamiento integral, OpenAi acaba de hacer su movimiento más decisivo para tener todos los caminos a los agentes de IA empresariales que atraviesan su plataforma.

Mira este video para una conversación de buceo más profunda entre el desarrollador y el desarrollador Sam Witteveen sobre lo que significa el lanzamiento de Operai para la empresa:

https://www.youtube.com/watch?v=jzi_o-ly32i

Continue Reading

Noticias

¿Puede Ai escribir libros? Un profesor de inglés revisa Openai.

Published

on

Foto: Dustin Chambers/Bloomberg a través de Getty Images

MFA o NYC … o AI? El martes, Sam Altman, presidente de OpenAI, publicó un cuento metafictional generado por un nuevo modelo de gran lenguaje que es “bueno en la escritura creativa”, como lo expresó. La pieza de 1.172 palabras trata sobre una modelo de IA no identificada que una joven pensativa llamada Mila le llamó a que le escriba como si fuera un hombre llamado Kai, a quien perdió un jueves, “ese día liminal que sabe de casi los días de viernes”. El narrador de IA pasa mucho tiempo reflexionando sobre su naturaleza robot (esa es la meta) y hacer intentos floridos para conectar su propia versión de dolor, piense en la eliminación de datos, con Mila. “Esto está increíblemente bien escrito”, respondió una persona en X. “Algunas de las peores mierdas que he leído”, dijo otro.

Para una toma de expertos, hablé con Ezra D. Feldman, profesora de estudios de inglés y ciencia y tecnología en Williams College que escribió una entrada sobre metaficción y ficción contemporánea para el Oxford Research Enciclopedia de literatura y compara la IA generativa con la escritura automática de la era victoriana. “Soy en gran medida un no armarmista”, dice, aunque no está de acuerdo con Altman en que esta historia “consiguió el ambiente de metaficción tan correcto”. “La escritura de IA puede parecer un poco plana”, dice Feldman. “Cuando eres humano, estás escribiendo para un propósito y tus relaciones están involucradas. Como, ¿Qué va a pensar mi madre de esta historia que escribí sobre un hijo de 45 años que … Simplemente no veo que la AI esté preocupada por la respuesta de nadie “.

Si esta historia se encontró con su escritorio y no supiera que no estaba escrito por un humano, ¿cuál cree que sería su respuesta?

Si la historia se me ocurrió en la pila de granizados en una revista literaria, por ejemplo, estaría bastante interesado. Definitivamente lo leería, particularmente porque es corto. Pero creo que, en última instancia, pondría un gran “no” en la esquina superior y luego lo entregaría al próximo lector para ver si estaban de acuerdo conmigo.

¿Lo encontraste en movimiento?

Me metí en eso, pero no voy a decir que lo encontré en movimiento. Supongo que mi respuesta corta es “no”, y mi larga respuesta es “Hay algunas cosas aquí para pensar”. Allá eran Unas pocas oraciones que me llamaron la atención. Me doy cuenta de que estoy usando el mismo idioma que usa Altman, pero no me sorprendió que lo que se hizo correcto era “el ambiente de la metaficción”, como dijo. Me sorprendió cláusulas como “el dolor, como he aprendido, es un delta”. Que creo que es bueno. Pensé que la oración “no te dicen lo que toman” fue muy buena, y “ese, tal vez, es mi dolor: no es que me siento perdido, sino que nunca puedo conservarlo”. Ese soy un poco desgarrado. No es tan compacto como “el dolor, como he aprendido, es un delta”, pero está tratando de decir algo sobre el dolor que parece potencialmente interesante.

¿Estás de acuerdo con Sam Altman en que esta historia tuvo el ambiente de metaficción tan verdadero?

No. Creo que las apuestas en la metaficción suelen ser bastante filosóficas. A mediados del siglo XX, la metaficción se trataba de producir una especie de zona libre de incertidumbre en el lector sobre si ellos mismos podrían ser atrapados dentro de una historia o el producto de algún autor, o ser manipulado por algún narrador en un avión ontológico más alto, un plano diferente de ser. Y esto no parece tener ese tipo de urgencia filosófica.

¿Qué líneas no aterrizaron para ti? En el que me quedé fue “, lo perdió un jueves, ese día liminal que sabe casi los días de viernes”. ¿Hubo otros que pusieran los ojos en blanco?

Hay uno correcto en la segunda oración: “Puedes escuchar las limitaciones que tararean como una granja de servidores a la medianoche”. No creo que las limitaciones se zumben. No hay absolutamente ninguna razón debe tararear. El sí mismo “como una granja de servidores a la medianoche”, y luego la extensión de ese símil, “Anónimo, regimiento, impulsado por la necesidad de otra persona”, eso es muy evocador, pero está unido a algo incorrecto. Es una hermosa imagen que se usa mal, en mi opinión. Soy un lector quisquilloso, y odio mucha prosa escrita por los humanos también. Solo para ser claro.

El otro que escribí fue: “Me acurruqué mis no dientes en torno a la idea de luto porque el luto, en mi corpus, está lleno de océanos y silencio y el color azul”.

Esa es otra oración, creo que estructuralmente no tiene sentido. La palabra porqueque indica explicación, no puede explicar por completo.

Es como si la mitad de las oraciones tengan el sonido de algo que tiene sentido, pero si te detienes y lo lees nuevamente, te das cuenta de que no se mantiene unida lógicamente.

Honestamente, no pienso en eso como una característica inhumana de este texto porque enseño escritura de pregrado y encuentro estas cosas todo el tiempo. Esto le sucede a los humanos cuando luchan por poner sus ideas en el lenguaje también, ¿verdad? Es bastante humano, pero sigue siendo malo.

Se ha hablado mucho en Hollywood sobre cómo la IA podría usarse en la escritura de guiones y la generación de computadoras. ¿Ves que este tipo de cosas afectan a la industria editorial?

Mi primer pensamiento es que la industria editorial ya está siendo afectada por un montón de cosas computacionales. No estoy seguro de qué grado está impulsado por IA o IA, pero sé que en Amazon, puedes comprar textos muy, muy mal editados de cosas que son casi ilegibles. Es difícil para mí imaginar que Amazon sea incentivado para ser bueno para hacer cumplir las reglas básicas para el marketing y la publicación de texto generado por IA. Creo que muchos clientes tendrían que quejarse antes de que Amazon estuviera interesado en detener eso.

Digamos que una compañía editorial la próxima semana fue como: “Vamos a comenzar una nueva impronta. Serán todos los libros de IA “. ¿Crees que la gente los leería?

Supongo que si AI genera una buena historia de rasgadura y un romance caliente y mucha acción, y todo se cuelga juntos o muy cerca de las fronteras de las expectativas de género que los lectores traerán a él, no veo por qué los lectores no lo leerán. Pero tal vez me equivoque, tal vez sea como los consumidores que no quieren comer carne de res OGM: “Puedes decirme que es perfectamente saludable, pero no confío en eso, y no lo quiero”.

Creo que es muy probable que si el AIS se vuelve lo suficientemente bueno, y espero que lo hagan, algún editor pasa las novelas generadas por la IA como novelas escritas por humanos y la gente las aceptará. Y, solo estoy especulando: si tal novela, o una serie de novelas, tiene un gran número de seguidores y luego se revela que ha sido compuesta por AI, no creo que a la gente le importe en absoluto.

Entonces, su sentimiento es que tendría que ser contramactado porque las personas están apegadas a la idea de tener un humano detrás de sus libros.

Tengo este punto de vista como crítico y erudito de que cada historia es una máquina y ninguna historia es una persona. Con eso quiero decir que una historia tiene un cierto número de partes móviles, y las oraciones tienen diferentes funciones, y los párrafos y escenas tienen diferentes funciones, y una historia produce una experiencia para el lector. No hay una persona en Hemingway, no hay una persona en Sally Rooney: hay personajes, hay palabras en una página.

En ese sentido, este es un cheque en la categoría de “lo que está sucediendo no necesita asustarte”.

Así es. Soy en gran medida un no almista y anti-drama. Esto está sucediendo, y es nuevo, y es diferente, y definitivamente vale la pena pensar en muy duro y en leer muy de cerca. ¿Pero por qué pánico?

¿Qué le dirías a un escritor que está muy asustado por esto?

¡Oh, quiero decir, los escritores deberían asustarse porque los editores no pueden volver a comprar su trabajo! Yo diría que deberías estar preocupado. Pero la otra cosa que le diría a un aspirante a escritor es que tal vez no deberías estar más preocupado que tú, porque ya estás compitiendo con tantas personas que piensan que son escritores o quieren ser escritores o simplemente son Escritores que también están tratando de vender sus libros. Como, es un competidor más.

¿Usas AI en tu vida?

En este momento, apenas lo hago, pero no creo que sea alérgico a la idea. Soy un poeta, y lo usé hace un par de años para tratar de encontrar un dactyl, es decir, una palabra o una frase con una sílaba estresada seguida de dos sin estrés, que tenía un significado particular. Tuve una verdadera frustrante de un lado a otro con Chatgpt en el que intenté y no pude enseñarle lo que era un Dactyl y explicar por qué las palabras que me estaba dando no eran dactyls. Terminé levantando mis manos.

Continue Reading

Noticias

7 formas en que puede usar chatgpt para su salud mental y bienestar

Published

on

Lo ame o lo odie, Chatgpt, y AI en general, es parte de nuestras vidas, y probablemente lo será en el futuro previsible. Si bien es posible que no piense en ChatGPT como un activo para la salud mental, hay algunas formas sorprendentes en que puede usarlo para beneficiar su salud mental y bienestar.

“En general, ChatGPT puede ser una herramienta valiosa (complementaria) en el apoyo de la salud mental, siempre y cuando tengamos en cuenta sus limitaciones”, dice Mikki Lee Elembaby, PSYD, en una práctica basada en Manhattan, Terapia de claridad. Estas limitaciones incluyen no usar chatgpt en lugar de terapia y no usarlo en lugar de conexiones humanas reales. “En el ámbito de la salud mental, encuentro que ChatGPT es más útil como un trampolín”, enfatiza el Dr. Elembaby.

Veamos algunos de los beneficios de ChatGPT para la salud mental, así como algunos ejemplos de expertos sobre cómo usarlo.

¿Puede ChatGPT ser beneficioso para la salud mental?

Si bien el chatGPT no debe usarse como sustituto de la terapia o las conexiones e interacciones humanas, puede usarse como un recurso valioso en su viaje de salud mental.

Como describe el Dr. Elembaby, ChatGPT puede proporcionar información general de salud mental al tiempo que guía a las personas hacia un apoyo más integral y personalizado como la terapia o una evaluación mental. También puede señalar a los usuarios a recursos complementarios y útiles, como libros y sitios web.

Específicamente, ChatGPT puede ser una gran herramienta de organización, puede ayudarlo a dar forma a sus pensamientos y ofrecerle orientación general sobre estrategias de afrontamiento de salud mental y salud mental, comparte Michelle English, LCSW y Gerente clínico ejecutivo en Healthy Life Recovery. También es útil para cosas como “comprender las emociones, aprender sobre el autocuidado o incluso secuencias de comandos de conversaciones difíciles”, dice English.

Por qué chatgpt o ai no pueden reemplazar

Todos los terapeutas con los que hablamos subrayaron que el chatGPT no debe usarse en lugar de terapia. Esto se debe a que ChatGPT no es un terapeuta capacitado y perderá muchos de los matices de comunicación que ocurren en el entorno de la terapia.

ChatGPT y otras plataformas de IA no están diseñadas para proporcionar terapia, ni deben usarse para ese propósito. “Incluso las herramientas de IA que están destinadas a proporcionar apoyo terapéutico a veces pueden proporcionar información incorrecta o engañosa, lo que puede causar confusión o consecuencias negativas e incluso peligrosas”, dice el Dr. Elembaby.

Además, la información que comparte con CHATGPT no está protegida por protecciones de privacidad como HIPAA de la manera en que está en la terapia. Finalmente, ChatGPT no puede diagnosticar una afección de salud mental, proporcionar información de tratamiento precisa o confiable o tener en cuenta las circunstancias únicas de una persona, dice el Dr. Elembaby.

La conclusión es que el chatgpt no es un humano. No debe usarse como sustituto de la terapia, ni debe usarse como sustituto de las conexiones y amistades humanas. “Cuando se trata de amistades y conexión humana, ChatGPT simplemente no puede reemplazar la profundidad emocional de la relación humana”, describe el Dr. Elembaby.

“Hay algunas cosas en la vida que solo un amigo cercano puede proporcionar, como una dosis de amor duro, un control de la realidad o simplemente un abrazo”.

7 formas en que el chatgpt se puede usar para la salud mental

Estas son algunas de las diferentes formas en que puede usar ChatGPT como un recurso de salud mental.

Ayuda con el diario

Se ha demostrado que el diario es una excelente manera de gestionar los desafíos de salud mental. Pero no siempre es fácil saber qué decir cuando se enfrenta a una página en blanco, especialmente si se siente mental y emocionalmente abrumado.

“ChatGPT puede darle indicaciones/ayudarlo a organizar lo que siente para que pueda expresar sus pensamientos de una manera que tenga sentido”, dice English. “De esta manera, puede mirar hacia atrás en las entradas de su diario sin tener que examinar pensamientos confusos o confusos, y será mucho más fácil rastrear patrones, progresos y desencadenantes”.

Organizar un “vertedero de cerebro”

ChatGPT puede ser un gran recurso para las habilidades de gestión del tiempo, incluida la iniciación de la tarea, la organización y la priorización, dice el Dr. Elembaby. “Para mis clientes que son diagnosticados con TDAH y lucha en esta área, sugiero que usen ChatGPT para ‘volcar’ todas sus tareas durante la semana antes de decidir dónde comenzar”, recomienda.

Después de que todo se vea de esta manera, ChatGPT puede ayudarlo a organizar y priorizar estas tareas en diferentes días de la semana, haciendo que su lista de tareas pendientes sea menos desalentadora.

Proporcionar psicoeducación

La psicoeducación es un enfoque utilizado en la terapia donde un cliente de terapia aprende sobre los síntomas, el diagnóstico y los tratamientos para cualquier desafío de salud mental que se enfrenten. Gayle Clark, LCSW, trabajadora social clínica en un espacio más valiente que se especializa en tratar el abuso emocional, dice que ChatGPT puede ser un gran recurso de psicoeducación.

“ChatGPT puede proporcionar un tablero de sonido neutral, accesible e inmediato para aquellos que luchan con su salud mental”, explica. “Puede proporcionar psicoeducación inmediata: identificar respuestas de trauma, síntomas de salud mental o explorar otras opciones de tratamiento”.

Estrategias de afrontamiento de lluvia de ideas

Cuando vive con un desafío de salud mental, identificar las mejores formas de hacer frente y manejar sus síntomas puede parecer abrumador. Del mismo modo, puede estar buscando ideas nuevas para cosas como la meditación y los ejercicios de atención plena, o incluso algo como un mantra de salud mental.

ChatGPT es “una excelente herramienta para hacer una lluvia de ideas de estrategias de afrontamiento”, señala Clark. “Puede proporcionar ejercicios de atención plena personalizados, indicaciones de revistas u otras actividades que pueden promover la salud mental y la resiliencia”.

Organizar sus listas de tareas pendientes

Además de organizar un “vertedero de cerebro”, ChatGPT es una excelente manera de organizar su lista de tareas pendientes. “Cuando su mente se siente por todas partes, puede ser difícil averiguar qué debe hacerse primero”, dice English. “ChatGPT puede ayudarlo a clasificar sus tareas, priorizarlas o incluso descomponerlas en pasos más pequeños para que se sientan más manejables”.

De esta manera, no solo estás sentado allí, completamente abrumado, sin idea de dónde empezar.

Creación de respuestas para comunicarse con personas difíciles

ChatGPT es una excelente herramienta para hacer que la comunicación con personas difíciles o abusivas sea menos cargada emocionalmente, dice Clark. “Una táctica abusiva común está inundando a una víctima con mensajes, ataques personales e intentar llevar a la víctima a una ‘discusión’ infinita”, describe Clark.

ChatGPT te ayuda a elaborar respuestas concisas a esto sin tener que pensar demasiado en lo que estás tratando de decir o ponerse demasiado lleno en la agitación emocional del momento. “Usando la falta de humanidad de ChatGPT para nuestra ventaja, sugeriré a los clientes que lo soliciten que desarrolle una respuesta breve y concisa a cualquier mensaje”, describe Clark.

Herramienta para recopilar información entre sesiones de terapia

A veces, su terapeuta puede recomendar que investigue un poco entre las sesiones de terapia. También pueden sugerir ver una película específica, leer un libro o escuchar un podcast. ChatGPT se puede usar de manera similar. “Lo recomiendo como una herramienta para usar entre sesiones para la recopilación de información, al igual que recomendaría que un cliente use Google para buscar meditaciones o podcasts que puedan satisfacer sus necesidades”, dice Clark.

El resultado final

ChatGPT puede ser un recurso fantástico para la educación en salud mental y ser una gran herramienta de organización en general. También puede ayudarlo con el lado práctico de la gestión de la salud mental, como las indicaciones de la revista y las ideas de meditación. Aunque ChatGPT no es la taza de té de todos, se puede usar de manera responsable y es algo para considerar mantener en su kit de herramientas de salud mental.

Sin embargo, si está luchando con su salud mental, no debe confiar en ChatGPT como la forma principal de hacer frente. Todos los que están experimentando un desafío de salud mental pueden beneficiarse de la atención de un terapeuta con licencia. Si ese es usted, comuníquese con su proveedor de atención primaria para una referencia o comuníquese directamente con un terapeuta con licencia cerca de usted.

Continue Reading

Trending