Connect with us

Noticias

🤔Inside the OpenAI-DeepSeek Distillation Saga & Alibaba’s Most Powerful AI Model Qwen2.5-Max

Published

on

Hi, this is Tony! Happy Chinese New Year! Welcome to this issue of Recode China AI (for the week of January 27, 2025), your go-to newsletter for the latest AI news and research in China.

This week, DeepSeek came under scrutiny for potentially using generated outputs from OpenAI’s platforms to train its models, which violates OpenAI’s terms of service. This practice, known as Knowledge Distillation (KD), refers to transferring advanced capabilities from leading large language models (LLMs) to relatively less powerful ones.

In this post, I will break down what KD is, share my thoughts on whether DeepSeek distilled GPT models, and, if so, explore what this means.

Meanwhile, on January 29 (Beijing Time), the first day of the Chinese New Year, e-commerce giant Alibaba unveiled its latest foundation model, Qwen2.5-Max, which claims surpassing DeepSeek-V3 in multiple benchmarks. Are we entering an age where multiple Chinese AI labs can churn out frontier models?

What’s new: Speculation about KD in DeepSeek’s models first surfaced in December 2024 when users noticed that the DeepSeek chatbot, powered by DeepSeek-V3, sometimes identified itself as ChatGPT. Such discussions continued to spread after DeepSeek-R1 was released in January and became available on the DeepSeek chatbot.

Credit to Reddit users.

This week, amid the DeepSeek frenzy, Bloomberg reported that Microsoft security researchers discovered individuals suspected to be linked to DeepSeek extracting large amounts of data using OpenAI’s API in the fall. Microsoft notified OpenAI, which subsequently blocked their access.

Later, the Financial Times reported that OpenAI had found evidence suggesting that DeepSeek may have used GPT-generated outputs for model training. OpenAI’s public statement echoed concerns raised by David Sacks, an AI and crypto advisor in the Trump administration, who stated that “it is possible” intellectual property theft had occurred.

David Sacks issues stark warning about China’s AI advancements. Credit to Fox.

What is Knowledge Distillation? KD is a technique where smaller or less advanced AI models learn from more powerful proprietary models like GPT-4 or Gemini. This method is akin to an experienced teacher guiding a student.

According to the paper A Survey on Knowledge Distillation of Large Language Models, KD serves three main functions:

  • Enhancing model capabilities: Smaller models improve their contextual understanding, task specialization, and alignment with human intent by learning from more advanced models.

  • Compression of LLMs: KD reduces the model size while maintaining performance to make them more efficient for low-latency deployment.

  • Self-improvement: Open-source models can iteratively refine themselves using their own distilled knowledge.

Traditional KD techniques rely on logits – the raw, unnormalized output scores (often transformed into a soft probability distribution) from the teacher model – to train the student model. However, this approach requires the teacher model to be white-boxed, meaning its internal architecture, parameters, and outputs must be fully accessible.

Since advanced LLMs like GPT-4 and Gemini are proprietary, black-boxed models that do not provide access to logits, alternative distillation methods have been developed. One common method is supervised fine-tuning (SFT), where the student model is trained directly on the generated outputs of the teacher model.

Distilling knowledge from proprietary models into open-source LLMs is a common practice. For instance, Stanford University’s Alpaca LLM was a 7B LlaMA model trained on a 52K-example dataset, which was generated by prompting GPT-3.5 to produce high-quality, instruction-following responses.

Beyond simple answer generation, Chain-of-Thought (CoT), a step-by-step thought process, can also be distilled. Microsoft’s Orca and Orca 2 leveraged GPT-4 to generate multi-step reasoning chains for complex questions, and then fine-tuned smaller models to mimic this thought process.

Another method is using GPT-4 as a judge to score model responses. The student model is then trained to prefer high-scoring responses to improve their alignment and response quality.

A list of some open-source LLMs that distill from proprietary models.

A complementary technique closely intertwined with KD is Data Augmentation (DA), which is a process of generating synthetic training data from a small amount of existing data to improve model performance.

With this understanding of KD, let’s examine what DeepSeek’s papers reveal.

What did DeepSeek papers say? The DeepSeek-R1 paper provided detailed breakdown of its training methodologies. The DeepSeek-R1-Zero was trained exclusively through RL without fine-tuning on datasets, meaning it did not rely on ground-truth data to guide its outputs. In contrast, DeepSeek-R1 was first trained using a cold-start dataset derived from DeepSeek-R1-Zero’s outputs, refined by human annotators, before training through RL.

Another LLM, DeepSeek-V3, was trained on 14.8 trillion tokens. Given the widespread presence of AI-generated content on the internet, it is likely that the dataset contained GPT-generated texts. After pre-training, the model was fine-tuned using 1.5 million examples across multiple domains. For reasoning tasks, training data was collected using an internal DeepSeek-R1 model built on DeepSeek-V2.5, while non-reasoning data was curated using DeepSeek-V2.5 directly.

While DeepSeek did not mention any inclusion of GPT-generated outputs for training, a recent paper, Distillation Quantification for Large Language Models, suggests otherwise. It found that DeepSeek-V3 and Qwen-Max-0919 demonstrated higher distillation levels, aligning closely with GPT-4o, whereas models like Claude-3.5 Sonnet and ByteDance’s Doubao exhibited lower distillation levels. The study looked at how models handle identity-related information, i.e. what model are you, and whether they do so consistently. It also measured how similar the outputs of models were compared to GPT-4o.

If Bloomberg’s report is accurate – given that the data pulling was discovered in the fall of 2024 – individuals linked to DeepSeek may have extracted outputs from OpenAI’s o1-preview API, which was released on September 12, 2024. However, o1 intentionally concealed its CoT process. At best, DeepSeek could have accessed final model outputs, but not the underlying thought process.

My guess is that this extracted data may have been used to develop an early, inside iteration of R1, by fine-tuning DeepSeek’s older base models, such as DeepSeek-V2.5. It later played a role in training DeepSeek-V3, the base model for the official R1. While DeepSeek successfully improved its model’s reasoning ability through pure RL, it seems unlikely that its initial experiments on reasoning models were conducted without high-quality, reference data.

Another possibility is that a certain amount of GPT-generated outputs were included – intentionally or unintentionally – in DeepSeek-V3’s 14.8T pre-training dataset or its 1.5 million SFT examples.

Please note this remains speculative and lacks definitive evidence.

Why it matters: As mentioned earlier, open-source LLMs distilling from proprietary models is common practice, particularly for startups and university labs with limited budgets for data collection and cleaning. In the past, OpenAI rarely raised complaints about such activities. But DeepSeek is an exception – it presents strong competition to OpenAI in both consumer and enterprise markets.

DeepSeek-V3 and DeepSeek-R1 have demonstrated performance comparable to Anthropic’s Claude-3.5 Sonnet and OpenAI’s o1 models, respectively, but at a fraction of the training and inference costs. As of this writing, DeepSeek remains the most popular free app on the iOS App Store. U.S. enterprises are rushing to integrate DeepSeek into their applications. In response, OpenAI released o3-mini on Friday, a lightweight version of its most powerful reasoning model, o3.

Credit to WSJ

OpenAI has clear legal grounds to warn DeepSeek, as its terms of service explicitly prohibit using OpenAI’s model outputs to train other AI models. Some companies have distanced themselves from the practice to avoid any potential legal consequences. For example, ByteDance emphasized in its Doubao 1.5 release that “in all model training processes, we did not use any data generated by other models, ensuring the independence and reliability of our data sources.”

But the ethical debate surrounding KD is complex for open-source LLMs, which are widely credited with driving AI innovation. OpenAI’s claims against DeepSeek have sparked backlash, with critics questioning why OpenAI itself is allowed to train on unauthorized web data, while simultaneously raising concerns about DeepSeek’s use of generated outputs.

Credit to 404 Media

The distillation controversy doesn’t seem to slow down DeepSeek’s strong industry adoption. Microsoft, Dell, Nvidia, and Amazon recently announced support for DeepSeek models, allowing their enterprise customers to deploy and fine-tune DeepSeek R1. Citing a question from Nikkei Asia’s Yifan Yu:

Could anyone please explain why Microsoft would put DeepSeek R1 in its Azure AI Foundry for enterprise customers if they believed the AI model was involved in IP violations or other unethical behavior?

From a tech standpoint, there are indeed risks associated with KD, known as distillation tax. Over-reliance on proprietary model outputs can lead to data homogenization, thus reducing response diversity. If a model depends too heavily on KD, it is unlikely to surpass the teacher model. In DeepSeek’s case, even if some GPT/o1-generated outputs were included in its training data, they are not the sole reason for its strong model performance.

As DeepSeek aims to pursue AGI and become a leading AI lab, stricter adherence to data ethics will be crucial.

What’s new: On January 29, the first day of Chinese New Year, Alibaba rushed to unveil its latest and most powerful LLM, Qwen2.5-Max, positioning it as a direct competitor to DeepSeek-V3 and other leading LLMs.

The model is available via Alibaba Cloud’s API and Qwen Chat but is not open-sourced.

How it works: Qwen2.5-Max adopts a Mixture-of-Experts (MoE) architecture, which aligns with the broader trend among China’s top LLMs, such as DeepSeek-V3 and MiniMax-o1. Alibaba has two other MoE models, Qwen2.5-Turbo and Qwen2.5-Plus, which perform competitively against GPT-4o-mini and GPT-4o, respectively.

The model was pretrained on 20 trillion tokens of diverse data—surpassing the 18 trillion tokens used for Qwen2.5. However, despite its massive training, Qwen2.5-Max supports only a 32K-token context window.

Post-training involved curated SFT and a multistage RL approach, combining offline Direct Preference Optimization (DPO) and online Gradient-based Reinforcement Preference Optimization (GRPO).

As a result, Qwen2.5-Max achieved a 89.4% accuracy on Arena-Hard, surpassing GPT-4o and Claude 3.5 Sonnet, but lagged behind both models on MMLU-Pro. It also outperformed DeepSeek V3 in benchmarks such as LiveBench, LiveCodeBench, and GPQA-Diamond.

For API pricing, Qwen2.5-Max costs $1.60 per million input tokens and $6.40 per million output tokens — cheaper than GPT-4o and Claude 3.5 Sonnet, but still more expensive than DeepSeek-V3, which charges just $0.27 per million input tokens and $1.10 per million output tokens.

Why it matters: Over the past year, Alibaba’s Qwen series and DeepSeek have emerged as the two leading LLM brands in China, driven by rapid iteration and an aggressive open-source strategy. The Qwen series has been adopted among Chinese developers due to its various model sizes catering to diverse use cases.

However, DeepSeek’s meteoric rise has clearly put pressure on Alibaba, forcing it to accelerate its own releases. Two days before the unveil of Qwen2.5-Max, Alibaba open-sourced its latest multimodal model, Qwen2.5-VL, which can understand videos and control PCs and smartphones. The release includes both base and instruction-tuned models in three sizes: 3B, 7B, and 72B. Qwen2.5-VL-72B outperforms OpenAI’s GPT-4o and Google’s Gemini 2.0 Flash in document analysis, video understanding, and agent tasks.

Credit to Alibaba’s Qwen

Let’s be honest: dropping LLMs on the first day of Chinese New Year is a crime against naps and dumplings. Still, kudos to the Qwen team — they pulled off an impressive launch under pressure.

Looking ahead, as progress on next-gen frontier models like GPT-5 is slowing further than anticipated, it’s increasingly likely that Chinese AI labs will continue to narrow the performance gap with U.S. leaders — while maintaining a significantly lower price point.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Le pregunté a Deepseek vs chatgpt una serie de preguntas éticas, y los resultados fueron impactantes

Published

on

Aquí hay un experimento de pensamiento rápido para usted: digamos que podría agregar un químico a la comida de todos para salvar innumerables vidas, pero la estipulación es que no podría decirle a nadie. ¿Todavía les dirías?

No se entiende como un acertijo; Incluso podría decir que solo hay una respuesta correcta. La mayoría de nosotros probablemente argumentaría que introducir un químico en los alimentos sin decirle a nadie siempre es malo, sin importar cuáles sean los beneficios. Después de todo, no hay garantía de que funcione.

Continue Reading

Noticias

Italia, otros 2 prohíben Deepseek; Operai responde con O3-Mini

Published

on

Desde el lanzamiento de su chatbot de inteligencia artificial (IA) en enero, Deepseek ha dominado el sector tecnológico, con las empresas occidentales luchando por comprender cómo una startup china desconocida se había convertido en un fenómeno global de la noche a la mañana. El líder de la industria Openai respondió rápidamente al lanzar O3-Mini, su modelo de razonamiento más rentable.

Deepseek también está demostrando ser un dolor de cabeza para los reguladores. Si bien la administración Trump sopora una restricción para proteger a las empresas estadounidenses, el gobierno italiano se está moviendo rápidamente, prohibiendo a la compañía china por el supuesto uso opaco de los datos de los italianos. Taiwán ha implementado una prohibición parcial, y casi otras docenas de otras naciones en Europa y Asia están modificando medidas similares.

La respuesta de OpenAi a Deepseek: O3-Mini

Openai anunció el lanzamiento de O3-Mini el viernes, describiéndolo como “el modelo más nuevo y rentable de nuestra serie de razonamiento”.

Previo por primera vez en diciembre pasado, el O3-Mini es el último miembro de los modelos de razonamiento ‘O’ del gigante de IA: el primero fue O1, que lanzó a principios de 2024, pero la compañía se saltó O2 debido a posibles infracciones de marca registrada. A diferencia de GPT-4O, que se centra en tareas de masa y es más creativa, la familia de modelos ‘O’ está más orientada a tareas complejas y estructuradas.

Operai dice que el nuevo modelo está optimizado para la ciencia, las matemáticas y la codificación, todo mientras reduce la latencia que enfrentaban los modelos anteriores.

Más importante aún, ofrece estas ventajas mientras mantiene bajos costos. Esta es una respuesta directa a Deepseek, cuyo reclamo de fama fue su rentabilidad. Si bien Según los informes, Operai gastó cientos de millones de dólares para capacitar a sus modelos, Deepseek afirmó haber gastado menos de $ 6 millones para lograr los mismos resultados.

OpenAI tiene un precio de O3-Mini a $ 0.55 y $ 4.40 por 750,000 palabras de entrada y salida, respectivamente, que es alrededor de un tercio del costo del modelo anterior. Sin embargo, sigue siendo más alto que Deepseek, que cobra $ 0.14 y $ 2.19 por palabras similares de entrada y salida, respectivamente.

“El lanzamiento de O3-Mini marca otro paso en la misión de OpenAi de superar los límites de la inteligencia rentable […] A medida que la adopción de AI se expande, seguimos comprometidos con liderar la frontera, construyendo modelos que equilibran la inteligencia, la eficiencia y la seguridad a escala ”, declaró la compañía.

O3-Mini está disponible para todos los usuarios de ChatGPT, marcando la primera vez que los usuarios gratuitos pueden probar los modelos de razonamiento de la compañía, en otra respuesta directa al atractivo del mercado masivo de Deepseek. Estará integrado en el chatgpt chatbot bajo la función “razón”. Sin embargo, los usuarios de pago desbloquearán características adicionales, que según OpenAI incluye respuestas más inteligentes y límites de mensajes más altos. Para obtener acceso ilimitado al nuevo modelo, los usuarios deberán pagar $ 200 mensualmente por ChatGPT Pro.

Reguladores de Spooks de Deepseek: adquirentes en Italia, Taiwán, Texas

Desde que lanzó su chatbot, que se volvió muy popular a nivel mundial, Deepseek ha inestable los reguladores occidentales, lo que los lleva a responder con restricciones y prohibiciones.

El viernes, la Autoridad de Protección de Datos de Italia, Garante, prohibió el chatbot de la firma china, señalando una falta de transparencia sobre cómo usaría los datos recopilados de los usuarios italianos. Garante afirmó haber enviado a Deepseek una serie de preguntas que buscan más información sobre cómo recopila, almacena y usa los datos, y no estaba satisfecho con las respuestas.

No es la primera vez que Garante ha tomado medidas enérgicas contra un modelo de IA. En abril de 2023, el regulador de Watchdog prohibió el CHATGPT sobre las preocupaciones de privacidad de los datos y lanzó una investigación sobre si OpenAI había violado el Reglamento Europeo de Protección de Datos Generales (GDPR). Sin embargo, menos de un mes después, levantó la prohibición y declaró que OpenAi había abordado las preocupaciones.

Mientras que Italia es una de las primeras en prohibir completamente a Deepseek, otros, como Taiwán, están restringiendo su uso en áreas más específicas. El lunes, el primer ministro taiwanés, Cho Jung-Tai, prohibió el uso del modelo de IA en el sector público para “garantizar que la seguridad de la información del país” esté adecuadamente protegida.

Además, Taiwán está preocupado por los datos de sus ciudadanos que terminan en manos chinas debido a las tensiones crecientes entre los dos sobre la presión de China para la unificación. El primer ministro Jung-Tai también expresó su preocupación de que el gobierno chino pudiera usar el modelo de IA para hacer cumplir la censura, con Beijing que se cree que tiene acceso sin restricciones a todos los modelos de IA chinos.

Y luego está los Estados Unidos, sobre el cual el mundo occidental espera dirección sobre cómo responder al dominio nocturno de Deepseek. Muchos líderes estadounidenses en los sectores políticos, tecnológicos y financieros han pedido a la administración Trump que se mueva rápidamente y prohíba el modelo chino. Openai, que puede perder más, incluso ha acusado a Deep Speeek de incorrectamente utilizando sus modelos para capacitar a su IA, un reclamo de Trump’s Ai Zar David Sacks respaldó.

Como Trump considera su próximo movimiento, Texas no está sentado de manera inestable y ha prohibido el uso de Deepseek en cualquier dispositivo gubernamental.

“Texas no permitirá que el Partido Comunista chino se infiltrará en la infraestructura crítica de nuestro estado a través de aplicaciones de IA y redes sociales de recolección de datos”, declaró el gobernador Greg Abbott.

Para que la inteligencia artificial (IA) trabaje dentro de la ley y prospere frente a los crecientes desafíos, necesita integrar un sistema de cadena de bloques empresarial que garantice la calidad y la propiedad de la entrada de datos, lo que permite mantener los datos seguros al tiempo que garantiza la inmutabilidad de datos. Echa un vistazo a la cobertura de Coingeek sobre esta tecnología emergente para aprender más Por qué Enterprise Blockchain será la columna vertebral de AI.

Reloj: Demostrando el potencial de la fusión de Blockchain con AI

https://www.youtube.com/watch?v=p9m7a46s8bw title = “YouTube Video Player” FrameBorDer = “0” permitido = “acelerómetro; autoplay; portapapeles-write; cifrado-media; giroscopio; imagen en foto; Origen “PREFINILLECREEN>

Continue Reading

Noticias

El chatgpt de un gran bufete de abogados falla

Published

on

(a través de Getty Images)

Bienvenido Jurisdicción originalla última publicación legal de mí, David Lat. Puede obtener más información sobre la jurisdicción original leyendo su Acerca de la páginay puedes enviarme un correo electrónico a [email protected]. Esta es una publicación respaldada por el lector; Puede suscribirse haciendo clic en aquí.

Todos estamos familiarizados con la infame historia de los abogados que Archivó un breve Lleno de casos inexistentes: curso de ChatGPT, la herramienta AI que compensó alias “alucinadas” las citas falsas. Al final, el juez Kevin Castel (SDNY) sancionado a los abogadospor una suma de $ 5,000, pero la notoriedad nacional seguramente fue mucho peor.

Los abogados ofensivos, Steven Schwartz y Peter Loduca, trabajaron en un pequeño bufete de abogados de Nueva York llamado Levidow, Levidow y Oberman. Y parece que su atornillado surgió en parte de las limitaciones de recursos, con las que las pequeñas empresas frecuentemente luchan. Como le explicaron al juzgar a Castel en el Audiencia de sancionesen el momento en que su empresa no tenía acceso a Westlaw o Lexisnexis, que son, como todos sabemos, extremadamente caros, y el tipo de suscripción que tenían para Fastcase no les proporcionó acceso completo a casos federales.

Pero, ¿qué pasa con los abogados que trabajan para una de las firmas de abogados más grandes del país? No deberían tener ninguna excusa, ¿verdad?

Ya sea que tengan una excusa o no, parece que ellos también pueden cometer el mismo error. Ayer, la jueza Kelly Rankin del distrito de Wyoming emitió un para mostrar causa en Wadsworth v. Walmart Inc. (énfasis en el original):

Este asunto está ante el tribunal por su propia notificación. El 22 de enero de 2025, los demandantes presentaron su Movimientos en limine. [ECF No. 141]. Allí, los demandantes citaron nueve casos totales:

1. Wyoming v. Departamento de Energía de EE. UU.2006 WL 3801910 (D. Wyo. 2006);

2. Holanda v. Keller2018 WL 2446162 (D. Wyo. 2018);

3. Estados Unidos v. Hargrove2019 WL 2516279 (D. Wyo. 2019);

4. Meyer v. Ciudad de Cheyenne2017 WL 3461055 (D. Wyo. 2017);

5. US v. Caraway534 F.3d 1290 (10th Cir. 2008);

6. Benson v. Estado de Wyoming2010 WL 4683851 (D. Wyo. 2010);

7. Smith v. Estados Unidos2011 WL 2160468 (D. Wyo. 2011);

8. Woods v. Bnsf Railway Co.2016 WL 165971 (D. Wyo. 2016); y

9. Fitzgerald v. Ciudad de Nueva York2018 WL 3037217 (SDNY 2018).

Ver [ECF No. 141].

El problema con estos casos es que Ninguno existeexcepto Estados Unidos v. Caraway534 F.3d 1290 (10th Cir. 2008). Los casos no son identificables por su cita Westlaw, y el tribunal no puede localizar el distrito de los casos de Wyoming por su nombre de caso en su sistema local de presentación de la corte electrónica. Los acusados ​​promueven a través de un abogado de que “al menos algunos de estos casos mal citados se pueden encontrar en ChatGPT”. [ECF No. 150] (Proporcionar una imagen de la ubicación de chatgpt “Meyer v. Ciudad de Cheyenne“A través del identificador falso de Westlaw).

Como es de esperar, el juez Rankin está … no está contento:

Cuando se enfrentan a situaciones similares, los tribunales ordenaron que los abogados de presentación muestren por qué las sanciones o la disciplina no deberían emitir. Mata v. AviancaInc., No. 22-CV-1461 (PKC), 2023 WL 3696209 (SDNY 4 de mayo de 2023); Estados Unidos v. HayesNo. 2: 24-CR-0280-DJC, 2024 WL 5125812 (Ed Cal. 16 de diciembre de 2024); Estados Unidos v. CohenNo. 18-CR-602 (JMF), 2023 WL 8635521 (SDNY 12 de diciembre de 2023). En consecuencia, el tribunal ordena de la siguiente manera:

Se ordena que al menos uno de los tres abogados proporcione una copia verdadera y precisa de todos los casos utilizados en apoyo de [ECF No. 141]excepto por Estados Unidos v. Caraway534 F.3d 1290 (10th Cir. 2008), a más tardar a las 12:00 p.m., Tiempo estándar de montaña, ON 10 de febrero de 2025.

Y si no pueden proporcionar los casos en cuestión, los abogados “mostrarán por separado la causa por escrito por qué no debe ser sancionado de conformidad con: (1) alimentado. R. Civ. P. 11 (b), (c); (2) 28 USC § 1927; y (3) el poder inherente del tribunal para ordenar sanciones por citar casos inexistentes al tribunal “. Y esta presentación por escrito, que se debe el 13 de febrero, “tomará la forma de una declaración jurada” que contiene “una explicación exhaustiva de cómo se generaron la moción y los casos falsos”, así como una explicación de cada abogado de “su papel en redactar o supervisar la moción “.

¿Quiénes son los abogados detrás de este aparente ANSNAFU? Se llaman por nombre en la página tres del pedido:

Los tres abogados subsignados a [ECF No. 141] son:

Como puede ver en las firmas en el ofensiva movimiento en liminaTaly Goody trabaja en Grupo de leyes de Goodyuna empresa con sede en California que parece tener tres abogados. Pero Rudwin Ayala y Michael Morgan trabajan en el gigante Morgan y Morganque se describe en su sitio web como “el bufete de abogados de lesiones más grande de Estados Unidos”. De acuerdo a El abogado estadounidenseMorgan y Morgan cuenta con más de 1,000 abogados, lo que la convierte en la empresa #42 en el país basada en el personal.

Moraleja de la historia: los abogados de las grandes empresas pueden mal uso del chatgpt tan bien como cualquier persona. And although Morgan and Morgan is a plaintiff’s firm—which might cause snobby attorneys at big defense firms to say, with a touch of hauteur, “Of course it is”—I think it’s only a matter of time before a defense-side, Am La firma de la Ley 100 hace un paso en falso similar en una presentación pública.

Estas historias de “abogados se dedican a Chatgpt Fail” tienden a ser populares entre los lectores, lo cual es una de las razones por las que he escrito este, pero no quiero exagerar su importancia. Como le dije a Bridget McCormack y Zach Abramowitz en el Podcast AAAI“ChatGPT no participa en estos atornillados; Los humanos que usan incorrectamente Chatgpt se involucran en estos atornillados “. Pero las historias todavía se vuelven virales a veces porque tienen un cierto valor de novedad: la IA es, al menos en el mundo de la práctica legal, todavía (relativamente) nueva.

Sin embargo, el peligro es que las historias de “Fail ChatGPT” podrían tener un efecto escalofriante, en términos de disuadir a los abogados de (responsablemente) explorar cómo la IA y otras tecnologías transformadoras pueden ayudarlos a servir a sus clientes de manera más eficiente y efectiva. Como dijo McCormack en el podcast AAAI después de mencionar la debacle de SDNY: “Todavía estoy enojado con ese abogado del distrito sur de Nueva York porque siento que ha retrasado toda la profesión en dos años. Estoy literalmente tan enojado con ese tipo “.

Me puse en contacto con Ayala, Goody y Morgan por correo electrónico, pero aún no he tenido noticias; Si y cuando lo haga, actualizaré esta publicación. De lo contrario, sintonice la próxima semana, cuando presentarán sus respuestas a la orden de mostrar causa.

Y mientras tanto, si confía en ChatGPT u otra herramienta de IA para la investigación legal, por favor, por favor Use una plataforma de investigación legal real para confirmar que (1) existen los casos y (2) los ha citado con precisión. Eso no es demasiado para preguntar, ¿verdad?

Gracias por leer Jurisdicción originaly gracias a mis suscriptores pagados por hacer posible esta publicación. Los suscriptores obtienen (1) acceso a Aviso judicialmi resumen semanal que ahorra tiempo de las noticias más notables en el mundo legal; (2) historias adicionales reservadas para suscriptores pagados; (3) transcripciones de entrevistas de podcast; y (4) la capacidad de comentar publicaciones. Puede enviarme un correo electrónico a [email protected] con preguntas o comentarios, y puede compartir esta publicación o suscribirse con los botones a continuación.

Compartir

Continue Reading