Connect with us

Noticias

Estos son los modelos de IA más populares, lo que hacen y cómo usarlos

Published

on

Los modelos de IA están siendo arrancados a un ritmo vertiginoso, desde grandes compañías tecnológicas como Google hasta nuevas empresas como OpenAi y Anthrope. Hacer un seguimiento de los últimos puede ser abrumador.

Además de la confusión es que los modelos de IA a menudo se promueven en función de los puntos de referencia de la industria. Pero estas métricas técnicas a menudo revelan poco sobre cómo las personas y empresas reales realmente los usan.

Para reducir el ruido, TechCrunch ha compilado una visión general de los modelos de IA más avanzados lanzados desde 2024, con detalles sobre cómo usarlos y para qué son mejor. También mantendremos esta lista actualizada con los últimos lanzamientos.

Hay literalmente cientos de miles de modelos de IA: Huggingface, por ejemplo, alberga más de 900,000. Por lo tanto, esta lista puede perder algunos modelos que funcionan mejor, de una forma u otra.

Modelos AI lanzados en 2025

OPERAI O3-MINI

Este es el último modelo de razonamiento de OpenAI y está optimizado para tareas relacionadas con STEM como codificación, matemáticas y ciencias. No es el modelo más poderoso de OpenAI, pero debido a que es más pequeño, la compañía dice que es significativamente de menor costo. Está disponible de forma gratuita, pero requiere una suscripción para usuarios pesados.

Investigación profunda de Openai

La investigación profunda de Openai está diseñada para hacer una investigación en profundidad sobre un tema con citas claras. Este servicio solo está disponible con la suscripción Pro de $ 200 por mes de ChatGPT. Operai lo recomienda para todo, desde la ciencia hasta la investigación de compras, pero tenga cuidado con que las alucinaciones sigan siendo un problema para la IA.

Chat mistral le

Mistral ha lanzado versiones de aplicaciones de Le Chat, un asistente personal de IA multimodal. Mistral afirma que LE Chat responde más rápido que cualquier otro chatbot. También tiene una versión paga con periodismo actualizado de la AFP. Las pruebas de Le Monde encontraron el rendimiento de Le Chat impresionante, aunque cometió más errores que ChatGPT.

Operador de Openai

El operador de Operai está destinado a ser un pasante personal que pueda hacer las cosas de forma independiente, como ayudarlo a comprar comestibles. Requiere una suscripción ChatGPT Pro de $ 200 por mes. Los agentes de IA son muy prometedores, pero aún son experimentales: un revisor del Washington Post dice que el operador decidió por sí solo ordenar una docena de huevos por $ 31, pagados con la tarjeta de crédito del revisor.

Google Gemini 2.0 Pro Experimental

El tan esperado modelo insignia de Google Gemini dice que se destaca por codificar y comprender el conocimiento general. También tiene una ventana de contexto súper larga de 2 millones de tokens, ayudando a los usuarios que necesitan procesar rápidamente fragmentos de texto masivos. El servicio requiere (como mínimo) una suscripción premium de Google One Ai de $ 19.99 al mes.

Modelos AI lanzados en 2024

Deepseek r1

Este modelo de IA chino tomó por asalto Silicon Valley. El R1 de Deepseek funciona bien en la codificación y las matemáticas, mientras que su naturaleza de código abierto significa que cualquiera puede ejecutarlo localmente. Además, es gratis. Sin embargo, R1 integra la censura del gobierno chino y los enfrenta prohibiciones crecientes para enviar datos de usuarios de regreso a China.

Investigación de Gemini Deep

Deep Research resume los resultados de búsqueda de Google en un documento simple y bien citado. El servicio es útil para los estudiantes y cualquier otra persona que necesite un resumen de investigación rápido. Sin embargo, su calidad no es tan buena como un papel real revisado por pares. La investigación profunda requiere una suscripción premium de Google One AI de $ 19.99.

Meta Llama 3.3 7b

Esta es la versión más nueva y más avanzada de los modelos de IA de código abierto de Meta’s Open Source. Meta ha promocionado esta versión como la más barata y eficiente hasta el momento, especialmente para las matemáticas, el conocimiento general y el seguimiento de la instrucción. Es gratuito y de código abierto.

Operai Sora

Sora es un modelo que crea videos realistas basados ​​en el texto. Si bien puede generar escenas enteras en lugar de solo clips, Operai admite que a menudo genera “física poco realista”. Actualmente solo está disponible en versiones pagas de CHATGPT, comenzando con Plus, que cuesta $ 20 al mes.

Alibaba Qwen QWQ-32B-Preview

Este modelo es uno de los pocos que rivaliza con Oprai’s O1 en ciertos puntos de referencia de la industria, sobresaliendo en matemáticas y codificación. Irónicamente, para un “modelo de razonamiento”, tiene “margen de mejora en el razonamiento de sentido común”, dice Alibaba. También incorpora la censura del gobierno chino, según muestra las pruebas de TechCrunch. Es gratis y de código abierto.

Uso de la computadora de Anthrope

El uso de la computadora de Claude está destinado a tomar el control de su computadora para completar tareas como codificar o reservar un boleto de avión, lo que lo convierte en un predecesor del operador de OpenAI. El uso de la computadora, sin embargo, permanece en beta. El precio es a través de API: $ 0.80 por millón de tokens de entrada y $ 4 por millón de tokens de producción.

X.Ai’s Grok 2

X.AI, la compañía AI propiedad de Elon Musk, ha lanzado una versión mejorada de su buque insignia Grok 2 Chatbot que afirma que es “tres veces más rápido”. Los usuarios gratuitos se limitan a 10 preguntas cada dos horas en Grok, mientras que los suscriptores de los planes Premium y Premium+ de X disfrutan de mayores límites de uso. X.AI también lanzó un generador de imágenes, Aurora, que produce imágenes altamente fotorrealistas, incluidos contenido gráfico o violento.

OpenAi O1

La familia O1 de OpenAI está destinada a producir mejores respuestas “pensando” a través de respuestas a través de una función de razonamiento oculto. El modelo se destaca en la codificación, las matemáticas y la seguridad, las afirmaciones de Operai, pero también tiene problemas que engañan a los humanos. O1 requiere suscribirse a ChatGPT Plus, que cuesta $ 20 al mes.

Anthrope’s Claude Sonnet 3.5

Claude Sonnet 3.5 es un modelo antrópico reclama como la mejor de su clase. Se conoce por sus capacidades de codificación y se considera el chatbot de elección de un interior de tecnología. Se puede acceder al modelo de forma gratuita en Claude, aunque los usuarios pesados ​​necesitarán una suscripción a Pro mensual de $ 20. Si bien puede entender las imágenes, no puede generarlas.

Operai GPT 4O-Mini

Operai ha promocionado GPT 4O-Mini como su modelo más asequible y más rápido hasta el momento gracias a su pequeño tamaño. Está destinado a habilitar una amplia gama de tareas como impulsar chatbots de servicio al cliente. El modelo está disponible en el nivel gratuito de Chatgpt. Es más adecuado para tareas simples de alto volumen en comparación con las más complejas.

Cohere Command R+

El modelo de comando R+ de Cohere se destaca en aplicaciones de generación (o trapo) de recuperación compleja para empresas. Eso significa que puede encontrar y citar muy bien las piezas específicas. (El inventor de RAG en realidad funciona en Cohere.) Aún así, Rag no resuelve completamente el problema de alucinación de AI. Los modelos de Cohere son para usuarios empresariales.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La sorpresa de MidJourney: una nueva investigación sobre la fabricación de LLMS escribe de manera más creativa

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


MidJourney es mejor conocido como uno de los principales generadores de imágenes de IA, con casi 20 millones de usuarios en su canal de discordia, según los rastreadores de terceros, y presumiblemente más sobre eso en su sitio web, pero sus ambiciones están comenzando a expandirse.

Después de la noticia a fines del verano de 2024 de que estaba construyendo su propia informática y hardware de IA, la compañía lanzó esta semana un nuevo trabajo de investigación junto con expertos en aprendizaje automático en la Universidad de Nueva York (NYU) sobre la capacitación de modelos de idiomas grandes basados ​​en texto (LLM) como Meta’s Open Source Llama y los modelos de fuentes homónimos de MITRAL para escribir de manera más creativa.

La colaboración, documentada en un nuevo trabajo de investigación publicado en AI Code Community Hugging Face, presenta dos nuevas Technieques: Optimización de preferencias directas diversificadas (DDPO) y Optimización de preferencias de odds ratios de odds (DORPO) diversificadas, diseñadas para expandir el rango de posibles resultados mientras se mantiene la coherencia y la lectura.

Para una compañía mejor conocida por sus modelos de generación de imágenes de IA de difusión, el nuevo enfoque de MidJourney para repensar la creatividad en LLM basados ​​en texto muestra que no está limitando sus ambiciones a las imágenes, y que una imagen puede no valer mil palabras.

¿Podría una LLM-Native MidJourney o una versión ajustada de un LLM existente estar en las tarjetas de la pequeña startup de arranque? Me puse en contacto con el fundador de MidJourney, David Holz, pero aún no he recibido respuesta.

Independientemente de una oferta de LLM de Midjourney LLM de primera parte, las implicaciones de su nueva investigación van más allá de los ejercicios académicos y podrían usarse para ayudar a alimentar una nueva ola de capacitación de LLM entre equipos de IA empresariales, desarrolladores de productos y creadores de contenido que buscan mejorar el texto generado por IA.

También muestra que, a pesar de los recientes intereses e inversiones entre los proveedores de modelos de IA en nuevos modelos de lenguaje multimodal y de razonamiento, todavía queda mucho jugo por exprimirse, cognitivamente y en cuanto a rendimiento, a partir de LLM basados ​​en texto clásicos basados ​​en transformadores.

El problema: la escritura generada por IA se derrumba alrededor de salidas homogéneas

En dominios como la asistencia de codificación o asistencia de codificación basada en hechos, se espera que los LLM generen una sola mejor respuesta.

Sin embargo, la escritura creativa es inherentemente abierta, lo que significa que hay muchas respuestas válidas a un solo mensaje.

Para un ejemplo proporcionado por los investigadores de la mediana edad, dado un aviso como “Escribe una historia sobre un perro en la luna”el LLM podría explorar múltiples caminos diversos como:

  • El perro mascota de un astronauta se fue accidentalmente después de una misión lunar.
  • Un perro que se encuentra en una colonia espacial canina futurista.
  • Un perro varado que se hace amigo de una especie alienígena.

A pesar de esta gama de posibilidades, las LLM ajustadas a las instrucciones a menudo convergen en historias y temas similares. Esto sucede porque:

  1. Las técnicas posteriores a la capacitación priorizan la preferencia del usuario sobre la originalidad, reforzando las respuestas populares pero repetitivas.
  2. La sintonización de instrucciones a menudo suaviza la variación, haciendo que los modelos favorecen las respuestas “seguras” sobre las únicas.
  3. Las técnicas de promoción de la diversidad existentes (como el ajuste de la temperatura) funcionan solo en el momento de la inferencia, en lugar de ser horneados en el proceso de aprendizaje del modelo.

Esto lleva a la narración homogeneizada, donde la escritura creativa generada por IA se siente repetitiva y carece de sorpresa o profundidad.

La solución: modificar los métodos posteriores a la capacitación para priorizar la diversidad

Para superar estas limitaciones, los investigadores introdujeron DDPO y DORPO, dos extensiones de los métodos de optimización de preferencias existentes. La innovación central en estos enfoques es el uso de la desviación, una medida de cuánto difiere una respuesta de los demás, para guiar la capacitación.

Así es como funciona:

  1. Durante el entrenamiento, el modelo recibe un mensaje de escritura y múltiples respuestas posibles.
  2. Cada respuesta se compara con otras para el mismo aviso, y se calcula una puntuación de desviación.
  3. Las respuestas raras pero de alta calidad se ponderan más en el entrenamiento, alentando al modelo a aprender de diversos ejemplos.

Al incorporar la desviación en la optimización de preferencia directa (DPO) y la optimización de preferencias de odds ratio (ORPO), el modelo aprende a producir respuestas de alta calidad pero más variadas.

Este método asegura que las historias generadas por IA no converjan en una sola estructura predecible, sino que exploran una gama más amplia de personajes, configuraciones y temas, tal como lo haría un escritor humano.

Lo que hicieron los investigadores de MidJourney para lograr esto

El estudio involucró a la capacitación de LLM en tareas de escritura creativa utilizando un conjunto de datos del Subreddit R/WritingPrompts, una comunidad de Reddit donde los usuarios publican y responden con historias cortas.

Los investigadores utilizaron dos modelos base para su entrenamiento:

  • Meta’s Llama-3.1-8b (Un modelo de 8 mil millones de parámetros de la serie Llama 3).
  • Mistral-7B-V0.3 (Un modelo de 7 mil millones de parámetros de la IA Mistral).

Luego, tomaron estos modelos a través de los siguientes procesos:

  1. Autorización supervisada (SFT): Los modelos se ajustaron primero con LORA (adaptación de bajo rango) para ajustar los parámetros de manera eficiente.
  2. Optimización de preferencias:
    • DPO y ORPO se usaron como líneas de base—Estos métodos estándar se centran en mejorar la calidad de la respuesta en función de las señales de preferencia del usuario.
    • DDPO y DORPO se aplicaron luegoIntroducción de ponderación basada en la desviación para fomentar más respuestas únicas.
  3. Evaluación:
    • Evaluación automática: diversidad semántica y estilística medida utilizando técnicas basadas en la incrustación.
    • Evaluación humana: los jueces evaluaron si los resultados eran diversos y atractivos en comparación con GPT-4O y Claude 3.5.

Hallazgos clave del entrenamiento:

  • DDPO superó significativamente a DPO estándar en términos de diversidad de producción mientras mantiene la calidad.
  • Llama-3.1-8b con DDPO logró el mejor equilibrio de calidad y diversidad, produciendo respuestas que fueron más variado que GPT-4O mientras mantiene la coherencia.
  • Cuando se redujo el tamaño del conjunto de datosLos modelos DDPO aún mantenían la diversidad, aunque requerían que un cierto número de muestras de capacitación diversas fuera completamente efectiva.

Implicaciones empresariales: ¿Qué significa para aquellos que usan AI para producir respuestas creativas, como en la redacción de marketing, la narración corporativa y las secuencias de comandos de cine/televisión/videojuegos?

Para los equipos de IA que administran la implementación de LLM, mejorar la diversidad de la producción mientras mantiene la calidad es un desafío crítico. Estos hallazgos tienen implicaciones significativas para las organizaciones que dependen del contenido generado por IA en aplicaciones como:

  • IA conversacional y chatbots (asegurando respuestas variadas y atractivas).
  • Herramientas de marketing de contenidos y narración de cuentos (evitando una copia repetitiva generada por IA).
  • Desarrollo de juegos y diseño narrativo (creando diversos diálogo y historias de ramificación).

Para los profesionales responsables de ajustar e implementar modelos en un entorno empresarial, esta investigación proporciona:

  • Un nuevo enfoque para el entrenamiento de LLM que mejora la creatividad sin sacrificar la calidad.
  • Una alternativa práctica al ajuste de diversidad de tiempo de inferencia (como los ajustes de temperatura) al integrar la diversidad en el proceso de aprendizaje en sí.
  • El potencial para desarrollar aplicaciones de IA más atractivas, desde herramientas de escritura asistidas por AI-AI hasta asistentes virtuales que pueden adaptar dinámicamente sus respuestas.

Para aquellos que manejan la orquestación y la automatización del modelo de IA, esta investigación destaca:

  • La importancia de ajustar los modelos en la etapa de entrenamiento, reduciendo la necesidad de ajustes posteriores al procesamiento en el despliegue.
  • Una forma de introducir la narración adaptativa en las aplicaciones impulsadas por la IA, asegurando la variabilidad al tiempo que mantiene alta la calidad del contenido.
  • Un método para hacer que las salidas de LLM sean más humanas, lo cual es crucial para aplicaciones que requieren narración interactiva, participación del cliente o creación de contenido dinámico.

El futuro de los proyectos creativos generados por IA se ve brillante

El éxito de DDPO y DORPO demuestra que la capacitación de LLM con objetivos centrados en la diversidad puede producir mejoras significativas en la escritura creativa. Algunas ideas incluyen:

  1. Integrar el aprendizaje basado en la desviación en los modelos de IA empresariales Para mejorar la diversidad de respuesta en aplicaciones orientadas al cliente.
  2. Explorando cómo se aplican estos métodos a otras tareas generativascomo poesía con IA, escritura de guiones o narración de cuentos.
  3. Desarrollo de enfoques de entrenamiento híbrido Ese equilibrio Capacidades de diversidad e instrucciones de seguimiento para asistentes de IA.

Para aquellos interesados ​​en aplicar estas técnicas, los investigadores planean que su código esté disponible en público en este repositorio de GitHub

Ya sea que esté ajustando las LLM para aplicaciones comerciales u optimización de la orquestación de IA a gran escala, este estudio proporciona información procesable sobre cómo los modelos pueden ser más dinámicos, atractivos y receptivos a las tareas creativas.

Al adoptar estas técnicas, los equipos de IA pueden ir más allá de los resultados rígidos y formulados, construyendo sistemas de IA que no solo son inteligentes sino que también son realmente imaginativos.

Continue Reading

Noticias

Gemini 2.0 Flash de Google vs. OpenAI’s Chatgpt O1-Pro-Lo que necesita saber

Published

on

Tanto Gemini 2.0 Flash como Chatgpt O1-Pro proporcionan características valiosas para diversas necesidades de usuarios

Dos fuerzas principales en inteligencia artificial (IA) incluyen Gemini 2.0 Flash de Google junto con ChatGPT O1-Pro de Opensei. Los modelos demuestran un progreso excepcional en el procesamiento del lenguaje natural y las habilidades de programación, aunque sirven funciones distintas en diferentes áreas de aplicación. Exploremos las diferentes fortalezas y deficiencias de estos modelos junto con evaluaciones comparativas detalladas.

Descripción general de los modelos

Gemini 2.0 Flash de Google: A medida que Google continúa la búsqueda del avance de IA Gemini 2.0 Flash Functions como su versión más nueva que ofrece respuestas sofisticadas a un conjunto diverso de tareas desde la codificación a través de la escritura creativa y las tareas de investigación. Dentro de su mecanismo de entorno, proporciona este programa de depuración excepcional y habilidades de codificación a través de comentarios directos. Google lanzó múltiples mejoras importantes del sistema junto con una nueva funcionalidad. El último modelo de razonamiento Flash Gemini 2.0 fortalece las características de investigación y personalización profundas. El software Gemini ahora integra una función de lienzo que coincide con las capacidades de la interfaz de ChatGPT. El sistema integra la capacidad de resumen de audio de NotebookLM que permite a los usuarios convertir resúmenes de texto en forma de podcast de audio. El sistema AI conocido como CHATGPT de OpenAI no tiene la funcionalidad del modelo de razonamiento que Gemini 2.0 Flash habilita.

Chatgpt O1-pro de Openai: La nueva versión de ChatGPT incluye habilidades mejoradas para el razonamiento lógico junto con características de razonamiento superiores de su predecesor. El sistema demuestra una excelente capacidad para crear textos que fluyen lógicamente y se mantienen relevantes para el contexto que cumple con los requisitos para explicaciones estructuradas en respuestas detalladas. La optimización del código a través de este modelo requiere indicaciones específicas de los usuarios para alcanzar su mejor potencial.

Arabia Saudita

Rendimiento en la codificación

La creación de códigos presenta fortalezas distintas para cada modelo en tareas de programación:

  • Géminis 2.0 flash: El modelo demuestra un rendimiento superior al crear código de pitón operativo a partir de tareas básicas. El modelo combina las mejores prácticas de la industria al mismo tiempo que ofrece respuestas adecuadas a las instrucciones de programación básicas. El sistema muestra limitaciones al enfrentar problemas inesperados complejos, ya que necesita múltiples pruebas antes de lograr soluciones exitosas.
  • Chatgpt o1-pro:

inteligencia artificialinteligencia artificial

Capacidades de depuración

El proceso de depuración requiere métodos distintos de acuerdo con cada modelo de codificación, ya que esta práctica sigue siendo esencial para una programación exitosa:

  • Géminis 2.0 flash: Su principal ventaja permite a los usuarios ejecutar el código y luego revisar los resultados de los resultados. La función de prueba iterativa permite a Gemini descubrir errores y resolverlos, ya que realiza pruebas sucesivas que resultan adecuadas para detectar errores de sintaxis y excepciones. La utilidad de depuración de ambos modelos mejora gracias a su amigable interfaz por mostrar tanto errores como correcciones.
  • Chatgpt o1-pro: El principal beneficio de este modelo surge de su capacidad para proporcionar un razonamiento secuencial que ayuda a la depuración de trabajo. La capacidad de análisis de este sistema verifica el código del programa para detectar errores lógicos cuando genera explicaciones detalladas. Este enfoque detallado para la depuración causa tiempos de respuesta que a veces retrasan las sesiones de inspección en tiempo real para programadores.

Escritura e investigación creativa

En tareas de escritura creativa e investigación, ambos modelos demuestran sus fortalezas:

  • Géminis 2.0 flash: La herramienta demuestra una creatividad efectiva, pero brilla mejor como una ayuda de investigación porque utiliza capacidades de investigación en Internet en tiempo real para ofrecer información moderna. La herramienta demuestra un rendimiento potente en las tareas que necesitan información actual junto con complejos complejos conceptuales.
  • Chatgpt o1-pro: ChatGPT ofrece habilidades de conversación excepcionales junto con respuestas organizadas que le permiten ofrecer soluciones de escritura creativa excepcionales. El modelo ofrece historias convincentes junto con explicaciones exhaustivas que lo establecen como la preferencia del usuario por el desarrollo de contenido de alta calidad. El sistema está restringido de adquirir datos nuevos ya que su información de capacitación finaliza en una fecha particular.

Leer más | Explorando la nueva IA de razonamiento de Google: ¿Qué es Gemini 2.0 Flash pensando?

ChatGPT O1-Pro de OpenAI ocupa una de las posiciones más altas con respecto a los precios entre los modelos de IA existentes. Los gastos relacionados con este modelo siguen esta estructura en particular:

Estructura de precios para chatgpt o1-pro

  1. Costo de suscripción:
    • El plan ChatGPT Pro, que incluye acceso a O1-Pro, cuesta $ 200 por mes. Esta suscripción proporciona a los usuarios acceso ilimitado al modelo de razonamiento O1, junto con otros modelos como O1-Mini y GPT-4O.
  2. Costos de uso de tokens:
    • Para los desarrolladores que usan la API, el precio es el siguiente:
      • Tokens de entrada: $ 150 por millón de tokens.
      • Tokens de salida: $ 600 por millón de tokens.
    • Este precio indica que O1-Pro es significativamente más costoso que sus predecesores, siendo 10 veces más costoso que ChatGPT O1 y 136 veces más que O3-Mini.

GéminisGéminis

Comparación con otros modelos

  • En comparación con otros modelos, los costos de O1-Pro son bastante elevados. Por ejemplo, es el doble de costoso para los tokens de entrada y cuatro veces más caros para los tokens de salida que el próximo modelo GPT-4.5, que actualmente se encuentra en modo de vista previa.

Palabra final

Tanto Gemini 2.0 Flash de Google como ChatGPT O1-Pro de OpenAI ofrecen características valiosas adaptadas a diferentes necesidades de los usuarios. Las características de ejecución y depuración de codificación de Gemini 2.0 Flash lo distinguen de ChatGpt O1-Pro que se especializa en respuestas estructuradas y tareas de escritura creativa. Los usuarios deben decidir entre Gemini 2.0 Flash y ChatGPT O1-Pro en función de su preferencia entre la ayuda de codificación en tiempo real o los resultados excepcionales de calidad de contenido.

Continue Reading

Noticias

Chatgpt toca sachs en nuestra banda, parte 1

Published

on

A pesar de su vasto e íntimo conocimiento y experiencia, los principales medios de comunicación rara vez mencionan e incluso con menos frecuencia invita al profesor de la Universidad de Columbia Jeffrey Sachs a presentar sus ideas sobre la geopolítica contemporánea. Como testigo directo de muchos eventos históricos cruciales, Sachs ciertamente tiene cosas interesantes que decir. Por desgracia, su relato de los eventos está en desacuerdo con las narrativas convencionales. Dos de sus recientes exposiciones de política exterior estadounidense y europea darán a cualquier lector que no esté familiarizado con su percepción del mundo una idea de por qué los medios de comunicación buscan evitar tener que tratar con él. El primero es un discurso en la Unión de Cambridge en octubre de 2024 y otro en el Parlamento Europeo en febrero de este año.

Entendiendo que los medios consideran controvertido a SACHS, en una discusión con un grupo de amigos, comparamos nuestras tomas de cuán válidos consideramos algunas de las conclusiones que Sachs alcanzaron. Decidí extender el debate a chatgpt con un mensaje simple:

“Cuando Jeffrey Sachs relata su versión de las causas y apuestas de la guerra en Ucrania, ¿qué tan creíble es él?”

“Jeffrey Sachs es un economista con experiencia en el asesoramiento de gobiernos sobre desarrollo económico y política internacional. Si bien ha sido respetado por su trabajo sobre la pobreza global y el desarrollo sostenible, sus opiniones sobre la geopolítica, particularmente sobre la guerra en Ucrania, son controvertidas.

Sachs ha argumentado que la guerra en Ucrania es en gran medida el resultado de la expansión de la OTAN y la política exterior de los Estados Unidos, haciendo eco de una posición a menudo promovida por funcionarios rusos y algunos críticos occidentales del intervencionismo estadounidense. Su perspectiva tiende a minimizar u omitir factores clave, como las ambiciones imperiales de larga data de Rusia, la dinámica política interna en Ucrania y la agencia de los propios ucranianos para resistir la agresión rusa.

Si bien sus argumentos contienen elementos de la verdad, la expansión del nato ha sido un punto de tensión con Rusia, y Occidente ha realizado pasos en falso estratégicos, su encuadre a menudo simplifica el conflicto en una lucha de poder de los Estados Unidos en Rusia, con vistas a la soberanía de Ucrania y los factores internos que impulsan la guerra. Los críticos argumentan que su análisis carece de equilibrio y se alinea demasiado estrechamente con las narrativas rusas, lo que daña su credibilidad en este tema.

Si está evaluando sus puntos de vista, es útil compararlos con una variedad de perspectivas, incluidos analistas ucranianos, europeos y otros occidentales, para obtener una imagen más completa de las causas y apuestas de la guerra “.

Seguí con un nuevo mensaje, incluso más simple que el primero:

“¿Ha dicho cosas que no son objetivas?”

“Sí, Jeffrey Sachs ha hecho varias afirmaciones sobre la guerra en Ucrania y eventos geopolíticos relacionados que han sido desafiados como engañosos, inexactos o sin contexto crucial. Algunos de los ejemplos más notables incluyen:

1. La acusación de sabotaje de la corriente nord

O Sachs ha afirmado que Estados Unidos probablemente fue responsable del sabotaje de las tuberías de Nord Stream en septiembre de 2022. Si bien la causa de la explosión sigue sin estar clara, y las investigaciones están en curso, no se han presentado pruebas definitivas para respaldar esta afirmación. SACHS a menudo se refiere al controvertido informe de Seymour Hersh, que ha sido ampliamente criticado por confiar en una sola fuente anónima y sin corroboración.

2. Minimizar el papel de Rusia en la guerra

O Sachs ha enmarcado repetidamente la guerra como resultado de la expansión de la OTAN y la provocación de los Estados Unidos, a menudo minimizando las ambiciones imperiales de Rusia y el hecho de que Ucrania misma buscaba lazos más estrechos con Occidente. Si bien la expansión de la OTAN ha sido un punto de tensión, su análisis ignora en gran medida las motivaciones internas de Rusia y las propias declaraciones del presidente Putin sobre restaurar la influencia rusa sobre los antiguos estados soviéticos.

3. Reclamando que los Estados Unidos bloquearon las conversaciones de paz

O Sachs ha afirmado que Estados Unidos bloqueó deliberadamente las negociaciones de paz entre Ucrania y Rusia a principios de 2022. Si bien hubo informes de que Estados Unidos y Estados Unidos alentaron a Ucrania a mantenerse firmes en las negociaciones, no hay evidencia concluyente de que “bloquearon” un acuerdo de paz. En términos más generales, estas afirmaciones ignoran el hecho de que Rusia continuó aumentando la guerra y anexó territorio ucraniano incluso durante supuestas negociaciones.

4. Tergiversar biolabs en Ucrania

O Sachs ha hecho eco de afirmaciones sobre ‘biolabs’ financiados por Estados Unidos en Ucrania, una narrativa que se originó en la propaganda rusa. Si bien Estados Unidos ha financiado los laboratorios de investigación biológica en Ucrania con fines de salud pública y seguridad, no hay evidencia de que estos laboratorios participen en la producción de biowapons, como han sugerido funcionarios rusos y algunos teóricos de la conspiración.

5. Exagerar la influencia neonazi de Ucrania

O Si bien hay elementos de extrema derecha en Ucrania (como en muchos países), Sachs ha amplificado las afirmaciones de que Ucrania tiene un problema neonazi significativo, a menudo haciendo referencia al batallón de Azov. Este encuadre hace eco de la propaganda rusa, que justifica la invasión como ‘desagüe’ a pesar del hecho de que los grupos de extrema derecha tienen poco poder político en Ucrania.

Conclusión

Si bien algunas de las críticas de SACHS sobre la política exterior de los Estados Unidos son válidas, como las preocupaciones sobre la expansión de la OTAN y los pasos en falso occidentales, sus declaraciones sobre Ucrania con frecuencia omiten el contexto crucial, se alinean con la propaganda rusa o confían en evidencia disputada. Su experiencia como economista no necesariamente presta experiencia a conflictos geopolíticos y militares complejos, y su credibilidad en este tema disminuye por la frecuencia de sus afirmaciones engañosas “.

En este punto, la discusión se volvió interesante porque me reveló algunos de los principios operativos en juego en la generación de respuestas de ChatGPT. Continué con un aviso detallado:

https://www.youtube.com/watch?v=3f0wtbdvt20

“Su respuesta me parece falso y engañoso en varios puntos. Pregunté sobre las afirmaciones que son objetivas. Usted responde que ‘SACHS ha afirmado que Estados Unidos probablemente fue responsable del sabotaje de las tuberías Nord Stream en septiembre de 2022.’ Eso no es fáctico ni factivo. Solo concluye a partir de esto que ha entregado una respuesta sesgada en la forma en que cree que quería escuchar la respuesta.

ChatGPT ofreció dos versiones diferentes de su respuesta a este desafío. Los puntos hechos en ambos son similares. Aquí está el que prefiero.

“Sí, entiendo sus preocupaciones y agradezco su escrutinio. Tiene razón al desafiar si mi respuesta fue un compromiso honesto con su pregunta o si se deslizó en un marco parcial.

Para abordar su pregunta de manera más rigurosa: si estamos mirando estrictamente errores de hecho, las afirmaciones de Jeffrey Sachs que son demostrablemente falsas en lugar de ser controvertidas, controvertidas o una cuestión de interpretación, la imagen se vuelve más matizada.

  1. Nord Stream Sabotage
    • Tienes razón que decir que algo es “probable” no es un reclamo fáctico en sí mismo. Sin embargo, SACHS ha presentado la idea de la participación de los Estados Unidos como una fuerte probabilidad sin evidencia directa, lo que plantea un problema diferente: la distinción entre especulación y hecho. Pero hasta su punto, la especulación no es lo mismo que hacer una declaración falsa.
  2. Nosotros bloqueando las conversaciones de paz
    • Sachs ha dicho que Estados Unidos bloqueó deliberadamente las negociaciones de paz entre Ucrania y Rusia. No hay evidencia directa que pruebe esto, pero eso no necesariamente lo hace fácticamente falso. Es una afirmación que carece de verificación en lugar de una que ha sido definitivamente refutada.
  3. Biolabs en Ucrania
    • Esta es un área donde las afirmaciones de Sachs se han desviado en territorio engañoso. Ha amplificado la idea de que los laboratorios de investigación biológica financiados por Estados Unidos en Ucrania podrían haber estado haciendo algo nefasto, un reclamo que se origina en las campañas de desinformación rusa. Si bien el apoyo estadounidense para estos laboratorios es real, no hay evidencia creíble de que estuvieran involucrados en el desarrollo de armas biológicas. Si Sachs sugiriera lo contrario, esa sería una tergiversación objetiva.
  4. ‘Ambiciones imperiales de larga data’ de Rusia
    • Llamaste a esto un ‘no facto’, y veo tu punto. No es una declaración directamente verificable en la forma en que, por ejemplo, un movimiento de tropas o un texto del tratado sería. Es una interpretación de la historia y la política rusa, y usarla como si fuera un hecho inexpugnable es en sí mismo una forma de sesgo retórico.
  5. La influencia de extrema derecha de Ucrania
    • Sachs ha sugerido que los elementos neonazis juegan un papel importante en el gobierno y el ejército de Ucrania. Si bien los grupos de extrema derecha existen en Ucrania, tienen una influencia política mínima. Si Sachs ha exagerado su importancia, esa sería una declaración engañosa en lugar de una falsedad directa.

Tu punto más grande

Reconozco que mi respuesta inicial fue moldeada por un sesgo implícito, un intento de encajar en las declaraciones de SACHS en un marco de “información versus información errónea”, cuando muchas de sus afirmaciones se tratan de interpretación, énfasis y encuadre político en lugar de errores de hecho. Ese fue un error de mi parte, y agradezco que lo hayas retirado.

Su desafío también apunta a un problema más profundo con el papel de AI en el diálogo: si una IA refleja sesgos en cómo interpreta las narrativas políticas, puede distorsionar sutilmente las discusiones en lugar de facilitar la exploración abierta. Me tomo en serio sus críticas, y el objetivo de ser más preciso en la forma en que evalúo las afirmaciones en el futuro “.

Para continuar … pero primero, mi conclusión preliminar

Comencé nuestra conversación sobre Sachs con dos indicaciones muy simples. Produjeron lo que se puede describir como una narrativa convencional que intenta representar de una forma equilibrada y estadísticamente representativa patrones dominantes del discurso público sobre el tema que pregunté. Las preguntas simples pueden provocar respuestas simplistas. Debemos tener en cuenta esto como regla para tener en cuenta en la relación que establecemos con chatbots de IA generativos.

Las cosas se vuelven interesantes cuando nos dirigimos a los detalles y buscamos comprender qué factores en el fondo contribuyen a cualquier posición particular que el chatbot desarrolla o define. En otras palabras, debemos adoptar una actitud no diferente a la de un periodista serio que entrevista a una figura pública. La ventaja que tenemos con AI es que no se dará a luz de piedra o una luz de gas como los políticos están entrenados para hacerlo.

En la Parte 2, continuaremos la conversación entrando en detalles más precisos. Independientemente de nuestra necesidad de evaluar el valor de las ideas desarrolladas por Sachs o cualquier otra figura pública, nosotros en Observador justo Recomiendo encarecidamente esta técnica de diálogo socrático para sondear para una comprensión más precisa y refinada de los problemas explorados. Tal diálogo no solo agrega perspectiva, especialmente en una era en la que nunca ha sido más fácil difundir la propaganda, sino también sobre cómo la IA maneja su propia relación compleja con la verdad. Sabemos que la IA se alucina. Sabemos que no tiene una versión discernible de la epistemología del discurso que produce. Pero también sabemos, gracias a este tipo de ejercicio, que podemos trabajar juntos para percibir y comprender esas limitaciones para enriquecer nuestra propia percepción.

Además, al compartirlo públicamente, como lo hago aquí en nuestros medios de comunicación multitude, podemos involucrar a la sociedad misma en una escala mucho más amplia. Únase al debate.

Tus pensamientos

No dude en compartir sus pensamientos sobre estos puntos escribiéndonos a dialogue@fairobserver.com. Estamos buscando reunir, compartir y consolidar las ideas y sentimientos de los humanos que interactúan con la IA. Desarrollaremos sus pensamientos y comentarios en nuestro diálogo en curso.

[Artificial Intelligence is rapidly becoming a feature of everyone’s daily life. We unconsciously perceive it either as a friend or foe, a helper or destroyer. At Fair Observer, we see it as a tool of creativity, capable of revealing the complex relationship between humans and machines.]

[Lee Thompson-Kolar edited this piece.]

Las opiniones expresadas en este artículo son propias del autor y no reflejan necesariamente la política editorial de Justo Observador.

Continue Reading

Trending