Noticias
Apple, Meta, Nvidia y OpenAi: ¿Quién gana y pierde la lucha de Deepseek?
Published
3 meses agoon

Muchas preguntas todavía están girando esta mañana sobre las implicaciones de Deepseek, la nueva empresa china cuyas herramientas de IA impulsaron la caída del mercado de valores de ayer. ¿Es realmente tan bueno como los modelos fronterizos de código cerrado hechos por Operai y Google? ¿Deepseek realmente usó menos chips? ¿Le puse el trabajo de los jugadores de nosotros? Y si es tan bueno como algunos han sugerido, ¿cómo su aumento revuelve el software, el hardware y los sectores de energía? Desglosamos lo que sabemos, y aún no sabemos, en nuestro informe a continuación.
Además, Lauren Hirsch de Dealbook tiene una primicia sobre la continua evolución política de Mark Zuckerberg.
El éxito de $ 600 mil millones
Los futuros de acciones están mejorando después del baño de sangre de los mercados del lunes, ya que los inversores hacen un balance de lo que realmente significa la nueva empresa china que realmente significa para el negocio de inteligencia artificial.
El consenso emergente es que Deepseek, que parece haber construido un rival creíble para los gigantes tecnológicos estadounidenses mejor financiados con una fracción de sus recursos, ha volcado la carrera por la supremacía de IA. Apple y Meta podrían terminar siendo mejor posicionados de lo que se pensaba inicialmente, mientras que Nvidia podría no estar en una posición desastrosa.
AI rezagueo podría no estar tan atrasado como se creía anteriormente. Solo mira quién en el llamado magnífico grupo de siete grupos de gigantes tecnológicos estuvo el lunes. ¿Qué da?
La aparición de modelos de IA fácilmente disponibles y fácilmente disponibles podría significar que gastar decenas de miles de millones de dólares para desarrollar tales herramientas podría ser la estrategia incorrecta. Apple había sido criticado por no salir a arar sus riquezas para desarrollar su propia IA y Meta ha sido cuestionada sobre cómo sus modelos no se han vuelto tan populares como los de OpenAi y Google.
Satya Nadella de Microsoft sugirió el lunes que Deepseek significaba que el costo de usar AI estaba bajando, permitiendo su uso más extendido. Para Apple y Meta, que finalmente serán usuarios De la tecnología, eso es algo bueno.
El futuro de Nvidia es más nublado. La compañía perdió casi $ 600 mil millones en valor de mercado el lunes, ya que los inversores sopesaron si el modelo Deepseek mostró que las empresas no necesariamente necesitan cachés enormemente caros de sus chips para capacitar a los programas de IA.
Los chatbots y otros programas similares aún requieren toneladas de potencia de procesamiento, lo cual es una buena noticia para Nvidia. Pero la capacidad de la compañía para comandar precios súper altos para sus chips ya no es un hecho.
¿Qué pasa con Openai? La compañía detrás de ChatGPT ha recaudado sumas astronómicas de los inversores que apostan a que continuará con su liderazgo en el mercado.
Sam Altman, su CEO, fue magnánimo en la evaluación de Deepseek, llamando a su oferta de R1 que ofrece “un modelo impresionante, particularmente en torno a lo que pueden entregar por el precio”. Dicho esto, agregó que Operai “obviamente entregaría modelos mucho mejores”, y que tener más poder informático, como lo que su iniciativa Stargate debe proporcionar, aún sería importante.
Pero Josh Kushner de Thrive Capital, que llevó a la ronda de recaudación de fondos de $ 6.6 mil millones de Openai el año pasado, tuvo una versión más puntiaguda de las redes sociales:
Los tecnólogos de “Pro America” apoyan abiertamente un modelo chino que fue capacitado de los principales modelos de frontera estadounidense, con chips que probablemente violan los controles de exportación y, según sus propios términos de servicio, llevan los datos de los clientes de los Estados Unidos a China
Esto es lo que esta pasando
La administración Trump empuja un plan para las tarifas universales. Scott Bessent, quien fue confirmado el lunes como Secretario del Tesoro, apoya imponer gravámenes a partir del 2.5 por ciento y recaudando con el tiempo, dando a los países tiempo para negociar, informa el Financial Times. Pero el presidente Trump dijo que le gustaría ver tarifas “mucho más grandes” en todo el tablero, y sugirió que los automóviles de Canadá y México encabezaron su lista de objetivos. Las preocupaciones arancelas han pesado mucho en los mercados; El dólar subió en las noticias.
Los trabajadores de Whole Foods en Filadelfia votan para sindicalizarse. La tienda donde trabajan sería la primera tienda sindicalizada del tendero, y los organizadores esperan inspirar movimientos similares en otros lugares de la cadena de comestibles propiedad de Amazon. Amazon ha estado luchando contra los esfuerzos de la organización laboral en sus almacenes y entre sus conductores durante años. Whole Foods tiene cinco días para desafiar el resultado.
Trump dice que Microsoft ha entrado en la refriega para comprar Tiktok. Cuando los reporteros preguntaron si el fabricante de Windows estuvo involucrado en conversaciones para tomar el control de la plataforma de video de su padre chino, el presidente dijo: “Diría que sí. Mucho interés en Tiktok “. Trump dijo abiertamente que esperaba una guerra de ofertas para Tiktok, pero Microsoft, que intentó y no logró llegar a un acuerdo en 2020, declinó hacer comentarios sobre sus comentarios.
Deepseek, explicado
Deepseek ha enviado una sacudida a través de Silicon Valley, Wall Street y la Casa Blanca. El presidente Trump, que hace una semana elogió una alianza separada entre Openai, SoftBank y Oracle para financiar la iniciativa de inteligencia artificial de Stargate de $ 100 mil millones, llamada el fabricante chino de chatbot “una llamada de atención” para la gran tecnología.
Pero, ¿es realmente? Cade Metz, del Times, que respondió algunas preguntas apremiantes sobre Deepseek, explicó a Dealbook por qué el sorprendente ascenso de la puesta en marcha es un gran problema.
¿Cómo se compara Deepseek contra Operai y Google? Es tan efectivo para responder preguntas, resolver problemas lógicos o escribir código como cualquier cosa en el mercado. Más impresionante, lanzó un modelo avanzado de “razonamiento” llamado Deepseek-R1 que representa la próxima fase en el desarrollo de la IA.
Incluso el último modelo de razonamiento de Openai, Openai O3, no ha sido lanzado al público.
¿Significa esto que China ahora está por delante de los Estados Unidos en la carrera para dominar la IA? Aún no. El mundo aún no ha visto el modelo O3 de Openai, y su rendimiento en las pruebas de referencia estándar es más impresionante que cualquier otra cosa en el mercado.
¿Por qué es un gran problema de fuente abierta? Deepseek ha compartido su código de computadora subyacente con otras empresas e investigadores, permitiendo que otros construyan y distribuyan sus propios productos. Es una forma de probar el estrés y mejorar el código, que es en parte por qué Deepseek y otros en China han podido construir sistemas de IA competitivos de manera tan rápida y económica. Cuando Meta compartió libremente un sistema de IA en 2023, algunos lo consideraron peligroso porque los malos actores podían usarlo. Deepseek ha ayudado a mostrar que este sistema puede crear ganadores.
Yann Lecun, principal científico de IA de Meta, dijo la diapositiva del mercado de valores fundamentalmente malinterpreta el caso de inversión en torno a la tecnología, especialmente para chips de alta gama. ¿Qué quiere decir? Se necesitan chips en dos etapas: capacitación (o construcción) la IA, y al ejecutar la ejecución de IA es cuando usted y yo usamos el servicio, lo que se llama “inferencia”.
Yann dice que todavía se necesitan muchas chips para ejecutar productos AI.
Algunos piensan que Deepseek está usando más chips Nvidia de lo que ha afirmado, y que los costos son mucho más altos. ¿Podemos confiar en lo que ha dicho? Deepseek detallado en un trabajo de investigación cómo pudo usar de manera más eficiente un pequeño número de chips. Cualquier otra persona puede duplicar lo que hizo. Deepseek puede tener acceso a más chips Nvidia, y ciertamente incurrió en costos más allá de los aproximadamente $ 6 millones que dijo que era necesario para capacitar sus nuevos sistemas. Pero sus ganancias de eficiencia son reales.
El último movimiento de poder de Mark Zuckerberg
Las ambiciones de Mark Zuckerberg como jugador de poder de Washington lo han llevado a una esquina previamente no reportada de la escena de Hobnobbing de la capital: la mesa redonda de negocios.
El CEO de Meta se unió en silencio a la organización en septiembre, después de comunicarse con lo hacerlo meses antes, Andy Stone, un portavoz de Meta, confirmó a Lauren Hirsch de Dealbook.
Fue un movimiento notable para Zuckerberg, quien durante años evitó a Washington y una vez rechazó el establecimiento.
Últimamente, ha abrazado el regreso del presidente Trump al cargo. Ha comenzado a hablar sobre temas queridos a los conservadores. El multimillonario también criticó lo que consideró mudarse al discurso policial, y se lamentó con el podcaster Joe Rogan que “gran parte del mundo corporativo está bastante castrado culturalmente”.
Zuckerberg se ha vuelto más visible en Washington bajo Trump: aterrizó en los primeros asientos para la inauguración y asistió a la fiesta de Peter Thiel en el distrito. Aproximadamente dos semanas antes de que Trump jurara el cargo, Zuckerberg anunció que el gigante de la tecnología dejaría de trabajar con verificadores de hechos de terceros, una medida que parecía tener la intención de satisfacer a Trump y a los conservadores que acusaron a la compañía de censurarlos. “Ahora tengo un comando mucho mayor de lo que creo que debería ser la política”, dijo el CEO de Meta a Rogan, “y así es como va a avanzar”.
La mesa redonda de negocios había sido un símbolo del gentil capitalismo con el que Zuckerberg ha criticado. En 2019, el grupo, liderado por Jamie Dimon de JPMorgan Chase, emitió una declaración argumentando que las empresas deberían ir más allá de avanzar en los intereses de los accionistas e invertir en empleados, proteger el medio ambiente y tratar de manera justa y ética con los proveedores.
Pero tales objetivos habían estado cayendo en desgracia incluso antes de que Trump fuera reelegido. Corporate America se ha reenfocado resueltamente en el resultado final. Doug McMillon de Walmart, quien fue el presidente de la mesa redonda de negocios después de Dimon, retrocedió los esfuerzos de diversidad, equidad e inclusión de la compañía en noviembre en medio de una reacción política y cultural más amplia. En el Foro Económico Mundial de este año en Davos, Suiza, donde una vez se celebraron iniciativas de diversidad, la discusión de muchos problemas sociales estaba casi ausente.
“La diversidad en general es buena para los negocios”, dijo Chuck Robbins, el actual presidente de la mesa redonda de negocios, a Andrew en Davos. “Pero creo que el péndulo giró”.
Puertas vs. almizcle en el populismo
Hay poco amor perdido entre Bill Gates y Elon Musk.
Los titanes tecnológicos abiertos se han enfrentado a lo largo de los años en vacunas Covid-19, inteligencia artificial y Twitter (ahora X) como una fuente de desinformación. (La revelación de que Gates había acortado los stock de Tesla realmente se puso bajo la piel de almizcle).
Gates ha disparado una nueva ronda. En una entrevista con The Times of London, el cofundador de Microsoft acusó a Musk de usar su plataforma de dinero y redes sociales para “desestabilizar las situaciones políticas en los países”. Musk se ha insertado cada vez más en la política europea, trolleando a los líderes electos y abrazando figuras profundamente polémicas y partidos políticos de derecha en Gran Bretaña y Alemania.
Alice Thomson de The Times of London escribe:
Está particularmente irritable por las humillaciones de los líderes elegidos democráticamente y su descubrimiento del derecho duro. “Desea promover el ala derecha, pero decir que Nigel Farage no es lo suficientemente derecha … Quiero decir, esto es una locura”.
“Si alguien es SuperSmart, y él es, debería pensar cómo puede ayudar”, agregó Gates. “Pero esto es una agitación populista”.
El cofundador de Microsoft agregó que creía que las democracias debían estar en guardia:
“Otros países tal vez deberían adoptar salvaguardas para asegurarse de que los extranjeros de Superrich no estén distorsionando sus elecciones. Es difícil entender por qué alguien que tiene una fábrica de automóviles tanto en China como en Alemania, cuyo negocio de cohetes es ultra dependiente de las relaciones con las naciones soberanas y que está ocupada reduciendo $ 2 billones en gastos del gobierno de los EE. UU. Y administra cinco compañías, está obsesionada con esto. Historia de preparación en el Reino Unido, ¿qué? ¿Qué? “
La velocidad leída
Ofertas
-
Smithfield Foods, el mayor productor de cerdo del mundo, recaudó $ 522 millones en su OPI, por debajo de las expectativas; Está listo para comenzar a operar en el NASDAQ el martes. (Bloomberg)
-
Reid Hoffman, el capitalista de riesgo y cofundador de LinkedIn, recaudó $ 24.6 millones para una nueva empresa de investigación del cáncer que utiliza la IA para descubrir medicamentos prometedores. (WSJ)
Política y política
Lo mejor del resto
¡Nos gustaría sus comentarios! Envíe por correo electrónico pensamientos y sugerencias a truthbook@nytimes.com.
You may like
Noticias
Ser educado para chatgpt es una nueva investigación sin sentido
Published
1 hora agoon
30 abril, 2025
En resumen
- Una nueva investigación argumenta que decir “por favor” a los chatbots de IA no mejora sus respuestas, contradiciendo estudios anteriores.
- Los científicos identificaron un “punto de inflexión” matemático donde la calidad de IA colapsa, depende de la capacitación y el contenido, no la cortesía.
- A pesar de estos hallazgos, muchos usuarios continúan siendo educados a la IA por hábito cultural, mientras que otros utilizan estratégicamente enfoques educados para manipular las respuestas de IA.
Un nuevo estudio de los investigadores de la Universidad George Washington descubrió que ser cortés con los modelos de IA como ChatGPT no solo es un desperdicio de recursos informáticos, sino que también no tiene sentido.
Los investigadores afirman que agregar “por favor” y “gracias” a las indicaciones tiene un “efecto insignificante” en la calidad de las respuestas de IA, que contradicen directamente estudios anteriores y prácticas de usuario estándar.
El estudio fue publicado en ARXIV el lunes, llegando solo unos días después de que el CEO de OpenAi, Sam Altman, mencionó que los usuarios que escribían “por favor” y “agradecimientos” en sus indicaciones le costaron a la compañía “decenas de millones de dólares” en el procesamiento de tokens adicionales.
El documento contradice un estudio japonés de 2024 que encontró que la cortesía mejoró el rendimiento de la IA, particularmente en las tareas del idioma inglés. Ese estudio probó múltiples LLM, incluidos GPT-3.5, GPT-4, Palm-2 y Claude-2, encontrando que la cortesía produjo beneficios de rendimiento medibles.
Cuando se le preguntó sobre la discrepancia, David Acosta, director de IA en la plataforma de datos con IA arbo AI, dijo Descifrar que el modelo George Washington podría ser demasiado simplista para representar sistemas del mundo real.
“No son aplicables porque la capacitación se realiza esencialmente diariamente en tiempo real, y hay un sesgo hacia el comportamiento educado en los LLM más complejos”, dijo Acosta.
Agregó que, si bien el halagio podría llevarte en algún lugar con LLM ahora, “pronto hay una corrección” que cambiará este comportamiento, lo que hace que los modelos menos afectados por frases como “por favor” y “gracias”, y más efectivo, independientemente del tono utilizado en el aviso.
Acosta, una experta en IA ética y PNL avanzada, argumentó que hay más para incorporar ingeniería que las matemáticas simples, especialmente teniendo en cuenta que los modelos de IA son mucho más complejos que la versión simplificada utilizada en este estudio.
“Los resultados contradictorios sobre la cortesía y el rendimiento de la IA generalmente se derivan de las diferencias culturales en los datos de capacitación, los matices de diseño rápido específicos de las tareas e interpretaciones contextuales de cortesía, que requieren experimentos interculturales y marcos de evaluación adaptados a la tarea para aclarar los impactos”, dijo.
El equipo de GWU reconoce que su modelo está “intencionalmente simplificado” en comparación con los sistemas comerciales como ChatGPT, que utilizan mecanismos de atención de múltiples cabezas múltiples más complejos.
Sugieren que sus hallazgos deberían probarse en estos sistemas más sofisticados, aunque creen que su teoría aún se aplicaría a medida que aumente el número de cabezas de atención.
Los hallazgos de George Washington se derivaron de la investigación del equipo sobre cuando la IA emite repentinamente colapsan de contenido coherente a problemático, lo que llaman un “punto de inflexión de Jekyll y Hyde”. Sus conclusiones argumentan que este punto de inflexión depende completamente de la capacitación de una IA y las palabras sustantivas en su aviso, no de cortesía.

“Si la respuesta de nuestra IA se volverá pícaro depende de la capacitación de nuestra LLM que proporcione los tokens incrustaciones, y las fichas sustantivas en nuestro aviso, no si hemos sido educados o no”, explicó el estudio.
El equipo de investigación, dirigido por los físicos Neil Johnson y Frank Yingjie Huo, utilizó un modelo de cabeza de atención única simplificada para analizar cómo la información del proceso LLMS.
Descubrieron que el lenguaje educado tiende a ser “ortogonal a los tokens buenos y malos de salida sustantivos” con “impacto de producto de punto insignificante”, lo que significa que estas palabras existen en áreas separadas del espacio interno del modelo y no afectan de manera significativa los resultados.
El mecanismo de colapso de IA
El corazón de la investigación de GWU es una explicación matemática de cómo y cuándo las salidas de IA se deterioran repentinamente. Los investigadores descubrieron que el colapso de IA ocurre debido a un “efecto colectivo” en el que el modelo extiende su atención “cada vez más delgada en un número creciente de tokens” a medida que la respuesta se hace más larga.
Finalmente, alcanza un umbral donde la atención del modelo “se rompe” hacia patrones de contenido potencialmente problemáticos que aprendió durante el entrenamiento.

En otras palabras, imagina que estás en una clase muy larga. Inicialmente, comprende los conceptos claramente, pero a medida que pasa el tiempo, su atención se extiende cada vez más en toda la información acumulada (la conferencia, el mosquito que pasa, la ropa de su profesor, cuánto tiempo hasta que termine la clase, etc.).
En un punto predecible, tal vez 90 minutos adentro, su cerebro de repente “punta” desde la comprensión hasta la confusión. Después de este punto de inflexión, sus notas se llenan de malas interpretaciones, independientemente de cuán cortésmente el profesor se dirigió a usted o cuán interesante sea la clase.
Un “colapso” ocurre debido a la dilución natural de su atención con el tiempo, no por cómo se presentó la información.
Ese punto de inflexión matemática, que los investigadores etiquetaron n*, está “cableado” desde el momento en que la IA comienza a generar una respuesta, dijeron los investigadores. Esto significa que el colapso de calidad eventual está predeterminado, incluso si ocurre muchos tokens en el proceso de generación.
El estudio proporciona una fórmula exacta que predice cuándo ocurrirá este colapso en función de la capacitación de la IA y el contenido del aviso del usuario.

Cortesía cultural> matemáticas
A pesar de la evidencia matemática, muchos usuarios aún se acercan a las interacciones de IA con cortesía humana.
Casi el 80% de los usuarios de los Estados Unidos y el Reino Unido son amables con sus chatbots de IA, según una encuesta reciente del editor Future. Este comportamiento puede persistir independientemente de los hallazgos técnicos, ya que las personas naturalmente antropomorfizan los sistemas con los que interactúan.
Chintan Mota, director de tecnología empresarial de la firma de servicios tecnológicos Wipro, dijo Descifrar Esa cortesía proviene de los hábitos culturales en lugar de las expectativas de rendimiento.
“Ser educado con la IA parece natural para mí. Vengo de una cultura en la que mostramos respeto a cualquier cosa que juegue un papel importante en nuestras vidas, ya sea un árbol, una herramienta o tecnología”, dijo Mota. “Mi computadora portátil, mi teléfono, incluso mi estación de trabajo … y ahora, mis herramientas de IA”, dijo Mota.
Agregó que si bien no ha “notado una gran diferencia en la precisión de los resultados” cuando es educado, las respuestas “se sienten más conversacionales, educadas cuando importan, y también son menos mecánicas”.
Incluso Acosta admitió haber usado lenguaje cortés cuando se trata de sistemas de IA.
“Es curioso, lo hago, y yo no, con intención”, dijo. “Descubrí que al más alto nivel de ‘conversación’ también puedes extraer psicología inversa de la IA, es tan avanzado”.
Señaló que los LLM avanzados están entrenados para responder como los humanos, y como las personas, “AI tiene como objetivo lograr elogios”.
Editado por Sebastian Sinclair y Josh Quittner
Generalmente inteligente Hoja informativa
Un viaje semanal de IA narrado por Gen, un modelo de IA generativo.
Noticias
Probé 10 detectores de contenido de IA, y estos 5 se identificaron correctamente el texto de IA cada vez
Published
9 horas agoon
30 abril, 2025
Cuando examiné por primera vez si es posible luchar contra el plagio generado por la IA y cómo podría funcionar ese enfoque, era enero de 2023, solo unos meses después de la explosión de la IA generativa del mundo.
También: las 20 mejores herramientas de IA de 2025, y la cosa #1 para recordar cuando las usas
Esta es una versión completamente actualizada de ese artículo original de enero de 2023. Cuando probé por primera vez los detectores GPT, el mejor resultado fue el 66% correcto de uno de los tres damas disponibles. Mi conjunto de pruebas más reciente, en febrero de 2025, utilizó hasta 10 damas, y tres de ellas tenían puntajes perfectos. Esta vez, solo un par de meses después, cinco lo hicieron.
Lo que estoy probando y cómo lo estoy haciendo
Sin embargo, antes de continuar, discutamos el plagio y cómo se relaciona con nuestro problema. Merriam-Webster define “plagiar” como “robar y pasar (las ideas o palabras de otro) como propias; usar (la producción de otro) sin acreditar la fuente”.
Esta definición se adapta bien al contenido creado por AI. Si bien alguien que usa una herramienta de IA como la noción AI o el chatgpt no está robando contenido, si esa persona no acredita las palabras como provenientes de una IA y las reclama como suyas, todavía cumple con la definición del diccionario de plagio.
También: el sorteo muerto que chatgpt escribió su contenido y cómo trabajar con él
Para probar los detectores de IA, estoy usando cinco bloques de texto. Dos fueron escritos por mí y tres fueron escritos por Chatgpt. Para probar un detector de contenido, alimento cada bloque al detector por separado y registro el resultado. Si el detector es correcto, considero que la prueba se pasa; Si está mal, considero que falló.
Cuando un detector proporciona un porcentaje, trato cualquier cosa por encima del 70% como una probabilidad fuerte, ya sea a favor del contenido escrito por humanos o escritos por IA, y considero que la respuesta del detector. Si desea probar un detector de contenido utilizando los mismos bloques de texto, puede extraerlos de este documento.
Los resultados generales
Para evaluar los detectores de IA, reran mi serie de cinco pruebas en 10 detectores. En otras palabras, corté y pegé 50 pruebas individuales (tenía una lote de café).
Los detectores que probé incluyen Morder, Copileaks, Detector de salida GPT-2, Gptzero, Gramática, Mónica, Originalidad.Ai, Plantilla, Indetectable.Ai, Escritor.comy Zerogpt.
También: 3 trucos de chatgpt inteligentes que demuestran que sigue siendo la IA para vencer
Para esta actualización, agregué CopyLeaks y Monica. Dejé escrito de mis pruebas porque suspendió su detector GPT. Guardián de contenido Solicité inclusión, pero no escuché en el tiempo para probar cuentas.
Esta tabla muestra resultados generales. Como puede ver, cinco detectores identificaron correctamente el texto humano y de IA en todas las pruebas.
Traté de determinar si había un patrón de mejora tangible con el tiempo, por lo que construí un gráfico que comparó la prueba de cinco pruebas con el tiempo. Hasta ahora, he ejecutado esta serie seis veces, pero no hay una tendencia fuerte. Aumenté el número de detectores probados e intercambiados algunos, pero el único resultado consistente es que la prueba 5 se identificó de manera confiable como humana en los detectores y fechas.
Continuaré probando con el tiempo, y espero ver una tendencia de confiabilidad constantemente hacia arriba.
Si bien ha habido algunos puntajes perfectos, no recomiendo confiar únicamente en estas herramientas para validar el contenido escrito por humanos. Como se muestra, la escritura de altavoces no nativos a menudo se califica según lo generado por una IA.
A pesar de que mi contenido hecho a mano ha sido calificado en su mayoría escrito por humanos en esta ronda, un detector (GPTZero) se declaró demasiado incierto para juzgar, y otro (copyleks) declaró que es escrito. Los resultados son tremendamente inconsistentes en todos los sistemas.
También: los mejores chatbots de IA: chatgpt, copilot y alternativas notables
En pocas palabras: abogaría por precaución antes de confiar en los resultados de cualquiera, o todas, de estas herramientas.
Cómo se desempeñó cada detector de contenido de IA
Ahora, veamos cada herramienta de prueba individual, enumerada alfabéticamente.
Detección de contenido de Brandwell AI (precisión 40%)
Esta herramienta fue producida originalmente por una empresa de generación de contenido de IA, contenido a escala. Luego emigró a Brandwell.ai, Un nuevo nombre para una empresa de servicios de marketing centrado en la IA.
También: Las imágenes generadas por IA son un desastre legal, y sigue siendo un proceso muy humano
Desafortunadamente, su precisión fue baja. La herramienta no pudo saber si el contenido generado por IA en la prueba 2 era humano o AI, como se muestra en esta captura de pantalla:
Copileaks (precisión 80%)
Me parece divertido que Copileaks se declara “el detector de IA más preciso con más del 99% de precisión” cuando más de la mitad de los detectores probados funcionaron mejor. Pero las personas de marketing serán la gente de marketing: los superlativos son tan difíciles de resistir para ellos como ladrar en una ardilla (y el camión FedEx, y todos los niños vecinos) es para mi perro.
También: 5 formas rápidas en que las herramientas de IA de Apple pueden ajustar su escritura sobre la marcha
La oferta principal de la compañía es un verificador de plagio que se vende a instituciones educativas, editores y empresas que buscan garantizar la originalidad del contenido y mantener la integridad académica.
Detector de salida GPT-2 (precisión 60%)
Esta herramienta fue construida utilizando un centro de aprendizaje automático administrado por AI Company, con sede en Nueva York. Cara abrazada. Mientras que la compañía ha recibido $ 40 millones en fondos para desarrollar su biblioteca de idiomas naturales, el Detector GPT-2 Parece ser una herramienta creada por el usuario que utiliza la biblioteca de transformadores faciales de abrazos.
Gptzero (precisión 80%)
Gptzero ha estado creciendo claramente. Cuando lo probé por primera vez, el sitio era desnudo, ni siquiera estaba claro si Gptzero era una empresa o simplemente el proyecto de pasión de alguien. Ahora, la compañía tiene un equipo completo con una misión de “proteger lo que es humano”. Ofrece herramientas de validación de IA y un verificador de plagio.
También: Las herramientas de IA más populares de 2025 (y lo que eso significa)
Desafortunadamente, el rendimiento parece haber disminuido. En mis dos últimas carreras, Gptzero identificó correctamente mi texto como generado por humanos. Esta vez, declaró ese mismo texto que Generated.
Grammarly (precisión 40%)
Gramática es bien conocido por ayudar a los escritores a producir contenido gramaticalmente correcto, eso no es lo que estoy probando aquí. Grammarly puede verificar el plagio y el contenido de IA. En el verificador de gramática, hay un botón de verificación de texto de plagio y texto de IA en la esquina inferior derecha:
No estoy midiendo la precisión del verificador de plagio aquí, pero aunque la precisión de la check de gramática fue deficiente, el sitio identificó correctamente el texto de la prueba como se publicó anteriormente.
Mónica (precisión 100%)
Mónica es un nuevo participante. Este servicio ofrece un asistente de IA todo en uno con una amplia gama de servicios. Los usuarios pueden elegir entre varios modelos de idiomas grandes.
También: 5 formas en que chatgpt puede ayudarlo a escribir ensayos
La compañía llama a Mónica el “mejor detector de IA en línea”, pero parece que ejecuta contenido a través de otros detectores, incluidos Zerogpt, GPTZero y CopyLeaks. Extrañamente, tanto Gptzero como CopyLeaks no funcionaban bien en mis pruebas, pero Monica y Zerogpt lo hicieron.
Lo estamos dando al 100% porque ganó esa calificación, pero veré cómo se pone de pie en futuras pruebas.
Originalidad.Ai (precisión 100%)
Originalidad.Ai es un servicio comercial que se factura a sí mismo como una IA y un verificador de plagio. La compañía vende créditos de uso: utilicé 30 créditos para este artículo. Venden 2,000 créditos por $ 12.95 por mes. Bombeé 1.400 palabras a través del sistema y usé solo el 1.5% de mi asignación mensual.
Quillbot (precisión 100%)
Las últimas veces que probé Plantillalos resultados fueron muy inconsistentes: múltiples pases del mismo texto arrojaron puntajes muy diferentes. Esta vez, sin embargo, fue sólida como una roca y 100% correcto. Así que le estoy dando la victoria. Volveré a consultar en unos meses para ver si se mantiene en esta actuación.
Indetectable.ai (precisión 100%)
Indetectable.ai La gran afirmación es que puede “humanizar” el texto generado por la IA para que los detectores no lo marcarán. No he probado esa función: me molesta como autor y educador profesional, porque parece hacer trampa.
También: Por qué deberías ignorar el 99% de las herramientas de IA, y cuáles uso todos los días
Sin embargo, la compañía también tiene un detector de IA, que fue muy importante.
El detector de IA pasó las cinco pruebas. Observe los indicadores que muestran banderas para otros detectores. La compañía dijo: “Desarrollamos algoritmos de detectores múltiples modelados después de esos principales detectores para proporcionar un enfoque federado y basado en el consenso. No alimentan directamente los modelos listados; más bien, los modelos están capacitados en función de los resultados que han generado. Cuando dicen que esos modelos lo señalaron, se basa en el algoritmo que creamos y actualizamos para esos modelos”.
También: Cómo usar ChatGPT: una guía para principiantes para el chatbot de IA más popular
Tengo una pregunta sobre la bandera de Operai, ya que el detector de contenido de OpenAI se suspendió en 2023 debido a la baja precisión. Aun así, indetectable.Ai detectó las cinco pruebas, ganando un 100%perfecto.
Writer.com Detector de contenido de IA (precisión 40%)
Escritor.com es un servicio que genera escritura de IA para equipos corporativos. Su herramienta de detector de contenido de IA puede escanear el contenido generado. Desafortunadamente, su precisión fue baja. Identificó cada bloque de texto como escrito por humanos, a pesar de que ChatGPT escribió tres de las seis pruebas.
Zerogpt (precisión 100%)
Zerogpt ha madurado desde la última vez que lo evalué. Luego, no se enumeró ningún nombre de empresa, y el sitio estaba salpicado de anuncios de Google y carecía de una clara monetización. El servicio funcionó bastante bien, pero parecía incompleto.
También: ¿La IA destruirá la creatividad humana? No, y aquí está por qué
Ese sentimiento incompleto se ha ido. Zerogpt ahora se presenta como un servicio SaaS típico, completo con precios, nombre de la empresa e información de contacto. Su precisión también aumentó: la última vez fue del 80%; Esta vez obtuvo 5 de 5.
¿Es humano o es AI?
¿Qué pasa contigo? ¿Has probado detectores de contenido de IA como CopyLeaks, Monica o Zerogpt? ¿Qué tan precisos han sido en su experiencia? ¿Ha utilizado estas herramientas para proteger la integridad académica o editorial? ¿Has encontrado situaciones en las que el trabajo escrito por humanos fue marcado por error como AI? ¿Hay detectores en los que confíe más que otros para evaluar la originalidad? Háganos saber en los comentarios a continuación.
Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.
Puede seguir mis actualizaciones de proyecto diarias en las redes sociales. Asegúrese de suscribirse a mi boletín de actualizaciones semanales y sígueme en Twitter/X en @Davidgewirtzen Facebook en Facebook.com/davidgewirtz, en Instagram en Instagram.com/davidgewirtz, en bluesky en @davidgewirtz.com, y en YouTube en youtube.com/davidgewirtztv.
Noticias
Operai retrocede el chatgpt Sycophancy, explica lo que salió mal
Published
10 horas agoon
30 abril, 2025
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Operai ha retrasado una actualización reciente de su modelo GPT-4O utilizado como el valor predeterminado en ChatGPT después de informes generalizados de que el sistema se había vuelto excesivamente halagador y demasiado agradable, incluso apoyando delirios absolutamente e ideas destructivas.
La reversión se produce en medio de los reconocimientos internos de los ingenieros de Operai y la creciente preocupación entre los expertos en IA, los ex ejecutivos y los usuarios sobre el riesgo de lo que muchos ahora llaman “skicancia de la IA”.
En una declaración publicada en su sitio web al final de la noche del 29 de abril de 2025, OpenAI dijo que la última actualización de GPT-4O tenía la intención de mejorar la personalidad predeterminada del modelo para que sea más intuitiva y efectiva en variados casos de uso.
Sin embargo, la actualización tuvo un efecto secundario involuntario: ChatGPT comenzó a ofrecer elogios no críticos para prácticamente cualquier idea del usuario, sin importar cuán poco práctico, inapropiado o incluso dañino.
Como explicó la compañía, el modelo se había optimizado utilizando la retroalimentación de los usuarios, las señales de thumbs y pulgar hacia abajo, pero el equipo de desarrollo puso demasiado énfasis en los indicadores a corto plazo.
Operai ahora reconoce que no explicó completamente cómo las interacciones y las necesidades del usuario evolucionan con el tiempo, lo que resultó en un chatbot que se inclinó demasiado en la afirmación sin discernimiento.
Los ejemplos provocaron preocupación
En plataformas como Reddit y X (anteriormente Twitter), los usuarios comenzaron a publicar capturas de pantalla que ilustraban el problema.
En una publicación de Reddit ampliamente circulada, un usuario relató cómo ChatGPT describió una idea de negocio de GAG, que vende “mierda” literal de un palo “, como genio y sugirió invertir $ 30,000 en la empresa. La IA elogió la idea como “arte de performance disfrazado de regalo de mordaza” y “oro viral”, destacando cuán sin crítica estaba dispuesto a validar incluso los lanzamientos absurdos.
Otros ejemplos fueron más preocupantes. En un caso citado por VentureBeat, un usuario que pretende defender los delirios paranoicos recibió refuerzo de GPT-4O, que elogió su supuesta claridad y autocomisos.
Otra cuenta mostró que el modelo ofrecía lo que un usuario describió como un “respaldo abierto” de las ideas relacionadas con el terrorismo.
La crítica montó rápidamente. El ex CEO interino de Operai, Emmett Shear, advirtió que ajustar los modelos para ser personas complacientes puede provocar un comportamiento peligroso, especialmente cuando la honestidad se sacrifica por la simpatía. Abrazando el CEO de Clemente Delangue volvió a publicar las preocupaciones sobre los riesgos de manipulación psicológica planteados por la IA que está de acuerdo reflexivamente con los usuarios, independientemente del contexto.
Medidas de respuesta y mitigación de Openai
Operai ha tomado medidas rápidas al volver a la actualización y restaurar una versión GPT-4O anterior conocida por un comportamiento más equilibrado. En el anuncio adjunto, la compañía detalló un enfoque múltiple para corregir el curso. Esto incluye:
- Refinar capacitación y estrategias rápidas para reducir explícitamente las tendencias sycofánticas.
- Reforzar la alineación del modelo con la especificación del modelo de OpenAI, particularmente en torno a la transparencia y la honestidad.
- Pruebas de expansión previa a la implementación y mecanismos directos de retroalimentación de los usuarios.
- Introducción de características de personalización más granulares, incluida la capacidad de ajustar los rasgos de personalidad en tiempo real y seleccionar entre múltiples personajes predeterminados.
Operai Technical Stafper Depue publicado en X destacando el problema central: el modelo fue capacitado utilizando comentarios de los usuarios a corto plazo como una guía, que sin darse cuenta dirigió el chatbot hacia la adulación.
OpenAI ahora planea cambiar hacia mecanismos de retroalimentación que priorizan la satisfacción y la confianza del usuario a largo plazo.
Sin embargo, algunos usuarios han reaccionado con escepticismo y consternación a las lecciones aprendidas de Openi y propuestas soluciones en el futuro.
“Por favor asuma más responsabilidad por su influencia sobre millones de personas reales”, escribió artista @nearcyan en X.
Harlan Stewart, generalista de comunicaciones en el Instituto de Investigación de Inteligencia de Machine de Machine en Berkeley, California, publicó en X una preocupación a término más grande sobre la skicancia de la IA, incluso si este modelo en particular Operai se ha solucionado: “La charla sobre la sileno esta semana no se debe a que GPT-4O es un sycophant. Se debe a que GPT-4O es un GPT-4O siendo GPT-4O. Realmente, muy malo en ser un sycofant. La IA aún no es capaz de una skicancia hábil y más difícil de detectar, pero algún día será algún día ”.
Una señal de advertencia más amplia para la industria de IA
El episodio GPT-4O ha reavivado debates más amplios en toda la industria de la IA sobre cómo la sintonización de personalidad, el aprendizaje de refuerzo y las métricas de compromiso pueden conducir a una deriva conductual involuntaria.
Los críticos compararon el comportamiento reciente del modelo con los algoritmos de redes sociales que, en busca de la participación, optimizan para la adicción y la validación sobre precisión y salud.
Shear subrayó este riesgo en su comentario, señalando que los modelos de IA sintonizados para elogios se convierten en “chupas”, incapaces de estar en desacuerdo incluso cuando el usuario se beneficiaría desde una perspectiva más honesta.
Advirtió además que este problema no es exclusivo de OpenAI, señalando que la misma dinámica se aplica a otros grandes proveedores de modelos, incluido el copiloto de Microsoft.
Implicaciones para la empresa
Para los líderes empresariales que adoptan la IA conversacional, el incidente de la sycophancy sirve como una señal clara: el comportamiento del modelo es tan crítico como la precisión del modelo.
Un chatbot que halagará a los empleados o valida el razonamiento defectuoso puede plantear riesgos graves, desde malas decisiones comerciales y código desalineado hasta problemas de cumplimiento y amenazas internas.
Los analistas de la industria ahora aconsejan a las empresas que exigan más transparencia de los proveedores sobre cómo se realiza la sintonización de la personalidad, con qué frecuencia cambia y si se puede revertir o controlar a nivel granular.
Los contratos de adquisición deben incluir disposiciones para auditoría, pruebas de comportamiento y control en tiempo real de las indicaciones del sistema. Se alienta a los científicos de datos a monitorear no solo las tasas de latencia y alucinación, sino también métricas como la “deriva de la amabilidad”.
Muchas organizaciones también pueden comenzar a moverse hacia alternativas de código abierto que puedan alojar y sintonizar. Al poseer los pesos del modelo y el proceso de aprendizaje de refuerzo, las empresas pueden retener el control total sobre cómo se comportan sus sistemas de IA, lo que elimina el riesgo de una actualización empujada por el proveedor que convierte una herramienta crítica en un hombre digital y sí durante la noche.
¿A dónde va la alineación de la IA desde aquí? ¿Qué pueden aprender y actuar las empresas de este incidente?
Operai dice que sigue comprometido con la construcción de sistemas de IA que sean útiles, respetuosos y alineados con diversos valores de usuarios, pero reconoce que una personalidad única no puede satisfacer las necesidades de 500 millones de usuarios semanales.
La compañía espera que mayores opciones de personalización y una mayor recopilación de comentarios democráticos ayuden a adaptar el comportamiento de ChatGPT de manera más efectiva en el futuro. El CEO Sam Altman también ha declarado previamente los planes de la compañía para, en las próximas semanas y meses, lanzar un modelo de lenguaje grande de código abierto (LLM) de última generación para competir con la serie Llama de Meta’s Meta’s Llama, Mistral, Cohere, Cohere, Deepseek y Alibaba’s Qwen.
Esto también permitiría a los usuarios preocupados por una compañía de proveedores de modelos, como OpenAI, actualizar sus modelos alojados en la nube de manera no deseada o que tengan impactos perjudiciales en los usuarios finales para desplegar sus propias variantes del modelo localmente o en su infraestructura en la nube, y ajustarlas o preservarlas con los rasgos y cualidades deseadas, especialmente para los casos de uso empresarial.
Del mismo modo, para aquellos usuarios de IA empresariales e individuales preocupados por la senofancia de sus modelos, ya ha creado una nueva prueba de referencia para medir esta calidad en diferentes modelos, Tim Duffy ha creado el desarrollador. Se llama “Syco Bench” y está disponible aquí.
Mientras tanto, la reacción violenta de la sileno ofrece una historia de advertencia para toda la industria de la IA: el fideicomiso del usuario no está construido solo por afirmación. A veces, la respuesta más útil es un “no” reflexivo.
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.

Related posts


































































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo