Connect with us

Noticias

Cómo la redefinición de AGI de OpenAI podría cambiar el mundo

Published

on

OpenAI ha introducido una nueva perspectiva sobre la Inteligencia General Artificial (AGI), lo que indica un cambio significativo en sus prioridades estratégicas. Históricamente centrada en la creación de sistemas de IA capaces de superar el desempeño humano en diversas tareas, la empresa ahora vincula a AGI con un punto de referencia financiero: lograr al menos 100 mil millones de dólares en ganancias. Esta redefinición refleja la visión en evolución de OpenAI, enfatizando el impacto económico mensurable sobre los hitos puramente técnicos. Para usted, esto marca un momento crucial en la forma en que se evalúa el éxito de la IA y su papel en la configuración de la economía global.

La redefinición de AGI por parte de OpenAI está profundamente entrelazada con sus asociaciones, competencia y visión para el futuro. Desde su relación de alto riesgo con Microsoft hasta sus tensiones legales con Elon Musk, la compañía está navegando por una compleja red de desafíos y oportunidades. Ya sea que esté entusiasmado con las posibilidades de la IA o preocupado por sus implicaciones, este momento marca un punto de inflexión en la carrera por dar forma a la “economía AGI”.

¿Qué significa la nueva definición de AGI?

TL;DR Conclusiones clave:

  • OpenAI ha redefinido AGI para centrarse en lograr 100 mil millones de dólares en ganancias, enfatizando el impacto económico por encima de los hitos puramente técnicos.
  • La asociación con Microsoft proporciona una infraestructura de nube crítica, pero plantea desafíos en torno al mantenimiento de la independencia.
  • Los planes de OpenAI de salir a bolsa tienen como objetivo equilibrar los objetivos sin fines de lucro con las ambiciones lucrativas, posicionándola como líder en la emergente “economía AGI”.
  • La intensa competencia, incluida la de Elon Musk, y los desafíos legales resaltan lo mucho que está en juego y la rápida innovación en la industria de la IA.
  • OpenAI prevé que la AGI impulse la transformación económica mediante la automatización de industrias, lo que plantea interrogantes sobre la adaptación social y los cambios en la fuerza laboral.

Tradicionalmente, AGI se refería a sistemas de IA capaces de realizar una amplia gama de tareas a niveles humanos o superiores. La definición actualizada de OpenAI coloca la rentabilidad en primer plano, estableciendo un objetivo financiero claro como la principal medida del éxito de AGI. Al hacerlo, la empresa alinea sus objetivos con resultados económicos tangibles en lugar de logros técnicos abstractos.

  • Este cambio refleja una tendencia más amplia en la industria de la IA, donde la viabilidad financiera se prioriza cada vez más junto con la innovación.
  • Plantea preguntas críticas sobre cómo un enfoque impulsado por las ganancias podría influir en la dirección de la investigación y el desarrollo de la IA.

Para usted, esta redefinición subraya la creciente importancia de conectar los avances de la IA con valor económico en el mundo realdestacando un cambio del progreso teórico a las aplicaciones prácticas.

La asociación OpenAI-Microsoft: una alianza estratégica

La asociación de OpenAI con Microsoft es la piedra angular de su estrategia para lograr AGI. Con una sustancial Inversión de 10 mil millones de dólaresMicrosoft ha integrado la tecnología de OpenAI en su plataforma en la nube Azure, proporcionando la potencia computacional necesaria para el desarrollo avanzado de IA. Esta colaboración no sólo acelera el progreso de OpenAI sino que también destaca el papel fundamental de la infraestructura de la nube en la investigación moderna de la IA.

  • La asociación subraya la importancia de recursos computacionales robustos y escalables para impulsar la innovación en IA.
  • Sin embargo, también presenta desafíos, ya que OpenAI debe equilibrar cuidadosamente su dependencia de la infraestructura de Microsoft con el mantenimiento de su independencia y visión a largo plazo.

Para usted, esta asociación ilustra el delicado equilibrio entre colaboración y autonomía en la carrera competitiva para desarrollar AGI.

OpenAI acaba de cambiar la definición de AGI

Maestro Inteligencia General Artificial (AGI) con la ayuda de nuestros artículos detallados y guías útiles.

Preparándose para una oferta pública

Los planes de OpenAI de salir a bolsa representan una evolución significativa en su estructura organizativa. Al adoptar un modelo híbrido que combina objetivos sin fines de lucro con ambiciones lucrativas, la compañía pretende asegurar la financiación necesaria para escalar sus operaciones sin dejar de estar comprometida con su misión de promover la IA de manera responsable.

  • Salir a bolsa podría proporcionar a OpenAI los recursos financieros necesarios para acelerar su desarrollo de AGI y ampliar su influencia.
  • Esta medida posiciona a la empresa como un actor central en la configuración de lo que cada vez más se conoce como la “economía AGI”.

Para usted, este desarrollo señala la intención de OpenAI de equilibrar éxito financiero con su visión más amplia del papel de la IA en la sociedad, asegurándose de que la rentabilidad se alinee con consideraciones éticas y sociales.

Competencia y desafíos legales

El panorama de la IA se está volviendo cada vez más competitivo y figuras como Elon Musk intensifican la carrera por dominar el campo. Los avances de Musk en la infraestructura de IA y GPU han añadido presión sobre OpenAI para mantener su posición de liderazgo. Al mismo tiempo, las disputas legales entre Musk y OpenAI introducen complejidades adicionales en el camino de la empresa.

  • Estos desafíos resaltan la feroz competencia que impulsa la innovación y da forma a la trayectoria del desarrollo de la IA.
  • También enfatizan la importancia del posicionamiento estratégico en una industria donde los avances tecnológicos pueden cambiar rápidamente el equilibrio de poder.

Para usted, este entorno competitivo demuestra lo mucho que está en juego en la configuración del futuro de la IA, donde el éxito depende tanto de la innovación como de la previsión estratégica.

Infraestructura: la columna vertebral de AGI

Lograr AGI requiere inmensos recursos computacionales, y la dependencia de OpenAI de la infraestructura de nube Azure de Microsoft es tanto una fortaleza como una limitación. Si bien el soporte de Microsoft brinda acceso a tecnología innovadora, también limita la flexibilidad e independencia de OpenAI.

  • Una infraestructura sólida y escalable es esencial para impulsar los avances de la IA y respaldar el desarrollo de sistemas cada vez más complejos.
  • La capacidad de OpenAI para gestionar eficazmente estos recursos será un factor crítico en su éxito en su esfuerzo por alcanzar sus ambiciosos objetivos.

Para usted, esto resalta el papel vital de infraestructura para permitir la próxima generación de sistemas de IA, donde la potencia computacional sirve como base para la innovación.

La visión de futuro: construir la economía AGI

OpenAI imagina un futuro en el que AGI impulse una profunda transformación económica. Para 2029, la empresa pretende desarrollar sistemas avanzados de inteligencia artificial, incluidos agentes de voz, robots humanoides y navegadores web con tecnología de inteligencia artificial. Estas innovaciones tienen el potencial de automatizar partes importantes de la economía global, transformando industrias y redefiniendo la forma en que operan las empresas.

  • Los planes de OpenAI enfatizan el fantástico potencial de la IA para replicar y mejorar las capacidades humanas en una amplia gama de aplicaciones.
  • Esta visión plantea preguntas importantes sobre cómo se adaptará la sociedad a un cambio tecnológico tan rápido y sus implicaciones para la fuerza laboral.

Para usted, este futuro representa tanto oportunidades como desafíos a medida que la IA remodela la forma en que vivimos y trabajamos, ofreciendo nuevas posibilidades y al mismo tiempo exigiendo una cuidadosa consideración de su impacto social.

Implicaciones económicas y industriales

Si OpenAI logra sus objetivos de rentabilidad, podría emerger como una de las empresas más valiosas del mundo. Sin embargo, las implicaciones más amplias de la AGI se extienden mucho más allá de las corporaciones individuales. Al automatizar tareas e impulsar la eficiencia, la IA tiene el potencial de:

  • Remodelar industrias y crear mercados completamente nuevos, desbloqueando oportunidades económicas sin precedentes.
  • Redefinir la fuerza laboral global, planteando preguntas críticas sobre el desplazamiento de empleos, la adaptación económica y la necesidad de recapacitación.

Para usted, esto resalta la necesidad de prepararse para un futuro en el que la transformación impulsada por la IA altera fundamentalmente la estructura de las economías y las industrias, lo que requiere estrategias proactivas para abordar sus desafíos y maximizar sus beneficios.

Crédito de medios: TheAIGRID

Archivado en: IA, Noticias de tecnología, Noticias destacadas





Últimas ofertas de gadgets geek

Divulgación: Algunos de nuestros artículos incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, Geeky Gadgets puede ganar una comisión de afiliado. Conozca nuestra Política de Divulgación.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Lo que dice el acuerdo de OpenAI del Washington Post sobre las licencias de IA

Published

on

  • Los primeros 100 días de Trump luchando contra la prensa, el cambio de los medios de comunicación a los videos de podcasts y más.
  • La evolución de la licencia de contenido de IA ofertas

    El Washington Post se ha convertido en el último editor importante en llegar a un acuerdo de licencia con Openai, uniéndose a una cohorte creciente que ahora abarca más de 20 organizaciones de noticias.

    Es parte de un patrón familiar: cada pocos meses, Openai bloquea otro editor para reforzar su tubería de contenido. Pero los términos de estos acuerdos parecen estar evolucionando en silencio, alejándose sutilmente del lenguaje explícito en torno a los datos de capacitación que definieron acuerdos anteriores y planteando nuevas preguntas sobre lo que ahora significan estas asociaciones.

    El acuerdo del Washington Post se centra en surgir su contenido en respuesta a consultas relacionadas con las noticias. “Como parte de esta asociación, ChatGPT mostrará resúmenes, citas y enlaces a informes originales de la publicación en respuesta a preguntas relevantes”, se lee el anuncio el 22 de abril sobre el acuerdo de la publicación con OpenAI. En contraste, el pasado se ocupa de editores como Axel Springer y Time, firmado en diciembre de 2023 y junio de 2024 respectivamente, explícitamente incluyó disposiciones para la capacitación de LLM de OpenAI en su contenido.

    El acuerdo de OpenAI de The Guardian, anunciado en febrero de 2025, tiene una redacción similar al anuncio del Washington Post y no se menciona los datos de capacitación. Un portavoz de Guardian se negó a comentar sobre los términos de acuerdo con OpenAI. El Washington Post no respondió a las solicitudes de comentarios.

    Estos cambios algo sutiles en el lenguaje de los términos podrían indicar un cambio más amplio en el paisaje de IA, según conversaciones con cuatro Expertos legales de medios. Podría indicar un cambio en cómo los acuerdos de licencia de contenido de IA están estructurados en el futuro, con más editores que potencialmente buscan acuerdos que prioricen la atribución y la prominencia en los motores de búsqueda de IA sobre los derechos para la capacitación modelo.

    Otro factor a tener en cuenta: estas compañías de IA ya han capacitado a sus LLM en grandes cantidades de contenido disponible en la web, según Aaron Rubin, socio del grupo estratégico de transacciones y licencias en la firma de abogados Gunderson Dettmer. Y debido a que las compañías de IA enfrentan litigios de compañías de medios que afirman que esto era una infracción de derechos de autor, como el caso del New York Times contra OpenAI, si las compañías de IA continuaran pagando a los datos de licencia con fines de capacitación, podría verse como “una admisión implícita” que debería haber pagado para licenciar esos datos y no haberlo escrito de forma gratuita, dijo Rubin.

    “[AI companies] Ya tienen un billón de palabras que han robado. No necesitan las palabras adicionales tan mal para la capacitación, pero quieren tener el contenido actualizado para respuestas [in their AI search engines]”, Dijo Bill Gross, fundador de la empresa de inicio de IA Prorata.ai, que está construyendo soluciones tecnológicas para compensar a los editores por el contenido utilizado por las compañías generativas de IA.

    Tanto las compañías de IA como los editores pueden beneficiarse de esta posible evolución, según Rubin. Las compañías de IA obtienen acceso a noticias confiables y actualizadas de fuentes confiables para responder preguntas sobre los eventos actuales en sus productos, y los editores “pueden llenar un vacío que tenían miedo que faltaran con la forma en que estas herramientas de IA han evolucionado. Estaban perdiendo clics y globos oculares y enlaces a sus páginas”, dijo. Tener una mejor atribución en lugares como la búsqueda de chatgpt tiene el potencial de impulsar más tráfico a los sitios de los editores. Al menos, esa es la esperanza.

    “Tiene el potencial de generar más dinero para los editores”, dijo Rubin. “Los editores están apostando a que así es como las personas van a interactuar con los medios de comunicación en el futuro”.

    Desde el otoño pasado, Operai ha desafiado a los gigantes de búsqueda como Google con su motor de búsqueda de IA, búsqueda de chatgpt, y ese esfuerzo depende del acceso al contenido de noticias. Cuando se le preguntó si la estructura de los acuerdos de Operai con los editores había cambiado, un portavoz de OpenAI señaló el lanzamiento de la compañía de la compañía de ChatGPT en octubre de 2024, así como mejoras anunciadas esta semana.

    “Tenemos un feed directo al contenido de nuestro socio editor para mostrar resúmenes, citas y enlaces atribuidos a informes originales en respuesta a preguntas relevantes”, dijo el portavoz. “Ese es un componente de las ofertas. La capacitación posterior ayuda a aumentar la precisión de las respuestas relacionadas con el contenido de un editor”. El portavoz no respondió a otras solicitudes de comentarios.

    No está claro cuántos editores como The Washington Post no se pueden hacer de OpenAI, especialmente porque puede surgir un modelo diferente centrado en la búsqueda de ChatGPT. Pero la perspectiva para los acuerdos de licencia entre editores y compañías de IA parece estar empeorando. El valor de estos acuerdos está “en picado”, al menos según el CEO de Atlantic, Nicholas Thompson, quien habló en el evento Reuters Next en diciembre pasado.

    “Todavía hay un mercado para la licencia de contenido para la capacitación y eso sigue siendo importante, pero continuaremos viendo un enfoque en entrar en acuerdos que resultan en impulsar el tráfico a los sitios”, dijo John Monterubio, socio del grupo avanzado de medios y tecnología en la firma de abogados Loeb & Loeb. “Será la nueva forma de marketing de SEO y compra de anuncios, para parecer más altos en los resultados al comunicarse con estos [generative AI] herramientas.”

    Lo que hemos escuchado

    “No tenemos que preocuparnos por una narración algo falsa de: las cookies deben ir … entonces puedes poner todo este ancho de banda y potencia para mejorar el mercado actual, sin preocuparte por un posible problema futuro que estuviera en el control de Google todo el tiempo”.

    Anónimo Publishing Ejecute la decisión de Google la semana pasada de continuar usando cookies de terceros en Chrome.

    Números para saber

    $ 50 millones: la cantidad que Los Angeles Times perdió en 2024.

    50%: El porcentaje de adultos estadounidenses que dijeron que la IA tendrá un impacto muy o algo negativo en las noticias que las personas obtienen en los EE. UU. Durante los próximos 20 años, según un estudio del Centro de Investigación Pew.

    $ 100 millones: la cantidad Spotify ha pagado a los editores y creadores de podcasts desde enero.

    0.3%: La disminución esperada en el uso de los medios (canales digitales y tradicionales) en 2025, la primera caída desde 2009, según PQ Media Research.

    Lo que hemos cubierto

    Las demandas de AI destacan las luchas de los editores para impedir que los bots raspen contenido

    • La reciente demanda de Ziff Davis contra Operai destaca la realidad de que los editores aún no tienen una forma confiable de evitar que las compañías de IA raspen su contenido de forma gratuita.
    • Si bien han surgido herramientas como Robots.txt archivos, paredes de pago y etiquetas de bloqueo AI-AI, muchos editores admiten que es muy difícil hacer cumplir el control en cada bot, especialmente porque algunos ignoran los protocolos estándar o enmascaran sus identidades.

    Leer más aquí.

    ¿Quién compraría Chrome?

    • El ensayo antimonopolio de búsqueda de Google podría obligar a Google a separarse del navegador Chrome.
    • Si lo hizo, OpenAi, Perplexity, Yahoo y Duckduckgo podrían ser algunos de los compradores potenciales.

    Lea más sobre el impacto potencial de una venta masiva de Chrome aquí.

    Tiktok está cortejando a los creadores y agencias para participar en sus herramientas en vivo

    • Tiktok está tratando de demostrar el potencial de ingresos de sus herramientas en vivo.
    • La plataforma de redes sociales dice que sus creadores ahora generan colectivamente $ 10 millones en ingresos diariamente a través de la transmisión en vivo.

    Lea más sobre el tono de Tiktok aquí.

    ¿WTF son bots grises?

    • Los rastreadores y raspadores de IA generativos están siendo llamados “bots grises” por algunos para ilustrar la línea borrosa entre el tráfico real y falso.
    • Estos bots pueden afectar el análisis y robar contenido, y las impresiones publicitarias impulsadas por la IA pueden dañar las tasas de clics y las tasas de conversión.

    Lea más sobre por qué los bots grises son un riesgo para los editores aquí.

    ¿Facebook se está convirtiendo en un nuevo flujo de ingresos nuevamente para los editores?

    • Los editores han sido testigos de un reciente pico de referencia de Facebook, y es, algo sorprendentemente, coincidiendo con una afluencia de ingresos del programa de monetización de contenido de Meta.
    • De los 10 editores con los que Digay habló para este artículo, varios están en camino de hacer entre seis y siete cifras este año del último programa de monetización de contenido de Meta.

    Lea más sobre lo que reciben los editores de Facebook aquí.

    Lo que estamos leyendo

    Las ambiciones de video de los podcasts de los medios de comunicación destacan el movimiento del formato de audio a la televisión

    Los medios de comunicación como el New York Times y el Atlantic están poniendo más recursos en la producción de videos de los populares programas de podcast para aprovechar el público más joven de YouTube, informó Vanity Fair.

    La perplejidad quiere recopilar datos sobre los usuarios para vender anuncios personalizados

    El CEO de Perplexity, Aravind Srinivas, dijo que la perplejidad está construyendo su propio navegador para recopilar datos de usuarios y vender anuncios personalizados, informó TechCrunch.

    El presidente Trump apunta a la prensa en los primeros 100 días

    El presidente Trump apunta a las compañías de medios tradicionales en sus primeros 100 días, utilizando tácticas como prohibir los puntos de venta de que cubren los eventos de la Casa Blanca hasta el lanzamiento de investigaciones en las principales redes, informó Axios.

    SemAFOR probará suscripciones

    SemaFor “probará” suscripciones en “Due Time”, el fundador Justin Smith dijo al Inteligencer de la revista New York en una inmersión profunda en la empresa de inicio de noticias centrada en el boletín.

    Continue Reading

    Noticias

    Ser educado para chatgpt es una nueva investigación sin sentido

    Published

    on

    En resumen

    • Una nueva investigación argumenta que decir “por favor” a los chatbots de IA no mejora sus respuestas, contradiciendo estudios anteriores.
    • Los científicos identificaron un “punto de inflexión” matemático donde la calidad de IA colapsa, depende de la capacitación y el contenido, no la cortesía.
    • A pesar de estos hallazgos, muchos usuarios continúan siendo educados a la IA por hábito cultural, mientras que otros utilizan estratégicamente enfoques educados para manipular las respuestas de IA.

    Un nuevo estudio de los investigadores de la Universidad George Washington descubrió que ser cortés con los modelos de IA como ChatGPT no solo es un desperdicio de recursos informáticos, sino que también no tiene sentido.

    Los investigadores afirman que agregar “por favor” y “gracias” a las indicaciones tiene un “efecto insignificante” en la calidad de las respuestas de IA, que contradicen directamente estudios anteriores y prácticas de usuario estándar.

    El estudio fue publicado en ARXIV el lunes, llegando solo unos días después de que el CEO de OpenAi, Sam Altman, mencionó que los usuarios que escribían “por favor” y “agradecimientos” en sus indicaciones le costaron a la compañía “decenas de millones de dólares” en el procesamiento de tokens adicionales.

    El documento contradice un estudio japonés de 2024 que encontró que la cortesía mejoró el rendimiento de la IA, particularmente en las tareas del idioma inglés. Ese estudio probó múltiples LLM, incluidos GPT-3.5, GPT-4, Palm-2 y Claude-2, encontrando que la cortesía produjo beneficios de rendimiento medibles.

    Cuando se le preguntó sobre la discrepancia, David Acosta, director de IA en la plataforma de datos con IA arbo AI, dijo Descifrar que el modelo George Washington podría ser demasiado simplista para representar sistemas del mundo real.

    “No son aplicables porque la capacitación se realiza esencialmente diariamente en tiempo real, y hay un sesgo hacia el comportamiento educado en los LLM más complejos”, dijo Acosta.

    Agregó que, si bien el halagio podría llevarte en algún lugar con LLM ahora, “pronto hay una corrección” que cambiará este comportamiento, lo que hace que los modelos menos afectados por frases como “por favor” y “gracias”, y más efectivo, independientemente del tono utilizado en el aviso.

    Acosta, una experta en IA ética y PNL avanzada, argumentó que hay más para incorporar ingeniería que las matemáticas simples, especialmente teniendo en cuenta que los modelos de IA son mucho más complejos que la versión simplificada utilizada en este estudio.

    “Los resultados contradictorios sobre la cortesía y el rendimiento de la IA generalmente se derivan de las diferencias culturales en los datos de capacitación, los matices de diseño rápido específicos de las tareas e interpretaciones contextuales de cortesía, que requieren experimentos interculturales y marcos de evaluación adaptados a la tarea para aclarar los impactos”, dijo.

    El equipo de GWU reconoce que su modelo está “intencionalmente simplificado” en comparación con los sistemas comerciales como ChatGPT, que utilizan mecanismos de atención de múltiples cabezas múltiples más complejos.

    Sugieren que sus hallazgos deberían probarse en estos sistemas más sofisticados, aunque creen que su teoría aún se aplicaría a medida que aumente el número de cabezas de atención.

    Los hallazgos de George Washington se derivaron de la investigación del equipo sobre cuando la IA emite repentinamente colapsan de contenido coherente a problemático, lo que llaman un “punto de inflexión de Jekyll y Hyde”. Sus conclusiones argumentan que este punto de inflexión depende completamente de la capacitación de una IA y las palabras sustantivas en su aviso, no de cortesía.

    “Si la respuesta de nuestra IA se volverá pícaro depende de la capacitación de nuestra LLM que proporcione los tokens incrustaciones, y las fichas sustantivas en nuestro aviso, no si hemos sido educados o no”, explicó el estudio.

    El equipo de investigación, dirigido por los físicos Neil Johnson y Frank Yingjie Huo, utilizó un modelo de cabeza de atención única simplificada para analizar cómo la información del proceso LLMS.

    Descubrieron que el lenguaje educado tiende a ser “ortogonal a los tokens buenos y malos de salida sustantivos” con “impacto de producto de punto insignificante”, lo que significa que estas palabras existen en áreas separadas del espacio interno del modelo y no afectan de manera significativa los resultados.

    El mecanismo de colapso de IA

    El corazón de la investigación de GWU es una explicación matemática de cómo y cuándo las salidas de IA se deterioran repentinamente. Los investigadores descubrieron que el colapso de IA ocurre debido a un “efecto colectivo” en el que el modelo extiende su atención “cada vez más delgada en un número creciente de tokens” a medida que la respuesta se hace más larga.

    Finalmente, alcanza un umbral donde la atención del modelo “se rompe” hacia patrones de contenido potencialmente problemáticos que aprendió durante el entrenamiento.

    En otras palabras, imagina que estás en una clase muy larga. Inicialmente, comprende los conceptos claramente, pero a medida que pasa el tiempo, su atención se extiende cada vez más en toda la información acumulada (la conferencia, el mosquito que pasa, la ropa de su profesor, cuánto tiempo hasta que termine la clase, etc.).

    En un punto predecible, tal vez 90 minutos adentro, su cerebro de repente “punta” desde la comprensión hasta la confusión. Después de este punto de inflexión, sus notas se llenan de malas interpretaciones, independientemente de cuán cortésmente el profesor se dirigió a usted o cuán interesante sea la clase.

    Un “colapso” ocurre debido a la dilución natural de su atención con el tiempo, no por cómo se presentó la información.

    Ese punto de inflexión matemática, que los investigadores etiquetaron n*, está “cableado” desde el momento en que la IA comienza a generar una respuesta, dijeron los investigadores. Esto significa que el colapso de calidad eventual está predeterminado, incluso si ocurre muchos tokens en el proceso de generación.

    El estudio proporciona una fórmula exacta que predice cuándo ocurrirá este colapso en función de la capacitación de la IA y el contenido del aviso del usuario.

    Cortesía cultural> matemáticas

    A pesar de la evidencia matemática, muchos usuarios aún se acercan a las interacciones de IA con cortesía humana.

    Casi el 80% de los usuarios de los Estados Unidos y el Reino Unido son amables con sus chatbots de IA, según una encuesta reciente del editor Future. Este comportamiento puede persistir independientemente de los hallazgos técnicos, ya que las personas naturalmente antropomorfizan los sistemas con los que interactúan.

    Chintan Mota, director de tecnología empresarial de la firma de servicios tecnológicos Wipro, dijo Descifrar Esa cortesía proviene de los hábitos culturales en lugar de las expectativas de rendimiento.

    “Ser educado con la IA parece natural para mí. Vengo de una cultura en la que mostramos respeto a cualquier cosa que juegue un papel importante en nuestras vidas, ya sea un árbol, una herramienta o tecnología”, dijo Mota. “Mi computadora portátil, mi teléfono, incluso mi estación de trabajo … y ahora, mis herramientas de IA”, dijo Mota.

    Agregó que si bien no ha “notado una gran diferencia en la precisión de los resultados” cuando es educado, las respuestas “se sienten más conversacionales, educadas cuando importan, y también son menos mecánicas”.

    Incluso Acosta admitió haber usado lenguaje cortés cuando se trata de sistemas de IA.

    “Es curioso, lo hago, y yo no, con intención”, dijo. “Descubrí que al más alto nivel de ‘conversación’ también puedes extraer psicología inversa de la IA, es tan avanzado”.

    Señaló que los LLM avanzados están entrenados para responder como los humanos, y como las personas, “AI tiene como objetivo lograr elogios”.

    Editado por Sebastian Sinclair y Josh Quittner

    Generalmente inteligente Hoja informativa

    Un viaje semanal de IA narrado por Gen, un modelo de IA generativo.

    Continue Reading

    Noticias

    Probé 10 detectores de contenido de IA, y estos 5 se identificaron correctamente el texto de IA cada vez

    Published

    on

    Mustafahacalaki/Getty Images

    Cuando examiné por primera vez si es posible luchar contra el plagio generado por la IA y cómo podría funcionar ese enfoque, era enero de 2023, solo unos meses después de la explosión de la IA generativa del mundo.

    También: las 20 mejores herramientas de IA de 2025, y la cosa #1 para recordar cuando las usas

    Esta es una versión completamente actualizada de ese artículo original de enero de 2023. Cuando probé por primera vez los detectores GPT, el mejor resultado fue el 66% correcto de uno de los tres damas disponibles. Mi conjunto de pruebas más reciente, en febrero de 2025, utilizó hasta 10 damas, y tres de ellas tenían puntajes perfectos. Esta vez, solo un par de meses después, cinco lo hicieron.

    Lo que estoy probando y cómo lo estoy haciendo

    Sin embargo, antes de continuar, discutamos el plagio y cómo se relaciona con nuestro problema. Merriam-Webster define “plagiar” como “robar y pasar (las ideas o palabras de otro) como propias; usar (la producción de otro) sin acreditar la fuente”.

    Esta definición se adapta bien al contenido creado por AI. Si bien alguien que usa una herramienta de IA como la noción AI o el chatgpt no está robando contenido, si esa persona no acredita las palabras como provenientes de una IA y las reclama como suyas, todavía cumple con la definición del diccionario de plagio.

    También: el sorteo muerto que chatgpt escribió su contenido y cómo trabajar con él

    Para probar los detectores de IA, estoy usando cinco bloques de texto. Dos fueron escritos por mí y tres fueron escritos por Chatgpt. Para probar un detector de contenido, alimento cada bloque al detector por separado y registro el resultado. Si el detector es correcto, considero que la prueba se pasa; Si está mal, considero que falló.

    Cuando un detector proporciona un porcentaje, trato cualquier cosa por encima del 70% como una probabilidad fuerte, ya sea a favor del contenido escrito por humanos o escritos por IA, y considero que la respuesta del detector. Si desea probar un detector de contenido utilizando los mismos bloques de texto, puede extraerlos de este documento.

    Los resultados generales

    Para evaluar los detectores de IA, reran mi serie de cinco pruebas en 10 detectores. En otras palabras, corté y pegé 50 pruebas individuales (tenía una lote de café).

    Los detectores que probé incluyen Morder, Copileaks, Detector de salida GPT-2, Gptzero, Gramática, Mónica, Originalidad.Ai, Plantilla, Indetectable.Ai, Escritor.comy Zerogpt.

    También: 3 trucos de chatgpt inteligentes que demuestran que sigue siendo la IA para vencer

    Para esta actualización, agregué CopyLeaks y Monica. Dejé escrito de mis pruebas porque suspendió su detector GPT. Guardián de contenido Solicité inclusión, pero no escuché en el tiempo para probar cuentas.

    Esta tabla muestra resultados generales. Como puede ver, cinco detectores identificaron correctamente el texto humano y de IA en todas las pruebas.

    2025-04-contenido de contenido-001

    David Gewirtz/Zdnet

    Traté de determinar si había un patrón de mejora tangible con el tiempo, por lo que construí un gráfico que comparó la prueba de cinco pruebas con el tiempo. Hasta ahora, he ejecutado esta serie seis veces, pero no hay una tendencia fuerte. Aumenté el número de detectores probados e intercambiados algunos, pero el único resultado consistente es que la prueba 5 se identificó de manera confiable como humana en los detectores y fechas.

    2025-04-contenido de contenido-002

    David Gewirtz/Zdnet

    Continuaré probando con el tiempo, y espero ver una tendencia de confiabilidad constantemente hacia arriba.

    Si bien ha habido algunos puntajes perfectos, no recomiendo confiar únicamente en estas herramientas para validar el contenido escrito por humanos. Como se muestra, la escritura de altavoces no nativos a menudo se califica según lo generado por una IA.

    A pesar de que mi contenido hecho a mano ha sido calificado en su mayoría escrito por humanos en esta ronda, un detector (GPTZero) se declaró demasiado incierto para juzgar, y otro (copyleks) declaró que es escrito. Los resultados son tremendamente inconsistentes en todos los sistemas.

    También: los mejores chatbots de IA: chatgpt, copilot y alternativas notables

    En pocas palabras: abogaría por precaución antes de confiar en los resultados de cualquiera, o todas, de estas herramientas.

    Cómo se desempeñó cada detector de contenido de IA

    Ahora, veamos cada herramienta de prueba individual, enumerada alfabéticamente.

    Detección de contenido de Brandwell AI (precisión 40%)

    Esta herramienta fue producida originalmente por una empresa de generación de contenido de IA, contenido a escala. Luego emigró a Brandwell.ai, Un nuevo nombre para una empresa de servicios de marketing centrado en la IA.

    También: Las imágenes generadas por IA son un desastre legal, y sigue siendo un proceso muy humano

    Desafortunadamente, su precisión fue baja. La herramienta no pudo saber si el contenido generado por IA en la prueba 2 era humano o AI, como se muestra en esta captura de pantalla:

    morder

    Captura de pantalla de David Gewirtz/Zdnet

    Copileaks (precisión 80%)

    Me parece divertido que Copileaks se declara “el detector de IA más preciso con más del 99% de precisión” cuando más de la mitad de los detectores probados funcionaron mejor. Pero las personas de marketing serán la gente de marketing: los superlativos son tan difíciles de resistir para ellos como ladrar en una ardilla (y el camión FedEx, y todos los niños vecinos) es para mi perro.

    También: 5 formas rápidas en que las herramientas de IA de Apple pueden ajustar su escritura sobre la marcha

    La oferta principal de la compañía es un verificador de plagio que se vende a instituciones educativas, editores y empresas que buscan garantizar la originalidad del contenido y mantener la integridad académica.

    copileaks

    Captura de pantalla de David Gewirtz/Zdnet

    Detector de salida GPT-2 (precisión 60%)

    Esta herramienta fue construida utilizando un centro de aprendizaje automático administrado por AI Company, con sede en Nueva York. Cara abrazada. Mientras que la compañía ha recibido $ 40 millones en fondos para desarrollar su biblioteca de idiomas naturales, el Detector GPT-2 Parece ser una herramienta creada por el usuario que utiliza la biblioteca de transformadores faciales de abrazos.

    GPT2

    Captura de pantalla de David Gewirtz/Zdnet

    Gptzero (precisión 80%)

    Gptzero ha estado creciendo claramente. Cuando lo probé por primera vez, el sitio era desnudo, ni siquiera estaba claro si Gptzero era una empresa o simplemente el proyecto de pasión de alguien. Ahora, la compañía tiene un equipo completo con una misión de “proteger lo que es humano”. Ofrece herramientas de validación de IA y un verificador de plagio.

    También: Las herramientas de IA más populares de 2025 (y lo que eso significa)

    Desafortunadamente, el rendimiento parece haber disminuido. En mis dos últimas carreras, Gptzero identificó correctamente mi texto como generado por humanos. Esta vez, declaró ese mismo texto que Generated.

    gptzero

    Captura de pantalla de David Gewirtz/Zdnet

    Grammarly (precisión 40%)

    Gramática es bien conocido por ayudar a los escritores a producir contenido gramaticalmente correcto, eso no es lo que estoy probando aquí. Grammarly puede verificar el plagio y el contenido de IA. En el verificador de gramática, hay un botón de verificación de texto de plagio y texto de IA en la esquina inferior derecha:

    gramática

    Captura de pantalla de David Gewirtz/Zdnet

    No estoy midiendo la precisión del verificador de plagio aquí, pero aunque la precisión de la check de gramática fue deficiente, el sitio identificó correctamente el texto de la prueba como se publicó anteriormente.

    Mónica (precisión 100%)

    Mónica es un nuevo participante. Este servicio ofrece un asistente de IA todo en uno con una amplia gama de servicios. Los usuarios pueden elegir entre varios modelos de idiomas grandes.

    También: 5 formas en que chatgpt puede ayudarlo a escribir ensayos

    La compañía llama a Mónica el “mejor detector de IA en línea”, pero parece que ejecuta contenido a través de otros detectores, incluidos Zerogpt, GPTZero y CopyLeaks. Extrañamente, tanto Gptzero como CopyLeaks no funcionaban bien en mis pruebas, pero Monica y Zerogpt lo hicieron.

    Lo estamos dando al 100% porque ganó esa calificación, pero veré cómo se pone de pie en futuras pruebas.

    Mónica

    Captura de pantalla de David Gewirtz/Zdnet

    Originalidad.Ai (precisión 100%)

    Originalidad.Ai es un servicio comercial que se factura a sí mismo como una IA y un verificador de plagio. La compañía vende créditos de uso: utilicé 30 créditos para este artículo. Venden 2,000 créditos por $ 12.95 por mes. Bombeé 1.400 palabras a través del sistema y usé solo el 1.5% de mi asignación mensual.

    originalidad

    Captura de pantalla de David Gewirtz/Zdnet

    Quillbot (precisión 100%)

    Las últimas veces que probé Plantillalos resultados fueron muy inconsistentes: múltiples pases del mismo texto arrojaron puntajes muy diferentes. Esta vez, sin embargo, fue sólida como una roca y 100% correcto. Así que le estoy dando la victoria. Volveré a consultar en unos meses para ver si se mantiene en esta actuación.

    plantilla

    Captura de pantalla de David Gewirtz/Zdnet

    Indetectable.ai (precisión 100%)

    Indetectable.ai La gran afirmación es que puede “humanizar” el texto generado por la IA para que los detectores no lo marcarán. No he probado esa función: me molesta como autor y educador profesional, porque parece hacer trampa.

    También: Por qué deberías ignorar el 99% de las herramientas de IA, y cuáles uso todos los días

    Sin embargo, la compañía también tiene un detector de IA, que fue muy importante.

    indetectable

    Captura de pantalla de David Gewirtz/Zdnet

    El detector de IA pasó las cinco pruebas. Observe los indicadores que muestran banderas para otros detectores. La compañía dijo: “Desarrollamos algoritmos de detectores múltiples modelados después de esos principales detectores para proporcionar un enfoque federado y basado en el consenso. No alimentan directamente los modelos listados; más bien, los modelos están capacitados en función de los resultados que han generado. Cuando dicen que esos modelos lo señalaron, se basa en el algoritmo que creamos y actualizamos para esos modelos”.

    También: Cómo usar ChatGPT: una guía para principiantes para el chatbot de IA más popular

    Tengo una pregunta sobre la bandera de Operai, ya que el detector de contenido de OpenAI se suspendió en 2023 debido a la baja precisión. Aun así, indetectable.Ai detectó las cinco pruebas, ganando un 100%perfecto.

    Writer.com Detector de contenido de IA (precisión 40%)

    Escritor.com es un servicio que genera escritura de IA para equipos corporativos. Su herramienta de detector de contenido de IA puede escanear el contenido generado. Desafortunadamente, su precisión fue baja. Identificó cada bloque de texto como escrito por humanos, a pesar de que ChatGPT escribió tres de las seis pruebas.

    escritor

    Captura de pantalla de David Gewirtz/Zdnet

    Zerogpt (precisión 100%)

    Zerogpt ha madurado desde la última vez que lo evalué. Luego, no se enumeró ningún nombre de empresa, y el sitio estaba salpicado de anuncios de Google y carecía de una clara monetización. El servicio funcionó bastante bien, pero parecía incompleto.

    También: ¿La IA destruirá la creatividad humana? No, y aquí está por qué

    Ese sentimiento incompleto se ha ido. Zerogpt ahora se presenta como un servicio SaaS típico, completo con precios, nombre de la empresa e información de contacto. Su precisión también aumentó: la última vez fue del 80%; Esta vez obtuvo 5 de 5.

    zerogpt

    Captura de pantalla de David Gewirtz/Zdnet

    ¿Es humano o es AI?

    ¿Qué pasa contigo? ¿Has probado detectores de contenido de IA como CopyLeaks, Monica o Zerogpt? ¿Qué tan precisos han sido en su experiencia? ¿Ha utilizado estas herramientas para proteger la integridad académica o editorial? ¿Has encontrado situaciones en las que el trabajo escrito por humanos fue marcado por error como AI? ¿Hay detectores en los que confíe más que otros para evaluar la originalidad? Háganos saber en los comentarios a continuación.

    Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.


    Puede seguir mis actualizaciones de proyecto diarias en las redes sociales. Asegúrese de suscribirse a mi boletín de actualizaciones semanales y sígueme en Twitter/X en @Davidgewirtzen Facebook en Facebook.com/davidgewirtz, en Instagram en Instagram.com/davidgewirtz, en bluesky en @davidgewirtz.com, y en YouTube en youtube.com/davidgewirtztv.

    Continue Reading

    Trending