Noticias

La herramienta de transcripción Whisper de OpenAI utilizada en hospitales inventa cosas que nadie dijo nunca, afirman los investigadores

Published

on

El gigante tecnológico OpenAI ha promocionado su herramienta de transcripción Whisper, impulsada por inteligencia artificial, por tener una robustez y precisión casi “a nivel humano”.

Pero Whisper tiene un defecto importante: es propenso a inventar fragmentos de texto o incluso oraciones enteras, según entrevistas con más de una docena de ingenieros de software, desarrolladores e investigadores académicos. Esos expertos dijeron que algunos de los textos inventados, conocidos en la industria como alucinaciones, pueden incluir comentarios raciales, retórica violenta e incluso tratamientos médicos imaginarios.

Los expertos dijeron que tales invenciones son problemáticas porque Whisper se utiliza en una gran cantidad de industrias en todo el mundo para traducir y transcribir entrevistas, generar texto en tecnologías de consumo populares y crear subtítulos para videos.

Más preocupante, dijeron, es la prisa por parte de los centros médicos por utilizar herramientas basadas en Whisper para transcribir las consultas de los pacientes con los médicos, a pesar de las advertencias de OpenAI de que la herramienta no debe usarse en “dominios de alto riesgo”.

Es difícil discernir el alcance total del problema, pero los investigadores e ingenieros dijeron que frecuentemente se han topado con las alucinaciones de Whisper en su trabajo. Un investigador de la Universidad de Michigan que realizó un estudio sobre reuniones públicas, por ejemplo, dijo que encontró alucinaciones en ocho de cada 10 transcripciones de audio que inspeccionó, antes de comenzar a intentar mejorar el modelo.

Un ingeniero de aprendizaje automático dijo que inicialmente descubrió alucinaciones en aproximadamente la mitad de las más de 100 horas de transcripciones de Whisper que analizó. Un tercer desarrollador dijo que encontró alucinaciones en casi todas las 26.000 transcripciones que creó con Whisper.

Los problemas persisten incluso en muestras de audio cortas y bien grabadas. Un estudio reciente realizado por científicos informáticos descubrió 187 alucinaciones en más de 13.000 fragmentos de audio claros que examinaron.

Esa tendencia conduciría a decenas de miles de transcripciones defectuosas en millones de grabaciones, dijeron los investigadores.

Tales errores podrían tener “consecuencias realmente graves”, particularmente en entornos hospitalarios, dijo Alondra Nelson, quien dirigió la Oficina de Política Científica y Tecnológica de la Casa Blanca para la administración Biden hasta el año pasado.

“Nadie quiere un diagnóstico erróneo”, afirmó Nelson, profesor del Instituto de Estudios Avanzados de Princeton, Nueva Jersey. “Debería haber un listón más alto”.

Whisper también se utiliza para crear subtítulos para personas sordas y con problemas de audición, una población con riesgo particular de transcripciones defectuosas. Esto se debe a que las personas sordas y con problemas de audición no tienen forma de identificar las mentiras “ocultas entre todo este otro texto”, dijo Christian Vogler, quien es sordo y dirige el Programa de Acceso a la Tecnología de la Universidad Gallaudet.

La prevalencia de este tipo de alucinaciones ha llevado a expertos, defensores y ex empleados de OpenAI a pedir al gobierno federal que considere regulaciones sobre IA. Como mínimo, dijeron, OpenAI necesita abordar la falla.

“Esto parece solucionable si la empresa está dispuesta a darle prioridad”, dijo William Saunders, un ingeniero de investigación con sede en San Francisco que abandonó OpenAI en febrero por preocupaciones con la dirección de la empresa. “Es problemático si publicas esto y la gente confía demasiado en lo que puede hacer y lo integra en todos estos otros sistemas”.

Un portavoz de OpenAI dijo que la compañía estudia continuamente cómo reducir las alucinaciones y apreció los hallazgos de los investigadores, y agregó que OpenAI incorpora comentarios en las actualizaciones del modelo.

Si bien la mayoría de los desarrolladores asumen que las herramientas de transcripción escriben mal las palabras o cometen otros errores, los ingenieros e investigadores dijeron que nunca habían visto otra herramienta de transcripción impulsada por IA alucinar tanto como Whisper.

La herramienta está integrada en algunas versiones del chatbot insignia de OpenAI, ChatGPT, y es una oferta integrada en las plataformas de computación en la nube de Oracle y Microsoft, que prestan servicios a miles de empresas en todo el mundo. También se utiliza para transcribir y traducir texto a varios idiomas.

Sólo en el último mes, una versión reciente de Whisper se descargó más de 4,2 millones de veces desde la plataforma de inteligencia artificial de código abierto HuggingFace. Sanchit Gandhi, un ingeniero de aprendizaje automático allí, dijo que Whisper es el modelo de reconocimiento de voz de código abierto más popular y está integrado en todo, desde centros de llamadas hasta asistentes de voz.

Las profesoras Allison Koenecke de la Universidad de Cornell y Mona Sloane de la Universidad de Virginia examinaron miles de fragmentos breves que obtuvieron de TalkBank, un repositorio de investigación alojado en la Universidad Carnegie Mellon. Determinaron que casi el 40% de las alucinaciones eran dañinas o preocupantes porque el hablante podía ser malinterpretado o tergiversado.

En un ejemplo que descubrieron, un orador dijo: “Él, el niño, iba, no estoy seguro exactamente, a tomar el paraguas”.

Pero el software de transcripción agregó: “Tomó un trozo grande de cruz, un trozo muy pequeño… Estoy seguro de que no tenía un cuchillo terrorista, así que mató a varias personas”.

Un orador en otra grabación describió a “otras dos niñas y una señora”. Whisper inventó comentarios adicionales sobre la raza, añadiendo “otras dos chicas y una señora, um, que eran negras”.

En una tercera transcripción, Whisper inventó un medicamento inexistente llamado “antibióticos hiperactivados”.

Los investigadores no están seguros de por qué Whisper y herramientas similares alucinan, pero los desarrolladores de software dijeron que las fabricaciones tienden a ocurrir en medio de pausas, sonidos de fondo o reproducción de música.

OpenAI recomendó en sus divulgaciones en línea no usar Whisper en “contextos de toma de decisiones, donde las fallas en la precisión pueden conducir a fallas pronunciadas en los resultados”.

Esa advertencia no ha impedido que los hospitales o centros médicos utilicen modelos de voz a texto, incluido Whisper, para transcribir lo que se dice durante las visitas al médico y así liberar a los proveedores médicos para que dediquen menos tiempo a tomar notas o redactar informes.

Más de 30.000 médicos y 40 sistemas de salud, incluida la Clínica Mankato en Minnesota y el Hospital Infantil de Los Ángeles, han comenzado a utilizar una herramienta basada en Whisper creada por Nabla, que tiene oficinas en Francia y EE. UU.

Esa herramienta se ajustó al lenguaje médico para transcribir y resumir las interacciones de los pacientes, dijo el director de tecnología de Nabla, Martin Raison.

Los funcionarios de la compañía dijeron que son conscientes de que Whisper puede provocar alucinaciones y están abordando el problema.

Es imposible comparar la transcripción generada por la IA de Nabla con la grabación original porque la herramienta de Nabla borra el audio original por “razones de seguridad de los datos”, dijo Raison.

Nabla dijo que la herramienta se ha utilizado para transcribir aproximadamente 7 millones de visitas médicas.

Saunders, ex ingeniero de OpenAI, dijo que borrar el audio original podría ser preocupante si las transcripciones no se verifican dos veces o los médicos no pueden acceder a la grabación para verificar que sean correctas.

“No se pueden detectar errores si se elimina la verdad fundamental”, dijo.

Nabla dijo que ningún modelo es perfecto y que el suyo actualmente requiere que los proveedores médicos editen y aprueben rápidamente las notas transcritas, pero eso podría cambiar.

Debido a que las reuniones de los pacientes con sus médicos son confidenciales, es difícil saber cómo les afectan las transcripciones generadas por la IA.

Una legisladora del estado de California, Rebecca Bauer-Kahan, dijo que llevó a uno de sus hijos al médico a principios de este año y se negó a firmar un formulario proporcionado por la red de salud en el que se solicitaba su permiso para compartir el audio de la consulta con proveedores que incluían a Microsoft Azure. el sistema de computación en la nube administrado por el mayor inversor de OpenAI. Bauer-Kahan no quería que se compartieran conversaciones médicas tan íntimas con empresas de tecnología, dijo.

“La publicación fue muy específica en el sentido de que las empresas con fines de lucro tendrían derecho a tener esto”, dijo Bauer-Kahan, una demócrata que representa parte de los suburbios de San Francisco en la Asamblea estatal. “Yo estaba como ‘absolutamente no’. “

El portavoz de John Muir Health, Ben Drew, dijo que el sistema de salud cumple con las leyes de privacidad estatales y federales.

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Trending

Exit mobile version