Herramienta de IA en hospitales inventa declaraciones, advierten investigadores.

Tiempo de lectura: 2 minutos
Por Jamie Olivos
- en
Dispositivo hospitalario que muestra transcripción incorrecta en la pantalla.

MadridPreocupaciones Crecientes por Whisper en la Sanidad

Existen preocupaciones crecientes sobre Whisper, una herramienta de inteligencia artificial utilizada para transcribir el habla, a medida que se vuelve más común en el ámbito sanitario. Investigadores han descubierto que el software a veces inventa declaraciones que nunca se dijeron realmente. Este problema podría ser muy peligroso en entornos médicos donde es crucial tener transcripciones precisas.

Whisper es una herramienta de OpenAI que se utiliza en diversas plataformas, incluyendo los servicios en la nube de Oracle y Microsoft. Muchas personas lo emplean para transcribir palabras habladas a texto en lugares como hospitales y centros de llamadas. Sin embargo, a veces puede cometer errores, lo que podría ser arriesgado, como proporcionar información médica incorrecta en el ámbito de la salud.

Investigadores han descubierto que Whisper con frecuencia proporciona información inexacta. Un estudio de la Universidad de Michigan reveló que el 80% de las transcripciones revisadas contenían errores. Esto generó esfuerzos por mejorar el modelo. Además, un ingeniero de aprendizaje automático encontró errores en aproximadamente la mitad de las transcripciones que examinó, destacando un problema generalizado.

Conversaciones malinterpretadas en entornos médicos pueden llevar a diagnósticos incorrectos, tratamientos inadecuados o brindar consejos erróneos a los pacientes. Estos errores pueden poner en riesgo la seguridad del paciente y aumentar la carga de trabajo del personal médico, que depende de información precisa para ofrecer atención adecuada.

Se destacan las principales preocupaciones:

Frecuencia alta de transcripciones incorrectas en contextos médicos, lo que puede causar graves consecuencias como diagnósticos erróneos. Uso en aplicaciones críticas como sistemas hospitalarios sin las debidas medidas de seguridad. Riesgos para grupos vulnerables, como las personas sordas o con dificultades auditivas, que dependen de transcripciones precisas.

Whisper es popular, pero presenta problemas preocupantes. En áreas cruciales, se requiere una alta precisión en el reconocimiento de voz. Los errores de Whisper indican que podría ser necesario establecer más regulaciones para asegurar que las herramientas de IA sean seguras y confiables.

Cada vez más personas solicitan a OpenAI que resuelva estos problemas. Los expertos consideran que establecer normas más estrictas para la inteligencia artificial podría mitigar estos riesgos. OpenAI está actualizando sus modelos y utilizando la retroalimentación para mejorar la precisión. No obstante, hasta que se logren grandes avances, se recomienda precaución al utilizar Whisper y herramientas de transcripción de IA similares en situaciones críticas.

Inteligencia Artificial: Últimas noticias

Compartir este artículo

Comentarios (0)

Publicar un comentario
NewsWorld

NewsWorld.app es un sitio de noticias premium gratuito. Proporcionamos noticias independientes y de alta calidad sin cobrar por artículo y sin un modelo de suscripción. NewsWorld cree que las noticias generales, de negocios, económicas, tecnológicas y de entretenimiento deberían ser accesibles a un alto nivel de forma gratuita. Además, NewsWorld es increíblemente rápido y utiliza tecnología avanzada para presentar artículos de noticias en un formato altamente legible y atractivo para el consumidor.


© 2024 NewsWorld™. Todos los derechos reservados.