Herramienta de IA en hospitales inventa declaraciones, advierten investigadores.
MadridPreocupaciones Crecientes por Whisper en la Sanidad
Existen preocupaciones crecientes sobre Whisper, una herramienta de inteligencia artificial utilizada para transcribir el habla, a medida que se vuelve más común en el ámbito sanitario. Investigadores han descubierto que el software a veces inventa declaraciones que nunca se dijeron realmente. Este problema podría ser muy peligroso en entornos médicos donde es crucial tener transcripciones precisas.
Whisper es una herramienta de OpenAI que se utiliza en diversas plataformas, incluyendo los servicios en la nube de Oracle y Microsoft. Muchas personas lo emplean para transcribir palabras habladas a texto en lugares como hospitales y centros de llamadas. Sin embargo, a veces puede cometer errores, lo que podría ser arriesgado, como proporcionar información médica incorrecta en el ámbito de la salud.
Investigadores han descubierto que Whisper con frecuencia proporciona información inexacta. Un estudio de la Universidad de Michigan reveló que el 80% de las transcripciones revisadas contenían errores. Esto generó esfuerzos por mejorar el modelo. Además, un ingeniero de aprendizaje automático encontró errores en aproximadamente la mitad de las transcripciones que examinó, destacando un problema generalizado.
Conversaciones malinterpretadas en entornos médicos pueden llevar a diagnósticos incorrectos, tratamientos inadecuados o brindar consejos erróneos a los pacientes. Estos errores pueden poner en riesgo la seguridad del paciente y aumentar la carga de trabajo del personal médico, que depende de información precisa para ofrecer atención adecuada.
28 de octubre de 2024 · 13:31
Hombre en el Reino Unido encarcelado por crear imágenes abusivas con IA
Se destacan las principales preocupaciones:
Frecuencia alta de transcripciones incorrectas en contextos médicos, lo que puede causar graves consecuencias como diagnósticos erróneos. Uso en aplicaciones críticas como sistemas hospitalarios sin las debidas medidas de seguridad. Riesgos para grupos vulnerables, como las personas sordas o con dificultades auditivas, que dependen de transcripciones precisas.
Whisper es popular, pero presenta problemas preocupantes. En áreas cruciales, se requiere una alta precisión en el reconocimiento de voz. Los errores de Whisper indican que podría ser necesario establecer más regulaciones para asegurar que las herramientas de IA sean seguras y confiables.
Cada vez más personas solicitan a OpenAI que resuelva estos problemas. Los expertos consideran que establecer normas más estrictas para la inteligencia artificial podría mitigar estos riesgos. OpenAI está actualizando sus modelos y utilizando la retroalimentación para mejorar la precisión. No obstante, hasta que se logren grandes avances, se recomienda precaución al utilizar Whisper y herramientas de transcripción de IA similares en situaciones críticas.
27 de octubre de 2024 · 4:35
Autoría percibida: el desafío de la IA en la creación de historias
26 de octubre de 2024 · 20:44
La revolución de la ciencia: cómo la IA y la robótica impulsan el descubrimiento en los laboratorios
Compartir este artículo