AI-transcriptiesoftware in ziekenhuizen verzint uitspraken, onderzoekers waarschuwen
AmsterdamEr zijn toenemende zorgen over Whisper, een AI-hulpmiddel voor spraaktranscriptie, nu het steeds meer in de gezondheidszorg wordt gebruikt. Onderzoekers hebben ontdekt dat de software soms uitspraken verzint die nooit daadwerkelijk zijn gedaan. Dit probleem kan zeer gevaarlijk zijn in medische omgevingen, waar nauwkeurige transcripties cruciaal zijn.
Whisper is een instrument ontwikkeld door OpenAI en wordt gebruikt op diverse platformen, waaronder de cloudsystemen van Oracle en Microsoft. Het wordt veel ingezet voor het omzetten van gesproken woorden naar tekst in instellingen zoals ziekenhuizen en callcenters. Toch kan het af en toe fouten maken, wat gevaarlijk kan zijn, bijvoorbeeld door verkeerde medische informatie te geven in de gezondheidszorg.
Onderzoekers hebben ontdekt dat Whisper vaak onnauwkeurige informatie levert. Uit een studie van de Universiteit van Michigan bleek dat maar liefst 80% van de onderzochte transcripties fouten bevatte. Dit heeft geleid tot inspanningen om het model te verbeteren. Daarnaast vond een machine learning-ingenieur fouten in ongeveer de helft van de transcripties die hij onderzocht, wat de omvang van het probleem aantoont.
Verkeerde communicatie in medische omgevingen kan leiden tot foutieve diagnoses, ongeschikte behandelingen of onjuiste adviezen aan patiënten. Deze fouten vormen een bedreiging voor de patiëntveiligheid en vergroten de werkdruk van medisch personeel dat afhankelijk is van nauwkeurige informatie om de juiste zorg te bieden.
21 november 2024 · 08:55
Nvidia imponeert, maar Aziatische beurs reageert aarzelend op concurrentie.
Hier zijn de belangrijkste zorgen die naar voren komen:
Risico's van Onbetrouwbare Transcripties in Medische Omgevingen
- Vaak voorkomende onjuiste transcripties in de zorg.
- Mogelijke ernstige gevolgen zoals verkeerde diagnoses.
- Toepassing in essentiële systemen zoals ziekenhuisnetwerken zonder voldoende bescherming.
- Gevaar voor kwetsbare groepen, zoals doven en slechthorenden, die afhankelijk zijn van nauwkeurige transcripties.
Whisper is populair, maar kent verontrustende problemen. Bij cruciale taken moet spraakherkenning uiterst nauwkeurig zijn. De fouten van Whisper laten zien dat er mogelijk meer regels nodig zijn om de veiligheid en betrouwbaarheid van AI-tools te waarborgen.
Steeds meer mensen vragen OpenAI om deze problemen op te lossen. Experts denken dat strengere regels voor AI kunnen helpen om deze risico's te verminderen. OpenAI werkt aan het bijwerken van zijn modellen en maakt gebruik van feedback om ze nauwkeuriger te maken. Tot er grote verbeteringen zijn, is het echter verstandig om Whisper en vergelijkbare AI-transcriptietools voorzichtig te gebruiken in belangrijke situaties.
20 november 2024 · 01:02
AI onderweg: compacte taalmodellen voor betere prestaties op mobiele apparaten
18 november 2024 · 14:36
Precieze gedragsstudies bij muizen dankzij AI: minder dieren en snellere resultaten
Deel dit artikel