AI-transcriptiesoftware in ziekenhuizen verzint uitspraken, onderzoekers waarschuwen

Leestijd: 2 minuten
Door Jan Vaart
- in
Ziekenhuisapparaat toont onjuiste transcriptie op het scherm.

AmsterdamEr zijn toenemende zorgen over Whisper, een AI-hulpmiddel voor spraaktranscriptie, nu het steeds meer in de gezondheidszorg wordt gebruikt. Onderzoekers hebben ontdekt dat de software soms uitspraken verzint die nooit daadwerkelijk zijn gedaan. Dit probleem kan zeer gevaarlijk zijn in medische omgevingen, waar nauwkeurige transcripties cruciaal zijn.

Whisper is een instrument ontwikkeld door OpenAI en wordt gebruikt op diverse platformen, waaronder de cloudsystemen van Oracle en Microsoft. Het wordt veel ingezet voor het omzetten van gesproken woorden naar tekst in instellingen zoals ziekenhuizen en callcenters. Toch kan het af en toe fouten maken, wat gevaarlijk kan zijn, bijvoorbeeld door verkeerde medische informatie te geven in de gezondheidszorg.

Onderzoekers hebben ontdekt dat Whisper vaak onnauwkeurige informatie levert. Uit een studie van de Universiteit van Michigan bleek dat maar liefst 80% van de onderzochte transcripties fouten bevatte. Dit heeft geleid tot inspanningen om het model te verbeteren. Daarnaast vond een machine learning-ingenieur fouten in ongeveer de helft van de transcripties die hij onderzocht, wat de omvang van het probleem aantoont.

Verkeerde communicatie in medische omgevingen kan leiden tot foutieve diagnoses, ongeschikte behandelingen of onjuiste adviezen aan patiënten. Deze fouten vormen een bedreiging voor de patiëntveiligheid en vergroten de werkdruk van medisch personeel dat afhankelijk is van nauwkeurige informatie om de juiste zorg te bieden.

Hier zijn de belangrijkste zorgen die naar voren komen:

Risico's van Onbetrouwbare Transcripties in Medische Omgevingen

  • Vaak voorkomende onjuiste transcripties in de zorg.
  • Mogelijke ernstige gevolgen zoals verkeerde diagnoses.
  • Toepassing in essentiële systemen zoals ziekenhuisnetwerken zonder voldoende bescherming.
  • Gevaar voor kwetsbare groepen, zoals doven en slechthorenden, die afhankelijk zijn van nauwkeurige transcripties.

Whisper is populair, maar kent verontrustende problemen. Bij cruciale taken moet spraakherkenning uiterst nauwkeurig zijn. De fouten van Whisper laten zien dat er mogelijk meer regels nodig zijn om de veiligheid en betrouwbaarheid van AI-tools te waarborgen.

Steeds meer mensen vragen OpenAI om deze problemen op te lossen. Experts denken dat strengere regels voor AI kunnen helpen om deze risico's te verminderen. OpenAI werkt aan het bijwerken van zijn modellen en maakt gebruik van feedback om ze nauwkeuriger te maken. Tot er grote verbeteringen zijn, is het echter verstandig om Whisper en vergelijkbare AI-transcriptietools voorzichtig te gebruiken in belangrijke situaties.

Artificial Intelligence: Laatste nieuws

Deel dit artikel

Reacties (0)

Plaats een reactie
NewsWorld

NewsWorld.app is dé gratis premium nieuwssite van Nederland. Wij bieden onafhankelijk en kwalitatief hoogwaardig nieuws zonder daarvoor geld per artikel te rekenen en zonder abonnementsvorm. NewsWorld is van mening dat zowel algemeen, zakelijk, economisch, tech als entertainment nieuws op een hoog niveau gratis toegankelijk moet zijn. Daarbij is NewsWorld razend snel en werkt het met geavanceerde technologie om de nieuwsartikelen in een zeer leesbare en attractieve vorm aan te bieden aan de consument. Dus wil je gratis nieuws zonder betaalmuur (paywall), dan ben je bij NewsWorld aan het goede adres. Wij blijven ons inzetten voor hoogwaardige gratis artikelen zodat jij altijd op de hoogte kan blijven!


© 2024 NewsWorld™. Alle rechten voorbehouden.