Nieuw onderzoek: AI herkent onterecht bierconsumptie in kniefoto's door afwijkende patronen
AmsterdamKunstmatige intelligentie wordt in de gezondheidszorg ingezet voor het analyseren van medische beelden en het ontdekken van details die mensen mogelijk over het hoofd zien. Maar, een studie in Scientific Reports onthulde een aanzienlijk probleem: AI kan medische beelden verkeerd interpreteren, wat leidt tot vreemde en onbetrouwbare voorspellingen. Onderzoek naar meer dan 25.000 röntgenfoto's van knieën toonde aan dat AI-modellen soms ongerelateerde eigenschappen identificeerden, zoals of patiënten alcohol drinken, door subtiele patronen te herkennen die geen medische basis hebben.
AI-algoritmen richten zich soms op de verkeerde details, in plaats van op belangrijke medische informatie. Deze modellen letten op irrelevante zaken in de gegevens, zoals verschillen in röntgenapparaten of labels van diverse ziekenhuizen. Zelfs als we proberen deze vooroordelen te verwijderen, ontdekt AI andere onopgemerkte patronen om zijn beslissingen op te baseren. Dit probleem bedreigt de kwaliteit van wetenschappelijk onderzoek en de inzet van AI in de geneeskunde.
Er zijn enkele belangrijke problemen ontdekt:
AI-modellen benutten onbedoelde patronen in data, wat kan leiden tot kortsluitingen en misleidende conclusies. In plaats van medische kenmerken worden confounders gebruikt, wat voor vertekening zorgt. Het is bovendien lastig om deze bias volledig uit te bannen.
AI kan risico's met zich meebrengen in medisch onderzoek, omdat het fouten kan maken. Het is van groot belang om strenge controles uit te voeren, zodat deze AI-systemen de juiste medische informatie leren. AI verwerkt informatie anders dan mensen; het gebruikt patronen zonder menselijke logica of context. Hoewel AI nuttig kan zijn, moeten we ons bewust zijn van de beperkingen en mogelijke fouten.
Zorgprofessionals en onderzoekers moeten voorzichtig zijn bij het gebruik van AI om nieuwe patronen te ontdekken. Het is noodzakelijk om sterke bewijzen te hebben, want er is een risico dat men overschat wat AI kan. Mensen kunnen onterecht denken dat AI dingen begrijpt zoals een mens dat doet. Daarom is het cruciaal om deze tools grondig te testen en te onderzoeken, zodat ze op de juiste en veilige manier in de medische sector kunnen worden ingezet.
Kunstmatige intelligentie in medische beeldvorming evolueert constant. Daarom is het essentieel om te begrijpen wat het kan, welke risico's eraan verbonden zijn, en hoe het op de juiste manier bestudeerd kan worden. Naarmate AI steeds meer in de gezondheidszorg wordt toegepast, is het cruciaal dat onderzoek eerlijk en betrouwbaar blijft.
De studie is hier gepubliceerd:
http://dx.doi.org/10.1038/s41746-021-00438-zen de officiële citatie - inclusief auteurs en tijdschrift - is
Ravi Aggarwal, Viknesh Sounderajah, Guy Martin, Daniel S. W. Ting, Alan Karthikesalingam, Dominic King, Hutan Ashrafian, Ara Darzi. Diagnostic accuracy of deep learning in medical imaging: a systematic review and meta-analysis. npj Digital Medicine, 2021; 4 (1) DOI: 10.1038/s41746-021-00438-z10 december 2024 · 08:39
Onverwachte ontdekkingen: hoe AI in beeldvorming verborgen ziekten onthult en diagnose verbetert
Deel dit artikel