Neue Studie: KI interpretiert Knie-Röntgenbilder fälschlicherweise als Anzeichen für Bierkonsum – Risiko im Gesundheitswesen
BerlinKünstliche Intelligenz wird im Gesundheitswesen eingesetzt, um medizinische Bilder zu analysieren und Details zu erkennen, die Menschen möglicherweise übersehen. Doch eine Studie in Scientific Reports hat ein großes Problem aufgezeigt: KI kann medizinische Bilder falsch interpretieren, was zu seltsamen und unzuverlässigen Vorhersagen führen kann. Bei der Untersuchung von über 25.000 Röntgenbildern von Knien stellten Forscher fest, dass KI-Modelle manchmal unerwartete Merkmale, wie den Bierkonsum der Patienten, identifizieren, indem sie subtile Muster wahrnehmen, die keinen medizinischen Hintergrund haben.
KI-Modelle übersehen oft wichtige medizinische Details und konzentrieren sich stattdessen auf Nebensächlichkeiten. Sie erkennen unwichtige Merkmale in den Daten, wie Unterschiede in Röntgengeräten oder Beschriftungen von verschiedenen Krankenhäusern. Selbst wenn wir versuchen, solche Verzerrungen zu beseitigen, entdeckt die KI andere unbemerkte Muster, auf die sie ihre Entscheidungen stützt. Dieses Problem gefährdet die Qualität der wissenschaftlichen Forschung und den Einsatz von KI in der Medizin.
Einige wesentliche Herausforderungen sind identifiziert worden:
Künstliche Intelligenz nutzt unbeabsichtigte Muster in Daten aus, was zu einer Abkürzungsmentalität führt und irreführende Schlussfolgerungen zur Folge hat. Statt auf medizinische Merkmale wird auf verwirrende Variablen vertraut, und die Beseitigung von Verzerrungen erweist sich als schwierig.
KI birgt Risiken in der medizinischen Forschung, da sie Fehler machen könnte. Es ist entscheidend, strenge Kontrollen zu haben, um sicherzustellen, dass diese KI-Systeme die richtigen medizinischen Informationen lernen. KI verarbeitet Informationen nicht wie ein Mensch; sie nutzt Muster anstelle von menschlicher Logik oder Kontext. Deshalb, obwohl KI nützlich sein kann, müssen wir ihre Grenzen und potenziellen Fehler verstehen.
Gesundheitsfachkräfte und Forscher sollten vorsichtig sein. Beim Einsatz von KI zur Entdeckung neuer Muster ist stichhaltiger Beweis erforderlich. Es besteht die Gefahr, die Fähigkeiten der KI falsch einzuschätzen. Menschen könnten irrtümlich denken, dass KI Dinge wie Menschen versteht. Es ist entscheidend, diese Werkzeuge zu prüfen und zu analysieren, um sie in medizinischen Umgebungen korrekt und sicher einzusetzen.
Die Rolle der KI in der medizinischen Bildgebung entwickelt sich ständig weiter, daher sind Kenntnisse über ihre Fähigkeiten, Risiken und die Methoden für ein fundiertes Studium entscheidend. Mit der zunehmenden Anwendung von KI im Gesundheitswesen ist es essenziell, die Forschung ehrlich und verlässlich zu gestalten.
Die Studie wird hier veröffentlicht:
http://dx.doi.org/10.1038/s41746-021-00438-zund seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet
Ravi Aggarwal, Viknesh Sounderajah, Guy Martin, Daniel S. W. Ting, Alan Karthikesalingam, Dominic King, Hutan Ashrafian, Ara Darzi. Diagnostic accuracy of deep learning in medical imaging: a systematic review and meta-analysis. npj Digital Medicine, 2021; 4 (1) DOI: 10.1038/s41746-021-00438-zDiesen Artikel teilen