Neue Studie: KI interpretiert Knie-Röntgenbilder fälschlicherweise als Anzeichen für Bierkonsum – Risiko im Gesundheitswesen

Lesezeit: 2 Minuten
Durch Hans Meier
- in
Röntgenaufnahme des Knies fälschlicherweise mit Bier-Icons beschriftet.

BerlinKünstliche Intelligenz wird im Gesundheitswesen eingesetzt, um medizinische Bilder zu analysieren und Details zu erkennen, die Menschen möglicherweise übersehen. Doch eine Studie in Scientific Reports hat ein großes Problem aufgezeigt: KI kann medizinische Bilder falsch interpretieren, was zu seltsamen und unzuverlässigen Vorhersagen führen kann. Bei der Untersuchung von über 25.000 Röntgenbildern von Knien stellten Forscher fest, dass KI-Modelle manchmal unerwartete Merkmale, wie den Bierkonsum der Patienten, identifizieren, indem sie subtile Muster wahrnehmen, die keinen medizinischen Hintergrund haben.

KI-Modelle übersehen oft wichtige medizinische Details und konzentrieren sich stattdessen auf Nebensächlichkeiten. Sie erkennen unwichtige Merkmale in den Daten, wie Unterschiede in Röntgengeräten oder Beschriftungen von verschiedenen Krankenhäusern. Selbst wenn wir versuchen, solche Verzerrungen zu beseitigen, entdeckt die KI andere unbemerkte Muster, auf die sie ihre Entscheidungen stützt. Dieses Problem gefährdet die Qualität der wissenschaftlichen Forschung und den Einsatz von KI in der Medizin.

Einige wesentliche Herausforderungen sind identifiziert worden:

Künstliche Intelligenz nutzt unbeabsichtigte Muster in Daten aus, was zu einer Abkürzungsmentalität führt und irreführende Schlussfolgerungen zur Folge hat. Statt auf medizinische Merkmale wird auf verwirrende Variablen vertraut, und die Beseitigung von Verzerrungen erweist sich als schwierig.

KI birgt Risiken in der medizinischen Forschung, da sie Fehler machen könnte. Es ist entscheidend, strenge Kontrollen zu haben, um sicherzustellen, dass diese KI-Systeme die richtigen medizinischen Informationen lernen. KI verarbeitet Informationen nicht wie ein Mensch; sie nutzt Muster anstelle von menschlicher Logik oder Kontext. Deshalb, obwohl KI nützlich sein kann, müssen wir ihre Grenzen und potenziellen Fehler verstehen.

Gesundheitsfachkräfte und Forscher sollten vorsichtig sein. Beim Einsatz von KI zur Entdeckung neuer Muster ist stichhaltiger Beweis erforderlich. Es besteht die Gefahr, die Fähigkeiten der KI falsch einzuschätzen. Menschen könnten irrtümlich denken, dass KI Dinge wie Menschen versteht. Es ist entscheidend, diese Werkzeuge zu prüfen und zu analysieren, um sie in medizinischen Umgebungen korrekt und sicher einzusetzen.

Die Rolle der KI in der medizinischen Bildgebung entwickelt sich ständig weiter, daher sind Kenntnisse über ihre Fähigkeiten, Risiken und die Methoden für ein fundiertes Studium entscheidend. Mit der zunehmenden Anwendung von KI im Gesundheitswesen ist es essenziell, die Forschung ehrlich und verlässlich zu gestalten.

Die Studie wird hier veröffentlicht:

http://dx.doi.org/10.1038/s41746-021-00438-z

und seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet

Ravi Aggarwal, Viknesh Sounderajah, Guy Martin, Daniel S. W. Ting, Alan Karthikesalingam, Dominic King, Hutan Ashrafian, Ara Darzi. Diagnostic accuracy of deep learning in medical imaging: a systematic review and meta-analysis. npj Digital Medicine, 2021; 4 (1) DOI: 10.1038/s41746-021-00438-z
Wissenschaft: Neueste Nachrichten
Weiterlesen:

Diesen Artikel teilen

Kommentare (0)

Kommentar veröffentlichen
NewsWorld

NewsWorld.app ist der kostenlose Premium-Nachrichtenseite in Deutschland. Wir bieten unabhängige und hochwertige Nachrichten, ohne pro Artikel zu berechnen und ohne ein Abonnementmodell. NewsWorld ist der Ansicht, dass allgemeine, geschäftliche, wirtschaftliche, technische und Unterhaltungsnachrichten auf hohem Niveau kostenlos zugänglich sein sollten. Darüber hinaus ist NewsWorld unglaublich schnell und verwendet fortschrittliche Technologie, um Nachrichtenartikel in einem äußerst lesbaren und attraktiven Format für den Verbraucher zu präsentieren.


© 2024 NewsWorld™. Alle Rechte vorbehalten.