Neue Empfehlungen für Transparenz und Fairness: Bias in medizinischer KI beseitigen
BerlinInnovationen in der medizinischen KI bieten Möglichkeiten zur Verbesserung von Diagnosen und Behandlungen. Neue Erkenntnisse zeigen jedoch ein ernstes Problem auf: KI-Systeme können voreingenommen sein, was zu ungleichen Gesundheitsresultaten führen kann. Die Lösung dieses Problems ist wichtig, um sicherzustellen, dass alle gleichermaßen von diesen Technologien profitieren. Kürzlich wurden bedeutende Empfehlungen in The Lancet Digital Health und NEJM AI veröffentlicht. Diese Richtlinien, die von über 350 Experten aus 58 Ländern im Rahmen der internationalen Initiative STANDING Together erstellt wurden, zielen darauf ab, die Datenvielfalt zu verbessern und mögliche Voreingenommenheiten zu identifizieren.
Der Ratschlag konzentriert sich auf wesentliche Schritte, um die Gerechtigkeit beim Einsatz von KI im Gesundheitswesen sicherzustellen.
- Verwendung von Gesundheitsdaten, die alle Bevölkerungsgruppen, einschließlich Minderheiten und benachteiligter Gruppen, repräsentieren.
- Ermutigung der Herausgeber von Datensätzen, die Verzerrungen und Einschränkungen ihrer Daten offenzulegen.
- Bereitstellung von Werkzeugen für Entwickler zur Bewertung der Eignung von Datensätzen für die KI-Entwicklung.
- Darlegung von Methoden zur gründlichen Überprüfung von KI-Systemen auf Vorurteile in verschiedenen Bevölkerungssegmenten.
Zu verstehen, dass Daten voreingenommen sein können, ist nur der erste Schritt. KI-Technologien müssen gründlich getestet werden, um sicherzustellen, dass sie für verschiedene Bevölkerungsgruppen gut funktionieren. Dies erfordert eine Änderung bei der Erfassung und Überprüfung von Datensätzen. Dr. Xiao Liu, der die Studie leitet, betont, dass es nicht ausreicht, Datensätze einfach zu verbessern. Eine grundlegende Veränderung in der Wahrnehmung und Nutzung von Gesundheitsdaten ist notwendig.
Die Initiative betont die Bedeutung der öffentlichen Mitbestimmung bei der Schaffung von ethischer KI. Patientenvertreter schlagen vor, dass die Einbeziehung öffentlicher Meinungen den Entwicklungsprozess inkludierender gestalten kann. Dadurch wird die Verbindung zwischen Wissenschaftlern und den Personen, die von KI-Technologien betroffen sind, verbessert und das Risiko verringert, wichtige Probleme zu übersehen oder unbeabsichtigten Schaden zu verursachen.
Wichtige Gesundheitsorganisationen und Regulierungsbehörden weltweit betonen die dringende Notwendigkeit, das Thema KI-Voreingenommenheit global anzugehen. Durch die Festlegung von Standards wollen sie Ungleichheiten in den Griff bekommen, bevor KI-Werkzeuge in Gesundheitssystemen weit verbreitet sind. Die STANDING Together-Richtlinien bieten einen Plan für die Entwicklung verantwortungsvoller und gerechter medizinischer KI, um sicherzustellen, dass die Vorteile der Technologie gleichmäßig verteilt werden und das Vertrauen in verschiedenen Gemeinschaften gestärkt wird.
Die Studie wird hier veröffentlicht:
http://dx.doi.org/10.1016/S2589-7500(24)00224-3und seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet
Joseph E Alderman, Joanne Palmer, Elinor Laws, Melissa D McCradden, Johan Ordish, Marzyeh Ghassemi, Stephen R Pfohl, Negar Rostamzadeh, Heather Cole-Lewis, Ben Glocker, Melanie Calvert, Tom J Pollard, Jaspret Gill, Jacqui Gath, Adewale Adebajo, Jude Beng, Cassandra H Leung, Stephanie Kuku, Lesley-Anne Farmer, Rubeta N Matin, Bilal A Mateen, Francis McKay, Katherine Heller, Alan Karthikesalingam, Darren Treanor, Maxine Mackintosh, Lauren Oakden-Rayner, Russell Pearson, Arjun K Manrai, Puja Myles, Judit Kumuthini, Zoher Kapacee, Neil J Sebire, Lama H Nazer, Jarrel Seah, Ashley Akbari, Lew Berman, Judy W Gichoya, Lorenzo Righetto, Diana Samuel, William Wasswa, Maria Charalambides, Anmol Arora, Sameer Pujari, Charlotte Summers, Elizabeth Sapey, Sharon Wilkinson, Vishal Thakker, Alastair Denniston, Xiaoxuan Liu. Tackling algorithmic bias and promoting transparency in health datasets: the STANDING Together consensus recommendations. The Lancet Digital Health, 2024; DOI: 10.1016/S2589-7500(24)00224-3Diesen Artikel teilen