Neue Methode: KI-Training durch FairDeDup reduziert soziale Vorurteile in Datensätzen
BerlinWissenschaftler der Oregon State University und Adobe haben eine neue Methode namens FairDeDup entwickelt, um KI-Systeme zu trainieren. Diese Technik reduziert soziale Verzerrungen in der KI, indem sie doppelte Daten während des Trainingsprozesses entfernt.
Die neue Technik verbessert eine frühere Methode namens SemDeDup durch die Einführung von Fairness-Maßnahmen. Bei der Modellentwicklung für Künstliche Intelligenz werden oft Datensätze verwendet, die soziale Vorurteile enthalten. Diese Vorurteile in den Modellen können zu unfairen Handlungen und Entscheidungen führen.
FairDeDup verringert Datenmengen durch die Auswahl der wichtigsten Teile. Dieser Prozess beinhaltet das Behalten einiger Daten und das Entfernen des Rests, während die verbleibenden Daten dennoch das ursprüngliche Set gut widerspiegeln. Forscher entscheiden basierend auf dem Inhalt, welche Daten beibehalten werden, und stellen sicher, dass die essentiellen Informationen erhalten bleiben.
Hier einige Informationen über die Funktionsweise von FairDeDup:
- Überflüssige Daten werden entfernt
- Menschlich definierte Vielfalt wird einbezogen
- Vorurteile hinsichtlich Beruf, Rasse, Geschlecht, Alter, Geografie und Kultur werden berücksichtigt
Eric Slyman, Doktorand am College of Engineering der OSU, führte die Forschung an. Gemeinsam arbeitete er mit Stefan Lee von der OSU sowie mit Scott Cohen und Kushal Kafle von Adobe.
Daten aus dem Internet spiegeln oft gesellschaftliche Vorurteile wider. Diese Voreingenommenheiten können sich in den Ergebnissen von KI-Systemen zeigen, wie zum Beispiel, wenn bei der Suche nach CEOs oder Ärzten nur Bilder von weißen Männern angezeigt werden. Das Team von Slyman untersuchte, wie sich das Entfernen von doppelten Daten auf diese Vorurteile auswirkt. Sie fanden heraus, dass der Einsatz von FairDeDup negative Auswirkungen verringern kann.
FairDeDup zielt darauf ab, die Kosten für die Datenverarbeitung zu senken und AI-Systeme gerechter zu gestalten. Slyman erklärt, dass diese Methode nicht darauf abzielt, AI auf eine strikte Vorstellung von Fairness festzulegen. Stattdessen hilft sie der AI, in unterschiedlichen Situationen und für verschiedene Nutzer fair zu agieren. Dadurch können Menschen selbst bestimmen, was für sie fair ist, ohne auf große, voreingenommene Internet-Datensätze angewiesen zu sein.
Die Forscher präsentierten den FairDeDup-Algorithmus auf der IEEE/CVF-Konferenz für Computer Vision und Mustererkennung in Seattle. Sie betonten, dass diese neue Methode kostengünstig, präzise und gerecht ist.
Slyman erläuterte, dass ihre Methode es KI ermöglicht, kostensparend, präzise und gerecht zu lernen. Das Team fand heraus, dass KI-Systeme durch die Eliminierung von Verzerrungen in den Daten gerechter gestaltet werden können.
Diese Methode ermöglicht es der KI, gerechtere Entscheidungen zu treffen, indem sie unterschiedliche menschliche Situationen und Unterschiede berücksichtigt. Statt eine einzige Vorstellung von Gerechtigkeit aufzuzwingen, erlaubt sie es den verschiedenen Anwendungsbereichen der KI, eigene Definitionen von Fairness zu entwickeln.
Dieser Fortschritt stellt einen bedeutenden Schritt zur Reduzierung von Vorurteilen in KI-Systemen dar. Forscher sind der Ansicht, dass FairDeDup dazu beitragen wird, Künstliche Intelligenz gerechter und weniger voreingenommen gegenüber marginalisierten Gruppen zu gestalten. Die Zusammenarbeit zwischen der OSU und Adobe zielt darauf ab, die Fairness und Effizienz von KI zu verbessern.
Die Studie wird hier veröffentlicht:
NaNund seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet
NaNDiesen Artikel teilen