Neue Methode zur Förderung gerechterer KI-Entscheidungen von Forschern der Carnegie Mellon University und des Stevens Institute
BerlinWissenschaftler der Carnegie Mellon University und des Stevens Institute of Technology haben eine neue Methode zur faireren Entscheidungsfindung durch KI entwickelt. In einer kürzlich veröffentlichten Studie erläutern sie, wie die Optimierung des gesellschaftlichen Wohlergehens zu gerechteren KI-Entscheidungen führen kann. Diese Methode bewertet die Gesamtnutzen und -schäden für Einzelpersonen, anstatt nur die Zustimmungsraten verschiedener Gruppen zu betrachten.
Die Fairness von KI untersucht oft, wie verschiedene Gruppen basierend auf Faktoren wie Einkommen, Rasse und Geschlecht behandelt werden. Diese Methoden können jedoch übersehen, wie stark diese Entscheidungen das Leben der Menschen tatsächlich beeinflussen. Zum Beispiel kann die Ablehnung einer Hypothek für eine Person aus einer benachteiligten Gruppe viel gravierendere Folgen haben als für jemanden aus einer privilegierten Gruppe.
Die neue Methode, soziale Wohlfahrtsoptimierung, verändert grundlegend unseren Ansatz für Gerechtigkeit in der Künstlichen Intelligenz.
- Es berücksichtigt die allgemeinen Vor- und Nachteile für Einzelpersonen.
- Es konzentriert sich auf die tatsächlichen Ergebnisse von Entscheidungen.
- Es verknüpft die Fairness von KI mit allgemeineren Standards aus Wirtschaft und Ingenieurwesen.
John Hooker, Professor an der Carnegie Mellon University, war Mitautor einer Studie. Diese stellte er am 29. Mai auf der CPAIOR-Konferenz in Uppsala, Schweden, vor. Das Papier wurde auf der Konferenz mit dem Best Paper Award ausgezeichnet.
Der Artikel behandelt das Konzept der "Alpha-Gerechtigkeit", welche sowohl Fairness als auch Effizienz sicherstellen soll. Diese Form der Gerechtigkeit kann flexibel an unterschiedliche Bedürfnisse angepasst werden, wodurch KI-Systeme Entscheidungen treffen können, die insbesondere den benachteiligten Gruppen zugutekommen.
Derek Leben, Professor für Wirtschaftsethik an der Tepper School, und Violet Chen, Professorin am Stevens Institute of Technology, haben gemeinsam die Studie verfasst. Chen erklärte, dass herkömmliche Kriterien für gruppenbezogene Fairness in der KI oft isolierte Statistiken zwischen verschiedenen Gruppen vergleichen und dabei die tatsächlichen Auswirkungen der Entscheidungen übersehen. Sie schlagen eine neue Methode vor, die die Fairness zwischen Gruppen direkt durch die Förderung des allgemeinen gesellschaftlichen Wohlergehens misst.
Die Studie zeigt mehrere zentrale Punkte auf:
- Traditionelle Methoden zur Fairness von KI berücksichtigen möglicherweise nicht die realen Auswirkungen von Entscheidungen.
- Die Optimierung des sozialen Wohlergehens kann zu besseren Ergebnissen für alle führen, insbesondere für benachteiligte Gruppen.
- Diese Methode kann aktuelle Fairness-Tools für KI bewerten und verbessern.
Laut Hooker helfen ihre Erkenntnisse dabei, faire Regeln für Gruppen auszuwählen und zu erklären. Leben betonte, dass die Studie zeigt, wie Gruppenfairness in der KI erreicht werden kann. Diese Erkenntnisse sind für KI-Entwickler und politische Entscheidungsträger nützlich.
Entwickler können KI-Modelle gerechter gestalten, indem sie Fairness umfassender betrachten. Diese Herangehensweise zeigt die Schwächen bisheriger Fairness-Methoden auf und betont die Notwendigkeit, soziale Gerechtigkeit bei der Entwicklung von KI zu berücksichtigen. Dadurch wird sichergestellt, dass Technologie für alle gesellschaftlichen Gruppen fair ist.
Das Paper ist in den Tagungsakten der CPAIOR 2024 verzeichnet.
Die Studie wird hier veröffentlicht:
http://dx.doi.org/10.1007/978-3-031-60597-0_14und seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet
Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_14Diesen Artikel teilen