Une étude propose une méthode pour rendre les décisions IA plus équitables pour tous

Temps de lecture: 2 minutes
Par Josephine Martin
- dans
Balances de l'IA avec des symboles divers.

ParisDes chercheurs de l'Université Carnegie Mellon et de l'Institut Stevens de Technologie ont proposé une méthode pour rendre les décisions de l'IA plus équitables. Ils préconisent l'optimisation du bien-être social, une approche qui examine les avantages et les inconvénients pour les individus afin de garantir des résultats justes.

L'équité de l'IA est souvent évaluée en comparant les taux d'approbation pour différents groupes, qui peuvent varier selon le niveau économique, la race, l'ethnicité ou le genre. John Hooker, professeur à Carnegie Mellon, a coécrit une étude sur ce sujet. Il a présenté cette étude lors de la conférence CPAIOR le 29 mai à Uppsala, en Suède, et le papier a remporté le Prix du Meilleur Article.

L'IA détermine qui obtient un prêt hypothécaire ou une entrevue d'embauche. Les méthodes traditionnelles veillent à ce que différents groupes soient approuvés aux mêmes taux. Cependant, un refus de prêt hypothécaire peut avoir des conséquences plus graves pour une personne défavorisée que pour une personne avantagée. L'optimisation du bien-être social vise à créer de meilleurs résultats pour tous, en particulier pour ceux des groupes désavantagés.

Points principaux:

  • Se concentrer sur l'optimisation du bien-être social pour des décisions d'IA équitables.
  • L'équité Alpha équilibre la justice et l'efficacité.
  • La méthode corrige les limites des approches traditionnelles de l'équité.

Les outils d'équité de l'IA évaluent leur impartialité envers différents groupes. L'optimisation du bien-être social relie ces outils à des normes plus larges d'équité et d'efficacité dans des domaines comme l'économie et l'ingénierie. Les chercheurs pensent que cette nouvelle méthode peut aider à expliquer comment atteindre l'équité entre les groupes dans l'IA.

Cette étude revêt une grande importance pour les développeurs d'IA et les décideurs politiques. Les développeurs peuvent identifier les faiblesses des méthodes actuelles d'équité et prendre en compte la justice sociale lors de la création d'IA. Cela contribue à garantir que la technologie soit équitable et profite à tous les groupes de la société.

Les chercheurs pensent que les méthodes traditionnelles pourraient ne pas suffire. Approuver le même pourcentage de personnes de chaque groupe pourrait ne pas être véritablement équitable. Par exemple, les conséquences d'un refus de prêt hypothécaire peuvent varier considérablement entre les différents groupes. L'optimisation du bien-être social cherche à prendre en compte ces différences.

John Hooker et son équipe estiment que cette méthode peut produire des modèles d'IA plus justes et plus efficaces. En évaluant l'ensemble des impacts positifs et négatifs, les systèmes d'IA peuvent être plus bénéfiques pour tout le monde. Cela revêt une importance particulière pour les groupes défavorisés.

L'étude révèle que nous devons repenser notre conception de l'équité. Les méthodes actuelles visent à obtenir des taux d'approbation égaux, mais cela ne garantit pas nécessairement une véritable justice. Une approche alternative, appelée optimisation du bien-être social, se concentre sur les effets globaux des décisions afin d'obtenir de meilleurs résultats.

L'article, présenté lors de la conférence CPAIOR, examine l'utilisation de l'optimisation du bien-être social pour améliorer les évaluations de l'équité dans l'IA. Cette méthode peut aider les développeurs à créer des modèles d'IA plus justes qui favorisent la justice sociale.

Cette nouvelle méthode vise à rendre les choses équitables et efficaces. Elle nous aide à comprendre comment rendre l'IA juste pour tout le monde. Cela est crucial afin que la technologie bénéficie à toutes les personnes, en particulier celles qui sont moins privilégiées.

L'étude est publiée ici:

http://dx.doi.org/10.1007/978-3-031-60597-0_14

et sa citation officielle - y compris les auteurs et la revue - est

Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_14
Intelligence Artificielle: Dernières nouvelles

Partager cet article

Commentaires (0)

Poster un commentaire
NewsWorld

NewsWorld.app est un site d'actualités premium gratuit. Nous fournissons des actualités indépendantes et de haute qualité sans facturer par article et sans modèle d'abonnement. NewsWorld estime que les actualités générales, commerciales, économiques, technologiques et de divertissement devraient être accessibles à un niveau élevé gratuitement. De plus, NewsWorld est incroyablement rapide et utilise une technologie avancée pour présenter des articles d'actualités dans un format très lisible et attrayant pour le consommateur.


© 2024 NewsWorld™. Tous droits réservés.