Nouvelle méthode pour des décisions de l'IA plus justes : un pas vers l'équité sociale

Temps de lecture: 2 minutes
Par Madelaine Dupont
- dans
Balances équilibrant le code binaire et les symboles sociaux.

ParisDes chercheurs de l'Université Carnegie Mellon et de l'Institut de Technologie Stevens ont mis au point une nouvelle méthode pour rendre les décisions de l'IA plus équitables. Dans un article récent, ils expliquent comment l'optimisation du bien-être social peut rendre les décisions de l'IA plus justes. Cette approche prend en compte les bénéfices et préjudices globaux pour les individus, plutôt que de se concentrer uniquement sur les taux d'approbation des différents groupes.

L'équité de l'IA examine souvent comment différents groupes sont traités en fonction de critères tels que le revenu, la race et le genre. Cependant, ces approches peuvent passer à côté de l'impact réel de ces décisions sur la vie des individus. Par exemple, refuser un prêt hypothécaire à quelqu’un peut avoir des répercussions bien plus importantes pour une personne d’un groupe défavorisé que pour une personne d’un groupe plus privilégié.

La nouvelle approche, optimisation du bien-être social, modifie notre manière d'aborder l'équité dans l'intelligence artificielle.

  • Elle prend en compte les avantages et les inconvénients pour les individus.
  • Elle se concentre sur les résultats réels des décisions.
  • Elle relie l’équité de l’IA aux normes plus larges utilisées en économie et en ingénierie.

John Hooker, professeur à l’Université Carnegie Mellon, a contribué à la rédaction d’une étude qu'il a présentée lors de la conférence CPAIOR à Uppsala, en Suède, le 29 mai. Ce papier a remporté le prix du Meilleur Article de la conférence.

L'article décrit la notion de « justice alpha », un concept visant à garantir à la fois l'équité et l'efficacité. La justice alpha peut s'adapter aux besoins spécifiques, permettant ainsi aux systèmes d'IA de prendre des décisions qui bénéficient à tous, en particulier aux moins favorisés.

Derek Leben, professeur d’éthique des affaires à la Tepper School, et Violet Chen, professeure à l'Institut de technologie Stevens, ont coécrit cette étude. Chen a souligné que les critères habituels d’équité de groupe en IA se concentrent sur la comparaison des statistiques entre différents groupes et négligent souvent les impacts réels des décisions. Ils proposent une nouvelle méthode mesurant directement l’équité de groupe en améliorant le bien-être social global.

L'étude met en lumière plusieurs points essentiels :

  • Les méthodes traditionnelles d'équité de l'IA pourraient ne pas prendre en compte l'impact réel des décisions sur le terrain.
  • L'optimisation du bien-être social peut engendrer de meilleurs résultats pour tous, notamment pour les groupes défavorisés.
  • Cette approche permet d'évaluer les outils actuels d'équité de l'IA et de les améliorer.

Les conclusions de Hooker permettent de mieux comprendre comment choisir et expliquer des règles de justice pour les groupes. Selon Leben, l'étude montre comment parvenir à l'équité entre les groupes dans l'intelligence artificielle. Ces découvertes sont précieuses pour les développeurs d'IA et les décideurs politiques.

Les développeurs peuvent rendre les modèles d'IA plus équitables en adoptant une vision plus globale de l'équité. Cette approche met en évidence les lacunes des méthodes actuelles de justice et l'importance de prendre en compte la justice sociale lors de la création d'IA. Elle permet de garantir que la technologie soit juste pour tous les différents groupes de la société.

L'article est inclus dans les actes de la conférence CPAIOR 2024.

L'étude est publiée ici:

http://dx.doi.org/10.1007/978-3-031-60597-0_14

et sa citation officielle - y compris les auteurs et la revue - est

Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_14
Intelligence Artificielle: Dernières nouvelles

Partager cet article

Commentaires (0)

Poster un commentaire
NewsWorld

NewsWorld.app est un site d'actualités premium gratuit. Nous fournissons des actualités indépendantes et de haute qualité sans facturer par article et sans modèle d'abonnement. NewsWorld estime que les actualités générales, commerciales, économiques, technologiques et de divertissement devraient être accessibles à un niveau élevé gratuitement. De plus, NewsWorld est incroyablement rapide et utilise une technologie avancée pour présenter des articles d'actualités dans un format très lisible et attrayant pour le consommateur.


© 2024 NewsWorld™. Tous droits réservés.