Nouvelle technique d'IA novatrice d'Oregon State et Adobe pour réduire les biais sociaux
ParisDes chercheurs de l'Université d'État de l'Oregon et d'Adobe ont mis au point une nouvelle méthode nommée FairDeDup pour entraîner les systèmes d'intelligence artificielle. Cette technique permet de réduire les biais sociaux dans l'IA en éliminant les données dupliquées pendant le processus d'apprentissage.
La nouvelle technique améliore une méthode précédente appelée SemDeDup en intégrant des mesures d'équité. Les modèles d'IA sont souvent entraînés avec des jeux de données contenant des biais sociaux. Lorsque ces biais sont présents dans les modèles d'IA, ils peuvent entraîner des actions et des décisions injustes.
FairDeDup optimise les données en sélectionnant uniquement les éléments les plus significatifs. Ce processus consiste à conserver certaines données tout en supprimant le reste, tout en garantissant que les données restantes représentent fidèlement l'ensemble original. Les chercheurs décident des données à conserver en se basant sur le contenu, s'assurant que l'information essentielle soit toujours présente.
Voici quelques détails sur le fonctionnement de FairDeDup :
- Les données redondantes sont éliminées
- Les dimensions de la diversité définies par les êtres humains sont intégrées
- Les biais liés à la profession, la race, le genre, l'âge, la géographie et la culture sont corrigés
Eric Slyman, doctorant à la Faculté d'ingénierie de l'Université d'État de l'Ohio, a dirigé cette étude. Il a collaboré avec Stefan Lee de la même université ainsi qu'avec Scott Cohen et Kushal Kafle d'Adobe.
Les jeux de données provenant d'internet sont souvent imprégnés des préjugés de la société. Ces biais peuvent se manifester dans les résultats des IA, comme lorsqu'on ne montre que des images d'hommes blancs en cherchant des PDG ou des médecins. L'équipe de Slyman a examiné comment l'élimination des données en double influence ces biais. Ils ont découvert que l'utilisation de FairDeDup peut réduire ces effets négatifs.
FairDeDup vise à réduire les coûts informatiques et à rendre les systèmes d'IA plus équitables. Slyman explique que cette méthode ne force pas l'IA à respecter une définition rigide de l'équité. Au lieu de cela, elle permet à l'IA d'être juste dans différentes situations et pour divers utilisateurs. Cela permet aux personnes de déterminer ce qui est équitable en fonction de leurs besoins, sans se fier à de vastes ensembles de données biaisées provenant d'Internet.
Les chercheurs ont présenté l'algorithme FairDeDup à la conférence IEEE/CVF sur la vision par ordinateur et la reconnaissance des formes à Seattle. Ils ont mis en avant que cette nouvelle méthode est accessible, précise et équitable.
Slyman a expliqué que leur méthode permet à l'IA d'apprendre de manière économique, précise et équitable. L'équipe a découvert qu'en éliminant les biais des données, les systèmes d'IA peuvent devenir plus justes.
Cette méthode permet à l'IA de prendre des décisions plus équitables en tenant compte des diverses situations et différences humaines. Elle ne contraint pas l'IA à adopter une seule conception de l'équité, mais permet aux différentes utilisations de définir elles-mêmes ce que signifie l'équité pour elles.
Cette avancée marque une étape cruciale dans la réduction des biais des systèmes d'IA. Les chercheurs estiment que FairDeDup contribuera à rendre les intelligences artificielles plus équitables et moins discriminatoires envers les groupes marginalisés. Le partenariat entre OSU et Adobe vise à améliorer l'équité et l'efficacité de l'IA.
18 novembre 2024 · 14:36
Étudier le comportement des souris avec précision grâce à l’IA et à moins d’animaux
18 novembre 2024 · 12:24
L'IA détecte rapidement les tumeurs cérébrales invisibles lors d'interventions chirurgicales
17 novembre 2024 · 11:45
L'IA prédictive cible les sites à risque pour une surveillance améliorée des eaux souterraines
Partager cet article