Les préoccupations face aux infos électorales erronées de l'IA en Espagne
ParisTendances préoccupantes émergent des récentes études sur les modèles de langue d'IA pendant les élections : ils fournissent souvent des informations erronées ou trompeuses sur le vote en espagnol. Ce problème a alerté les groupes de défense des droits électoraux, inquiets de l'impact sur les électeurs hispanophones, surtout avec les élections du 5 novembre approchant.
Deux groupes, Proof News et Factchequeado, ont collaboré avec le laboratoire Science, Technologie et Valeurs Sociales pour vérifier les réponses des modèles d'IA populaires aux questions posées. Ils ont découvert que plus de la moitié des contenus générés par l'IA sur les élections en espagnol étaient erronés, tandis qu'en anglais, 43 % des réponses étaient incorrectes. Ces résultats sont préoccupants.
Llama 3 de Meta a échoué dans près des deux tiers des requêtes en espagnol, tandis que Claude d’Anthropic a induit en erreur en suggérant des contacts avec des autorités électorales dans des régions sans rapport. De son côté, Gemini de Google a fourni des explications absurdes sur le système Electoral College.
Les erreurs de l'IA soulignent l'importance pour les électeurs de vérifier les faits liés aux élections en consultant plusieurs sources fiables. Dans des États comme l'Arizona, le Nevada, la Floride et la Californie, où il y a de nombreux résidents hispaniques, une mauvaise information propagée par l'IA peut avoir des conséquences significatives. Par exemple, en Californie, près d'un tiers des électeurs éligibles sont latinos, ce qui montre l'ampleur possible de ce phénomène.
Les modèles d'IA apprennent des informations qu'ils trouvent sur internet. Cela leur permet de comprendre les langues, mais peut aussi introduire des données biaisées, incorrectes ou obsolètes. Les contenus en espagnol en ligne sont plus susceptibles de rencontrer ces problèmes, car il existe moins d'efforts pour garantir leur exactitude par rapport à ceux en anglais.
L'impact n'est pas seulement de diffuser de fausses informations; il affaiblit la confiance dans les systèmes automatisés qui sont désormais essentiels dans nos outils et applications quotidiens. Alors que des entreprises technologiques comme Meta et Anthropic adaptent leurs systèmes et commencent à vérifier l'exactitude du contenu en espagnol, les utilisateurs doivent également aborder cette technologie avec précaution. Cela implique de comprendre que les outils d'IA peuvent se tromper et ne sont pas toujours fiables.
Le développement de l'IA nécessite un équilibre entre l'avancée technologique et la responsabilité éthique. Les entreprises doivent redoubler d'efforts pour concevoir des modèles qui comprennent diverses langues et cultures. Bien que ces modèles puissent rendre l'information plus accessible, il est crucial de les surveiller étroitement afin de prévenir la diffusion de fausses informations qui pourraient nuire aux processus démocratiques.
Les utilisateurs de l'IA et des technologies doivent être attentifs à ces problèmes et chercher des informations fiables auprès des experts. Les créateurs et les utilisateurs d'IA partagent la responsabilité de gérer l'impact des outils numériques sur notre quotidien.
18 novembre 2024 · 14:36
Étudier le comportement des souris avec précision grâce à l’IA et à moins d’animaux
18 novembre 2024 · 12:24
L'IA détecte rapidement les tumeurs cérébrales invisibles lors d'interventions chirurgicales
17 novembre 2024 · 11:45
L'IA prédictive cible les sites à risque pour une surveillance améliorée des eaux souterraines
Partager cet article