L'IA attribuée à plus de responsabilités quand elle paraît humaine : enjeux éthiques majeurs
ParisUne recherche récente menée par Minjoo Joo de l'Université Sookmyung pour femmes révèle que les systèmes d'intelligence artificielle (IA) qui semblent plus humains sont souvent davantage blâmés pour leurs erreurs. L'étude, publiée dans PLOS ONE, souligne une préoccupation : à mesure que l'IA devient plus intelligente et imite le comportement humain, les gens commencent à croire qu'elle est capable de comprendre et de prendre des décisions de manière plus efficace. Par conséquent, les erreurs et les problèmes éthiques liés à l'IA lui sont imputés plus fréquemment.
- L'esprit perçu et les capacités de l'IA
- La nature de la transgression morale
- Le degré d'implication des parties prenantes humaines
Ces résultats soulignent l'importance de comprendre la perception que les individus ont de l'intelligence artificielle. Ils soulèvent également des préoccupations éthiques et pratiques. En traitant l'IA comme des humains, nous risquons de blâmer ces systèmes au lieu de tenir pour responsables les personnes et les organisations qui les conçoivent. Ce problème concerne des domaines tels que le droit, la technologie et l'éthique, et remet en question les règles actuelles de gestion de l'IA.
21 décembre 2024 · 23:29
Le décès de Suchir Balaji soulève des questions sur l'éthique de l'IA.
À mesure que l'IA s'impose dans des domaines tels que la santé, le transport et la justice, il est crucial de déterminer qui est responsable en cas de défaillance. La question essentielle est la suivante : l'IA peut-elle être tenue pour responsable des erreurs ou n'est-elle qu'un simple outil au service de ses créateurs? Sans réglementations claires, la confiance du public dans les technologies basées sur l'IA pourrait s'effriter, ce qui compliquerait leur adoption et leur utilisation au quotidien.
Les développeurs et décideurs doivent instaurer des systèmes solides pour garantir une utilisation intègre et équitable de l'IA. En cas d'erreur commise par un système d'IA, la responsabilité doit être correctement partagée et non transférée à d'autres. Cela renforcera la confiance envers l'IA et favorisera son utilisation de manière responsable à travers divers secteurs industriels.
L'étude est publiée ici:
http://dx.doi.org/10.1371/journal.pone.0314559et sa citation officielle - y compris les auteurs et la revue - est
Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.031455917 décembre 2024 · 18:29
L'énorme pari IA de SoftBank : impact et ambitions américaines
6 décembre 2024 · 00:20
L'euphorie boursière inspirée par l'IA rappelle l'essor de 1998
30 novembre 2024 · 03:44
Conflit juridique entre OpenAI et éditeurs canadiens au sujet du droit d'auteur
Partager cet article