L'IA attribuée à plus de responsabilités quand elle paraît humaine : enjeux éthiques majeurs

Temps de lecture: 2 minutes
Par Pierre Martin
- dans
Robot aux traits humanoïdes face à des balances de jugement.

ParisUne recherche récente menée par Minjoo Joo de l'Université Sookmyung pour femmes révèle que les systèmes d'intelligence artificielle (IA) qui semblent plus humains sont souvent davantage blâmés pour leurs erreurs. L'étude, publiée dans PLOS ONE, souligne une préoccupation : à mesure que l'IA devient plus intelligente et imite le comportement humain, les gens commencent à croire qu'elle est capable de comprendre et de prendre des décisions de manière plus efficace. Par conséquent, les erreurs et les problèmes éthiques liés à l'IA lui sont imputés plus fréquemment.

  • L'esprit perçu et les capacités de l'IA
  • La nature de la transgression morale
  • Le degré d'implication des parties prenantes humaines

Ces résultats soulignent l'importance de comprendre la perception que les individus ont de l'intelligence artificielle. Ils soulèvent également des préoccupations éthiques et pratiques. En traitant l'IA comme des humains, nous risquons de blâmer ces systèmes au lieu de tenir pour responsables les personnes et les organisations qui les conçoivent. Ce problème concerne des domaines tels que le droit, la technologie et l'éthique, et remet en question les règles actuelles de gestion de l'IA.

À mesure que l'IA s'impose dans des domaines tels que la santé, le transport et la justice, il est crucial de déterminer qui est responsable en cas de défaillance. La question essentielle est la suivante : l'IA peut-elle être tenue pour responsable des erreurs ou n'est-elle qu'un simple outil au service de ses créateurs? Sans réglementations claires, la confiance du public dans les technologies basées sur l'IA pourrait s'effriter, ce qui compliquerait leur adoption et leur utilisation au quotidien.

Les développeurs et décideurs doivent instaurer des systèmes solides pour garantir une utilisation intègre et équitable de l'IA. En cas d'erreur commise par un système d'IA, la responsabilité doit être correctement partagée et non transférée à d'autres. Cela renforcera la confiance envers l'IA et favorisera son utilisation de manière responsable à travers divers secteurs industriels.

L'étude est publiée ici:

http://dx.doi.org/10.1371/journal.pone.0314559

et sa citation officielle - y compris les auteurs et la revue - est

Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559
Intelligence Artificielle: Dernières nouvelles

Partager cet article

Commentaires (0)

Poster un commentaire
NewsWorld

NewsWorld.app est un site d'actualités premium gratuit. Nous fournissons des actualités indépendantes et de haute qualité sans facturer par article et sans modèle d'abonnement. NewsWorld estime que les actualités générales, commerciales, économiques, technologiques et de divertissement devraient être accessibles à un niveau élevé gratuitement. De plus, NewsWorld est incroyablement rapide et utilise une technologie avancée pour présenter des articles d'actualités dans un format très lisible et attrayant pour le consommateur.


© 2024 NewsWorld™. Tous droits réservés.