Studio rivela: l'AI con tratti umani subisce più colpe per errori morali
RomeLe ricerche recenti di Minjoo Joo della Sookmyung Women's University rivelano che i sistemi di intelligenza artificiale (IA) che appaiono più simili agli esseri umani vengono spesso ritenuti maggiormente responsabili per gli errori. Lo studio, pubblicato su PLOS ONE, evidenzia la preoccupazione che man mano che l'IA diventa più intelligente e umana nel comportamento, le persone cominciano a credere che essa sia in grado di comprendere e prendere decisioni migliori. Di conseguenza, l'IA viene considerata più responsabile per sbagli e questioni etiche.
Questi risultati sottolineano l'importanza di comprendere come le persone percepiscono l'intelligenza artificiale. Sollevano anche preoccupazioni sia etiche che pratiche. Quando iniziamo a trattare l'IA come se fosse umana, rischiamo di incolpare questi sistemi invece di ritenere responsabili le persone e le organizzazioni che li creano. Questo problema interessa ambiti come il diritto, la tecnologia e l'etica e mette in discussione le attuali norme sulla gestione dell'IA.
Con l'introduzione dell'IA in settori cruciali come la sanità, i trasporti e la giustizia, diventa essenziale definire le responsabilità in caso di errori. La questione principale è: Si può dare la colpa all'IA per eventuali sbagli, o sono semplicemente strumenti nelle mani di chi li ha creati? Senza norme chiare, il rischio è quello di perdere la fiducia del pubblico nell'Intelligenza Artificiale, ostacolando la sua accettazione e integrità nella vita quotidiana.
Sviluppatori e responsabili delle politiche dovrebbero costruire sistemi robusti per garantire che l'IA venga utilizzata in modo onesto ed equo. Se un sistema di IA commette un errore, la responsabilità deve essere adeguatamente condivisa, evitando di addossarla ad altri. Questo aiuterà a generare maggiore fiducia nell'IA e a promuoverne un uso responsabile attraverso diversi settori industriali.
Lo studio è pubblicato qui:
http://dx.doi.org/10.1371/journal.pone.0314559e la sua citazione ufficiale - inclusi autori e rivista - è
Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.031455921 dicembre 2024 · 23:29
Scomparsa dell'ingegnere ed ex dipendente di OpenAI: è giallo
17 dicembre 2024 · 18:29
SoftBank: perché l'America attrae investimenti miliardari nell'AI?
15 dicembre 2024 · 03:45
L'IA supera i supercomputer nella risoluzione di sfide ingegneristiche: la rivoluzione di DIMON
Condividi questo articolo