Studio rivela: l'AI con tratti umani subisce più colpe per errori morali

Tempo di lettura: 2 minuti
Di Maria Astona
- in
Robot con caratteristiche umane di fronte a bilance della giustizia.

RomeLe ricerche recenti di Minjoo Joo della Sookmyung Women's University rivelano che i sistemi di intelligenza artificiale (IA) che appaiono più simili agli esseri umani vengono spesso ritenuti maggiormente responsabili per gli errori. Lo studio, pubblicato su PLOS ONE, evidenzia la preoccupazione che man mano che l'IA diventa più intelligente e umana nel comportamento, le persone cominciano a credere che essa sia in grado di comprendere e prendere decisioni migliori. Di conseguenza, l'IA viene considerata più responsabile per sbagli e questioni etiche.

  • La percezione delle capacità e della mente dell'IA
  • La natura della trasgressione morale
  • Il grado di coinvolgimento degli stakeholder umani
  • Questi risultati sottolineano l'importanza di comprendere come le persone percepiscono l'intelligenza artificiale. Sollevano anche preoccupazioni sia etiche che pratiche. Quando iniziamo a trattare l'IA come se fosse umana, rischiamo di incolpare questi sistemi invece di ritenere responsabili le persone e le organizzazioni che li creano. Questo problema interessa ambiti come il diritto, la tecnologia e l'etica e mette in discussione le attuali norme sulla gestione dell'IA.

    Con l'introduzione dell'IA in settori cruciali come la sanità, i trasporti e la giustizia, diventa essenziale definire le responsabilità in caso di errori. La questione principale è: Si può dare la colpa all'IA per eventuali sbagli, o sono semplicemente strumenti nelle mani di chi li ha creati? Senza norme chiare, il rischio è quello di perdere la fiducia del pubblico nell'Intelligenza Artificiale, ostacolando la sua accettazione e integrità nella vita quotidiana.

    Sviluppatori e responsabili delle politiche dovrebbero costruire sistemi robusti per garantire che l'IA venga utilizzata in modo onesto ed equo. Se un sistema di IA commette un errore, la responsabilità deve essere adeguatamente condivisa, evitando di addossarla ad altri. Questo aiuterà a generare maggiore fiducia nell'IA e a promuoverne un uso responsabile attraverso diversi settori industriali.

    Lo studio è pubblicato qui:

    http://dx.doi.org/10.1371/journal.pone.0314559

    e la sua citazione ufficiale - inclusi autori e rivista - è

    Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559
    Intelligenza Artificiale: Ultime notizie

    Condividi questo articolo

    Commenti (0)

    Pubblica un commento
    NewsWorld

    NewsWorld.app è un sito di notizie premium gratuito. Forniamo notizie indipendenti e di alta qualità senza addebitare per articolo e senza un modello di abbonamento. NewsWorld ritiene che le notizie generali, di business, economiche, tecnologiche e di intrattenimento dovrebbero essere accessibili a un alto livello gratuitamente. Inoltre, NewsWorld è incredibilmente veloce e utilizza tecnologie avanzate per presentare articoli di notizie in un formato altamente leggibile e attraente per il consumatore.


    © 2024 NewsWorld™. Tutti i diritti riservati.