Ny forskning: AI:ers mänskliga egenskaper gör dem mer ansvariga för etiska misstag

Lästid: 2 minuter
Av Pedro Martinez
- i
Robot med människoliknande drag som står inför domarskålar

StockholmNy forskning av Minjoo Joo vid Sookmyung Women's University visar att AI-system som verkar mer mänskliga ofta får mer skuld för misstag. Studien, publicerad i PLOS ONE, framhäver en oro att ju smartare och mer mänskligt AI uppför sig, desto mer tror människor att det kan förstå och fatta bättre beslut. Därför hålls AI alltmer ansvarig för fel och etiska problem.

Människor tenderar att skylla på AI olika beroende på hur mycket de uppfattar att den liknar en människa. Om en AI uppfattas som mer mänsklig, är det mer sannolikt att den hålls ansvarig för sina misstag. Detta påverkar hur folk ser på AI och kan förändra ansvarsutkrävandet från människor såsom programmerare eller företag. I en studie där scenarier som AI som begår rasistiska fel i fototaggning testades, fick mänsklig-liknande AI mer skuld än enklare AI-system.

  • AI:s uppfattade medvetande och förmågor
  • Den moraliska överträdelsens natur
  • Graden av mänskligt engagemang från intressenter
  • Dessa insikter belyser vikten av att förstå hur människor uppfattar AI. De lyfter också fram både etiska och praktiska frågor. När vi börjar behandla AI som människor finns risken att vi skyller på dessa system istället för att hålla de människor och organisationer som skapar dem ansvariga. Denna problematik påverkar områden som juridik, teknik och etik, och utmanar de nuvarande riktlinjerna för att hantera AI.

    I takt med att AI får en större roll inom områden som sjukvård, transport och rättsväsende, blir det viktigt att klargöra vem som bär ansvaret när något går fel. Huvudfrågan är: Kan AI klandras för misstag, eller är de bara verktyg för de människor som skapat dem? Utan tydliga regler kan förtroendet för AI minska, vilket försvårar dessa teknologiers acceptans och användning i vardagen.

    Utvecklare och beslutsfattare bör skapa robusta system för att säkerställa att AI används ärligt och rättvist. Om ett AI-system gör ett misstag, bör ansvaret fördelas korrekt utan att skylla på andra. Detta kommer att öka förtroendet för AI och uppmuntra dess ansvarsfulla användning inom olika branscher.

    Studien publiceras här:

    http://dx.doi.org/10.1371/journal.pone.0314559

    och dess officiella citering - inklusive författare och tidskrift - är

    Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559
    Artificiell Intelligens: Senaste nytt

    Dela den här artikeln

    Kommentarer (0)

    Posta en kommentar
    NewsWorld

    NewsWorld.app är en gratis premium nyhetssida. Vi tillhandahåller oberoende och högkvalitativa nyheter utan att ta betalt per artikel och utan en prenumerationsmodell. NewsWorld anser att allmänna, affärs-, ekonomiska, tekniska och underhållningsnyheter bör vara tillgängliga på en hög nivå gratis. Dessutom är NewsWorld otroligt snabb och använder avancerad teknik för att presentera nyhetsartiklar i ett mycket läsbart och attraktivt format för konsumenten.


    © 2024 NewsWorld™. Alla rättigheter reserverade.