Nieuw onderzoek: menselijke trekjes in AI leiden tot meer schuldgevoel bij morele fouten

Leestijd: 2 minuten
Door Meindert van der Veen
- in
Robot met mensachtige kenmerken tegenover weegschalen van gerechtigheid.

AmsterdamRecent onderzoek door Minjoo Joo aan de Sookmyung Women's University toont aan dat kunstmatige intelligentiesystemen die menselijker lijken, vaker de schuld krijgen van fouten. De studie, gepubliceerd in PLOS ONE, wijst op de zorg dat naarmate AI slimmer en menselijker in gedrag wordt, mensen denken dat het beter kan begrijpen en beslissingen kan nemen. Hierdoor wordt AI vaker verantwoordelijk gehouden voor fouten en ethische kwesties.

Mensen geven AI verschillend de schuld, afhankelijk van hoeveel ze denken dat het op een mens lijkt. Als een AI meer menselijk overkomt, zijn mensen eerder geneigd het verantwoordelijk te houden voor fouten. Dit beïnvloedt hoe mensen naar AI kijken en kan de verantwoordelijkheid verschuiven van mensen, zoals programmeurs of bedrijven. Uit een onderzoek waarin scenario's getest werden zoals een AI die racistische fouten maakt bij het taggen van foto's, bleek dat mensachtigere AI meer schuld kreeg dan eenvoudigere AI-systemen.

  • De waargenomen geest en capaciteiten van de AI
  • De aard van de morele overtreding
  • De mate van betrokkenheid van menselijke belanghebbenden
  • Deze bevindingen benadrukken het belang van het begrijpen hoe mensen AI waarnemen. Ze roepen ook ethische en praktische zorgen op. Wanneer we AI als mensen gaan behandelen, lopen we het risico om deze systemen de schuld te geven in plaats van de personen en organisaties die ze hebben gemaakt verantwoordelijk te houden. Dit probleem beïnvloedt gebieden zoals recht, technologie en ethiek, en daagt de huidige regels voor het beheren van AI uit.

    Naarmate AI een grotere rol speelt in sectoren als gezondheidszorg, vervoer en justitie, wordt het essentieel om te bepalen wie aansprakelijk is als er iets misgaat. De kernvraag is: kan AI verantwoordelijk worden gehouden voor fouten, of zijn het slechts instrumenten van de mensen die ze hebben gemaakt? Zonder duidelijke regelgeving kan het vertrouwen van mensen in AI afnemen, waardoor het moeilijker wordt deze technologieën in het dagelijks leven te accepteren en te gebruiken.

    Ontwikkelaars en beleidsmakers moeten robuuste systemen opzetten om ervoor te zorgen dat AI eerlijk en rechtvaardig wordt gebruikt. Wanneer een AI-systeem een fout maakt, moet de verantwoordelijkheid correct worden verdeeld en niet op anderen worden afgeschoven. Dit zal het vertrouwen in AI vergroten en het gebruik ervan op een verantwoorde manier in verschillende sectoren bevorderen.

    De studie is hier gepubliceerd:

    http://dx.doi.org/10.1371/journal.pone.0314559

    en de officiële citatie - inclusief auteurs en tijdschrift - is

    Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559
    Artificial Intelligence: Laatste nieuws

    Deel dit artikel

    Reacties (0)

    Plaats een reactie
    NewsWorld

    NewsWorld.app is dé gratis premium nieuwssite van Nederland. Wij bieden onafhankelijk en kwalitatief hoogwaardig nieuws zonder daarvoor geld per artikel te rekenen en zonder abonnementsvorm. NewsWorld is van mening dat zowel algemeen, zakelijk, economisch, tech als entertainment nieuws op een hoog niveau gratis toegankelijk moet zijn. Daarbij is NewsWorld razend snel en werkt het met geavanceerde technologie om de nieuwsartikelen in een zeer leesbare en attractieve vorm aan te bieden aan de consument. Dus wil je gratis nieuws zonder betaalmuur (paywall), dan ben je bij NewsWorld aan het goede adres. Wij blijven ons inzetten voor hoogwaardige gratis artikelen zodat jij altijd op de hoogte kan blijven!


    © 2024 NewsWorld™. Alle rechten voorbehouden.