Nieuw onderzoek: menselijke trekjes in AI leiden tot meer schuldgevoel bij morele fouten
AmsterdamRecent onderzoek door Minjoo Joo aan de Sookmyung Women's University toont aan dat kunstmatige intelligentiesystemen die menselijker lijken, vaker de schuld krijgen van fouten. De studie, gepubliceerd in PLOS ONE, wijst op de zorg dat naarmate AI slimmer en menselijker in gedrag wordt, mensen denken dat het beter kan begrijpen en beslissingen kan nemen. Hierdoor wordt AI vaker verantwoordelijk gehouden voor fouten en ethische kwesties.
Mensen geven AI verschillend de schuld, afhankelijk van hoeveel ze denken dat het op een mens lijkt. Als een AI meer menselijk overkomt, zijn mensen eerder geneigd het verantwoordelijk te houden voor fouten. Dit beïnvloedt hoe mensen naar AI kijken en kan de verantwoordelijkheid verschuiven van mensen, zoals programmeurs of bedrijven. Uit een onderzoek waarin scenario's getest werden zoals een AI die racistische fouten maakt bij het taggen van foto's, bleek dat mensachtigere AI meer schuld kreeg dan eenvoudigere AI-systemen.
Deze bevindingen benadrukken het belang van het begrijpen hoe mensen AI waarnemen. Ze roepen ook ethische en praktische zorgen op. Wanneer we AI als mensen gaan behandelen, lopen we het risico om deze systemen de schuld te geven in plaats van de personen en organisaties die ze hebben gemaakt verantwoordelijk te houden. Dit probleem beïnvloedt gebieden zoals recht, technologie en ethiek, en daagt de huidige regels voor het beheren van AI uit.
Naarmate AI een grotere rol speelt in sectoren als gezondheidszorg, vervoer en justitie, wordt het essentieel om te bepalen wie aansprakelijk is als er iets misgaat. De kernvraag is: kan AI verantwoordelijk worden gehouden voor fouten, of zijn het slechts instrumenten van de mensen die ze hebben gemaakt? Zonder duidelijke regelgeving kan het vertrouwen van mensen in AI afnemen, waardoor het moeilijker wordt deze technologieën in het dagelijks leven te accepteren en te gebruiken.
Ontwikkelaars en beleidsmakers moeten robuuste systemen opzetten om ervoor te zorgen dat AI eerlijk en rechtvaardig wordt gebruikt. Wanneer een AI-systeem een fout maakt, moet de verantwoordelijkheid correct worden verdeeld en niet op anderen worden afgeschoven. Dit zal het vertrouwen in AI vergroten en het gebruik ervan op een verantwoorde manier in verschillende sectoren bevorderen.
De studie is hier gepubliceerd:
http://dx.doi.org/10.1371/journal.pone.0314559en de officiële citatie - inclusief auteurs en tijdschrift - is
Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.031455921 december 2024 · 23:29
Voormalig OpenAI-ingenieur en klokkenluider overleden: ethische kwesties belicht.
19 december 2024 · 15:31
AI duikt in het aroma: Schotse vs. Amerikaanse whisky's ontmaskerd
17 december 2024 · 18:29
SoftBanks miljardeninvestering: de drijvende kracht achter AI-groei in VS?
Deel dit artikel