AI verspreidt onjuiste info over verkiezingen onder Spaanstalige kiezers
AmsterdamNieuwe studies wijzen op een zorgwekkende trend bij AI-taalmodellen tijdens verkiezingen: ze geven vaak verkeerde of misleidende informatie over stemdetails in het Spaans. Dit baart stemrechtengroepen zorgen, omdat ze bezorgd zijn over de impact op Spaanstalige kiezers, vooral met de verkiezingen op 5 november in aantocht.
Twee groepen, Proof News en Factchequeado, werkten samen met het Science, Technology and Social Values Lab om te onderzoeken hoe populaire AI-modellen vragen beantwoorden. Ze ontdekten dat meer dan de helft van de door AI gegenereerde inhoud over verkiezingen in het Spaans onjuist was, terwijl in het Engels 43% incorrect bleek te zijn. Deze resultaten waren zorgwekkend.
- Meta's Llama 3 gaf bij bijna tweederde van de vragen in het Spaans verkeerde antwoorden.
- Anthropic’s Claude stuurde gebruikers de verkeerde kant op door te suggereren dat ze contact moesten opnemen met verkiezingsautoriteiten in ongerelateerde regio's.
- Google's Gemini gaf onsamenhangende uitleg over het Kiescollege.
AI-fouten tonen aan hoe cruciaal het is voor kiezers om verkiezingsfeiten te controleren aan de hand van meerdere betrouwbare bronnen. In staten zoals Arizona, Nevada, Florida en Californië, waar veel inwoners van Latijns-Amerikaanse afkomst zijn, kan verkeerde informatie verspreid door AI grote gevolgen hebben. In Californië bijvoorbeeld is bijna een derde van de kiesgerechtigden Latino, wat de omvang van dit probleem illustreert.
AI-modellen leren van gegevens die ze op internet vinden. Dit helpt hen bij het begrijpen van talen, maar kan ook vooroordelen, onjuiste of verouderde informatie met zich meebrengen. Informatie in het Spaans op het web heeft vaker deze problemen, omdat er minder inspanningen zijn om de nauwkeurigheid ervan te waarborgen vergeleken met Engelstalige inhoud.
Het probleem is meer dan alleen onjuiste informatie; het ondermijnt het vertrouwen in geautomatiseerde systemen die tegenwoordig onmisbaar zijn in ons dagelijks leven. Terwijl technologiebedrijven zoals Meta en Anthropic veranderingen doorvoeren en de nauwkeurigheid van Spaanstalige content gaan controleren, dienen gebruikers deze technologie voorzichtig te gebruiken. Dit houdt in dat ze beseffen dat AI-tools fouten kunnen maken en niet altijd betrouwbaar zijn.
De ontwikkeling van AI vraagt om een zorgvuldige balans tussen technologische vooruitgang en ethisch verantwoord handelen. Bedrijven moeten zich inspannen om modellen te creëren die verschillende talen en culturen begrijpen. Hoewel deze modellen informatie beter toegankelijk kunnen maken, is het essentieel om ze goed te controleren om de verspreiding van desinformatie die democratische processen kan schaden, te voorkomen.
Gebruikers van AI en technologie moeten alert zijn op problemen en betrouwbare informatie bij deskundigen zoeken. Zowel ontwikkelaars als gebruikers van AI spelen een rol in hoe digitale hulpmiddelen ons dagelijks leven beïnvloeden.
20 november 2024 · 01:02
AI onderweg: compacte taalmodellen voor betere prestaties op mobiele apparaten
18 november 2024 · 14:36
Precieze gedragsstudies bij muizen dankzij AI: minder dieren en snellere resultaten
Deel dit artikel