Problematiska AI-fel skrämmer valspecialister inför val i Spanien
StockholmNya undersökningar om AI-språkmodeller visar en oroväckande trend under val: de ger ofta felaktig eller vilseledande information om röstningsdetaljer på spanska. Detta problem har väckt oro bland rösträttsgrupper som är bekymrade över påverkan på spansktalande väljare, särskilt med valet den 5 november närmar sig.
Två grupper, Proof News och Factchequeado, samarbetade med Science, Technology and Social Values Lab för att undersöka hur populära AI-modeller besvarade frågor. De upptäckte att över hälften av AI-genererat innehåll om val på spanska var felaktigt, medan 43% var fel på engelska. Dessa resultat var oroande.
Titel: AI-verktyg snubblar över valinformation
Meta Llama 3 levererade felaktiga svar på nästan två tredjedelar av spanska frågor. Anthropic’s Claude vilseledde användare genom att föreslå att kontakta valmyndigheter i orelaterade regioner. Googles Gemini gav ologiska förklaringar om Electoral College.
AI-fel pekar på vikten av att väljare granskar fakta om val genom att använda flera pålitliga källor. I delstater som Arizona, Nevada, Florida och Kalifornien, där det finns många spansktalande invånare, kan felaktig information som sprids av AI ha en betydande inverkan. Till exempel i Kalifornien, där nästan en tredjedel av de röstberättigade är latino, blir problemet särskilt tydligt.
AI-modeller lär sig från data de hittar på internet. Detta hjälper dem att förstå språk men kan också föra med sig partisk, felaktig eller inaktuell information. Information på spanska på webben löper större risk för dessa problem eftersom det finns färre insatser för att säkerställa dess noggrannhet jämfört med innehåll på engelska.
Mer än bara felaktig information påverkar detta förtroendet för automatiserade system som idag utgör en stor del av våra verktyg och appar i vardagen. När teknikföretag som Meta och Anthropic justerar sina system och börjar granska spanskspråkigt innehåll för korrekthet, behöver också användare hantera denna teknik med försiktighet. Det är viktigt att förstå att AI-verktyg kan begå misstag och inte alltid är pålitliga.
AI-utveckling kräver att man hittar en balans mellan tekniska framsteg och etiskt ansvarstagande. Företag bör arbeta hårdare för att bygga modeller som kan förstå olika språk och kulturer. Dessa modeller kan göra information mer tillgänglig, men de måste noga övervakas för att förhindra spridning av desinformation som kan skada demokratiska processer.
AI- och teknikanvändare bör vara uppmärksamma på dessa problem och söka tillförlitlig information från experter. Både AI-skapare och användare har en viktig roll i att hantera hur digitala verktyg påverkar våra dagliga liv.
18 november 2024 · 14:36
Mindre djur, större precision: ny AI-teknik för avancerade beteendestudier av möss
Dela den här artikeln