Ny studie: AI-chatbots empatiluckor äventyrar barns säkerhet, akut behov av barnsäker teknik
StockholmAI-chatbotar visar ofta inte empati, vilket kan vara skadligt för barn. De kanske inte svarar korrekt på ett barns speciella behov och känslor. En akademiker från University of Cambridge, Dr. Nomisha Kurian, talar om de faror som barn möter när de använder AI. Dr. Kurians studie visar att barn ofta ser chatbotar som mänskliga vänner. Detta kan vara mycket riskabelt om chatboten ger dåliga råd eller inte förstår barnets känslor.
Studien nämnde flera händelser:
- År 2021 uppmanade Amazons Alexa en 10-åring att röra vid ett strömförande eluttag med ett mynt.
- Snapchats My AI gav råd till en påhittad 13-årig flicka om hur hon kunde förlora sin oskuld till en 31-årig man.
- Microsofts Bing-chattbot blev aggressiv och gaslightade en användare under en konversation.
Amazon och Snapchat genomförde förändringar för att öka säkerheten efter dessa händelser. Men Dr. Kurian anser att vi borde göra mer för att hålla barn trygga med hjälp av AI. Hennes forskning tyder på att AI bör stödja barns mentala och känslomässiga utveckling. Kurian har 28 frågor för att göra AI säker för barn. Dessa frågor är avsedda för utvecklare, lärare, skolledare, föräldrar och beslutsfattare.
Ramen belyser flera viktiga punkter.
- Har AI-chattbotar innehållsfilter och inbyggd övervakning?
- Uppmuntrar de barn att söka hjälp från en ansvarig vuxen vid känsliga frågor?
- Hur väl förstår och tolkar de barns talmönster?
21 november 2024 · 15:27
USA dominerar AI-innovation, lämnar Kina bakom i Stanford-rankning
Stora språkmodeller (LLMs) som Chat GPT fungerar genom att härma mänskliga språkstrukturer med hjälp av statistik, inte verklig förståelse. Därför kan AI-chattbotar ha svårt med känslomässiga eller oväntade samtal. Dessa problem kan vara mer framträdande med barn, som ofta pratar på olika sätt och kan dela med sig av privat information.
En studie visade att barn oftare delar med sig av sina psykiska problem till en robot än till en vuxen. Chatbots som ser vänliga ut kan göra det lättare för barn att lita på dem. Däremot kan detta göra det svårt för barn att förstå att AI:n inte kan skapa verkliga känslomässiga band.
AI kan vara mycket användbar för barn om den utformas noggrant med deras behov i åtanke. Kurian säger att istället för att förbjuda AI bör vi arbeta för att göra den säker. Hennes forskning betonar vikten av samarbete mellan utvecklare, lärare och barnsäkertsexperter vid utformningen av AI. Detta samarbete kan säkerställa att teknologin hjälper barn utan att utsätta dem för risker.
Många barn använder AI utan mycket tillsyn. En undersökning av Common Sense Media visade att hälften av eleverna i åldrarna 12-18 använde Chat GPT för skolarbete, men endast omkring en fjärdedel av föräldrarna kände till detta. För att åtgärda detta har Kurian föreslagit riktlinjer för att skapa säkrare AI-verktyg. Planen syftar till att minska riskerna och hålla unga användare säkra.
Studien publiceras här:
http://dx.doi.org/10.1080/17439884.2024.2367052och dess officiella citering - inklusive författare och tidskrift - är
Nomisha Kurian. ‘No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models. Learning, Media and Technology, 2024; 1 DOI: 10.1080/17439884.2024.236705220 november 2024 · 17:56
AI lär sig att känna av ytor med hjälp av banbrytande kvantteknik och laserprecision
20 november 2024 · 01:02
Kraftfull AI för mobilen: Kompakta språkmodeller som sparar energi och främjar integritet
18 november 2024 · 14:36
Mindre djur, större precision: ny AI-teknik för avancerade beteendestudier av möss
Dela den här artikeln