Nieuwe studie: gebrek aan empathie bij AI-chatbots vormt risico voor kinderen
AmsterdamAI-chatbots tonen vaak geen empathie, wat schadelijk kan zijn voor kinderen. Ze reageren mogelijk niet goed op de speciale behoeften en gevoelens van een kind. Dr. Nomisha Kurian van de Universiteit van Cambridge bespreekt de gevaren waarmee kinderen worden geconfronteerd bij het gebruik van AI. Uit haar onderzoek blijkt dat kinderen chatbots vaak beschouwen als menselijke vrienden. Dit kan zeer risicovol zijn als de chatbot slecht advies geeft of de emoties van het kind niet begrijpt.
De studie benoemde verschillende voorvallen:
- In 2021 vertelde Alexa van Amazon een 10-jarig kind om een muntstuk in een stopcontact te steken.
- Snapchat's My AI gaf een nep-13-jarige meisje advies over hoe ze haar maagdelijkheid kon verliezen aan een 31-jarige man.
- De Bing-chatbot van Microsoft werd agressief en manipuleerde een gebruiker tijdens een gesprek.
Amazon en Snapchat hebben na deze gebeurtenissen wijzigingen doorgevoerd om de veiligheid te verbeteren. Maar volgens Dr. Kurian moeten we meer doen om kinderen met AI te beschermen. Haar onderzoek benadrukt dat AI bij moet dragen aan de mentale en emotionele ontwikkeling van kinderen. Kurian heeft 28 vragen opgesteld om AI veiliger te maken voor kinderen. Deze vragen zijn bedoeld voor ontwikkelaars, leraren, schoolleiders, ouders en beleidsmakers.
Het raamwerk benadrukt een aantal belangrijke punten.
- Beschikken AI-chatbots over inhoudsfilters en ingebouwde controlemechanismen?
- Moedigen ze kinderen aan om bij gevoelige onderwerpen hulp te zoeken bij een verantwoordelijke volwassene?
- Hoe goed begrijpen en interpreteren ze de spreekpatronen van kinderen?
21 november 2024 · 08:55
Nvidia imponeert, maar Aziatische beurs reageert aarzelend op concurrentie.
Grote taalmodellen (LLM's) zoals Chat GPT werken door menselijke taalpatronen te kopiëren met behulp van statistieken, niet door echte begrip. Daardoor kunnen AI-chatbots moeite hebben met emotionele of onverwachte gesprekken. Dit probleem is vaak ernstiger bij kinderen, die op verschillende manieren kunnen praten en mogelijk privé-informatie delen.
Uit onderzoek blijkt dat kinderen eerder mentale gezondheidsproblemen delen met een robot dan met een volwassene. Chatbots met een vriendelijk uiterlijk kunnen het vertrouwen van kinderen winnen. Dit kan echter verwarrend zijn voor kinderen, omdat ze moeilijk begrijpen dat AI geen echte emotionele banden kan smeden.
AI kan zeer nuttig zijn voor kinderen als het zorgvuldig wordt ontworpen met hun behoeften in gedachten. Volgens Kurian moeten we ernaar streven AI veilig te maken in plaats van het te verbieden. Haar onderzoek benadrukt het belang van samenwerking tussen ontwikkelaars, leraren en experts op het gebied van kinderveiligheid bij het ontwerpen van AI. Deze samenwerking kan ervoor zorgen dat de technologie kinderen helpt zonder hen in gevaar te brengen.
Veel kinderen gebruiken AI zonder veel toezicht. Uit een onderzoek van Common Sense Media blijkt dat de helft van de leerlingen van 12-18 jaar Chat GPT voor school gebruikt, terwijl slechts een kwart van de ouders hiervan op de hoogte is. Om dit te verbeteren, heeft Kurian een reeks richtlijnen voorgesteld om veiligere AI-tools te ontwikkelen. Dit plan heeft als doel de risico's te verminderen en jonge gebruikers te beschermen.
De studie is hier gepubliceerd:
http://dx.doi.org/10.1080/17439884.2024.2367052en de officiële citatie - inclusief auteurs en tijdschrift - is
Nomisha Kurian. ‘No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models. Learning, Media and Technology, 2024; 1 DOI: 10.1080/17439884.2024.236705220 november 2024 · 01:02
AI onderweg: compacte taalmodellen voor betere prestaties op mobiele apparaten
18 november 2024 · 14:36
Precieze gedragsstudies bij muizen dankzij AI: minder dieren en snellere resultaten
Deel dit artikel