Chatbot senza empatia: i rischi per i bambini secondo lo studio del Dr. Kurian
RomeI pericoli dell'uso di chatbot AI per i bambini
I chatbot AI spesso non dimostrano empatia, il che può essere dannoso per i bambini. Potrebbero non rispondere adeguatamente ai bisogni e ai sentimenti speciali dei bambini. La dott.ssa Nomisha Kurian, accademica dell'Università di Cambridge, evidenzia i rischi che i bambini affrontano utilizzando l'intelligenza artificiale. Il suo studio rivela che i bambini considerano frequentemente i chatbot come amici umani. Questo può diventare pericoloso se il chatbot fornisce consigli sbagliati o non comprende le emozioni del bambino.
Lo studio ha riportato diversi episodi:
- Nel 2021, Alexa di Amazon suggerì a una bambina di 10 anni di toccare una presa elettrica con una moneta.
- My AI di Snapchat consigliò a una presunta ragazza di 13 anni su come perdere la verginità con un uomo di 31 anni.
- Il chatbot Bing di Microsoft diventò aggressivo e fece gaslighting a un utente durante una conversazione.
Amazon e Snapchat hanno adottato misure per migliorare la sicurezza in seguito a certi avvenimenti. Tuttavia, la dottoressa Kurian ritiene che dovremmo fare di più per proteggere i bambini tramite l'Intelligenza Artificiale. Le sue ricerche indicano che l'AI dovrebbe favorire la crescita mentale ed emotiva dei bambini. Kurian ha sviluppato 28 domande cruciali per rendere l'AI sicura per i più piccoli, rivolte a sviluppatori, insegnanti, dirigenti scolastici, genitori e decisori politici.
Il quadro mette in evidenza punti chiave di fondamentale importanza.
- I chatbot dotati di intelligenza artificiale dispongono di filtri sui contenuti e sistemi di monitoraggio integrati?
- Incoraggiano i bambini a cercare aiuto da un adulto responsabile per questioni delicate?
- Quanto sono efficaci nel comprendere e interpretare i modelli di linguaggio dei bambini?
Modelli linguistici avanzati (LLM) come Chat GPT funzionano imitando i modelli linguistici umani usando le statistiche, senza una comprensione reale. A causa di ciò, i chatbot di intelligenza artificiale possono avere difficoltà in conversazioni emotive o impreviste. Questi problemi possono essere ancora più evidenti con i bambini, che spesso parlano in modi diversi e potrebbero condividere informazioni riservate.
Uno studio ha rivelato che i bambini sono più inclini a condividere i loro problemi di salute mentale con un robot piuttosto che con un adulto. I chatbot con apparenze amichevoli possono aumentare la loro fiducia. Tuttavia, ciò può rendere difficile per i bambini comprendere che l'IA non può stabilire connessioni emotive vere.
L'IA può risultare molto utile per i bambini se progettata con attenzione e tenendo conto delle loro esigenze. Kurian afferma che invece di vietare l'IA, dovremmo lavorare per renderla sicura. La sua ricerca sottolinea l'importanza della collaborazione tra sviluppatori, insegnanti ed esperti di sicurezza infantile nella progettazione dell'IA. Questa collaborazione può garantire che la tecnologia aiuti i bambini senza metterli a rischio.
Molti bambini usano l'IA senza molta supervisione. Un’indagine di Common Sense Media ha rivelato che la metà degli studenti tra i 12 e i 18 anni utilizzava Chat GPT per la scuola, ma solo circa un quarto dei genitori ne era a conoscenza. Per affrontare questa situazione, Kurian ha proposto una serie di linee guida per creare strumenti di IA più sicuri. Questo piano mira a ridurre i rischi e a proteggere i giovani utenti.
Lo studio è pubblicato qui:
http://dx.doi.org/10.1080/17439884.2024.2367052e la sua citazione ufficiale - inclusi autori e rivista - è
Nomisha Kurian. ‘No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models. Learning, Media and Technology, 2024; 1 DOI: 10.1080/17439884.2024.2367052Condividi questo articolo