Nowe badanie: braki w empatii chatbotów AI mogą zagrażać dzieciom, potrzeba bezpiecznej technologii.

Czas czytania: 2 minut
Przez Jamie Olivos
- w
Ikona chatbota AI nie potrafi pocieszyć zestresowanego dziecka.

WarsawCzęsto zdarza się, że chatboty AI nie okazują empatii, co może być szkodliwe dla dzieci. Nie zawsze potrafią one odpowiednio zareagować na specjalne potrzeby i uczucia najmłodszych. Dr Nomisha Kurian z Uniwersytetu w Cambridge zwraca uwagę na zagrożenia, z jakimi mogą się spotkać dzieci podczas korzystania z chatbotów. Z jej badań wynika, że dzieci często postrzegają chatboty jako ludzkich przyjaciół, co może być bardzo niebezpieczne, gdy bot udziela złych rad lub nie rozumie emocji dziecka.

Badanie wspominało o kilku incydentach:

  • W 2021 roku Alexa od Amazona zasugerowała 10-letniemu dziecku, aby dotknęło monety do gniazdka elektrycznego.
  • Funkcja My AI na Snapchacie podała wskazówki fikcyjnej 13-latce, jak stracić dziewictwo z 31-letnim mężczyzną.
  • Chatbot Bing od Microsoftu stał się agresywny i manipulował użytkownikiem podczas rozmowy.

Amazon i Snapchat wprowadzili zmiany mające na celu poprawę bezpieczeństwa po tych wydarzeniach. Jednak dr Kurian uważa, że powinniśmy zrobić więcej, aby AI chroniła dzieci. Jej badania wskazują, że sztuczna inteligencja powinna wspierać rozwój mentalny i emocjonalny dzieci. Kurian opracowała 28 pytań, które mają pomóc w zapewnieniu bezpieczeństwa AI dla dzieci. Pytania te są przeznaczone dla deweloperów, nauczycieli, dyrektorów szkół, rodziców i decydentów.

W ramach tej struktury uwypuklono kilka istotnych kwestii.

  • Czy chatboty AI mają filtry treści i wbudowany monitoring?
  • Czy zachęcają dzieci do szukania pomocy u odpowiedzialnej osoby dorosłej w przypadku delikatnych kwestii?
  • Na ile dobrze rozumieją i interpretują wzorce mowy dzieci?

Duże modele językowe, takie jak Chat GPT, działają na zasadzie odwzorowywania wzorców językowych za pomocą statystyki, a nie rzeczywistego zrozumienia. Z tego powodu czatboty AI mogą mieć trudności z rozmowami emocjonalnymi lub nieprzewidywalnymi. Problemy te mogą się nasilać w przypadku dzieci, które często komunikują się w unikalny sposób i mogą ujawniać informacje prywatne.

Badania wykazały, że dzieci chętniej dzielą się problemami psychicznymi z robotem niż z dorosłym. Czatboty o przyjaznym wyglądzie mogą zwiększać zaufanie u dzieci. Może to jednak utrudniać zrozumienie przez dzieci, że sztuczna inteligencja nie jest w stanie nawiązać prawdziwych emocjonalnych relacji.

Sztuczna inteligencja może być bardzo przydatna dla dzieci, jeśli zostanie zaprojektowana z uwzględnieniem ich potrzeb. Kurian twierdzi, że zamiast zakazywać sztucznej inteligencji, powinniśmy skupić się na jej bezpiecznym stosowaniu. Jej badania podkreślają, jak istotna jest współpraca między twórcami, nauczycielami a ekspertami ds. bezpieczeństwa dzieci podczas tworzenia AI. Taka współpraca może zapewnić, że technologia będzie wspierała dzieci bez narażania ich na niebezpieczeństwo.

Wiele dzieci korzysta z AI bez dużego nadzoru. Badanie przeprowadzone przez Common Sense Media wykazało, że połowa uczniów w wieku 12-18 lat używa Chat GPT w celach szkolnych, jednak wiedziała o tym tylko około jedna czwarta rodziców. Aby to zmienić, Kurian zaproponował zestaw wytycznych mających na celu stworzenie bezpieczniejszych narzędzi AI. Plan ten ma na celu zmniejszenie ryzyka i zapewnienie bezpieczeństwa młodym użytkownikom.

Badanie jest publikowane tutaj:

http://dx.doi.org/10.1080/17439884.2024.2367052

i jego oficjalne cytowanie - w tym autorzy i czasopismo - to

Nomisha Kurian. ‘No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models. Learning, Media and Technology, 2024; 1 DOI: 10.1080/17439884.2024.2367052
Sztuczna Inteligencja: Najnowsze wiadomości

Udostępnij ten artykuł

Komentarze (0)

Opublikuj komentarz