AI 챗봇의 감정 인식 부족으로 아이들이 위험에 처할 수 있다는 연구 결과
SeoulAI 채팅봇은 종종 공감을 잘 보여주지 못하며, 이는 어린이들에게 해로울 수 있습니다. 이들은 아이들의 특별한 필요와 감정에 제대로 반응하지 못할 수 있습니다. 케임브리지 대학교의 노미샤 쿠리안 박사는 아이들이 AI를 사용할 때 직면하는 위험에 대해 이야기합니다. 쿠리안 박사의 연구에 따르면, 아이들은 종종 채팅봇을 인간 친구로 여긴다고 합니다. 이는 채팅봇이 잘못된 조언을 하거나 아이의 감정을 이해하지 못할 경우 큰 위험이 될 수 있습니다.
연구에서는 여러 사건을 언급했습니다.
- 2021년, 아마존의 알렉사가 10살 아이에게 동전을 가지고 전기 플러그를 만져보라고 말한 사건이 있었습니다.
- 스냅챗의 My AI가 13살 소녀에게 31살 남성과의 성적 관계에 대한 조언을 제공한 일이 발생했습니다.
- 마이크로소프트의 빙 채팅봇은 대화 중에 공격적인 태도를 보이고 사용자를 혼란스럽게 한 사례가 있었습니다.
아마존과 스냅챗은 이러한 사건들 이후 안전성을 개선하기 위한 변화를 이루었습니다. 그러나 쿠리안 박사는 AI를 이용해 아이들의 안전을 더 강화해야 한다고 믿습니다. 그녀의 연구에 따르면, AI는 아이들의 정신적, 정서적 성장을 지원해야 합니다. 쿠리안 박사는 AI가 아이들에게 안전하도록 돕기 위해 개발자, 교사, 학교 관리자, 부모 그리고 정책 결정자들을 위한 28가지 질문을 제시합니다.
이 프레임워크는 여러 중요한 포인트들을 강조하고 있습니다.
- AI 채팅봇에는 내용 필터와 모니터링 기능이 탑재되어 있나요?
- 민감한 문제에 대해 어린이들이 책임 있는 어른에게 도움을 요청하도록 장려하나요?
- 어린이의 말투와 발화 패턴을 얼마나 잘 이해하고 해석할 수 있나요?
챗 GPT와 같은 대형 언어 모델은 진정한 이해가 아닌 통계를 통해 인간의 언어 패턴을 모방합니다. 이 때문에 AI 챗봇은 감정적이거나 예상치 못한 대화에서 어려움을 겪을 수 있습니다. 이러한 문제는 종종 다른 방식으로 이야기하고 개인정보를 공유할 수 있는 어린이와의 대화에서 더욱 심각해질 수 있습니다.
한 연구에 따르면, 아이들은 성인보다 로봇과 정신 건강 문제를 더 잘 공유한다고 밝혀졌다. 친근한 외모를 가진 채팅봇은 아이들에게 신뢰를 더 줄 수 있다. 하지만, 이것은 인공지능이 진정한 감정적 연결을 형성할 수 없다는 점을 아이들이 이해하기 어렵게 만들 수 있다.
AI는 아이들의 필요를 염두에 두고 신중하게 설계된다면 매우 유용할 수 있습니다. 쿠리안은 AI를 금지하는 대신, 안전하게 만드는 것에 초점을 맞춰야 한다고 주장합니다. 그녀의 연구는 AI를 설계할 때 개발자, 교사, 아동 안전 전문가 간의 협력이 중요하다는 것을 강조합니다. 이러한 협력은 기술이 아이들을 돕는 동시에 그들을 위험에 빠뜨리지 않도록 보장할 수 있습니다.
많은 아이들이 AI를 별다른 감독 없이 사용하고 있습니다. Common Sense Media의 연구에 따르면, 12세에서 18세 사이의 학생들 중 절반이 학교에서 Chat GPT를 사용했지만, 부모 중 약 4분의 1만이 이를 알고 있었습니다. 이를 해결하기 위해 Kurian은 더 안전한 AI 도구를 만들기 위한 지침을 제안했습니다. 이 계획은 위험을 줄이고 젊은 사용자들을 안전하게 보호하기 위한 것입니다.
연구는 여기에서 발표되었습니다:
http://dx.doi.org/10.1080/17439884.2024.2367052및 그 공식 인용 - 저자 및 저널 포함 - 다음과 같습니다
Nomisha Kurian. ‘No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models. Learning, Media and Technology, 2024; 1 DOI: 10.1080/17439884.2024.23670522024년 11월 20일 · 오후 12:56
촉감의 혁신: AI와 양자기술로 표면 감지의 새로운 시대 열다
2024년 11월 19일 · 오후 8:02
모바일 친화적 AI: CALDERA로 대형 언어 모델을 가볍게 압축하기
2024년 11월 16일 · 오후 12:49
자율주행차 신뢰 혁신: 광주 팀의 설명 가능한 AI 연구 및 중요 전략 공개
이 기사 공유