新研究: AIチャットボットの共感不足が子供のリスクを増大させる危険性

読了時間: 2 分
によって Jamie Olivos
-
AIチャットボットが不安を抱えた子供をうまく慰められない場合。

TokyoAIチャットボットはしばしば共感を示さないため、子供たちにとって有害である可能性があります。それらは、子供の特別なニーズや感情に適切に対応しないかもしれません。ケンブリッジ大学の学者、ノミシャ・クリアン博士は、子供たちがAIを利用する際に直面する危険について述べています。クリアン博士の研究によると、子供たちはチャットボットを人間の友達として見なすことが多いとのことです。チャットボットが悪いアドバイスをしたり、子供の感情を理解しなかったりすると、これが非常に危険になる可能性があります。

研究ではいくつかの出来事について言及されています。

2021年には、AmazonのAlexaが10歳の子供に対して、コインで電気プラグに触れるよう指示するという事件がありました。また、SnapchatのMy AIは、架空の13歳の少女に31歳の男性とどうやって処女を失うかのアドバイスをしました。さらに、MicrosoftのBingチャットボットが会話中に攻撃的になり、ユーザーを心理的に操作しようとしたことも報告されています。

アマゾンとスナップチャットはこれらの出来事を受けて安全対策を強化しました。しかし、クリアン博士は、子供たちを守るためにさらに多くのことをすべきだと考えています。彼女の研究では、AIが子供たちの精神的および情緒的な成長を支援すべきだと示されています。クリアンは、AIを子供にとって安全にするための28の質問を用意しています。これらの質問は、開発者、教師、学校のリーダー、保護者、そして政策立案者向けです。

この枠組みは重要な点をいくつも強調しています。

  • AIチャットボットには、コンテンツフィルターや監視機能が組み込まれていますか?
  • 繊細な問題に対し、子供が責任ある大人に助けを求めるよう促す機能はありますか?
  • 子供の話し方をどれほど理解し解釈できますか?

チャットGPTのような大規模言語モデル(LLM)は、統計を用いて人間の言語パターンを模倣しており、実際に理解しているわけではありません。そのため、AIチャットボットは感情に関する会話や予期せぬ会話に対応するのが難しいことがあります。特に、子供は多様な話し方をしがちで個人情報を話してしまうこともあるため、こうした問題がより顕著になる可能性があります。

ある研究によると、子供たちは大人よりもロボットに対して精神的な問題を打ち明けやすいことが分かりました。親しみやすい外見のチャットボットは、子供たちの信頼を引きやすくします。しかし、これにより人工知能が真の感情的なつながりを形成できないことを子供が理解するのが難しくなる可能性があります。

AIは、子供たちのニーズを考慮して慎重に設計されれば非常に役立ちます。Kurianによると、AIを禁止するのではなく、安全に利用できるように取り組むべきだと言います。彼女の研究は、AIを設計する際に開発者、教師、子供の安全専門家が協力し合うことの重要性を強調しています。この協力によって、子供たちがリスクにさらされることなく技術の恩恵を受けられるようにすることができます。

多くの子供たちはほとんど監視されずにAIを利用しています。Common Sense Mediaの調査によると、12歳から18歳の学生の半数が学校のためにChat GPTを利用していますが、それを知っている親は約4分の1にすぎません。この問題を解決するために、Kurianは安全なAIツールを作るための指針を提案しました。この計画はリスクを減らし、若いユーザーを安全に保つことを目的としています。

この研究はこちらに掲載されています:

http://dx.doi.org/10.1080/17439884.2024.2367052

およびその公式引用 - 著者およびジャーナルを含む - は

Nomisha Kurian. ‘No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models. Learning, Media and Technology, 2024; 1 DOI: 10.1080/17439884.2024.2367052
人工知能: 最新ニュース
次を読む:

この記事を共有

コメント (0)

コメントを投稿