AIのリスク評価: 規制者はどこで制限を設けるべきか
Tokyo規制当局は、AIシステムが危険になる時期を見極めようとしています。これを評価する主な方法の一つは、その計算能力を見ることで、その指標として毎秒の浮動小数点演算回数(フロップス)が使用されます。10の26乗フロップス(100セプティリオンの計算)を超えるAIシステムは、米国政府への報告が義務付けられました。このような高い計算能力は、大量破壊兵器の製造や深刻なサイバー攻撃の実行など、重大な脅威をもたらす可能性があります。
参考までに、重要な規制基準は以下の通りです:
- AIモデルは、10^26フロップスの性能を持っていることが報告の条件です。
- また、構築には最低1億ドルがかかる必要があります。
- EUのAI法では、下限値として10^25フロップスが設定されています。
ある批評家たちは、これらの指標が偶然性を含み、創造性を阻害するかもしれないと指摘しています。彼らは、こうした固定された基準が、小型でありながら依然として非常に有能で危険なモデルを見逃す可能性があると考えています。コンピュータサイエンティストのサラ・フッカーは、フロップスのような現在の測定方法ではAIの潜在的リスクを正確に反映しないかもしれないと指摘し、多くの開発者が少ない計算能力でより多くの成果を上げていると述べています。
政府はAIの進化の速さと、その影響が完全には把握されていないことから、規制の設定に苦慮しています。この状況に対処するため、彼らは<強調>暫定的な規則</強調>を設けましたが、AIが進化するにつれてこれらの規則が更新される必要があるかもしれません。これらの規則は、処理能力といった明確な指標を用いて問題に対処しようとしているものの、新たに発生するかもしれない問題をすべて予測することはできません。
新しいモデルは、資源を少なく使用しても社会に大きな影響を与える可能性があるため、慎重な規制が必要です。テクノロジー業界はより小型で効率的なモデルの構築を進めていますが、これらも悪用される可能性があります。たとえば、OpenAIのChatGPTのような例があり、これらのツールは役立つ一方で、安全性と倫理性のチェックが常に欠かせないことを示しています。
物理学者のアンソニー・アギレや同様の意見を持つ人々は、FLOPSメトリックの欠点を認識しつつも、急速な技術進化の時代において基本的な枠組みを提供すると考えています。新しい法律は柔軟であり、新しい情報が得られるたびに変更可能だと彼らは考えています。しかし、批判者たちは、計算的な指標のみに依存すると新しいアイデアが制限される可能性があることや、安全に見えるモデルの中の隠れた危険を見逃す可能性があると警告しています。
AIの変化と適応を規制するためのより良い方法が必要です。この規制は、革新を支援しながら新たなリスクを管理すべきです。AIの強力さだけでなく、AIの使用に伴う社会的影響やその文脈も考慮する必要があります。そのため、将来的なAI規制には、より高度な安全確認や詳細な措置が含まれる可能性があります。
現在の規制は完璧でも永続的でもないかもしれませんが、複雑な人工知能の世界を管理するのに役立っています。目標は、新しい進展を規制と調和させ、安全にAIを様々な分野で活用することになるでしょう。
2024年11月20日 · 13:04
AI安全対策会議:バイデン政策に逆行する専門家たち
2024年11月20日 · 12:56
AIが触覚を獲得:量子技術で表面を識別する新時代へ
2024年11月19日 · 20:02
モバイル時代のAI革命: CALDERAで進化する次世代小型言語モデル
この記事を共有