新研究: 公平性を高めるAIトレーニング技術「FairDeDup」で社会的偏見を軽減

読了時間: 2 分
によって Pedro Martinez
-
バランスの取れた秤と公正さを象徴する抽象的なAIの概念

Tokyoオレゴン州立大学とアドビの研究者たちは、AIシステムの訓練において新しい手法「FairDeDup」を開発しました。この技術は、訓練プロセス中に重複データを取り除くことで、AIにおける社会的偏見を減らすのに役立ちます。

新しい手法はSemDeDupという以前の方法を改良し、公平性の指標を追加しています。AIモデルの訓練には、しばしば社会的偏見を含むデータセットが使用されます。これらの偏見がAIモデルに組み込まれると、不公正な行動や決定を引き起こす可能性があります。

FairDeDupはデータの中で最も重要な部分を選び出すことでデータ量を削減します。このプロセスは、一部のデータを保持し、その他を削除することを意味しますが、残されたデータが元のセットを十分に表現するようにします。研究者たちは、どのデータを残すかをその内容に基づいて判断し、重要な情報がしっかりと残されていることを確認しています。

FairDeDupの仕組みに関する詳細は以下の通りです:

  • 繰り返しデータを除去します
  • 人が定義した多様性の側面を組み込みます
  • 職業、人種、性別、年齢、地理、文化に関する偏見に対応します

オレゴン州立大学の工学部博士課程の学生であるエリック・スライマンが研究を主導しました。彼はオレゴン州立大学のステファン・リーと、アドビのスコット・コーエン、クシャル・カフレと協力しました。

インターネット上のデータセットには、社会の偏見を反映したバイアスが存在することがよくあります。たとえば、CEOや医者を検索した際に白人男性の画像しか表示されないことが、その例です。スライマンのチームは、重複データを削除することがこれらのバイアスにどのように影響するかを研究しました。その結果、FairDeDupを使用することでネガティブな結果を減少させることができることが分かりました。

FairDeDupは、コンピュータ処理のコスト削減とAIシステムの公平性向上を目指しています。スライマンによれば、この手法はAIに厳密な公平の概念を強いるものではありません。むしろ、異なる状況やユーザーに応じて、AIがより公正に対応できるようにします。これにより、人々は大規模で偏ったインターネットのデータセットに頼らずに、自分のニーズに基づいて「公正」とは何かを判断できるのです。

研究者たちは、シアトルで開催されたIEEE/CVFコンピュータビジョンおよびパターン認識会議でFairDeDupアルゴリズムを発表しました。この新しい手法は、手頃な価格で、正確かつ公平であることを強調しました。

スライマンは、彼らの方法がコストを節約し、正確で公正な方法でAIに学習させることができると述べた。チームは、データから偏りを削除することによって、AIシステムがより公正になることを発見した。

この方法は、AIがさまざまな人間の状況や多様性を考慮し、公平な判断を下せるようにします。AIに特定の公平性を強制するのではなく、AIの異なる利用目的に応じて公平性を定義できるようにするのです。

この進展はAIシステムにおけるバイアスを減少させる重要な一歩です。研究者たちはFairDeDupがAIをより公平にし、社会的に弱い立場にあるグループへの偏りを減らすことに貢献すると考えています。オレゴン州立大学とアドビ社の連携により、AIの公平性と効率性が向上することを目指しています。

この研究はこちらに掲載されています:

NaN

およびその公式引用 - 著者およびジャーナルを含む - は

NaN
人工知能: 最新ニュース
次を読む:

この記事を共有

コメント (0)

コメントを投稿