Nova técnica de IA da OSU e Adobe visa reduzir vieses sociais

Tempo de leitura: 2 minutos
Por Chi Silva
- em
Conceito abstrato de IA com balança e justiça.

São PauloPesquisadores da Universidade Estadual do Oregon e da Adobe desenvolveram um novo método chamado FairDeDup para treinar sistemas de IA. Esta técnica ajuda a reduzir os vieses sociais na IA ao remover dados duplicados durante o processo de treinamento.

A nova técnica aprimora um método anterior chamado SemDeDup ao incluir medidas de equidade. A utilização de datasets com vieses sociais é comum no treinamento de modelos de IA. Quando esses vieses são incorporados aos modelos, podem resultar em ações e decisões injustas.

FairDeDup reduz dados ao selecionar apenas as partes mais relevantes. Esse processo envolve manter alguns dados e remover o restante, garantindo que os dados restantes ainda representem bem o conjunto original. Os pesquisadores decidem quais dados manter com base no conteúdo, assegurando que as informações essenciais permaneçam.

Confira como o FairDeDup funciona:

  • Eliminação de dados redundantes
  • Incorporação de dimensões de diversidade definidas por humanos
  • Tratamento de vieses relacionados a ocupação, raça, gênero, idade, geografia e cultura

Eric Slyman, doutorando da Faculdade de Engenharia da OSU, liderou a pesquisa, em colaboração com Stefan Lee da OSU e Scott Cohen e Kushal Kafle da Adobe.

Dados coletados da internet frequentemente apresentam vieses que refletem os preconceitos da sociedade. Esses vieses podem surgir nos resultados gerados por IA, como exibir apenas fotos de homens brancos ao buscar por CEOs ou médicos. A equipe de Slyman estudou como a remoção de dados duplicados afeta esses vieses. Eles descobriram que utilizar a ferramenta FairDeDup pode reduzir esses resultados negativos.

FairDeDup busca reduzir os custos de computação e tornar os sistemas de IA mais justos. Slyman explica que esse método não obriga a IA a seguir um conceito rígido de justiça. Em vez disso, ele ajuda a IA a ser justa em situações diferentes e para diferentes usuários. Isso permite que as pessoas determinem o que é justo com base em suas próprias necessidades, sem depender de grandes e tendenciosos conjuntos de dados da internet.

Os pesquisadores apresentaram o algoritmo FairDeDup na Conferência IEEE/CVF sobre Visão Computacional e Reconhecimento de Padrões em Seattle. Eles destacaram que esse novo método é acessível, preciso e justo.

Slyman afirmou que o método da equipe permite que a IA aprenda de maneira econômica, precisa e justa. Os pesquisadores descobriram que, ao eliminar preconceitos nos dados, os sistemas de IA podem ser mais justos.

Este método auxilia a IA a tomar decisões mais justas ao considerar diversas situações e diferenças humanas. Em vez de impor uma única ideia de justiça, ele permite que cada aplicação da IA determine o que é justo para si.

Esse avanço representa um passo significativo na redução de vieses em sistemas de IA. Pesquisadores acreditam que o FairDeDup contribuirá para tornar a inteligência artificial mais justa e menos tendenciosa contra grupos marginalizados. A parceria entre a OSU e a Adobe visa aprimorar a equidade e a eficiência da IA.

O estudo é publicado aqui:

NaN

e sua citação oficial - incluindo autores e revista - é

NaN
Inteligência Artificial: Últimas notícias

Compartilhar este artigo

Comentários (0)

Publicar um comentário