Nova abordagem torna decisões de IA mais justas, segundo estudo premiado

Tempo de leitura: 2 minutos
Por Bia Chacu
- em
Balanças equilibrando código binário e símbolos sociais.

São PauloPesquisadores da Universidade Carnegie Mellon e do Instituto de Tecnologia Stevens desenvolveram uma nova abordagem para tornar as decisões de IA mais justas. Em um artigo recente, eles explicam como a otimização do bem-estar social pode contribuir para decisões de IA mais equitativas. Esse método avalia os benefícios e danos gerais para os indivíduos, em vez de apenas considerar as taxas de aprovação para diferentes grupos.

A justiça na IA frequentemente avalia como diferentes grupos são tratados com base em fatores como renda, raça e gênero. No entanto, esses métodos podem não captar o quanto essas decisões afetam realmente a vida das pessoas. Por exemplo, se alguém é negado um financiamento imobiliário, isso pode impactar muito mais uma pessoa de um grupo desfavorecido do que alguém de um grupo mais privilegiado.

O método inovador de otimização do bem-estar social revoluciona a nossa abordagem à justiça em inteligência artificial.

  • Avalia os benefícios e danos gerais para os indivíduos.
  • Enfoca os resultados reais das decisões.
  • Relaciona a justiça da IA com padrões mais amplos usados na economia e engenharia.

O professor John Hooker, da Universidade Carnegie Mellon, contribuiu na elaboração de um estudo. Ele apresentou este estudo na conferência CPAIOR, realizada em Uppsala, Suécia, em 29 de maio. O trabalho foi premiado com o Melhor Artigo da conferência.

O artigo discute a "justiça alfa", uma abordagem para garantir tanto equidade quanto eficiência. A justiça alfa pode ser ajustada conforme diferentes necessidades, ajudando sistemas de IA a tomarem decisões que beneficiam todos, especialmente os menos favorecidos.

Derek Leben, professor de ética empresarial na Tepper School, e Violet Chen, professora no Instituto de Tecnologia Stevens, coautoraram o estudo. Chen destacou que os métodos tradicionais de justiça entre grupos na IA focam em comparar estatísticas entre diferentes grupos, muitas vezes ignorando os reais impactos das decisões. Eles propõem um novo método que mede diretamente a justiça entre grupos ao aumentar o bem-estar social geral.

O estudo destaca vários pontos essenciais:

  • Métodos tradicionais de justiça em IA podem não levar em conta o impacto real das decisões.
  • A otimização do bem-estar social pode gerar melhores resultados para todos, especialmente para grupos desfavorecidos.
  • Essa abordagem pode avaliar e aprimorar as ferramentas atuais de justiça em IA.

Hooker afirmou que suas descobertas ajudam a entender como escolher e explicar regras de justiça para grupos. Leben mencionou que o estudo revela como alcançar a equidade de grupo em IA. Estes achados são valiosos para desenvolvedores de IA e formuladores de políticas.

Desenvolvedores podem tornar os modelos de IA mais justos ao considerar a justiça de maneira mais ampla. Essa abordagem destaca os problemas das práticas de justiça atuais e a necessidade de incorporar questões de justiça social no desenvolvimento de IA. Isso garante que a tecnologia seja equitativa para todos os diferentes grupos da sociedade.

O artigo está presente nos anais da conferência CPAIOR 2024.

O estudo é publicado aqui:

http://dx.doi.org/10.1007/978-3-031-60597-0_14

e sua citação oficial - incluindo autores e revista - é

Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_14
Inteligência Artificial: Últimas notícias

Compartilhar este artigo

Comentários (0)

Publicar um comentário