Estudio propone una forma más justa de tomar decisiones de IA para todos

Tiempo de lectura: 2 minutos
Por Maria Lopez
- en
'Balanza equilibrando íconos de IA con símbolos diversos.'

MadridInvestigadores de la Universidad Carnegie Mellon y del Instituto Tecnológico de Stevens han propuesto una manera de hacer que las decisiones de la IA sean más justas. Sugieren un método llamado optimización del bienestar social, que considera los beneficios y perjuicios para las personas con el fin de asegurar resultados equitativos.

La equidad en la inteligencia artificial normalmente se evalúa comparando las tasas de aprobación entre diferentes grupos, que pueden variar según el nivel económico, la raza, la etnia o el género. John Hooker, un profesor de la Universidad Carnegie Mellon, co-escribió un estudio sobre este tema. Presentó su trabajo en la conferencia CPAIOR el 29 de mayo en Uppsala, Suecia, y el artículo recibió el Premio al Mejor Artículo.

La inteligencia artificial decide quién obtiene una hipoteca o una entrevista de trabajo. Los métodos tradicionales pueden asegurar que diferentes grupos sean aprobados a las mismas tasas. Sin embargo, ser rechazado para una hipoteca puede perjudicar más a una persona desfavorecida que a una persona privilegiada. La optimización del bienestar social busca crear mejores resultados para todos, especialmente para aquellos en grupos desfavorecidos.

El estudio presenta "alpha fairness," una metodología para equilibrar la equidad y la eficiencia. Esta puede ser ajustada según distintas necesidades. Los investigadores explican cómo la optimización del bienestar social ayuda a comparar diversas evaluaciones de equidad en la inteligencia artificial.

Puntos principales:

  • Enfocarse en la optimización del bienestar social para tomar decisiones justas con la inteligencia artificial.
  • La equidad alfa equilibra la justicia y la eficiencia.
  • El método aborda las limitaciones de los enfoques tradicionales de equidad.

Las herramientas de equidad en IA analizan su imparcialidad hacia distintos grupos. La optimización del bienestar social conecta estas herramientas con estándares más amplios de justicia y eficiencia en campos como la economía y la ingeniería. Los investigadores creen que este nuevo método puede ayudar a explicar cómo lograr la equidad entre grupos en la inteligencia artificial.

Este estudio es fundamental tanto para los desarrolladores de IA como para los formuladores de políticas. Los desarrolladores pueden identificar las debilidades de los métodos actuales de equidad y considerar la justicia social al diseñar IA. Esto contribuye a asegurar que la tecnología sea justa y beneficie a todos los grupos de la sociedad.

Los investigadores creen que los métodos tradicionales podrían no ser suficientes. Aprobar el mismo porcentaje de personas de cada grupo puede no ser realmente justo. Por ejemplo, los efectos de negarle una hipoteca pueden variar mucho entre diferentes grupos. La optimización del bienestar social trata de considerar estas diferencias.

John Hooker y su equipo creen que este método puede crear modelos de IA más justos y útiles. Al considerar tanto los efectos positivos como los negativos, los sistemas de IA pueden ayudar más a todos. Esto es especialmente importante para los grupos más desfavorecidos.

El estudio revela que necesitamos una nueva forma de conceptualizar la equidad. Los métodos actuales buscan tasas de aprobación iguales, pero eso podría no ser auténticamente justo. Un enfoque diferente, denominado optimización del bienestar social, considera los efectos generales de las decisiones para alcanzar mejores resultados.

El artículo, presentado en CPAIOR, investiga el uso de la optimización del bienestar social para mejorar las evaluaciones de equidad en la inteligencia artificial. Este método puede ayudar a los desarrolladores a crear modelos de IA más justos que promuevan la justicia social.

Este nuevo método busca hacer las cosas justas y eficientes. Nos ayuda a entender cómo lograr que la inteligencia artificial sea justa para todos. Esto es importante para que la tecnología beneficie a todas las personas, especialmente a aquellas que son menos afortunadas.

El estudio se publica aquí:

http://dx.doi.org/10.1007/978-3-031-60597-0_14

y su cita oficial - incluidos autores y revista - es

Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_14
Inteligencia Artificial: Últimas noticias

Compartir este artículo

Comentarios (0)

Publicar un comentario
NewsWorld

NewsWorld.app es un sitio de noticias premium gratuito. Proporcionamos noticias independientes y de alta calidad sin cobrar por artículo y sin un modelo de suscripción. NewsWorld cree que las noticias generales, de negocios, económicas, tecnológicas y de entretenimiento deberían ser accesibles a un alto nivel de forma gratuita. Además, NewsWorld es increíblemente rápido y utiliza tecnología avanzada para presentar artículos de noticias en un formato altamente legible y atractivo para el consumidor.


© 2024 NewsWorld™. Todos los derechos reservados.