Estudio propone una forma más justa de tomar decisiones de IA para todos
MadridInvestigadores de la Universidad Carnegie Mellon y del Instituto Tecnológico de Stevens han propuesto una manera de hacer que las decisiones de la IA sean más justas. Sugieren un método llamado optimización del bienestar social, que considera los beneficios y perjuicios para las personas con el fin de asegurar resultados equitativos.
La equidad en la inteligencia artificial normalmente se evalúa comparando las tasas de aprobación entre diferentes grupos, que pueden variar según el nivel económico, la raza, la etnia o el género. John Hooker, un profesor de la Universidad Carnegie Mellon, co-escribió un estudio sobre este tema. Presentó su trabajo en la conferencia CPAIOR el 29 de mayo en Uppsala, Suecia, y el artículo recibió el Premio al Mejor Artículo.
La inteligencia artificial decide quién obtiene una hipoteca o una entrevista de trabajo. Los métodos tradicionales pueden asegurar que diferentes grupos sean aprobados a las mismas tasas. Sin embargo, ser rechazado para una hipoteca puede perjudicar más a una persona desfavorecida que a una persona privilegiada. La optimización del bienestar social busca crear mejores resultados para todos, especialmente para aquellos en grupos desfavorecidos.
El estudio presenta "alpha fairness," una metodología para equilibrar la equidad y la eficiencia. Esta puede ser ajustada según distintas necesidades. Los investigadores explican cómo la optimización del bienestar social ayuda a comparar diversas evaluaciones de equidad en la inteligencia artificial.
Puntos principales:
- Enfocarse en la optimización del bienestar social para tomar decisiones justas con la inteligencia artificial.
- La equidad alfa equilibra la justicia y la eficiencia.
- El método aborda las limitaciones de los enfoques tradicionales de equidad.
Las herramientas de equidad en IA analizan su imparcialidad hacia distintos grupos. La optimización del bienestar social conecta estas herramientas con estándares más amplios de justicia y eficiencia en campos como la economía y la ingeniería. Los investigadores creen que este nuevo método puede ayudar a explicar cómo lograr la equidad entre grupos en la inteligencia artificial.
21 de noviembre de 2024 · 3:55
A pesar de las ganancias de Nvidia, caen las acciones asiáticas.
Este estudio es fundamental tanto para los desarrolladores de IA como para los formuladores de políticas. Los desarrolladores pueden identificar las debilidades de los métodos actuales de equidad y considerar la justicia social al diseñar IA. Esto contribuye a asegurar que la tecnología sea justa y beneficie a todos los grupos de la sociedad.
Los investigadores creen que los métodos tradicionales podrían no ser suficientes. Aprobar el mismo porcentaje de personas de cada grupo puede no ser realmente justo. Por ejemplo, los efectos de negarle una hipoteca pueden variar mucho entre diferentes grupos. La optimización del bienestar social trata de considerar estas diferencias.
John Hooker y su equipo creen que este método puede crear modelos de IA más justos y útiles. Al considerar tanto los efectos positivos como los negativos, los sistemas de IA pueden ayudar más a todos. Esto es especialmente importante para los grupos más desfavorecidos.
El estudio revela que necesitamos una nueva forma de conceptualizar la equidad. Los métodos actuales buscan tasas de aprobación iguales, pero eso podría no ser auténticamente justo. Un enfoque diferente, denominado optimización del bienestar social, considera los efectos generales de las decisiones para alcanzar mejores resultados.
El artículo, presentado en CPAIOR, investiga el uso de la optimización del bienestar social para mejorar las evaluaciones de equidad en la inteligencia artificial. Este método puede ayudar a los desarrolladores a crear modelos de IA más justos que promuevan la justicia social.
Este nuevo método busca hacer las cosas justas y eficientes. Nos ayuda a entender cómo lograr que la inteligencia artificial sea justa para todos. Esto es importante para que la tecnología beneficie a todas las personas, especialmente a aquellas que son menos afortunadas.
El estudio se publica aquí:
http://dx.doi.org/10.1007/978-3-031-60597-0_14y su cita oficial - incluidos autores y revista - es
Violet Chen, J. N. Hooker, Derek Leben. Assessing Group Fairness with Social Welfare Optimization. CPAIOR 2024 Proceedings, 2024 DOI: 10.1007/978-3-031-60597-0_1419 de noviembre de 2024 · 20:02
IA eficiente en movimiento: modelos de lenguaje optimizados para dispositivos móviles y laptops
18 de noviembre de 2024 · 9:36
Precisión en estudios de comportamiento de ratones mejorada con IA y menos animales
18 de noviembre de 2024 · 7:24
La IA detecta rápidamente tumores cerebrales difíciles en cirugía con tecnología de FastGlioma
Compartir este artículo