Nueva técnica de IA de OSU y Adobe busca eliminar sesgos sociales en datos
MadridInvestigadores de la Universidad Estatal de Oregón y Adobe han desarrollado un nuevo método llamado FairDeDup para entrenar sistemas de IA. Esta técnica ayuda a reducir los sesgos sociales en la inteligencia artificial al eliminar datos duplicados durante el proceso de entrenamiento.
La nueva técnica mejora un método anterior llamado SemDeDup al incorporar medidas de equidad. Los conjuntos de datos utilizados para entrenar modelos de IA a menudo contienen sesgos sociales. Si estos sesgos están presentes en los modelos de IA, pueden resultar en acciones y decisiones injustas.
FairDeDup optimiza los datos seleccionando solo las partes más relevantes. Este procedimiento implica mantener ciertos datos y eliminar el resto, garantizando que la información conservada represente fielmente el conjunto original. Los investigadores eligen qué datos retener basándose en su contenido, asegurándose de que la información esencial permanezca intacta.
Detalles sobre el funcionamiento de FairDeDup:
- Elimina datos redundantes
- Incorpora dimensiones de diversidad definidas por humanos
- Aborda sesgos relacionados con la ocupación, raza, género, edad, geografía y cultura
Eric Slyman, estudiante de doctorado en la Facultad de Ingeniería de OSU, lideró la investigación. Trabajó junto con Stefan Lee de OSU y Scott Cohen y Kushal Kafle de Adobe.
Los conjuntos de datos obtenidos de internet suelen tener sesgos que reflejan los prejuicios de la sociedad. Estos sesgos pueden manifestarse en los resultados de la IA, como mostrar solo imágenes de hombres blancos al buscar directores ejecutivos o médicos. El equipo de Slyman investigó cómo la eliminación de datos duplicados afecta estos sesgos. Descubrieron que el uso de FairDeDup puede reducir los resultados negativos.
21 de noviembre de 2024 · 3:55
A pesar de las ganancias de Nvidia, caen las acciones asiáticas.
FairDeDup busca reducir los costos de computación y hacer que los sistemas de inteligencia artificial sean más justos. Slyman explica que este método no obliga a la IA a seguir una idea estricta de equidad. En cambio, permite que la IA sea equitativa en diferentes situaciones y para distintos usuarios. Esto permite que las personas decidan qué es justo según sus propias necesidades, sin depender de grandes y sesgados conjuntos de datos de internet.
Los investigadores presentaron el algoritmo FairDeDup en la Conferencia IEEE/CVF sobre Visión por Computadora y Reconocimiento de Patrones en Seattle. Destacaron que este nuevo método es económico, preciso y equitativo.
Slyman explicó que su método permite que la IA aprenda de una manera que ahorra dinero, es precisa y justa. El equipo descubrió que al eliminar los sesgos en los datos, los sistemas de IA pueden ser más equitativos.
Este método ayuda a que la IA tome decisiones más justas al tener en cuenta diversas situaciones y diferencias humanas. No obliga a la IA a seguir una única idea de equidad; en cambio, permite que cada uso de la IA determine lo que significa la justicia para ellos.
Este avance es un paso crucial para reducir el sesgo en los sistemas de IA. Los investigadores creen que FairDeDup contribuirá a hacer la inteligencia artificial más justa y menos discriminatoria hacia los grupos marginados. La colaboración entre OSU y Adobe busca mejorar la equidad y eficiencia de la IA.
19 de noviembre de 2024 · 20:02
IA eficiente en movimiento: modelos de lenguaje optimizados para dispositivos móviles y laptops
18 de noviembre de 2024 · 9:36
Precisión en estudios de comportamiento de ratones mejorada con IA y menos animales
18 de noviembre de 2024 · 7:24
La IA detecta rápidamente tumores cerebrales difíciles en cirugía con tecnología de FastGlioma
Compartir este artículo