La IA con rasgos humanos enfrenta más críticas por errores morales, según nuevo estudio
MadridUna reciente investigación realizada por Minjoo Joo en la Universidad de Mujeres Sookmyung revela que los sistemas de inteligencia artificial (IA) que parecen más humanos son más frecuentemente culpados por errores. El estudio, publicado en PLOS ONE, destaca la preocupación de que a medida que la IA se vuelve más inteligente y humana en su comportamiento, las personas comiencen a creer que puede entender y tomar mejores decisiones. Como consecuencia, se sostiene a la IA más responsable por fallos y cuestiones éticas.
Las personas tienden a responsabilizar de manera diferente a la inteligencia artificial dependiendo de cuánto la perciban como humana. Si una IA parece más "humanoide", es más probable que la culpen por sus errores. Esto influye en la percepción que se tiene de la IA y puede trasladar la responsabilidad de los humanos, como programadores o empresas. En un estudio donde se evaluaron situaciones, como errores racistas de una IA al etiquetar fotos, se observó que las IA más parecidas a los humanos recibieron más críticas que los sistemas más simples.
Estos hallazgos subrayan la importancia de comprender cómo las personas ven la inteligencia artificial. También plantean preocupaciones éticas y prácticas. Al tratar a la IA como si fuera humana, corremos el riesgo de culpar a estos sistemas en lugar de responsabilizar a las personas y organizaciones que los desarrollan. Este problema impacta ámbitos como el derecho, la tecnología y la ética, y desafía las normas actuales para la gestión de la IA.
A medida que la inteligencia artificial se vuelve crucial en sectores como la salud, el transporte y la justicia, resulta esencial determinar quién es responsable cuando ocurren fallos. La pregunta clave es: ¿Se puede culpar a la inteligencia artificial por los errores, o son simplemente herramientas de quienes las desarrollaron? Sin reglas claras, el público podría perder confianza en la IA, lo que dificultaría su aceptación e implementación en la vida diaria.
Desarrolladores y responsables de políticas deben crear sistemas sólidos que aseguren el uso honesto y equitativo de la inteligencia artificial. En caso de que un sistema de inteligencia artificial cometa un error, la responsabilidad debe asignarse adecuadamente y no ser desviada a otros. Esto fomentará una mayor confianza en la inteligencia artificial y promoverá su uso responsable en diversas industrias.
El estudio se publica aquí:
http://dx.doi.org/10.1371/journal.pone.0314559y su cita oficial - incluidos autores y revista - es
Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.031455921 de diciembre de 2024 · 18:29
Fallece Suchir Balaji, ingeniero y denunciante de OpenAI.
14 de diciembre de 2024 · 22:45
Avance de la IA supera a supercomputadoras en resolver desafíos de ingeniería más rápido
5 de diciembre de 2024 · 19:20
Celebración en Wall Street: auge impulsado por IA recuerda a 1998
Compartir este artículo