La IA con rasgos humanos enfrenta más críticas por errores morales, según nuevo estudio

Tiempo de lectura: 2 minutos
Por Pedro Martinez
- en
Robot con características humanas frente a balanzas de juicio.

MadridUna reciente investigación realizada por Minjoo Joo en la Universidad de Mujeres Sookmyung revela que los sistemas de inteligencia artificial (IA) que parecen más humanos son más frecuentemente culpados por errores. El estudio, publicado en PLOS ONE, destaca la preocupación de que a medida que la IA se vuelve más inteligente y humana en su comportamiento, las personas comiencen a creer que puede entender y tomar mejores decisiones. Como consecuencia, se sostiene a la IA más responsable por fallos y cuestiones éticas.

Las personas tienden a responsabilizar de manera diferente a la inteligencia artificial dependiendo de cuánto la perciban como humana. Si una IA parece más "humanoide", es más probable que la culpen por sus errores. Esto influye en la percepción que se tiene de la IA y puede trasladar la responsabilidad de los humanos, como programadores o empresas. En un estudio donde se evaluaron situaciones, como errores racistas de una IA al etiquetar fotos, se observó que las IA más parecidas a los humanos recibieron más críticas que los sistemas más simples.

  • La percepción de la mente y las capacidades de la inteligencia artificial
  • La naturaleza de la transgresión moral
  • El grado de participación de los humanos involucrados
  • Estos hallazgos subrayan la importancia de comprender cómo las personas ven la inteligencia artificial. También plantean preocupaciones éticas y prácticas. Al tratar a la IA como si fuera humana, corremos el riesgo de culpar a estos sistemas en lugar de responsabilizar a las personas y organizaciones que los desarrollan. Este problema impacta ámbitos como el derecho, la tecnología y la ética, y desafía las normas actuales para la gestión de la IA.

    A medida que la inteligencia artificial se vuelve crucial en sectores como la salud, el transporte y la justicia, resulta esencial determinar quién es responsable cuando ocurren fallos. La pregunta clave es: ¿Se puede culpar a la inteligencia artificial por los errores, o son simplemente herramientas de quienes las desarrollaron? Sin reglas claras, el público podría perder confianza en la IA, lo que dificultaría su aceptación e implementación en la vida diaria.

    Desarrolladores y responsables de políticas deben crear sistemas sólidos que aseguren el uso honesto y equitativo de la inteligencia artificial. En caso de que un sistema de inteligencia artificial cometa un error, la responsabilidad debe asignarse adecuadamente y no ser desviada a otros. Esto fomentará una mayor confianza en la inteligencia artificial y promoverá su uso responsable en diversas industrias.

    El estudio se publica aquí:

    http://dx.doi.org/10.1371/journal.pone.0314559

    y su cita oficial - incluidos autores y revista - es

    Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.0314559
    Inteligencia Artificial: Últimas noticias

    Compartir este artículo

    Comentarios (0)

    Publicar un comentario
    NewsWorld

    NewsWorld.app es un sitio de noticias premium gratuito. Proporcionamos noticias independientes y de alta calidad sin cobrar por artículo y sin un modelo de suscripción. NewsWorld cree que las noticias generales, de negocios, económicas, tecnológicas y de entretenimiento deberían ser accesibles a un alto nivel de forma gratuita. Además, NewsWorld es increíblemente rápido y utiliza tecnología avanzada para presentar artículos de noticias en un formato altamente legible y atractivo para el consumidor.


    © 2024 NewsWorld™. Todos los derechos reservados.