인간처럼 행동하는 AI, 도덕적 실수에 더 큰 책임 증가 연구
Seoul숙명여자대학교의 민주 주 교수의 최근 연구에 따르면, 인간과 유사한 행동을 보이는 인공지능(AI) 시스템이 실수를 저지를 경우 더 많은 비난을 받는 경향이 있다는 결과가 나타났습니다. PLOS ONE에 발표된 이 연구는 AI가 더욱 똑똑해지고 인간적인 행동을 보일수록 사람들이 AI가 이해하고 판단할 수 있는 능력이 뛰어나다고 생각하기 시작한다는 점을 강조합니다. 그 결과 AI는 실수나 윤리적 문제에 대해 더 많은 책임을 지게 됩니다.
인간처럼 보이는 AI는 더 많은 비난을 받는다
사람들은 AI가 얼마나 인간과 비슷하다고 생각하는지에 따라 AI를 다르게 비난합니다. AI가 더 인간적으로 보일수록, 사람들은 그 실수에 대해 AI를 더 많이 책임을 지우려고 합니다. 이것은 사람들이 AI를 보는 방식을 바꾸고, 프로그래머나 회사와 같은 인간에게서 책임을 옮길 수도 있습니다. 연구에서는, AI가 사진 태깅에서 인종차별적 오류를 저지르는 시나리오를 테스트했을 때, 인간처럼 보이는 AI가 단순한 AI 시스템보다 더 많은 비난을 받았습니다.
이러한 발견은 사람들이 AI를 어떻게 인식하는지를 이해하는 것이 얼마나 중요한지를 강조합니다. 또한 윤리적 및 실제적인 문제를 제기합니다. 우리가 AI를 인간처럼 대하기 시작할 때, 이러한 시스템을 비난하는 위험이 존재하며, 이 시스템을 만든 사람들과 조직에 책임을 부여하는 것을 방해하게 됩니다. 이 문제는 법률, 기술, 윤리 등 다양한 분야에 영향을 미치며, AI 관리에 대한 현재의 규칙을 도전합니다.
AI가 의료, 교통, 사법 분야에서 중요성이 커짐에 따라 기술 문제 발생 시 책임이 누구에게 있는지를 이해하는 것이 중요합니다. 핵심 질문은 AI가 실수에 대한 책임을 질 수 있는지, 아니면 단지 그것을 만든 사람들의 도구인지에 대한 것입니다. 명확한 규제가 없으면 사람들은 AI에 대한 신뢰를 잃을 수 있고, 이는 이러한 기술이 일상에 받아들여져 사용되는 것을 어렵게 만들 수 있습니다.
개발자와 정책 입안자들은 AI가 정직하고 공정하게 사용될 수 있도록 견고한 시스템을 구축해야 합니다. AI 시스템이 오류를 범했을 때, 책임은 적절히 분담되어야 하며 타인에게 전가되지 않아야 합니다. 이는 AI에 대한 신뢰를 높이고 다양한 산업 분야에서 책임 있는 방식으로 AI를 활용하도록 장려할 것입니다.
연구는 여기에서 발표되었습니다:
http://dx.doi.org/10.1371/journal.pone.0314559및 그 공식 인용 - 저자 및 저널 포함 - 다음과 같습니다
Minjoo Joo. It’s the AI’s fault, not mine: Mind perception increases blame attribution to AI. PLOS ONE, 2024; 19 (12): e0314559 DOI: 10.1371/journal.pone.03145592024년 12월 21일 · 오후 6:29
OpenAI 전 직원이자 내부고발자, 26세에 유명을 달리하다
2024년 12월 17일 · 오후 1:29
소프트뱅크의 대규모 투자: AI가 여는 미래 혁신은?
2024년 12월 14일 · 오후 10:45
AI, 초고성능 컴퓨터 넘어 공학 난제 해결… DIMON, 새 시대 열다
이 기사 공유