병원 AI 음성 인식기, 허위 진술 문제 드러나
SeoulAI 음성 변환 도구인 Whisper가 의료 분야에서 점점 더 많이 사용됨에 따라 우려가 커지고 있습니다. 연구자들은 이 소프트웨어가 실제로 언급되지 않은 내용을 임의로 생성할 수 있다는 점을 발견했습니다. 이러한 문제는 정확한 전사가 중요한 의료 환경에서 매우 위험할 수 있습니다.
Whisper는 OpenAI가 개발한 도구로, Oracle과 Microsoft의 클라우드 서비스에서도 사용됩니다. 많은 사람들이 이 도구를 병원이나 콜센터에서 음성을 텍스트로 변환하는 데 활용하고 있습니다. 하지만 가끔 오류가 발생할 수 있어, 특히 의료 분야에서는 잘못된 정보를 제공할 위험이 있습니다.
연구자들은 Whisper가 종종 부정확한 정보를 생성한다고 밝혔습니다. 미시간 대학교의 연구에 따르면, 검토된 전사본 중 80%에서 오류가 발견되었습니다. 이로 인해 모델 개선 노력이 이루어졌습니다. 또한, 한 머신러닝 엔지니어는 자신이 조사한 전사본 중 절반에서 오류를 발견하며 이 문제가 널리 퍼져 있음을 강조했습니다.
의료 환경에서의 오해로 인해 잘못된 진단이나 부적절한 치료, 잘못된 조언이 이뤄질 수 있습니다. 이러한 실수는 환자의 안전을 위협하고, 정확한 정보를 바탕으로 적절한 치료를 제공해야 하는 의료진의 업무 부담을 가중시킵니다.
다음은 중요한 우려 사항들입니다.
의료 환경에서 허위 전사 빈도가 높아지고 있습니다. 이로 인해 오진과 같은 심각한 결과가 초래될 수 있습니다. 중요한 병원 시스템에 충분한 안전장치 없이 통합되면 위험이 커집니다. 특히 정확한 전사에 의존하는 청각 장애인과 같은 취약한 집단에게 위험이 큽니다.
속삭임은 인기가 있지만 우려할 만한 문제들이 있습니다. 특히 중요한 영역에서는 음성 인식의 정확도가 매우 중요합니다. 속삭임의 오류는 AI 도구가 안전하고 신뢰할 수 있도록 더 많은 규칙이 필요할 수 있음을 나타냅니다.
OpenAI는 문제 해결을 위해 노력하고 있으며, 많은 전문가들은 AI에 대한 더 엄격한 규제가 위험을 줄일 수 있다고 생각합니다. 현재 OpenAI는 모델을 개선하고 피드백을 반영하여 정확성을 높이고 있습니다. 그러나 큰 개선이 이루어지기 전까지는 Whisper와 같은 AI 전사 도구를 중요한 상황에서 사용할 때 주의가 필요합니다.
어제 · 오후 12:56
촉감의 혁신: AI와 양자기술로 표면 감지의 새로운 시대 열다
2024년 11월 19일 · 오후 8:02
모바일 친화적 AI: CALDERA로 대형 언어 모델을 가볍게 압축하기
2024년 11월 16일 · 오후 12:49
자율주행차 신뢰 혁신: 광주 팀의 설명 가능한 AI 연구 및 중요 전략 공개
이 기사 공유