신뢰할 수 있는 AI 모델: 최근 과학 발견과 예측 정확성 향상 방법 이해
SeoulMIT 연구진은 기계 학습 모델의 불확실성을 추정하는 새로운 방법을 개발하여 추정의 정확성을 높였습니다. 이는 의료 진단이나 구직 지원 검토와 같은 작업에 있어 중요한 진전을 의미합니다. 기계 학습 모델은 때때로 잘못된 예측을 할 수 있기 때문에, 모델이 내린 결정에 대해 얼마나 확신하는지를 아는 것이 중요합니다. 정확한 불확실성 추정은 사람들이 모델의 결과를 신뢰할 수 있을지를 결정하는 데 도움을 줍니다. MIT와 토론토 대학교의 공동 연구인 이 새로운 기술은 기존 방법보다 더 빠르고 정확하게 이러한 추정을 제공합니다.
연구자들은 최소 기술 길이 (MDL) 원리를 활용하였습니다. 이 방법은 모델이 테스트 포인트에 할당할 수 있는 모든 가능한 레이블을 고려합니다. 적합한 레이블이 많을수록, 모델의 확신은 줄어듭니다. 이 기법의 작동 방식은 다음과 같습니다:
- 더욱 정확한 불확실성 추정
- 향상된 효율성과 확장성
- 대형 딥러닝 모델에의 적용 가능성
실제 응용에서 단순한 통계 방법은 잘 작동하지 않는데, 이는 머신러닝 모델이 복잡하기 때문입니다. 많은 최신 방법들은 복잡한 계산과 가정을 필요로 하여, 더 큰 모델에서는 사용하기 어렵습니다. MIT 연구원들은 MDL이라는 방법을 사용함으로써 이러한 문제를 피했습니다. 이 방법은 그런 가정을 필요로 하지 않습니다.
새로운 방법인 IF-COMP는 대형 모델에서 MDL을 사용할 수 있도록 해줍니다. 이 방법은 영향 함수라는 기법을 사용하여 더 빠르게 작동하며, 온도 조정을 통해 모델의 결과를 더 정확하게 만듭니다. 이러한 요소들이 결합되어 IF-COMP가 신뢰할 수 있는 불확실성 측정을 제공합니다.
이 방법이 가장 효과적인 경우는 잘못된 레이블이 붙은 데이터와 이상치를 찾는 데 도움이 될 때입니다. 이러한 작업에서 IF-COMP은 다른 방법보다 더 빠르고 정확했습니다. 이는 대량의 데이터가 철저히 검증되지 않은 채로 기계 학습 모델을 다루는 경우가 점점 많아지는 상황에서 모델이 잘 보정되도록 보장해 줍니다.
기계 학습 모델은 오류를 범하고 때때로 잘못된 정보를 신뢰할 수 있습니다. 이 새로운 방법은 사용자가 모델의 예측이 잘못될 수 있는 상황을 이해하도록 돕습니다. 다양한 유형의 기계 학습 모델과 호환되며, 여러 분야에서 의사 결정을 향상시킵니다.
AI 도구를 잘 알지 못하더라도 신뢰할 수 있습니다. 이러한 도구의 신뢰성을 확인할 수 있는 더 나은 정보를 얻을 수 있으며, 이는 의료 진단이나 취업 지원에 도움이 됩니다. 특히, 정확한 결정이 중요한 의료 분야에서 이를 활용하는 것이 매우 중요합니다.
연구자들은 이 방법을 더 큰 언어 모델에 적용하려고 합니다. 또한, MDL 원리를 활용하는 다른 방법들도 모색할 계획입니다. 이를 통해 AI 시스템이 다양한 작업에서 더 신뢰받고 믿을 수 있게 될 수 있습니다.
연구는 여기에서 발표되었습니다:
http://dx.doi.org/10.48550/arXiv.2406.02745및 그 공식 인용 - 저자 및 저널 포함 - 다음과 같습니다
Nathan Ng, Roger Grosse, Marzyeh Ghassemi. Measuring Stochastic Data Complexity with Boltzmann Influence Functions. Submitted to arXiv, 2024 DOI: 10.48550/arXiv.2406.027452024년 11월 20일 · 오후 12:56
촉감의 혁신: AI와 양자기술로 표면 감지의 새로운 시대 열다
2024년 11월 19일 · 오후 8:02
모바일 친화적 AI: CALDERA로 대형 언어 모델을 가볍게 압축하기
2024년 11월 16일 · 오후 12:49
자율주행차 신뢰 혁신: 광주 팀의 설명 가능한 AI 연구 및 중요 전략 공개
이 기사 공유