모바일 친화적 AI: CALDERA로 대형 언어 모델을 가볍게 압축하기

소요 시간: 2 분
에 의해 Maria Sanchez
-
AI 네트워크 연결이 활성화된 모바일 기기들.

Seoul프린스턴과 스탠포드의 연구진이 대형 언어 모델(LLM)을 작게 만들어 휴대폰이나 노트북과 같은 모바일 기기에서 더 잘 작동할 수 있는 새로운 방법을 개발했습니다. 이 기술은 프라이버시를 향상시키고 에너지를 절약하며, LLM 사용과 관련된 비용을 줄이는 데 도움을 줍니다.

대규모 언어 모델(LLM)은 주로 원격 서버로 데이터를 전송하는 방식으로 사용되며, 이는 상당한 비용과 에너지를 소모합니다. CALDERA라는 새로운 알고리즘은 데이터 전송을 줄이고 LLM 레이어의 정밀도를 낮춰서 문제를 해결합니다. 이를 통해 LLM을 로컬 장치에 저장해도 정확성의 손실이 거의 없습니다.

데이터를 크게 압축할 수 있는 기법이 "저정밀도"와 "저계수" 방법을 사용합니다. 저정밀도는 저장 및 처리에 필요한 비트 수를 줄여 에너지를 절약하고, 저계수는 언어 모델의 가중치 행렬에서 불필요한 부분을 제거합니다. 이 두 방법을 결합하면 저정밀도만 사용하는 것보다 압축 효율이 최대 5% 향상되어, 이러한 모델을 스마트폰이나 노트북 등 일상적인 기기에서도 사용할 수 있게 됩니다.

더 작은 모델이 제공할 수 있는 장점은 다음과 같습니다:

  • 데이터를 외부 서버로 전송하지 않아도 되는 LLM 기술로 향상된 개인정보 보호.
  • 계산 요구량이 줄어 전력 소모 감소.
  • 자원이 제한된 기기에도 적합한 특성.

AI 기술 발전은 현재 AI의 방향성과 잘 어울리며, 이러한 기술을 사용자 디바이스에서 직접 실행할 수 있도록 하려는 노력이 활발히 이뤄지고 있습니다. 대형 언어 모델을 로컬 디바이스에서 작동시키면 데이터가 그 디바이스에 머무르게 되므로, 데이터 유출이나 무단 접근의 위험을 크게 줄일 수 있습니다. 이는 AI가 더욱 개인적이고 민감한 정보를 처리하는 데 있어 매우 중요합니다.

모바일 기기에서 대형 언어 모델을 실행하는 것은 어려울 수 있습니다. 많은 메모리와 전력을 소모할 수 있기 때문입니다. 이는 모델이 잘 최적화되지 않았을 경우 배터리 수명 단축으로 이어질 수 있습니다. 낮은 정밀도를 사용하는 기술이 에너지를 절약하는 데 도움이 되지만, 모든 문제를 해결하지는 못합니다. 향후 개선을 위해서는 다양한 분야의 최적화 전략을 결합하는 것이 필요할 수 있습니다.

이 연구는 AI 도구의 접근성을 높이는 방법을 제시합니다. 대형 언어 모델의 크기를 효과적으로 줄이면, 더 많은 사람들이 개인 장치에서 AI를 사용할 수 있게 되어 일상 생활에 AI를 통합하는 데 도움이 됩니다.

연구는 여기에서 발표되었습니다:

NaN

및 그 공식 인용 - 저자 및 저널 포함 - 다음과 같습니다

NaN
인공지능: 최신 뉴스
다음 읽기:

이 기사 공유

댓글 (0)

댓글 게시
NewsWorld

NewsWorld.app은 무료 프리미엄 뉴스 사이트입니다. 기사당 요금을 부과하지 않고 구독 모델도 없이 독립적이고 고품질의 뉴스를 제공합니다. NewsWorld는 일반, 비즈니스, 경제, 기술 및 엔터테인먼트 뉴스가 무료로 고수준으로 액세스 가능해야 한다고 믿습니다. 또한 NewsWorld은 매우 빠르며 고급 기술을 사용하여 뉴스 기사를 소비자에게 매우 읽기 쉽고 매력적인 형식으로 제공합니다.


© 2024 NewsWorld™. 모든 권리 보유.