AI 위협 한계: 규제 당국, 컴퓨팅 능력 제한 논란

소요 시간: 2 분
에 의해 Pedro Martinez
-
AI 기술의 균형을 맞추는 저울과 주의 표지판

Seoul규제 당국은 AI 시스템이 위험해지는 시점을 판단하려 노력하고 있습니다. 이에 대한 주요한 측정 방식 중 하나는 컴퓨팅 파워를 살펴보는 것이며, 이는 1초당 수행되는 부동 소수점 연산, 즉 플롭스(flop)로 계산됩니다. 10의 26제곱 플롭스, 즉 100섹틸리언(10^26) 계산을 1초 내에 수행할 수 있는 AI 시스템들은 이제 미국 정부에 보고되어야 합니다. 이와 같은 높은 계산 능력은 대량 파괴 무기 제조나 심각한 사이버 공격과 같은 심각한 위협을 초래할 수 있습니다.

참고로, 주요 규제 기준은 다음과 같습니다:

  • AI 모델은 보고되기 위해서는 10^26 플롭스를 수행할 수 있어야 합니다.
  • 모델 구축 비용이 최소 1억 달러 이상이어야 합니다.
  • EU의 AI법은 그 기준을 조금 낮추어 10^25 플롭스로 정하고 있습니다.

일부 비평가들은 이러한 지표가 무작위일 수 있으며 창의성을 저해할 수 있다고 주장합니다. 그들은 이러한 설정 기준이 높은 역량과 위험성을 지닐 수 있는 작은 모델들을 간과할 수 있다고 생각합니다. 컴퓨터 과학자 사라 훅커는 현재의 지표, 예를 들어 플롭스가 AI의 잠재적 위험을 정확히 반영하지 못할 수 있다고 지적합니다. 이는 많은 개발자들이 더 적은 계산 능력으로 더 많은 성과를 내고 있기 때문입니다.

정부는 AI 기술이 빠르게 변화하고 그 영향이 완전히 파악되지 않은 상황에서 규칙을 설정하는 데 어려움을 겪고 있습니다. 이를 해결하기 위해 임시적인 규칙을 도입했지만, AI 기술이 발전함에 따라 이러한 규칙은 업데이트가 필요할 수 있습니다. 이러한 규칙은 처리 능력과 같은 명확한 기준을 사용하여 문제를 해결하려고 하지만, 발생할 수 있는 모든 새로운 문제를 예측할 수는 없습니다.

새로운 모델은 적은 자원을 사용하지만 사회에 큰 영향을 미칠 수 있으므로 신중한 규제가 필요합니다. 기술 산업이 더 작고 효율적인 모델을 개발함에 따라 이러한 점검은 더욱 중요해지고 있습니다. 오픈AI의 ChatGPT와 같은 사례는 이러한 도구가 유용하지만, 안전성과 윤리에 대해 항상 주의 깊게 검토되어야 한다는 것을 보여줍니다.

물리학자 앤서니 아기레를 포함한 플롭스(metric) 측정을 지지하는 사람들은 이 방법이 완벽하지 않다는 점을 인정하지만, 급속한 기술 발전의 시대에 기본적인 틀을 제공한다고 믿습니다. 그들은 새로운 법칙이 유연하며, 새로운 정보가 들어오면 변경될 수 있다고 생각합니다. 그러나 비평가들은 계산적인 측정에만 의존하는 것이 혁신적인 아이디어를 제한하거나 안전해 보이는 모델에서 숨겨진 위험을 놓칠 수 있다고 경고합니다.

우리는 변화하고 적응할 수 있는 AI를 규제하는 더 나은 방법이 필요합니다. 이러한 규칙은 혁신을 지원하면서도 새로운 위험을 관리해야 합니다. AI의 강력함뿐만 아니라, AI 사용이 사회에 미치는 영향과 그 맥락도 고려해야 합니다. 따라서 미래의 AI 규제에는 더 나은 안전 점검과 더 세부적인 조치가 포함될 가능성이 높습니다.

현재 규정은 완벽하거나 영구적이지 않을 수 있지만, 복잡한 인공지능 세계를 관리하는 데 도움을 줍니다. AI가 다양한 분야에서 안전하게 사용되도록 하기 위해 새로운 발전과 규정 간의 균형을 계속 유지하는 것이 목표일 것입니다.

인공지능: 최신 뉴스
다음 읽기:

이 기사 공유

댓글 (0)

댓글 게시
NewsWorld

NewsWorld.app은 무료 프리미엄 뉴스 사이트입니다. 기사당 요금을 부과하지 않고 구독 모델도 없이 독립적이고 고품질의 뉴스를 제공합니다. NewsWorld는 일반, 비즈니스, 경제, 기술 및 엔터테인먼트 뉴스가 무료로 고수준으로 액세스 가능해야 한다고 믿습니다. 또한 NewsWorld은 매우 빠르며 고급 기술을 사용하여 뉴스 기사를 소비자에게 매우 읽기 쉽고 매력적인 형식으로 제공합니다.


© 2024 NewsWorld™. 모든 권리 보유.