Contents

제본스의 역설: AI가 국가 전체만큼 많은 전기를 사용할 수 있다는 역설

Contents

인공 지능은 많은 이점을 제공하는 것으로 나타났지만, 구현과 관련된 잠재적 비용을 고려하는 것이 중요합니다. 최근 연구에 따르면 OpenAI의 ChatGPT와 같은 생성 모델과 같은 특정 AI 시스템에 상당한 에너지 소비가 필요하다고 지적했습니다. 이러한 기술의 에너지 효율을 높이기 위한 국제적인 이니셔티브가 계속되고 있지만, 효율 개선이 궁극적으로 수요 증가로 이어져 에너지 사용량을 증가시킬 수 있다는 제본스의 역설이 존재합니다. 예측에 따르면 현재 추세가 계속된다면 몇 년 안에 AI 시스템이 소비하는 전력이 국가 전체가 사용하는 전력을 넘어설 수 있다고 합니다. 높은 에너지 요구 사항을 고려할 때 AI 애플리케이션을 구현할 때 주의를 기울이는 것이 중요합니다.

인공지능(AI)은 개발자에게는 프로그래밍 속도를 가속화하고, 운전자에게는 도로 안전성을 높이며, 일상 활동을 간소화할 수 있는 기회를 제공합니다. 하지만 최근 저널 오브 줄(Journal of Joule)에 실린 디지코노미스트(Digiconomist) 창시자의 글에서 강조했듯이, 이 기술이 광범위하게 채택되면 에너지 소비에 상당한 영향을 미쳐 멀지 않은 미래에 특정 국가의 전력 수요를 초과할 수 있습니다.

암스테르담 자유대학교 박사 과정의 알렉스 드 브리스(Alex de Vries)는 인공지능에 대한 수요가 계속 확대됨에 따라 이러한 시스템이 소비하는 에너지가 향후 몇 년 동안 크게 증가할 가능성이 높다고 지적했습니다.

텍스트, 이미지, 데이터 생성을 아우르는 생성형 인공 지능의 발전은 2022년 이후 기하급수적으로 확장되고 있습니다. 여기에는 OpenAI의 ChatGPT와 같은 주목할 만한 사례가 포함됩니다. 그러나 이러한 모델을 개발하려면 상당한 양의 데이터 입력이 필요하며, 이 과정에서 상당한 컴퓨팅 리소스가 요구됩니다. 실제로 뉴욕에 위치한 저명한 AI 회사인 허깅 페이스(Hugging Face)에 따르면, 다국어 텍스트를 생성하는 AI 모델의 학습 단계에는 약 433메가와트시(MWH)의 에너지 소비가 필요했으며, 이는 일반적인 미국 가정 40곳에서 1년 동안 사용하는 전력과 맞먹는 양입니다.

AI 시스템과 관련된 운영 에너지 소비는 초기 훈련 단계 이후에도 계속됩니다. 드 브리스의 조사에 따르면, 입력을 받아 출력을 생성하기 위해 AI 모델을 배포할 때마다 상당한 계산 리소스가 소모되고 그에 따라 상당한 양의 전기 에너지가 소비됩니다. 실제로 GPT-3를 예로 들면, 이 언어 모델을 실행하는 데 매일 약 564메가와트시의 에너지가 소비될 수 있습니다.

기업이 인공 지능 시스템의 효율성을 높이기 위해 노력하면서 자신도 모르게 자원 소비를 증가시키는 데 기여할 수 있습니다. 이러한 역설적인 결과는 기술의 발전이 이러한 도구에 대한 수요를 자극하여 궁극적으로 더 높은 수준의 자원 활용으로 이어진다는 사실에서 비롯됩니다. 이 개념을 19세기에 처음 관찰한 윌리엄 스탠리 제본스의 이름을 따서 ‘제본스의 역설’이라고 부릅니다.

이러한 도구의 효율성과 접근성을 향상시키면 더 많은 개인이 도구를 활용할 수 있는 기회를 갖게 된다는 것이 드 브리스의 지적입니다.

Google은 인기 있는 이메일 서비스에 생성형 인공 지능을 사용하고 있으며, 현재 유비쿼터스 검색 기능을 구동하기 위해 AI 기반 엔진의 활용을 모색하고 있습니다. 현재 구글은 매일 약 90억 건의 검색을 처리하고 있습니다. 드 브리스는 통계적 예측에 따르면 각 쿼리마다 AI의 도움이 필요할 경우 Google의 에너지 요구량은 연간 29테라와트시를 초과할 것이며, 이는 아일랜드 전체의 전력 소비량과 맞먹는 양이라고 주장합니다.

드 브리스의 관점에 따르면 추가 AI 서버 확보와 관련된 상당한 비용과 AI 서버 공급망의 잠재적 제약으로 인해 앞서 언급한 재앙적인 사건이 가까운 미래에 발생할 가능성은 매우 낮습니다. 그럼에도 불구하고 AI 서버 제조는 향후 몇 년 동안 기하급수적으로 성장할 것으로 예상됩니다. 예측에 따르면, AI 서버에 대한 수요 증가로 인해 현재와 2027년 사이에 전 세계 AI 관련 에너지 소비량이 매년 85~134테라와트시씩 급증할 것으로 예상됩니다.

AI 시스템이 소비하는 전력량은 네덜란드, 아르헨티나, 스웨덴과 같은 국가에서 연간 사용하는 전력량과 맞먹는 수준입니다. 또한, 인공지능 효율성의 발전으로 특정 컴퓨팅 프로세서를 인공지능 애플리케이션에 재배치할 수 있으며, 이로 인해 인공지능 개발과 관련된 전력 사용량이 증가할 가능성이 있습니다.

드 브리스는 인공지능의 에너지 소비량이 상당하기 때문에 인공지능을 활용할 때 신중해야 한다고 강조합니다. 따라서 불필요한 낭비를 피하기 위해 꼭 필요한 상황에서만 구현해야 합니다.

참조: “인공지능의 에너지 발자국 증가”, Alex de Vries, 2023년 10월 10일, Joule.
DOI: 10.1016/j.joule.2023.09.004