KoreaTV.Radio 제임스 유 기자 | ‘칩’만 있으면 인공지능(AI)의 새 시대가 활짝 열릴 줄 알았다. 그래서 빅테크들도, AI 사회에 대처하려는 정부들도 엔비디아의 그래픽처리장치(GPU)를 확보하기 위해 전쟁 중이다. 그런데 최근 일론 머스크 테슬라 최고경영자(CEO)는 뜻밖의 이야기를 꺼냈다. “2025년이 되면 인공지능(AI)을 위한 충분한 전기를 확보하지 못할 것이다.” 당장 내년이면 큰 장벽을 만나게 된다는 예측이다.
가뜩이나 기후변화 탓에 온 세상이 전력난을 고민하는데, AI마저 여기에 동참한다는 건 왜 그럴까. AI는 전기를 많이 먹는다. 이건 익히 알고 있는 사실이다. 그리고 그 중심에는 데이터센터가 있다. 데이터센터는 서버 컴퓨터와 네트워크 회선 등을 제공하거나 서비스를 위한 IT 인프라를 보관하는 곳이다. 보통 클라우드 컴퓨팅을 위한 장소였는데 이제는 수많은 데이터를 집적하고 연산하는, AI 전용 데이터센터가 들어서고 있다. 우리가 매일 생산하는 수많은 데이터들이 가는 곳이다.
챗GPT 검색, 구글 검색보다 전력 10배 소모
챗GPT 검색, 구글 검색보다 전력 10배 소모
이미 전 세계적으로 데이터센터는 꽤 많이 퍼졌다. 대략 8000곳이 넘는 것으로 추산된다. 전력사용량은 새 산업이 태동하면서 증가해왔다. 국제에너지기구(IEA)의 자료에 따르면 2015년과 비교해 2022년 에너지 수요 변동폭이 가장 크게 증가한 분야가 ‘가상자산 채굴’이었다. 하지만 이 가상자산 채굴 분야보다 2배 이상 에너지를 쓴 분야가 있으니 바로 데이터센터다.
2022년 기준 전 세계 데이터센터의 전력소비량은 340TWh(테라와트시)다. 이게 어느 정도 규모인지 알려면 같은 해 우리나라의 1년 전력소비량과 비교해보면 된다. 2022년 한국 전력소비량은 568TWh다. 데이터센터에 들어가는 전력이 우리나라 1년 전력소비량의 60% 정도라는 의미다. 그런데 우리는 전기를 많이 쓰는 나라다. 2022년 기준 연간 전력소비량이 500TWh를 넘는 국가는 중국·미국·인도·러시아·일본·캐나다·브라질·한국 등 8개국뿐이다.
데이터센터는 앞으로 더 늘어날 것이고 처리하는 데이터가 많아질수록 그 규모도 커질 수밖에 없다. 게다가 AI 시대가 도래하면서 경쟁적으로 생성형AI에 도전할수록 전기는 더욱 간절해진다. 우리가 ‘구글’에 접속해 검색어를 입력하고 엔터를 누른다고 치자. 우리 모니터에는 검색어와 관련한 자료가 일목요연하게 정리된 화면이 뜬다. 그런데 이런 검색을 할 때마다 우리는 전기를 사용한다. 컴퓨터나 스마트폰을 말하는 게 아니다. 검색을 할 때마다 데이터가 해저 광랜을 통해 오가기 위해서도 전기가 필요하다.
미국 전력연구소(EPRI)가 지난 6월 5일 발표한 연구 보고서를 보자. 구글 검색을 한 번 할 때 사용되는 전력은 약 0.3Wh(와트시)에 불과하다. 반면 챗GPT는 검색할 때마다 2.9Wh를 사용했다. 구글 검색보다 10배의 전력이 필요하다. 그러면 만약 AI 검색이 웹 검색에 통합된다면 어떻게 될까. 보고서는 “구글의 AI 기능이 구글 검색에 통합된다면 검색당 전력 소모가 6.9~8.9Wh로 챗GPT보다 3배 이상 높아질 수 있다”고 봤다. 단순 구글 검색보다 최대 30배 정도 전력 소모가 더 크다는 이야기다.
이런 흐름은 ‘없어서 못 판다’는 엔비디아의 H100이 생성형AI의 대세가 되면서 더욱 가속화될 전망이다. 글로벌 에너지 자동화 전문기업인 슈나이더 일렉트릭은 연초 보고서에서 엔비디아가 지난해 150만개, 올해 200만개의 H100을 판매할 것으로 전망했다. 보고서는 “총 350만개의 H100이 소모하는 전력량은 연간 1만3091GWh(기가와트시)다. 일부 소규모 국가의 전력보다 많다”고 지적했다.