'대세' AI 산업은 '전기 먹는 하마'?

이지안 2024. 4. 18. 21:11
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

2030년 전 세계 인공지능(AI) 데이터센터가 사용하는 전력량이 세계 1위 인구 대국인 인도의 전력 소비량보다 많아질 것이라는 전망이 나왔다.

하스 CEO는 AI 기업들에 자사의 중앙처리장치(CPU)를 도입할 것을 제안하며 "이를 사용하면 데이터센터의 전기 사용량을 15% 이상 줄일 수 있다"고 주장했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

“2030년 印보다 많은 전기 사용”
영국 반도체 설계기업 CEO 전망
데이터센터 증가… 전력난 우려

2030년 전 세계 인공지능(AI) 데이터센터가 사용하는 전력량이 세계 1위 인구 대국인 인도의 전력 소비량보다 많아질 것이라는 전망이 나왔다.

영국 반도체 설계 기업 Arm의 러네이 하스 최고경영자(CEO)는 17일(현지시간) 블룸버그통신과의 인터뷰에서 이같이 전망하며 “AI 개발 과정에서 에너지 사용량이 3배로 증가할 것으로 예상되는 이 상황을 막을 방법을 찾아야 한다”고 밝혔다. 그는 “현재 AI는 아직 초기 단계”라며 “이를 더 발전시키려면 더 많은 데이터 훈련이 필요하고, 그러다 보면 에너지 용량의 한계에 부딪히게 될 것”이라고 설명했다.

사진=게티이미지뱅크
생성형 AI를 구동하는 거대언어모델(LLM)을 훈련하는 데는 막대한 전기가 소모된다. 국제에너지기구(IEA)는 AI 모델 하나를 훈련하는 데 들어가는 전력량이 일반 가정 100곳이 사용하는 연간 사용량보다 많다고 추산했다.

하스 CEO는 AI 기업들에 자사의 중앙처리장치(CPU)를 도입할 것을 제안하며 “이를 사용하면 데이터센터의 전기 사용량을 15% 이상 줄일 수 있다”고 주장했다. Arm은 AI 컴퓨팅에 사용되는 CPU를 생산하는데, 저전력 고효율이 최대 강점으로 꼽힌다.

하지만 이는 미봉책에 불과하다. ‘전기 먹는 하마’로 불리는 데이터센터가 더욱 늘어날 것으로 전망되는 가운데 전 세계적 전력난을 우려하는 목소리는 갈수록 커지고 있다.

니혼게이자이신문은 18일 미국의 기업용 소프트웨어 업체 오라클이 올해부터 10년간 80억달러(약 11조원) 이상을 투자해 일본에서 데이터센터를 증설한다고 보도했다. 오라클에 앞서 마이크로소프트(MS)와 아마존 등도 거액의 투자 사실을 알리는 등 전 세계 곳곳에서 신규 데이터센터가 우후죽순 건립되고 있다.

이지안 기자 easy@segye.com

Copyright © 세계일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?