“AI 데이터센터는 탄소중립의 적”… HBM, 전력소모 문제로 공급 축소 우려

황민규 기자 2024. 8. 28. 06:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 시대 핵심 반도체로 각광을 받았던 고대역폭메모리(HBM)가 전력소모라는 암초를 만나 예상보다 공급량이 줄어들 수 있다는 전망이 제기되고 있다.

업계 관계자는 "HBM은 D램을 쌓아 올리는 방식으로 메인 메모리 용량과 대역폭을 늘려왔지만, D램의 단수가 8단, 12단 등으로 증가하면서 전력소모량과 발열 제어가 점점 어려워지고 있다"며 "이는 데이터센터의 전력소모뿐 아니라 전반적인 운영 비용 증가로 이어지고 있다"고 설명했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

‘전기 먹는 하마’ AI 데이터센터 전력소모 20%는 메모리가
HBM 세대 높아질수록 전력소모↑
”HBM 구조상 전력효율 개선 쉽지 않다”
SK하이닉스의 5세대 고대역폭메모리(HBM) 'HBM3E'./SK하이닉스 제공

인공지능(AI) 시대 핵심 반도체로 각광을 받았던 고대역폭메모리(HBM)가 전력소모라는 암초를 만나 예상보다 공급량이 줄어들 수 있다는 전망이 제기되고 있다. 엔비디아의 그래픽처리장치(GPU)를 기반으로 빅테크 기업들의 데이터센터 투자가 본격화한 가운데 치솟는 전력소모 문제로 탄소중립 목표 달성이 어렵게 됐다는 우려도 나오고 있다.

28일 업계에 따르면 엔비디아 GPU 2개와 HBM 192GB(8단x8개)를 탑재하는 B100, B200이 과도한 전력소모 문제로 일부 제품 출시가 취소된 것으로 알려졌다. 앞서 엔비디아의 차세대 AI 가속기 ‘블랙웰(Blackwell)’도 전력소모와 설계 등의 문제로 출시가 연기될 것이라는 외신 보도가 있었다.

이에 엔비디아는 AI 가속기에 HBM 탑재량을 줄이는 방식으로 대응에 나서고 있다. B200A 제품의 경우 기존 설계를 바꿔 GPU 1개와 HBM 144GB(12단x4개)로 변화를 시도할 전망이다. HBM 시장의 최대 구매자인 엔비디아의 이 같은 행보에 HBM 제조사인 SK하이닉스, 삼성전자의 공급량도 영향을 받을 수 있다.

메모리 반도체의 전력소모는 AI 데이터센터 내에서 차지하는 비중이 약 20%에 육박한다. 데이터센터가 사용하는 전력의 14%를 메모리가, 5%를 메모리가 제대로 동작하기 위해 소모되는 팬(pan)이 쓰고 있다. 마이크로소프트(MS), 구글 등은 전력소모 비중을 한 자릿수로 줄이는 것을 원하고 있지만, D램에 비해 전력소모가 많은 HBM의 구조적 특징상 개선이 쉽지 않을 것이라는 전망이 지배적이다.

엔비디아의 주요 고객사인 구글, MS, 메타 등은 당초 목표로 삼았던 탄소중립(탄소의 순 배출량이 ‘0′)을 달성하기 위해 저전력·고효율 데이터센터 구축에 주력했다. 하지만, 생성형 AI 열풍과 함께 업계 주류로 자리잡은 GPU 기반 데이터센터가 탄소배출량을 늘리고 있어 고심하고 있다.

구글의 경우 지난해 자사 온실가스 배출량이 전년보다 13% 늘어난 1430만톤(t)에 달했다고 밝힌 바 있다. AI 관련 사업이 성장하면서 데이터센터에 대한 의존도가 커진 탓에 최근 5년 사이 온실가스 배출이 48% 증가했다는 게 구글의 설명이다.

MS도 지난 5월 데이터센터 건설로 인해 2020년 이후 탄소 배출량이 약 3분의 1 증가했다고 밝혔다. MS는 오는 2030년까지 탄소중립을 넘어서 순 배출 마이너스(-)를 이룬다는 목표를 달성하기가 더 어려워진 상황이라고 설명했다. 아마존은 지난해 탄소 배출량을 3% 줄였지만 향후 AI 인프라 투자가 진행될수록 전력과 관련한 문제가 발생할 것으로 보인다고 했다.

업계 관계자는 “HBM은 D램을 쌓아 올리는 방식으로 메인 메모리 용량과 대역폭을 늘려왔지만, D램의 단수가 8단, 12단 등으로 증가하면서 전력소모량과 발열 제어가 점점 어려워지고 있다”며 “이는 데이터센터의 전력소모뿐 아니라 전반적인 운영 비용 증가로 이어지고 있다”고 설명했다.

데이비드 롤닉 캐나다 맥길대 컴퓨터과학과 교수는 “빅테크가 대규모언어모델(LLM) 관련 에너지 소비 문제를 해결할 것이라고 예상했다가 사회가 그 대가를 치르게 되면 안 된다”며 “기업이 이익보다 공익을 추구할 것이라고 가정하지 말아야 한다”고 말했다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?