AI가 똑똑해질수록 지구는 더워진다 [테크 너머]

조경숙 2024. 2. 8. 06:40
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI의 엄청난 기술력 뒤에는 이를 뒷받침할 물리적 인프라가 필요하다. GPT3 훈련 과정에서 이산화탄소 502t이 배출되고 AI 서버가 소비하는 전력은 한 국가의 에너지 사용량을 초과한다.
미국 아이오와주 카운실블러프스에 위치한 구글 데이터센터 내부의 모습. ⓒAP Photo

최근 전기에 대해 배우고 있다. 흥미 본위에서 공부를 시작했는데, 알면 알수록 놀라웠다. 지구의 전위가 낮기 때문에 전기가 누전되면 땅으로 흘러가도록 건물을 설계한다는 사실이나, 전자 장비가 오작동할 때는 장비 자체의 문제가 아니라 공급되는 전기의 문제일 수 있다는 것 등. 누군가에게는 상식일 수 있으나 나로서는 처음 듣는 생소한 지식이었다.

아닌 게 아니라 일상생활의 거의 모든 부분은 전기로 돌아간다. 컴퓨터를 켜고 끄거나 휴대전화의 배터리를 충전시키는 것. 전기밥솥으로 밥을 짓고, 인덕션에 불을 올려 요리하고, 냉장고에서 시원한 음료수를 꺼내 마시는 모든 행위가 전기에 의존하고 있다. 당연한 말이지만 전기는 발전소에서 만들어내야 내가 사용할 수 있다. 무한히 사용할 수 있는 것도, 자연히 생겨나는 것도 아니지만 일상에서 너무 편리하게 전기를 쓰다 보니 종종 이 사실을 잊고 만다.

일상에서뿐만 아니라 기술을 접할 때도 기술 뒤에서 작동하는 전기를 떠올리기란 쉽지 않다. 챗지피티(ChatGPT)가 어떤 질문에서나 수준 높은 답변을 빠르게 내놓고, 생성형 AI 미드저니로 사실적인 이미지를 척척 만들어낼 때 AI의 마법 같은 성능에 감탄한다. 그러나 AI(인공지능)의 기술력에 감탄하느라 우리는 종종 이 AI 서비스가 얼마나 방대한 양의 데이터를 학습했는지, 그리고 학습하려면 얼마나 오랜 시간 서버가 가동되어야 하는지 놓치고 만다.

AI의 엄청난 기술력 뒤에는 이를 뒷받침하는 물리적 인프라가 필요하다. 챗지피티와 같은 AI 서비스를 설명하며 거대언어모델(LLM: Large Language Model)이라는 단어를 쓰는 데에서 알 수 있듯 이 AI가 학습하는 데이터의 양은 그 말마따나 ‘거대’하다. 일반적으로 AI의 학습 데이터양을 말할 때는 ‘토큰’이라는 단위를 사용하는데, 하나의 토큰은 대체로 하나의 단어를 지칭한다. 지금 이 칼럼의 단어 수는 총 736개로, 단어를 기준으로 했을 때 736개 토큰이 된다. 2022년 카카오브레인이 한국어를 중심으로 학습시킨 거대언어모델 코지피티(KoGPT)는 토큰 2000억 개를 학습했다고 알려져 있다. 이해를 돕기 위해 단순 계산하여 설명하자면, 코지피티(KoGPT)는 이 칼럼과 유사한 분량의 글을 약 2억7100만 건 학습한 셈이다.

어마어마하게 많은 데이터를 학습해야 하다 보니 학습할 때의 전력량도 그에 못지않게 소비된다. 이와 관련해 2019년 매사추세츠 대학의 연구 결과가 주로 인용되곤 하는데, 이 연구에서는 AI 훈련 과정에서 약 284t 이상의 이산화탄소가 배출된다고 밝혔다. 그러나 지난해 발표된 스탠퍼드 대학 연구 결과는 달랐다. 여기에서는 GPT3의 훈련 과정에 소요된 전기의 양과 탄소배출량을 측정했는데, 2019년 매사추세츠 대학 연구 결과보다 약 1.7배 높은 502t이 도출되었다. 그만한 양의 탄소를 상쇄하기 위해서는 소나무를 약 12만 그루나 심어야 한다(중부지방 소나무 20년생 기준).

AI 열풍을 타고 현재 사상 최고의 주가를 기록하고 있다는 미국 반도체 회사 엔비디아(NVIDIA)도 탄소 배출과 무관하지 않다. 엔비디아가 생산하는 GPU와 AI 전용 칩셋 등은 AI 학습에 필수적이어서 AI 기업들이 너나 할 것 없이 사들이는 추세다. 최근엔 메타(META)에서도 AI 구축을 위해 엔비디아의 AI 칩셋을 35만 개나 확보했다고 알려졌다. 그런데 지난해 보도된 미국 경제전문지 〈포천〉 기사에 따르면 엔비디아의 AI 서버가 2027년까지 연간 85.4테라와트시(TWh)의 전력을 소비하리라 예측된다. 특히 이 정도의 전력량은 스웨덴·아르헨티나 같은 국가의 에너지 사용량을 초과하는 규모라고 부연되었다.

질문 한 번에 500ml의 생수 소비

2022년 7월 스코틀랜드 인근 바다에서 인양한 마이크로소프트의 해저 데이터센터. ⓒ마이크로소프트 제공

AI는 데이터에서도, 전기에서도 굉장한 먹보다. 하지만 AI가 먹어 치우는 건 이에 그치지 않는다. AI가 가동되는 서버들은 데이터센터 안에 들어가 있고, 이 데이터센터가 원활히 운영되기 위해서는 이곳 내부의 열을 식히는 냉각수도 필요하니 말이다. 그래서 한정된 수자원을 끝없이 퍼다 쓰는 주범으로 AI가 꼽히기도 한다. 지난해 〈한겨레〉에서는 미국 콜로라도 대학 연구 결과를 소개하며 챗지피티에 질문을 한 번 할 때마다 500ml의 생수가 소비된다고 보도한 바 있다.

물론 테크업계에서도 이 문제점을 잘 안다. AI 기술을 위해 물과 전기가 어마어마하게 소비되는 만큼 테크업계에서도 이를 개선해야 한다고 여긴다. 실제로 이를 변화시키기 위한 여러 방안이 시도되고 있다. 대표적인 것이 마이크로소프트에서 진행 중인 ‘나틱 프로젝트’로, 이 프로젝트는 데이터센터를 아예 바다에 집어넣는 방안을 실험하고 있다. 수년에 걸쳐 여러 차례 테스트한 결과, 냉각수를 절감할 수 있을 뿐만 아니라 풍력과 태양열만으로도 전기를 충당하는 게 가능한 것으로 보고됐다. 다만 데이터센터가 바다에 들어갔을 때 해양생물들이나 해양생태계에 미치는 영향은 아직 보고된 바 없다.

문제는 이런 기술이 상용화되려면 아직도 시간이 더 필요하다는 데에 있다. 그러나 미래 기술이 다가오는 속도보다 지금의 기술이 지구를 파먹는 속도가 훨씬 빠르다는 점에서, ‘해저 데이터센터’가 상용화되기를 기다리는 시간이 결코 넉넉하지는 않아 보인다. 지난 1월20일 공개된 다보스포럼의 ‘글로벌 리스크 리포트 2024’에서는 다가오는 가장 큰 위험요소로 ‘기후위기’를 꼽았다. 전 세계 모든 학자가 기후위기를 가장 심각한 문제로 지목하고 있지만, 자원을 끊임없이 파먹는 AI 기술은 여전히 가파르게 발전하는 추세다. 앞으로도 AI 개발에 어마어마한 투자금을 쏟겠다는 기업들이 줄을 서 있고, 한국에서만 향후 3년 안에 무려 20개 이상의 데이터센터가 신규 구축될 예정이다. 물론 건설이 예정되어 있거나 진행 중인 이 데이터센터들은 모두 태양열과 풍력으로 움직이는 ‘해저 데이터센터’가 아니라 원자력과 화력으로 가동되는 ‘지상 데이터센터’다.

이번 겨울엔 유난히 눈이 많이 내렸다. 화이트 크리스마스에 화이트 새해라며 아이는 더없이 좋아했지만, 이 모든 게 기후위기의 징조라는 뉴스를 보고 나니 착잡했다. 기술은 나날이 발전한다는데 정작 기후위기를 멈출 기술은 아직도 요원하다. 세계적인 기업가들이 신봉하는 다보스포럼에서조차 기후위기를 제일 큰 위협으로 꼽았는데 왜 테크업계의 ‘최우선 순위’는 기후위기가 아닐까? 기업들은 아직도 AI에 투자하고 AI 서버를 열띠게 돌린다. 그들의 미래가 기후위기를 뚫고 도착할 수 있을지조차 미지수인데도.

조경숙 (테크-페미 활동가) editor@sisain.co.kr

▶읽기근육을 키우는 가장 좋은 습관 [시사IN 구독]
▶좋은 뉴스는 독자가 만듭니다 [시사IN 후원]
©시사IN, 무단전재 및 재배포 금지

Copyright © 시사IN. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?