대화 한 번에 ‘생수 한 병씩’…챗GPT의 불편한 진실
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
인공지능 알고리즘을 훈련하는 데 엄청난 전기가 들어간다는 사실은 익히 알려진 사실이다.
그런데 인공지능 훈련에는 에너지뿐 아니라 물 소비량도 상당한 것으로 드러났다.
연구진은 인공지능 업체들의 데이터 센터를 냉각하는 데 필요한 물의 양을 조사한 결과, 마이크로소프트가 오픈에이아이의 거대언어모델 '지피티3'를 훈련시키는 데만도 70만ℓ의 물을 썼을 것으로 추정했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
기기 부식 등 막으려면 깨끗한 물 써야
인공지능 알고리즘을 훈련하는 데 엄청난 전기가 들어간다는 사실은 익히 알려진 사실이다. 인공지능 모델의 크기가 클수록 소비되는 에너지도 커진다. 에너지 소비는 곧 온실가스인 탄소 배출로 이어진다.
최근 발표된 스탠퍼드대 인공지능 인덱스 보고서에 따르면, 요즘 선풍적인 인기를 끌고 있는 챗지피티(ChatGPT)의 기반인 거대언어모델(LLM) ‘지피티3’는 훈련 과정에서 1287MWh의 전기를 소비했다. 이로 인한 탄소 배출량 추정치는 502톤이다. 평균적인 세계인이 100년간 배출하는 양에 해당한다. 2020년 기준 한국인 1인당 탄소 배출량(11.6톤)의 43배다.
편리한 인공지능 이면에 있는 불편한 진실이다. 그런데 인공지능 훈련에는 에너지뿐 아니라 물 소비량도 상당한 것으로 드러났다. 컴퓨터 가동시 발생하는 열을 식히는 데 다량의 물이 필요한 탓이다.
미국 리버사이드 콜로라도대와 앨링턴 텍사스대 연구진은 ‘챗지피티(GPT)’와 한 번 대화를 하는 데 물 500㎖가 소비된다는 계산 결과를 사전출판논문 저장소 <아카이브>에 발표했다. 한 번 대화에서 질문과 답변을 25~50개 주고받는 걸 기준으로 한 계산이다.
원자로 냉각탑 채울 물과 같은 양
연구진은 인공지능 업체들의 데이터 센터를 냉각하는 데 필요한 물의 양을 조사한 결과, 마이크로소프트가 오픈에이아이의 거대언어모델 ‘지피티3’를 훈련시키는 데만도 70만ℓ의 물을 썼을 것으로 추정했다. 이는 원자로 냉각탑을 채우는 데 필요한 물의 양과 같다고 연구진은 밝혔다. 연구진은 또 이는 베엠베(BMW) 자동차 370대 또는 테슬라 전기차 320대를 생산하는 데 들어가는 물과 같다고 덧붙였다. 이 수치는 미국 기반 데이터 센터를 기준으로 한 것이다.
연구진은 만약 에너지 효율이 낮은 아시아의 데이터 센터로 지피티3을 훈련시켰다면 물이 3배 더 필요했을 것이라고 밝혔다. 연구진에 따르면 데이터 센터는 기기 오작동을 방지하기 위해 섭씨 10~25도의 온도를 유지해야 한다. 연구진은 이를 위해선 Kwh당 약 1갤런(3.8ℓ)의 물이 소비되는 것으로 추정했다.
또 데이터 센터에 쓰는 물은 음용수(식수)나 재처리 하수 등 깨끗한 담수를 써야 한다. 부식이나 박테리아 번식을 막기 위해서다. 깨끗한 담수는 데이터 센터의 습도 조절에도 필수적이다.
인공지능 기업의 사회적 책임 의식 필요
연구진은 오픈에이아이에 맞서 거대언어모델 ‘람다’(LaMDa)와 이에 기반한 챗봇 ‘바드’를 개발한 구글의 물 소비량도 살펴봤다.
구글은 2019년 한 해에만 미국내 3개주의 데이터 센터를 유지하는 데 23억갤런 이상의 물을 소비했다. 현재 구글의 북미 지역 데이터 센터는 14개다.
연구진은 데이터 센터가 있는 지역의 온도를 토대로 분석한 결과 구글의 람다를 훈련하는 데 필요한 물 소비량은 지피티3보다 훨씬 더 많은 수백만ℓ에 이를 수 있을 것으로 추정했다.
연구진은 “담수 부족은 전 세계가 공유하는 가장 시급한 문제 중 하나이기 때문에 이는 매우 우려스러운 일”이라며 “인공지능 기업들은 세계 물 문제에 대응하는 데 사회적 책임을 다해야 한다”고 주장했다.
물 소비량이 많다는 것은 그만큼 에너지를 많이 쓴다는 걸 뜻한다. 스탠퍼드대 보고서를 보면 구글 딥마인드의 고퍼(Gopher), 빅사이언스 이니셔티브의 블룸(BLOOM), 메타의 오피티(OPT), 오픈에이아이의 지피티3 네가지 거대 인공지능 모델을 비교한 결과 지피티3의 에너지 소비량이 가장 많았다. 고퍼의 1.4배, 블룸의 20.1배로 추정됐다.
*논문 정보
https://doi.org/10.48550/arXiv.2304.03271
Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models
bioarxiv
곽노필 선임기자 nopil@hani.co.kr
Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지
- 대통령실 “안보·경협 가장 중요”…기시다, 서울서도 사과 패싱?
- 대규모 소송 준비하는 ‘SG증권 피해자’…법조계 “공범 가능성도”
- 김건희 여사 고발까지 간 ‘개 식용 종식’ 논란…개 300마리 반납 예고
- 단협 이행 요구에 “협박”…건설 현장 외면한 검·경의 무리수
- 삼겹살 외식 10만원 훌쩍…어린이날·어버이날 어떡하죠
- 오늘은 초여름…내일은 남쪽부터 비구름 올라온다
- 윤, 중 겨냥 “대북 제재 동참 안 하면서 우리보고 어떡하라고?”
- 역대 최저 청년실업률의 비밀…오토바이 팔고 식당 알바로
- 수단 사실상 내전 상태…33만명 내집 떠나, 10만명 국외 도피
- ‘태영호 파문’ 일파만파…“용산이 당 우습게 본다”