AI모델-반도체-클라우드까지 한 번에…초거대 AI '풀스택' 대전

윤지혜 기자 2023. 4. 21. 06:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

네이버, 올 하반기 삼성전자와 AI 반도체 솔루션 공개
KT-리벨리온 5월, SKT-사피온 올 하반기 NPU 출시

국내 ICT(정보통신기술) 기업 간 초거대 AI 풀스택(Full-Stack·전천후) 기술 경쟁이 달아오르고 있다. 초거대 AI 모델 개발에서 AI 서비스에 특화된 반도체·클라우드 등 인프라 구축 전쟁으로 진화했다. 초거대 AI를 활용해 맞춤형 서비스를 만들려는 기업이 느는 만큼, 하드웨어와 소프트웨어, 운영환경까지 모두 갖춘 풀스택으로 경쟁력을 강화하겠다는 것이다.

20일 업계에 따르면 국내 최초로 LLM(거대언어모델) '하이퍼클로바'를 구축한 네이버(NAVER)는 올 하반기 삼성전자와 초거대 AI 서비스에 최적화된 반도체 솔루션을 선보인다. 엔비디아의 GPU(그래픽처리장치) 대비 10분의 1 크기지만 4배 이상의 전력효율 갖춘 솔루션을 개발해 메모리 병목현상과 과도한 전력소모 문제를 해결한다는 목표다.

더불어 네이버는 초거대 AI 서비스 운영비용 절감을 위한 경량화 기술도 연구 중이다. 오는 7월 공개할 기업용 초거대 AI '하이퍼클로바X'에 경량화·최적화 기술을 적용한다는 방침이다. 네이버 관계자는 "AI로 음성을 문자로 변환해주는 '클로바노트'의 경우 최적화를 통해 동시에 처리할 수 있는 데이터 양이 5배 향상됐다"로 설명했다.

네이버 '데뷰2023'에서 키노트를 진행 중인 곽용재 네이버클라우드 CTO. /사진=네이버

초거대 AI 상용화를 위해선 클라우드 기술력도 필수다. AI 서비스 개발에 필요한 프로세서와 빅데이터가 모두 클라우드 컴퓨팅 환경으로 제공돼서다. 이에 네이버는 네이버클라우드 산하 '하이퍼스케일 AI' 조직을 확대하는 등 클라우드 기반 AI 생태계 확장을 본격화한다. 3분기 가동 예정인 인터넷데이터센터(IDC) '각 세종'도 AI 인프라를 효율적으로 제공하기 위해 안정적인 전원용량 및 냉방기술을 갖췄다.

다른 기업들이 이제 막 초거대 AI 상용화에 나선 것과 달리, 네이버는 이미 500여개 기업에 하이퍼클로바를 제공 중이다. 여기에 AI에 특화된 반도체와 클라우드까지 더해지면 기업들의 비용 부담도 줄어들 것으로 예상된다.

이동통신사도 AI 풀스택 경쟁력 강화에 한창이다. SK텔레콤은 SK하이닉스·SK스퀘어와 총 800억원을 공동 투자해 사피온을 설립하고 연내 신형 AI 반도체 'X330'을 출시한다. KT클라우드는 AI 반도체 스타트업 '리벨리온'과 손잡고 내달 GPU보다 저전력·고성능의 NPU를 선보인다. 더 빠르게 학습·연산할 수 있는 PIM(지능형메모리반도체)까지 개발한다는 방침이다.

카카오엔터프라이즈는 퓨리오사AI와 손잡았다. '카카오i클라우드'에 퓨리오사AI의 워보이 NPU를 장착해 국내 스타트업 이팝소프트의 '말해보카 사전' AI 서비스를 제공한다. 카카오엔터프라이즈 관계자는 "클라우드부터 하드웨어, AI 서비스까지 모든 기술요소가 국산"이라며 "연내 카카오i클라우드의 워보이 NPU를 12장에서 16장으로 확대할 것"이라고 말했다.
챗GPT 20개 답할 때…전기세만 520원, 물은 500ml 소모
ICT업계가 AI 특화 반도체 개발에 나선 이유는 GPU 자체가 고가인 데다, 막대한 전력소모로 운영비용이 엄청나서다. 업계에 따르면 데이터 센터에서는 8개의 A100 GPU로 구성된 DGX A100을 주로 쓰는데 엔지니어 기술지원과 관리운영 비용까지 포함하면 4억원 가량이 드는 것으로 전해진다. 챗GPT 운영에는 GPU 1만여개가 필요한 것으로 알려졌다.

또 챗GPT는 검색 1회당 약 2센트(26원)의 비용이 든다. 1억 명이 한 달에 10번만 이용해도 한 달에 260억원이 드는 셈인데, 대부분이 데이터센터 전기료다. 이에 윤동식 KT클라우드 대표는 "세계적으로 AI에 소모되는 전기량이 한계에 다다랐다"라며 "진짜 AI 시대가 오려면 비용, 전력 효율적인 AI 인프라가 절실하게 필요하다"고 강조했다.


데이터센터에서 쓰는 물의 양도 엄청나다. 비즈니스 인사이더에 따르면 미 캘리포니아 리버사이드대와 텍사스대(알링턴)가 초거대 AI의 물발자국을 연구한 결과 마이크로소프트는 GPT-3 학습에 약 70만리터의 담수를 사용한 것으로 나타났다. 이는 BMW 자동차 370대를 생산하는데 필요한 양이다. 또 챗GPT가 20~50개 질문에 답할 때마다 500ml의 물이 필요했다.

기존에는 국내 클라우드 인프라 및 반도체 역량이 갖춰지지 않아 초거대 AI 서비스 개발시 해외 사업자에 막대한 인프라 비용을 지불해야 했던 점도 ICT업계가 풀스택에 골몰하는 이유다. 업계 관계자는 "초거대 AI는 데이터를 학습하고 결과물을 만드는 과정에서 막대한 비용과 전력이 소모되기 때문에 AI 경량화 최적화는 중요한 과제가 될 것"이라고 말했다.

윤지혜 기자 yoonjie@mt.co.kr

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?