‘챗GPT’로 불 붙은 AI반도체 경쟁...한국 기업 경쟁력은?

이재덕 기자 2023. 1. 23. 19:02
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI의 챗GPT 화면

스마트폰 카메라로 사진을 찍으면 AI가 사진 속 사물, 인물 등을 인식해 자동으로 초점을 조정한다. 사진 속에서 불필요한 사물을 골라 지울 수도 있다. 인간의 언어를 학습한 AI가 문장을 더 매끄럽게 고쳐주기도 하고, 글을 쓰기도 한다. 지난해 12월 공개된 오픈AI의 ‘챗GPT’는 인간과 대화하듯 자연스러운 채팅이 가능한 인공지능 챗봇으로 주목받고 있다.

일상에서 사용하는 인공지능(AI) 서비스가 늘어나면서 AI 연산을 수행하는 AI 반도체 개발 경쟁도 뜨거워지고 있다. 현재 AI 연산을 처리하는 AI 반도체는 대부분 그래픽처리장치(GPU)다. GPU는 CPU 코어를 단순화하고 수 천개로 늘려 그래픽 연산에 필요한 ‘곱셈’을 효과적으로 수행한다. 명령어를 한 번에 하나씩 빠르게 처리(직렬 처리)하는 중앙처리장치(CPU)와 달리, 방대한 데이터를 동시에 처리(병렬 처리)할 수 있어 AI 연산에도 활용된다. 예컨대 2016년 바둑기사 이세돌 9단과 대국했던 구글 알파고의 초기 버전에서 딥러닝 기반 AI 알파고의 ‘두뇌’ 역할을 했던 건 176개의 엔비디아 GPU였다.

이세돌 9단(오른쪽)이 2016년 3월 9일 서울 포시즌스 호텔에서 열린 ‘구글 딥마인드 챌린지 매치’ 제1국에서 구글 인공지능 ‘알파고’와 대결을 펼치고 있다. 초기 버전의 알파고에는 엔비디아의 GPU가 사용됐지만, 이세돌 9단과 대국한 알파고(알파고리)에는 구글의 TPU가 사용됐다. 한국기원 제공

지난달 공개된 챗GPT는 초거대 언어모델 AI인 GPT-3를 기반으로 하는데, 이런 초거대 언어모델을 학습하는 데는 보통 수백개의 GPU가 사용된다. GPU 1개당 연산성능이 163TFlops(테라플롭스, 1테라플롭스는 1초에 1조번 연산)에 달하는 엔비디아의 GPU ‘A100’ 1024개를 사용하면 GPT-3 수준의 언어모델 학습에 1개월 남짓 걸린다. 엔비디아는 지난해 연산성능을 높인 ‘H100’이라는 최신 GPU를 선보이기도 했다.

엔비디아는 AI 반도체의 최강자로 꼽히는데, 이는 GPU 성능 외에도 엔비디아가 개발한 ‘쿠다(CUDA)’라는 프로그램 덕분이다. 쿠다는 프로그래머들이 병렬처리 알고리즘을 쉽게 만들 수 있도록 개발된 프로그램으로, 현재 대부분의 AI 알고리즘이 쿠다 플랫폼을 기반으로 이뤄졌고, 프로그래머들도 이에 익숙하다. 쿠다는 엔비디아의 GPU에서만 작동하기 때문에 엔비디아의 GPU가 AI 반도체 시장 점유율을 늘리는 데 쿠다가 큰 역할을 했다는 평가를 받는다.

구글 데이터센터 모습. 구글 유투브 화면 캡처

다만 GPU는 애초 목적이 AI 연산이 아니었기 때문에 전력 효율, 면적, 수행시간 등에서 AI에 최적화한 반도체는 아니다. 이에 등장한 인공지능 전용 반도체가 신경망처리장치(NPU)다. 구글, 인텔 등의 글로벌 IT 기업들은 GPU 이상의 고성능을 유지하면서도 저전력을 기반으로 작동하는 NPU를 개발 중이다. 예컨대 구글이 자체 개발한 NPU인 ‘TPU’는 2017년 알파고의 최종 버전인 알파고 제로에 단 4개가 사용됐는데 학습 시간, 면적 등이 크게 개선됐다. 100개가 넘는 GPU를 기반으로 한 알파고 초기 버전과 비교해 전력 소모도 10분의 1로 줄었다. LG의 초거대 AI 모델인 ‘엑사원(EXAONE)’ 역시 구글 클라우드의 TPU를 이용한다.

인텔 역시 인공지능 반도체를 개발하는 하바나랩스(Habana Labs)를 2019년 20억 달러에 인수했다. 하바나랩스는 인공지능 훈련 프로세서인 ‘가우디’를 출시했는데, 이는 아마존 웹서비스(AWS) 등에 활용되고 있다.

현재 AI 알고리즘의 대부분이 클라우드에서 실행되고 있지만, 앞으로는 스마트폰, 자율주행차 등 데이터가 모이는 ‘끝단(에지)’에서 AI 알고리즘을 직접 처리하는 사례가 늘어날 전망이다. 인터넷에 연결되지 않아도 실행할 수 있으며, 처리 속도가 빠르고 클라우드 비용도 아낄 수 있다. 인텔 하바나랩스의 인공지능 추론용 AI 반도체인 ‘고야(Goya)’ , 엔비디아의 ‘자비에(Xavier)’ 등이 이런 엣지 컴퓨팅에 사용되는 대표적인 NPU로 꼽힌다.

퓨리오사AI가 개발한 ‘워보이’. 퓨리오사AI 제공

한편 한국 기업들도 NPU 개발에 적극적이다. 국내 AI 반도체 스타트업인 퓨리오사AI가 개발한 AI 반도체 ‘워보이’는 가격과 트랜지스터 개수가 10배 이상인 엔비디아의 A100와 비교해 대등한 수준의 성능을 기록했다. 또 다른 AI 반도체 스타트업인 리벨리온이 지난해 공개한 금융 거래 전용 AI 반도체 ‘아이온’은 인텔의 고야보다 처리 속도가 30% 빠르고, 전력 소비 효율은 배 이상 높아 시선을 끌었다. SK그룹의 사피온은 2020년 국내 기술 100%로 데이터센터 등에 사용되는 ‘사피온 X220’ 개발에 성공했다. SK그룹에 따르면, 사피온은 GPU 대비 딥러닝 연산 속도가 1.5배 빠르고, 전력 사용량은 80% 수준이며, 가격은 GPU의 절반에 불과하다. 현재 X220은 NHN의 데이터센터 등에서 사용되고 있다.

삼성전자의 PIM 반도체. 삼성전자 제공.

세계적인 메모리 업체인 삼성전자와 SK하이닉스는 메모리 반도체에 연산 기능을 더한 PIM(Processing-in-Memory) 메모리 제품을 잇달아 내놓고 있다. PIM 반도체는 메모리 스스로 연산을 할 수 있기 때문에 메모리와 연상장치 간 데이터 전송 과정에서 생기는 지연 시간과 전력 손실을 줄일 수 있다. AI 알고리즘에 최적화된 고성능 프로세서 NPU와 메모리에 연산 기능을 구현한 PIM 등이 고도화하면 적은 전력으로 더욱 효과적인 AI 서비스가 가능해진다.

이재덕 기자 duk@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?