국내 연구진, 전기 적게 먹고 똑똑한 ‘AI 반도체’ 개발

이정호 기자 2024. 3. 6. 12:01
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

기존 GPU 대비 전력 소모량 625분의 1
‘온디바이스 AI’ 장시간 사용 기반
지난달 미국 샌프란시스코에서 개최된 국제고체회로설계학회(ISSCC)에서 김상엽 카이스트 박사가 AI반도체에 관해 참가자에게 설명하고 있다. 카이스트 제공

국내 연구진이 고성능을 발휘하면서도 전기는 매우 적게 사용하는 인공지능(AI) 반도체를 개발했다. 사람과 대화하고, 각종 정보를 찾아주는 GPT 같은 ‘거대언어모델(LLM) AI’를 배터리 소모 걱정 없이 스마트폰 등으로 장시간 사용할 기반이 마련될 것이라는 전망이 나온다.

과학기술정보통신부는 6일 유회준 카이스트(KAIST) 전기 및 전자공학부 교수가 이끄는 연구진이 정보 처리 속도는 유지하면서도 전기 소모량은 크게 줄인 AI 탑재용 반도체를 개발했다고 밝혔다.

연구진은 이 반도체에 ‘상보형-트랜스포머’라는 이름을 붙였다. 연구 결과는 지난달 19~23일 미국 샌프란시스코에서 개최된 국제고체회로설계학회(ISSCC)에서 발표·시연됐다.

연구진은 이번에 개발한 AI 반도체 전력 소모량이 현재 LLM 작동에 사용되는 그래픽처리장치(GPU)인 엔비디아 A100 대비 625분의 1에 불과하다고 밝혔다. 이번 AI 반도체로 LLM의 일종인 GPT-2를 작동시켰더니 언어 생성 속도도 0.4초로 매우 빨라 사용에 불편함이 없었다.

연구진이 이런 초저전력 기술을 만들 수 있었던 것은 AI를 돌리는 기술 두 가지의 특징에 집중했기 때문이다.

AI 작동 기술 중 하나는 ‘스파이킹 뉴럴 네트워크(SNN)’이다. SNN은 실시간 정보처리에 유리하다. 하지만 복잡한 정보를 처리하는 능력은 약하다. 또 다른 기술은 ‘심층 인공 신경망(DNN)’이다. DNN은 이미지 인식과 비디오 정보 분석 같은 고난도 정보처리가 가능하다.

연구진은 정보를 담은 데이터 크기가 작으면 SNN이 DNN보다 전기를 더 적게 쓴다는 점을 알아냈다. 반대로 데이터가 클 경우 DNN이 SNN보다 전기를 덜 썼다.

연구진은 데이터 크기를 평가해 SNN으로 넘길지, DNN으로 넘길지를 재빨리 판단하는 작동 체계를 고안했다. 크기가 작아 가볍게 처리할 수 있는 데이터는 SNN에, 크기가 커 복잡한 분석을 해야 하는 데이터는 DNN으로 분배했다. 전기를 최대한 덜 쓰면서도 데이터를 효과적으로 처리할 수 있게 한 것이다.

한마디로 탑재량은 적지만 연비가 좋은 1t 트럭(SNN)이면 가능할 적은 이삿짐을 옮기는데, 탑재량이 크고 연비도 상대적으로 낮은 5t 트럭(DNN)을 부르는 일을 지양하는 방법을 개발한 셈이다.

반대로 짐이 많다면 1t 트럭 여러 대보다는 5t 트럭 1대를 불러 한 번에 옮기는 것이 효율적이다. 이삿짐 트럭을 고르듯 AI 작동 방식도 선택한 것이다. 연구진은 이번 반도체를 삼성전자 28나노 공정을 통해 제작했다고 밝혔다.

연구진은 이번 기술이 스마트폰 등 전자기기 내에 들어가는 ‘온디바이스 AI’ 사용을 확대하는 계기가 될 것으로 기대했다. AI 사용에 따른 배터리 소모량을 줄일 수 있어서다.

논문의 제1저자인 김상엽 카이스트 전기 및 전자공학부 박사는 “현재 일부 최신 스마트폰에서는 AI를 사용해 실시간 번역 기능을 제공한다”며 “이번 연구 결과를 적용하면 이 같은 기능들을 더 장시간 쓸 수 있게 될 것”이라고 말했다.

이정호 기자 run@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?