초저전력 AI 반도체, 국내 연구진이 개발 성공

이정호 기자 2024. 3. 6. 21:34
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

데이터 크기 맞춰 작동 방식 판단
언어 생성 속도 0.4초로 매우 빨라
스마트폰 등 AI 활용도 높아질 듯

국내 연구진이 성능이 뛰어나면서도 전기는 매우 적게 사용하는 인공지능(AI) 반도체를 개발했다. 사람과 대화하고, 각종 정보를 찾아주는 GPT 같은 ‘거대언어모델(LLM) AI’를 배터리 소모 걱정 없이 스마트폰 등으로 장시간 사용할 기반이 마련될 것이라는 전망이 나온다.

과학기술정보통신부는 6일 유회준 카이스트 전기 및 전자공학부 교수가 이끄는 연구진이 처리 속도는 유지하면서도 전기 소모량은 크게 줄인 AI 탑재용 반도체를 개발했다고 밝혔다. 연구진은 이 반도체에 ‘상보형-트랜스포머’라는 이름을 붙였다. 연구 결과는 지난달 19~23일 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 발표·시연됐다.

연구진은 이번에 개발한 AI 반도체 전력 소모량이 현재 LLM 작동에 사용되는 그래픽처리장치(GPU)인 엔비디아 A100 대비 625분의 1에 불과하다고 밝혔다. LLM의 일종인 GPT-2를 작동시켰더니 언어 생성 속도도 0.4초로 매우 빨라 사용에 불편함이 없었다.

연구진이 이런 초저전력 기술을 만들 수 있었던 것은 AI를 돌리는 기술 두 가지의 특징에 집중했기 때문이다.

AI 작동 기술 중 하나는 ‘스파이킹 뉴럴 네트워크(SNN)’이다. SNN은 실시간 정보 처리에 유리하다. 하지만 복잡한 정보를 처리하는 능력은 약하다. 또 다른 기술은 ‘심층 인공 신경망(DNN)’이다. DNN은 이미지 인식과 비디오 정보 분석 같은 고난도 정보 처리가 가능하다.

연구진은 정보를 담은 데이터 크기가 작으면 SNN이 DNN보다 전기를 더 적게 쓴다는 점을 알아냈다. 반대로 데이터가 클 경우 DNN이 SNN보다 전기를 덜 썼다. 연구진은 데이터 크기를 평가해 SNN으로 넘길지, DNN으로 넘길지를 재빨리 판단하는 작동 체계를 고안했다. 크기가 작아 가볍게 처리할 수 있는 데이터는 SNN에, 크기가 커 복잡한 분석을 해야 하는 데이터는 DNN으로 분배했다. 전기를 최대한 덜 쓰면서도 데이터를 효과적으로 처리할 수 있게 한 것이다. 연구진은 이번 반도체를 삼성전자 28나노 공정을 통해 제작했다고 밝혔다.

연구진은 이번 기술이 스마트폰 등 전자기기에 들어가는 ‘온디바이스 AI’ 사용을 확대하는 계기가 될 것으로 기대했다. AI 사용에 따른 배터리 소모량을 줄일 수 있어서다.

이정호 기자 run@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?