"전력 소모 엔비디아의 1/625"…국내 AI 반도체 기술 개발

김지성 기자 2024. 3. 6. 16:30
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

과학기술정보통신부는 한국과학기술원(KAIST) PIM반도체 연구센터와 인공지능반도체대학원 유회준 교수 연구팀이 상보형 트랜스포머를 삼성전자 28나노 공정을 통해 개발했다고 밝혔습니다.

연구팀은 상보형 심층신경망 기술을 거대언어모델에 적용함으로써 초저전력·고성능의 온디바이스 AI가 가능하다는 것을 입증했으며, 이론에만 머물렀던 연구 내용을 세계 최초로 AI반도체 형태로 구현했다고 과기정통부는 설명했습니다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.


▲ 스파이킹 뉴럴 네트워크와 심층 인공신경망의 상보적 특성

전력 소모를 최소화하면서 초고속으로 거대언어모델(LLM)을 처리할 수 있는 인공지능(AI) 반도체 핵심 기술인 '상보형 트랜스포머'를 국내 연구진이 세계 최초로 개발했습니다.

과학기술정보통신부는 한국과학기술원(KAIST) PIM반도체 연구센터와 인공지능반도체대학원 유회준 교수 연구팀이 상보형 트랜스포머를 삼성전자 28나노 공정을 통해 개발했다고 밝혔습니다.

상보형 트랜스포머란 인간 뇌의 구조와 기능을 모방해 설계한 뉴로모픽 컴퓨팅 시스템의 일종인 '스파이킹 뉴럴 네트워크'와 '심층 인공신경망'을 선택적으로 사용해 트랜스포머 기능을 구현하는 기술입니다.

트랜스포머는 문장 속 단어와 같은 데이터 내부의 관계를 추적해 맥락과 의미를 학습하는 신경망으로, 챗GPT의 원천 기술이기도 합니다.

거대언어모델은 그동안 다량의 그래픽처리장치(GPU)와 250와트의 전력 소모를 통해 구동해야 했지만, 연구팀은 4.5㎜×4.5㎜의 작은 AI 반도체 한 개에서 400밀리와트의 초저전력만 소모하면서도 초고속 구현에 성공했습니다.

AI 반도체 발전 방향


이번 연구 결과는 지난달 19∼23일 미국 샌프란시스코에서 열린 '반도체 설계 올림픽' 국제고체회로설계학회(ISSCC)에서 발표, 시연됐습니다.

연구팀은 상보형 심층신경망 기술을 거대언어모델에 적용함으로써 초저전력·고성능의 온디바이스 AI가 가능하다는 것을 입증했으며, 이론에만 머물렀던 연구 내용을 세계 최초로 AI반도체 형태로 구현했다고 과기정통부는 설명했습니다.

연구진에 따르면 상보형 트랜스포머는 엔비디아 A100 GPU 대비 625분의 1 수준의 전력을 쓰면서 GPT-2 모델을 활용한 언어 생성에는 0.4초, T5 모델을 활용한 언어 번역에는 0.2초의 고속 동작이 각각 가능합니다.

연구팀은 향후 뉴로모픽 컴퓨팅을 언어모델에 국한하지 않고 다양한 응용 분야로 연구 범위를 확장할 예정입니다.

유회준 교수는 "뉴로모픽 컴퓨팅은 IBM, 인텔 같은 회사들도 구현하지 못한 기술로, 초저전력의 뉴로모픽 가속기를 갖고 거대모델을 돌린 것은 세계 최초라고 자부한다"고 말했습니다.

(사진=과학기술정보통신부 제공, 연합뉴스)

김지성 기자 jisung@sbs.co.kr

Copyright © Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?