네이버·삼성 공동개발 AI반도체..."글로벌 경쟁사 대비 전력효율 8배"

박수형 기자 2023. 12. 19. 17:45
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

네이버 클라우드와 삼성전자가 공동 개발에 나선 인공지능(AI) 반도체의 시연이 공개됐다.

엔비디아와 같이 AI 반도체 시장에서 선두권에 있는 회사의 상용 제품과 비교해 AI 연산 과정에서 8배 이상의 전력 효율을 장점으로 내세웠다.

이동수 네이버클라우드 이사는 "현재 AI 반도체 시장에서 엔비디아 제품이 가장 가격이 저렴하고 성능이 좋지만, 네이버와 삼성전자가 개발한 AI 반도체가 8배 이상 전력 효율이 높다"고 설명했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

HBM 대신 LPDDR로 시스템 구성

(지디넷코리아=박수형 기자)네이버 클라우드와 삼성전자가 공동 개발에 나선 인공지능(AI) 반도체의 시연이 공개됐다. 엔비디아와 같이 AI 반도체 시장에서 선두권에 있는 회사의 상용 제품과 비교해 AI 연산 과정에서 8배 이상의 전력 효율을 장점으로 내세웠다.

두 회사는 과학기술정보통신부가 19일 서울 서초구 더케이호텔에서 개최한 AI 반도체 최고위 전략대화 행사장 앞에 전시 부스를 꾸리고 현재 개발 단계 중에 있는 FPGA 형태의 AI 반도체 시연을 선보였다.

네이버의 초거대 AI 모델인 하이퍼클로버X를 구동하는 형태의 시연이다.

지난해 12월 업무협약 이후 약 1년간 공동 개발의 결과물로 4배 이상 압축된 초거대 모델을 저전력 하드웨어에서 구현한 것이 특징이다. 기존 컴퓨팅 시스템에서는 초거대 모델을 압축하면 속도가 느려지는 반면, 두 회사가 개발하는 시스템에서는 연산이 4배 빨라지는 결과를 검증했다.

연산 속도를 높이는 동시에 전력 효율을 끌어올린 점이 주목할 부분이다. 이동수 네이버클라우드 이사는 “현재 AI 반도체 시장에서 엔비디아 제품이 가장 가격이 저렴하고 성능이 좋지만, 네이버와 삼성전자가 개발한 AI 반도체가 8배 이상 전력 효율이 높다”고 설명했다.

양산이 이뤄질 경우 시스템 구성 측면에서 보급 확산이 더욱 빠를 것으로 예상된다. 최근 들어 메모리업계가 생산 가동률을 높이기 시작한 HBM이 아닌 모바일 기기에서 많이 쓰이는 LPDDR을 활용했기 때문이다. 전력 효율성을 끌어올린 주된 이유로도 꼽힌다.

실제 글로벌 경쟁사의 모델 비교에서도 HBM을 활용한 두 회사와 달리 네이버와 삼성은 LPDDR5X로 비교 값을 내놨다.

양사의 AI 반도체는 현재 기술검증을 마친 단계로, 시장성이 입증되면 양산 체제에 돌입할 수 있을 전망이다.

박수형 기자(psooh@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?