네이버·삼성 공동개발 AI반도체..."글로벌 경쟁사 대비 전력효율 8배"
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
네이버 클라우드와 삼성전자가 공동 개발에 나선 인공지능(AI) 반도체의 시연이 공개됐다.
엔비디아와 같이 AI 반도체 시장에서 선두권에 있는 회사의 상용 제품과 비교해 AI 연산 과정에서 8배 이상의 전력 효율을 장점으로 내세웠다.
이동수 네이버클라우드 이사는 "현재 AI 반도체 시장에서 엔비디아 제품이 가장 가격이 저렴하고 성능이 좋지만, 네이버와 삼성전자가 개발한 AI 반도체가 8배 이상 전력 효율이 높다"고 설명했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
(지디넷코리아=박수형 기자)네이버 클라우드와 삼성전자가 공동 개발에 나선 인공지능(AI) 반도체의 시연이 공개됐다. 엔비디아와 같이 AI 반도체 시장에서 선두권에 있는 회사의 상용 제품과 비교해 AI 연산 과정에서 8배 이상의 전력 효율을 장점으로 내세웠다.
두 회사는 과학기술정보통신부가 19일 서울 서초구 더케이호텔에서 개최한 AI 반도체 최고위 전략대화 행사장 앞에 전시 부스를 꾸리고 현재 개발 단계 중에 있는 FPGA 형태의 AI 반도체 시연을 선보였다.
네이버의 초거대 AI 모델인 하이퍼클로버X를 구동하는 형태의 시연이다.
지난해 12월 업무협약 이후 약 1년간 공동 개발의 결과물로 4배 이상 압축된 초거대 모델을 저전력 하드웨어에서 구현한 것이 특징이다. 기존 컴퓨팅 시스템에서는 초거대 모델을 압축하면 속도가 느려지는 반면, 두 회사가 개발하는 시스템에서는 연산이 4배 빨라지는 결과를 검증했다.
연산 속도를 높이는 동시에 전력 효율을 끌어올린 점이 주목할 부분이다. 이동수 네이버클라우드 이사는 “현재 AI 반도체 시장에서 엔비디아 제품이 가장 가격이 저렴하고 성능이 좋지만, 네이버와 삼성전자가 개발한 AI 반도체가 8배 이상 전력 효율이 높다”고 설명했다.
양산이 이뤄질 경우 시스템 구성 측면에서 보급 확산이 더욱 빠를 것으로 예상된다. 최근 들어 메모리업계가 생산 가동률을 높이기 시작한 HBM이 아닌 모바일 기기에서 많이 쓰이는 LPDDR을 활용했기 때문이다. 전력 효율성을 끌어올린 주된 이유로도 꼽힌다.
실제 글로벌 경쟁사의 모델 비교에서도 HBM을 활용한 두 회사와 달리 네이버와 삼성은 LPDDR5X로 비교 값을 내놨다.
양사의 AI 반도체는 현재 기술검증을 마친 단계로, 시장성이 입증되면 양산 체제에 돌입할 수 있을 전망이다.
박수형 기자(psooh@zdnet.co.kr)
Copyright © 지디넷코리아. 무단전재 및 재배포 금지.
- 韓 AI칩 스타트업 삼총사, '엔비디아' 대항 동맹 맺었다
- AI 반도체 훈풍에 경계현 사장 "삼성, 美 AI 시장 확대 도울 것"
- 엔비디아, 매출 101%-영업익 1263% 증가…'AI특수' 제대로 누렸다
- 엔비디아, 세계 최초 'HBM3e' 탑재 AI칩 내년 양산
- 46파이 배터리가 뜬다...뺏고 뺏기는 수주 경쟁 '후끈'
- 요동치는 中 첨단 반도체 공급망…삼성 파운드리 득실은?
- 일론 머스크, 트럼프 행정부 '정부효율부' 수장 됐다
- "2차오염 어쩌나"...위고비 사용 후 일반쓰레기로 배출
- "가상현실 만드는 측량 기술…더 쉽고 정교하게"
- 허성 코오롱ENP 부사장, 사장 승진…코오롱인더 이끈다