네이버, 엔비디아 GPU 4000장 클러스터 구축…AI 개발 속도 12배 향상
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
팀네이버(NAVER(035420))는 엔비디아의 차세대 GPU 엔비디아 'B200(블랙웰)' 4000장을 기반으로 한 국내 최대 규모의 AI 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다.
네이버는 이번 인프라 구축으로 글로벌 상위권 수준의 컴퓨팅 파워를 확보했으며, 독자 파운데이션 모델 고도화와 AI 기술의 서비스·산업 적용을 가속할 수 있는 기반을 마련했다고 설명했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
학습 기간 18개월→1.5개월…개발 사이클 향상 기대
독자 파운데이션 모델 고도화…서비스·산업 적용
[이데일리 이소현 기자] 팀네이버(NAVER(035420))는 엔비디아의 차세대 GPU 엔비디아 ‘B200(블랙웰)’ 4000장을 기반으로 한 국내 최대 규모의 AI 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다.

회사 측에 따르면 ‘B200 4K 클러스터’는 냉각·전력·네트워크를 포함한 초고성능 GPU 클러스터 설계 역량을 바탕으로 구축됐다. 대규모 병렬 연산과 고속 통신을 전제로 설계돼 글로벌 톱 수준의 슈퍼컴퓨터와 비교 가능한 규모를 갖췄다는 평가다.
인프라 성능 향상은 AI 모델 개발 속도 개선으로 이어진다. 네이버는 내부 시뮬레이션 결과, 720억 개(72B) 파라미터 규모 모델을 학습할 경우 기존 A100 GPU 2048장 기반 인프라에서는 약 18개월이 소요됐으나, 이번 클러스터에서는 약 1.5개월로 단축될 수 있다고 밝혔다. 이는 학습 속도가 12배 이상 빨라지는 효과다. 다만 실제 학습 기간은 과제와 설정에 따라 달라질 수 있다고 덧붙였다.
네이버는 학습 효율 향상으로 대규모 실험과 반복 학습이 가능해지면서 모델 완성도와 개발 유연성이 크게 높아질 것으로 보고 있다. 이를 바탕으로 텍스트뿐 아니라 이미지·비디오·음성을 동시에 처리하는 옴니(Omni) 모델 등 독자 파운데이션 모델 고도화에도 속도를 낼 계획이다.
최수연 네이버 대표는 “이번 인프라 구축은 AI 기술 경쟁력과 자립 기반을 강화하는 핵심 자산”이라며 “빠른 학습과 반복 실험이 가능한 환경을 토대로 AI 기술을 서비스와 산업 현장에 유연하게 적용해 나가겠다”고 말했다.
이소현 (atoz@edaily.co.kr)
Copyright © 이데일리. 무단전재 및 재배포 금지.
- 삼성전자 '어닝 서프라이즈'…사상 첫 분기 영업익 20조(상보)
- 암 투병 중인 며느리에 “우리 아들 밥은?”…남편도 ‘막말’
- 美의학계도 경고한 '박나래 나비약'…"살 빼려다 심장병"
- 40대 한국 남성, 인도서 22살 동거녀에 살해 당해
- 박지원 “김병기, 사랑하는 동생이지만…당에서 제명해야”
- "故 안성기, 관리실 전 직원 호텔 식사 대접"...먹먹한 미담 줄이어
- "몇번 보니 극우 채널로 도배"…편향된 알고리즘의 포로들
- "잠자리 피하더니...남편, AI랑 19금 연애 中" [사랑과 전쟁]
- “다리도 못펴, 닭장 수준”…캐나다 ‘극한 이코노미석’ 논란
- 상견례 앞두고 예비신부 살해…“결혼 미루자고? 원하는 대로” [그해 오늘]