“인간아, 너 떨고 있니?”…30배 강력해진 ‘엄청난 놈’ 온다

이덕주 특파원(mrdjlee@mk.co.kr) 2024. 3. 19. 23:36
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

연례 행사에서 차세대 반도체 B200 공개
반도체 넘어 ‘플랫폼’과 ‘서비스’기업으로
“슈퍼 AI컴퓨터 직접 고객에게 팔겠다”
18일(현지시간) 미국 산호세 SAP센터에서 열린 GTC2024에서 젠슨 황 엔비디아 CEO가 여러 로봇들과 무대에서 기조연설을 하고 있다.[사진 = AFP 연합뉴스]
인공지능(AI) 반도체 선두주자인 엔비디아가 18일(현지시간) 미국에서 연례 컨퍼런스인 ‘GTC(GPU Technology Conference) 2024’를 개최하고 신형 AI 반도체인 블랙웰을 공개했다.

이날 기조연설이 열린 SAP센터에서 젠슨 황 CEO는 “지금 가속 컴퓨팅은 임계점에 도달했다”면서 “우리는 더 많은 컴퓨팅을 사용할 수 있게 되고 그 효과는 엄청날 것”이라고 강조했다. 그는 데이터센터, 엔터프라이즈IT, AI팩토리, AI코파일럿 등 전 영역에 AI가 적용되면서 100조달러 규모의 산업이 만들어질 것이라고 설명했다.

젠슨 황 CEO는 새롭게 공개한 ‘블랙웰 플랫폼’과 여기에 들어가는 B200 반도체의 성능을 설명하면서, 기존 모델인 H100 GPU 대비 월등한 성능 향상을 강조했다. 매개변수 1조8000억 개의 GPT 모델을 90일간 인공지능 학습에 사용한다고 가정했을 경우, H100이 탑재된 기존 호퍼 플랫폼에서는 8000개의 GPU로 15메가와트의 전력이 필요했다면, 블랙웰 플랫폼에서는 2000개의 GPU로 4메가와트의 전력만이 소모된다. 전체 소모전력이 4분의 1이상 줄어든다는 설명이다. 소비 전력이 줄어든 것은 그만큼 성능이 뛰어나다는 것이다.

가격은 공개하지 않았지만 H100이 개당 최대 4만달러라는 점을 고려하면 B200는 5만달러 수준이 될 것으로 업계에서 전망했다.

황 CEO는 블랙웰이 ‘추론’에서는 더 뛰어난 성능을 보여준다고 강조했다. 학습이 완료된 AI모델로 챗GPT 처럼 텍스트를 만들거나 미드저니 처럼 이미지를 만들 때 데이터센터 GPU에서 ‘추론’작업이 이뤄지는데, 블랙웰 호퍼(GB200)에서는 기존 H200보다 종합적인 성능이 30배 좋아진다고 강조했다.

블랙웰은 게임 이론과 통계학을 전공한 수학자이자 흑인으로는 최초로 미국국립과학원에 들어간 데이비드 블랙웰을 기리기 위해 붙여진 이름이다.

젠슨 황 CEO는 기조연설에서 엔비디아가 ‘반도체’를 넘어 ‘컴퓨팅 플랫폼’으로 진화하고, ‘서비스’회사로 변화해가는 것을 강조했다. 신형 B200 GPU 두 개와 그레이스 CPU, 반도체를 연결하는 NV링크, 케이블 등이 모여서 슈퍼컴퓨터가 만들어지고, 이것이 모여서 AI를 학습시키는 AI 클러스터가 된다고 설명했다. 엔비디아가 만들고자 하는 AI 데이터센터는 3만2000개의 GPU가 들어가는데 이것을 ‘AI팩토리’라고 부른다.

GB200 NVL72는 72개 블랙웰 GPU와 36개 그레이스 CPU를 NV링크로 연결한 수냉식 AI슈퍼컴퓨터이다. 기존 제품대비 최대 30배 이상 빠른 추론 성능의 향상을 이뤘다. [사진 = 엔비디아]
젠슨 황 CEO는 엔비디아는 이제 반도체를 파는 것이 아니라 이런 AI 특화된 컴퓨터를 만든다고 강조했다. 그는 엔비디아의 모든 기술이 결합된 DGX GB200 NVL72 라는 컴퓨터를 ‘1개의 거대한 GPU’라고 설명하면서, 데이터센터 전체의 성능을 높여야 AI 학습과 추론에 드는 컴퓨팅 비용을 낮출 수 있다고 주장했다.

이처럼 엔비디아가 반도체가 아닌 데이터센터를 강조하는 것에 대해서 GTC에 참석한 한 전문가는 “칩을 설계하는데 있어서 물리학적 한계를 엔비디아도 체감한 것으로 보인다”면서 “그동안 반도체를 붙이는 것을 피해왔던 엔비디아가 B200에서 이런 선택을 한 것이 아쉽다”고 설명했다.

한편 젠슨 황 CEO는 엔비디아 추론 마이크로서비스(NIM)이라는 추론 전용 서비스도 공개했다. 다양한 AI모델을 서비스할 수 있도록 엔비디아가 클라우드 형태로 서비스를 제공하는 것이다.

엔비디아의 주 고객인 AWS, 마이크로소프트 애저, 구글 클라우드 같은 기업이 자체적인 AI반도체를 만드는 방향으로 흘러가자, 엔비디아도 최종 AI 사용자에게 실제 클라우드 서비스를 제공하는 전략으로 분석된다.

미국 반도체 기업 엔비디아 최고경영자(CEO) 젠슨 황이 18일(현지시간) 미국 캘리포니아주 새너제이 SAP 센터에서 개최한 개발자 콘퍼런스 GTC 2024에서 기조연설을 하고 있다. 2024.3.19 [사진 = 연합뉴스]
기조연설에서 황 CEO는 로보틱스 분야에도 많은 설명을 할애했다. 기존에 ‘디지털 트윈’에 인프라를 제공한 ‘옴니버스’에 ‘아이작 로보틱스’ 플랫폼을 추가해, 디지털 트윈에서 로봇을 학습시켜서 현실세계에 적용시키는 모델을 소개했다. 황 CEO는 “기존에 모든 로봇은 미리 프로그램이 되어있었다”면서 “앞으로 로봇은 인식을 통한 학습으로 프로그래밍이 쉬워질 것”이라고 전망했다. 황 CEO는 기조연설의 후반부에는 로봇들과 함께 등장하기도 했다.

엔비디아는 다양한 기업들과의 파트너십도 공개했다. 애플 비전 프로 헤드셋을 옴니버스 디지털 트윈 플랫폼에서 사용하기로 했고, 지멘스와 함께 구축하는 산업용 옴니버스에서는 HD현대의 LNG운반선이 사례로 등장하기도 했다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?