엔비디아, 메모리 3배 늘린 차세대 AI칩 공개…"미친 듯이 추론할 것"

뉴욕=조슬기나 2023. 8. 9. 04:35
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 칩 시장을 주도하고 있는 엔비디아가 대규모 AI 언어모델을 추론할 수 있는 차세대 AI칩을 공개했다.

IT전문매체 더버지는 "생성형 AI를 위한 하이엔드 프로세서를 제공하는 시장 선두주자 엔비디아가 대규모 AI모델 수요가 지속됨에 따라 훨씬 더 강력한 칩을 출시한다"면서 "대형 언어모델, 추천 시스템, 벡터 데이터베이스에 걸친 가장 복잡한 생성형 AI워크로드"라고 소개했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능(AI) 칩 시장을 주도하고 있는 엔비디아가 대규모 AI 언어모델을 추론할 수 있는 차세대 AI칩을 공개했다. 조만간 손쉽게 생성형 AI를 개발할 수 있는 플랫폼도 출시할 예정이다.

[이미지출처=로이터연합뉴스]

엔비디아는 8일(현지시간) 미국 로스앤젤레스에서 진행된 연례 콘퍼런스에서 차세대 AI칩 'GH200 그레이스 호퍼 슈퍼칩'을 선보였다. 이는 현재 최고사양인 H100과 동일한 그래픽처리장치(GPU)에 141GB 최첨단 메모리, 72코어 암(ARM) 중앙 프로세서를 결합한 것이다. H100과 동일한 GPU를 사용하지만 메모리 용량은 3배 수준이라고 현지 언론들은 분석했다.

엔비디아의 새로운 AI칩은 기존 칩보다 메모리 용량이 확대돼 대규모 AI 모델을 장착할 수 있도록 한 것이 특징이다. 젠슨 황 엔비디아 최고경영자(CEO)는 "전 세계 데이터 센터의 규모를 확장할 수 있도록 설계됐다"고 소개했다. 황 CEO는 "여러분이 원하는 거의 모든 대규모 언어 모델을 넣을 수 있다. 그러면 미친 듯이 추론할 것"이라며 "대규모 언어모델 추론 비용이 크게 떨어질 것"이라고 말했다. 또한 엔비디아는 더 큰 AI 모델을 위해 두 개의 GH200 칩을 하나의 컴퓨터에 결합하는 시스템도 발표했다.

IT전문매체 더버지는 "생성형 AI를 위한 하이엔드 프로세서를 제공하는 시장 선두주자 엔비디아가 대규모 AI모델 수요가 지속됨에 따라 훨씬 더 강력한 칩을 출시한다"면서 "대형 언어모델, 추천 시스템, 벡터 데이터베이스에 걸친 가장 복잡한 생성형 AI워크로드"라고 소개했다. 본격적인 판매는 내년 2분기부터 이뤄진다. 가격은 공개되지 않았다. H100라인의 경우 현재 약 4만달러에 판매되고 있다고 더버지는 덧붙였다.

이와 함께 엔비디아는 개발자가 PC나 워크스테이션에서 자신만의 생성형 AI를 개발할 수 있는 플랫폼 'AI 워크벤치'(NVIDIA AI Workbench)도 발표했다. 필요한 엔터프라이즈급 모델을 활용해 손쉽게 생성형 AI를 정의하고 실행할 수 있도록 했다. 워크벤치는 엔비디아 자체 AI플랫폼의 프레임워크, 라이브러리, SDK는 물론, 깃허브, 허깅페이스 등도 지원한다.

엔비디아는 현재 AI칩 시장에서 80% 이상의 점유율을 차지하고 있다. 자체 AI GPU 생산을 확대하고자하는 AMD, 인텔 등이 뒤를 추격하는 상황이다.

한편 이날 뉴욕증시에서 엔비디아의 주가는 전장 대비 1%이상 내린 수준에서 거래되고 있다.

뉴욕=조슬기나 특파원 seul@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?