HBM 20개 쌓는다…오픈AI, 기존 엔비디아 성능 2배 넘는 ‘슈퍼 AI칩’ 특허

배현의 2026. 4. 27. 17:22
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT의 개발사인 오픈AI가 고대역폭메모리(HBM) 20개를 이어 붙이는 반도체 패키징 특허를 공개했다.

27일 업계에 따르면 생성형 인공지능(AI) 기업인 오픈AI가 자사 반도체 패키징 특허인 '내장형 논리 브리지를 통한 고대역폭 메모리 칩렛, I/O 칩렛 및 컴퓨팅 칩렛의 비인접 연결' 특허를 공개했다.

이번 오픈AI의 특허는 HBM을 최대 20개까지 이어 붙일 수 있는 칩렛을 구현한 내용을 담고 있다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

HBM 최대 20개 연결하는 칩렛 기술 출원…엔비디아 의존 줄이고 독자 AI 반도체 경쟁 본격화
사진=연합뉴스

챗GPT의 개발사인 오픈AI가 고대역폭메모리(HBM) 20개를 이어 붙이는 반도체 패키징 특허를 공개했다.

27일 업계에 따르면 생성형 인공지능(AI) 기업인 오픈AI가 자사 반도체 패키징 특허인 ‘내장형 논리 브리지를 통한 고대역폭 메모리 칩렛, I/O 칩렛 및 컴퓨팅 칩렛의 비인접 연결’ 특허를 공개했다.

지난 9일(현지 시간) 미 특허청에 해당 특허를 출원했다. 이는 여러 종류의 칩을 하나의 덩어리처럼 만들어주는 후공정 기술인 ‘칩렛’에 관한 것으로 알려졌다.

칩렛은 이미 사용되고 있는 기술로, 엔비디아, 애플, 인텔, AMD 등 반도체 기업들이 칩렛을 활용해 여러 칩을 레고 블록처럼 조립해 성능을 극대화하여 사용하고 있다. 이번 오픈AI의 특허는 HBM을 최대 20개까지 이어 붙일 수 있는 칩렛을 구현한 내용을 담고 있다.

해당 특허 도면을 보면 가운데 칩렛을 HBM이 빽빽하게 이중, 삼중으로 둘러싸고 있는 것을 확인할 수 있다. 이는 ‘해안선 제한(Shoreline Limit)’을 극복하기 위해서다. 해안선 제한은 반도체 패키징의 오랜 난제로, 연산칩 성능보다 칩 가장자리 연결 공간이 먼저 부족해지는 병목현상을 뜻한다.

현재 엔비디아의 그래픽처리유닛(GPU)은 칩 한 개당 4~8개의 HBM을 이어 붙여 외장 메모리를 구축하는 형태다. 칩 한 개에 최대 8개까지 이어 붙일 수 있다. 만약 오픈AI의 특허대로 HBM을 20개 이어 붙인다면 엔비디아 GPU에 비해 최소 2배 이상의 저장 용량을 갖춘 슈퍼 AI 칩을 만들 수 있다.

반도체 기업들은 AI 칩 사방에 HBM을 연결해 메모리를 확대하는 전략을 고수해왔다. 다만 이러한 설계는 물리적 한계가 있다. 국제 표준(JEDEC)은 신호 감쇠를 방지하기 위해 칩과 메모리 사이 연결 거리를 6mm로 제한한다. 신호 감쇠는 거리가 멀어질수록 통신 신호가 불안정해지는 현상을 말한다.

오픈AI의 칩렛 특허는 ‘임베디드 로직 브리지’라는 능동 회로를 탑재했다. 따라서 해당 회로를 통해 연결 거리를 6mm에서 16mm로 연장한다. 해당 회로 덕분에 AI 칩과 직접 맞닿지 않아도 HBM을 연결할 수 있다. 오픈AI의 도면을 보면 핵심 칩을 중심으로 HBM 수십 개가 뻗어나가는 군집 형태를 확인할 수 있다.

업계 전문가들은 해당 도면이 인텔의 2.5D 패키징 기술인 ‘EMIB(Embedded Multi-Die Interconnect Bridge)’와 구조적으로 유사하다고 판단했다. EMIB의 경우 고가의 실리콘 인터포저 대신 필요한 부분에만 브릿지를 삽입한다. 덕분에 비용을 낮추고 유연한 설계가 가능하다. 오픈AI의 경우, 여기에 ’로직(Logic)’ 기능을 추가한 형태다.

업계 관계자는 “창의적인 설계지만 아직 특허 단계라 실제 성능 개선 효과에 대해서는 단정하기 어렵다”고 말했다. 이후 “HBM 탑재가 늘어나는 구조의 특성 상 발열(Thermal)을 잡아내는 것이 향후 주된 과제로 보인다”고 덧붙였다.

오픈AI는 지난해 10월부터 미국 반도체 설계업체 ‘브로드컴’과 손잡고 맞춤형 AI 칩을 개발 중인 것으로 알려졌다. 오픈AI를 포함한 주요 AI 기업들은 엔비디아 의존도를 줄이기 위해 독자 칩 설계 역량을 강화하고 있는 추세다. 오픈AI는 자사 칩에 삼성전자 HBM4를 탑재할 예정이다. 오픈AI는 올해 4분기 상장을 목표로 하고 있다.

배현의 인턴기자 baehyeonui@hankyung.com

Copyright © 한경비즈니스. 무단전재 및 재배포 금지.