하이닉스, `AI 하드웨어 서밋`서 AiM 솔루션 제시

박순원 2024. 9. 19. 11:15
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

SK하이닉스가 최근 미국 캘리포니아주 새너제이에서 열린 '인공지능(AI) 하드웨어 & 엣지 AI 서밋 2024'(이하 AI 하드웨어 서밋)에서 가속기 카드인 AiMX 등 AI 시대를 위한 기술을 선보였다.

19일 SK하이닉스 뉴스룸에 따르면 SK하이닉스는 이번 행사에 '데이터센터부터 엣지 디바이스까지 AI 성능을 가속하는 AiM'이라는 슬로건을 내걸고 참가해 AiM 솔루션과 미래 비전을 제시했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 하드웨어 서밋에 설치된 SK하이닉스 부스. <SK하이닉스 제공>

SK하이닉스가 최근 미국 캘리포니아주 새너제이에서 열린 '인공지능(AI) 하드웨어 & 엣지 AI 서밋 2024'(이하 AI 하드웨어 서밋)에서 가속기 카드인 AiMX 등 AI 시대를 위한 기술을 선보였다.

19일 SK하이닉스 뉴스룸에 따르면 SK하이닉스는 이번 행사에 '데이터센터부터 엣지 디바이스까지 AI 성능을 가속하는 AiM'이라는 슬로건을 내걸고 참가해 AiM 솔루션과 미래 비전을 제시했다.AI 하드웨어 서밋은 글로벌 정보기술(IT) 기업과 유망 스타트업 등이 참가해 최신 기술과 연구 결과를 공유하고 네트워킹을 통해 산업 내 협력 기회를 모색하는 자리다.

AiM은 SK하이닉스의 지능형 반도체(PIM) 제품명이다. 이번에 선보인 AiMX는 GDDR6-AiM 칩을 사용해 대규모 언어 모델(LLM)에 특화된 SK하이닉스의 가속기 카드 제품이다.

SK하이닉스는 자사의 AiM이 메모리 내에서 일부 연산을 수행해 기존 메모리 대비 높은 대역폭과 우수한 에너지 효율성을 보이고, LLM 기반의 생성형 AI가 요구하는 높은 컴퓨팅 성능을 더 경제적으로 구현할 수 있게 해준다고 설명했다.전시 부스에서는 메타의 최신 LLM 모델인 '라마3 70B'를 활용해 AiMX의 성능을 시연했다. 이번에 공개된 AiMX는 메모리 용량이 16GB(기가바이트)에서 32GB로 기존 대비 2배로 늘어났으며, 여러 데이터 그룹을 동시에 처리하는 기법인 멀티 배치로 데이터를 처리해 많은 관심을 받았다.SK하이닉스는 이번 행사에서 데이터센터뿐만 아니라 엣지 디바이스(온디바이스 AI)에도 적용 가능한 AiM 솔루션을 공개했다.

SK하이닉스 관계자는 "기존 엣지 디바이스의 메모리 인터페이스를 변경하지 않고도 성능을 높일 수 있는 것이 이번 설루션의 강점"이라며 "모바일 D램을 SK하이닉스의 AiM으로 대체할 경우 기존 대비 최대 3배 이상의 LLM 속도 향상과 에너지 효율이 기대된다"고 전했다.

임의철 SK하이닉스 부사장도 세션 발표를 통해 AiM 기술이 LLM 서비스를 위한 핵심 솔루션임을 강조하고 모바일 D램 기반 온디바이스 AI용 AiM 제품 개발 계획을 공유했다.

SK하이닉스는 "앞으로도 다양한 AiM 설루션을 통해 글로벌 기업들과 협력해 차세대 AI 가속기 생태계를 구축하고, 온디바이스 AI 시장에서도 리더십을 강화해 나갈 계획"이라고 밝혔다.

박순원기자 ssun@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?