IBM, 텔럼2 칩셋에 부착하는 '스파이어'로 AI 가속기 시장 공략
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
생성형 인공지능(AI)이 실용 단계로 접어든 가운데 AI와 대규모언어모델(LLM)의 빠른 연산을 제공하기 위해 IBM이 새로운 칩셋과 가속기를 발표했다.
티나 타르퀴니오 IBM Z 제품 관리 담당 부사장은 "강력한 로드맵을 통해 증가하는 AI 수요를 비롯한 기술 트렌드에서 앞서 나갈 수 있는 기반을 마련했다"며 "텔럼 2 프로세서와 스파이어 엑셀러레이터는 고성능, 보안, 전력 효율성이 우수한 엔터프라이즈 컴퓨팅 솔루션을 제공해 고객이 LLM과 생성형 AI를 대규모로 활용할 수 있게 할 것"이라고 말했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
(지디넷코리아=양정민 기자)생성형 인공지능(AI)이 실용 단계로 접어든 가운데 AI와 대규모언어모델(LLM)의 빠른 연산을 제공하기 위해 IBM이 새로운 칩셋과 가속기를 발표했다.
IBM은 반도체 학회 '핫칩스 2024'에서 메인프레임 칩셋 '텔럼 2' 프로세서와 '스파이어' 인공지능(AI) 가속기를 공개했다고 27일 밝혔다.
이번 공개된 텔럼 2 프로세서는 차세대 IBM Z 시스템에 구동되도록 1세대 텔럼 칩에 비해 클록·메모리 용량 증가, 데이터 처리에 일관성을 제공하는 부속 데이터 처리 장치(DPU)가 특징이다.
또 이 제품은 5.5기가헤르츠(GHz)로 실행되는 8개의 고성능 코어 및 기존 대비 약 40% 증가한 360메가바이트(MB) 용량의 온칩 캐시 용량도 가지고 있다.
동시에 발표된 스파이어 엑셀러레이터는 텔럼 2 프로세스를 보완하기 위해 추가적인 AI 연산 능력을 제공한다.
이번에 공개된 스파이어는 신규 모델로 텔럼2와 함께 작동해 여러 개의 머신 러닝 AI 모델을 인코더 LLM과 결합할 수 있다. 각 칩은 지연 시간이 짧고 대규모 처리가 필요한 AI 애플리케이션을 위해 인트4, 인트8, 에프피8 및 에프피16 데이터 유형을 지원하는 32개의 컴퓨팅 코어를 가질 전망이다.
티나 타르퀴니오 IBM Z 제품 관리 담당 부사장은 "강력한 로드맵을 통해 증가하는 AI 수요를 비롯한 기술 트렌드에서 앞서 나갈 수 있는 기반을 마련했다"며 "텔럼 2 프로세서와 스파이어 엑셀러레이터는 고성능, 보안, 전력 효율성이 우수한 엔터프라이즈 컴퓨팅 솔루션을 제공해 고객이 LLM과 생성형 AI를 대규모로 활용할 수 있게 할 것"이라고 말했다.
양정민 기자(philip@zdnet.co.kr)
Copyright © 지디넷코리아. 무단전재 및 재배포 금지.
- '테니스 전설' 머레이 경기 일정 한 눈에…윔블던 2024, IBM '생성형 AI' 활용
- IBM "글로벌 CEO, AI 경쟁 속 고위험·고수익 경영 추구”
- IBM, 하나캐피탈 이중화·재해 복구 스토리지 구축
- IBM "ERP 기반 지속가능 경영 기업, 수익 더 크다”
- "트럼프 인수위, 전기차 보조금 폐지"…이차전지주 급락
- 장재훈 현대차 사장, 부회장 승진…호세 무뇨스 첫 외국인 사장 선임
- '9만 비트코인', 하루만에 8만8천 달러 붕괴…왜?
- 배달앱 수수료 7.8%로 인하...'배민 상생안' 극적 합의
- 주52시간 예외·직접 보조금...韓·日, 반도체법 재추진
- 아파트 주차장서 또 벤츠 전기차 화재…이번엔 국내산 배터리