인텔, 500개 AI 모델 코어 울트라에 최적화

권봉석 기자 2024. 5. 2. 10:48
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인텔은 2일 500개 이상의 AI 모델을 코어 울트라 프로세서용으로 최적화했다고 밝혔다.

코어 울트라 프로세서는 CPU와 아크 GPU 이외에 저전력·상시 AI 처리를 돕는 NPU(신경망처리장치)를 포함했다.

로버트 헐록 인텔 클라이언트 컴퓨팅 그룹 AI 총괄은 "인텔 코어 울트라 프로세서에 최적화된 AI 모델 500개 돌파는 AI 개발자에 강력한 개발 도구, AI 소프트웨어 이용자에 신뢰를 주겠다는 인텔의 의도를 반영한 것"이라고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈비노 프레임워크로 라마·스테이블 디퓨전 등 오픈소스 모델 최적 성능 구현

(지디넷코리아=권봉석 기자)인텔은 2일 500개 이상의 AI 모델을 코어 울트라 프로세서용으로 최적화했다고 밝혔다.

코어 울트라 프로세서는 CPU와 아크 GPU 이외에 저전력·상시 AI 처리를 돕는 NPU(신경망처리장치)를 포함했다. 이를 탑재한 PC는 지난 해 12월 이후 현재까지 500만 대 이상 출하됐다.

인텔이 최적화한 500개 AI 모델은 오픈비노 모델주, 허깅페이스, ONNX 모델주, 파이토치 등 온라인 라이브러리를 통해 쉽게 도입할 수 있다.

인텔 코어 울트라 탑재 노트북. (사진=지디넷코리아)

미스트랄, 라마, 스테이블 디퓨전 1.5 등 주요 오픈소스 모델을 포함해 거대언어모델(LLM), 스테이블 디퓨전, 해상도 향상, 사물 인식, 사진 분류 등이 CPU와 GPU, NPU 등 코어 울트라 프로세서 내 자원을 활용해 구동된다.

인텔은 AI 모델 최적화에 CPU와 GPU, NPU를 모두 구동할 수 있는 오픈소스 AI 프레임워크인 오픈비노(OpenVINO)를 활용하고 있다.

오픈비노는 CPU와 GPU, NPU 등 모든 연산 자원을 고르게 활용하고 AI PC에서 효율적으로 각종 모델이 구동되도록 이를 압축하며 메모리 대역폭을 최대한 활용할 수 있도록 최적화하는 역할을 수행한다.

인텔이 현재 진행하는 전세계 중소규모 개발자 대상 지원 프로그램. (사진=인텔)

인텔은 지난 해 10월부터 AI 소프트웨어 확대를 위해 주요 소프트웨어 개발사, 개인 개발자나 스타트업 지원을 확대하고 있다. 또 최근 메타가 공개한 LLM인 라마3(Llama 3) 지원도 발표했다.

로버트 헐록 인텔 클라이언트 컴퓨팅 그룹 AI 총괄은 "인텔 코어 울트라 프로세서에 최적화된 AI 모델 500개 돌파는 AI 개발자에 강력한 개발 도구, AI 소프트웨어 이용자에 신뢰를 주겠다는 인텔의 의도를 반영한 것"이라고 밝혔다.

권봉석 기자(bskwon@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?