퀄컴, 메타와 스마트폰서 라마2 LLM 구현 `맞손`

김나인 2023. 7. 19. 14:35
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

퀄컴 테크날러지는 메타와 '라마2' 대형 언어 모델(LLM)을 온디바이스에서 실행할 수 있도록 최적화할 예정이라고 19일 밝혔다.

라마2와 같은 생성형 AI(인공지능) 모델을 스마트폰, PC, VR·AR 헤드셋, 차량 등의 온디바이스에서 실행해 개발자들은 클라우드 비용을 절감할 수 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

퀄컴 제공

퀄컴 테크날러지는 메타와 '라마2' 대형 언어 모델(LLM)을 온디바이스에서 실행할 수 있도록 최적화할 예정이라고 19일 밝혔다.

라마2와 같은 생성형 AI(인공지능) 모델을 스마트폰, PC, VR·AR 헤드셋, 차량 등의 온디바이스에서 실행해 개발자들은 클라우드 비용을 절감할 수 있다.

또 퀄컴의 고객과 파트너, 개발자들은 지능형 가상 비서 및 생산성 애플리케이션, 콘텐츠 제작 도구, 엔터테인먼트 등의 사용 사례를 구축할 수 있다. 스냅드래곤으로 구동되는 새 온디바이스 AI 경험은 인터넷 연결이 없는 곳에서나 비행기 모드에서도 사용 가능하다.

퀄컴은 내년부터 스냅드래곤 기반 단말기에 라마 2 기반 AI 구현이 가능하도록 지원할 예정이다. 개발자들은 퀄컴 AI 스택을 활용해 온디바이스 AI 애플리케이션을 최적화할 수 있다. 퀄컴 AI 스택은 스냅드래곤에서 AI를 더 효율적으로 처리해 얇고 가벼운 소형 기기에서도 온디바이스 AI 구현을 가능하게 하는 전용 도구 모음이다.

두르가 말라디 퀄컴 테크날러지 수석 부사장은 "생성형 AI의 효과적인 대중화를 위해서는 클라우드뿐만 아니라 스마트폰, 노트북, 차량, IoT 등과 같은 엣지 디바이스에서도 AI를 작동할 수 있어야 한다"고 말했다.김나인기자 silkni@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?