퀄컴 "메타 라마3 PC·스마트폰·차량서 구동 지원"
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
퀄컴은 19일 메타가 공개한 LLM(거대언어모델)인 라마3(Llama 3)를 스마트폰과 PC, VR/AR 헤드셋과 차량 등에서 직접 구동할 수 있도록 지원한다고 밝혔다.
퀄컴은 현재 100개 이상의 최적화 AI 모델을 지원하는 퀄컴 AI 허브를 통해 스냅드래곤 플랫폼에서 라마3를 구동하는 데 필요한 개발툴과 자원 등을 제공할 예정이다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
(지디넷코리아=권봉석 기자)퀄컴은 19일 메타가 공개한 LLM(거대언어모델)인 라마3(Llama 3)를 스마트폰과 PC, VR/AR 헤드셋과 차량 등에서 직접 구동할 수 있도록 지원한다고 밝혔다.
메타가 공개한 라마3는 오픈소스 생성 AI 모델이며 데이터셋 중 비영어권 데이터 비중을 5%까지 높였다. 현재 매개변수 80억 개, 700억 개 버전이 선 공개됐다. 매개변수 4천억 개 버전은 현재 데이터셋 훈련중이다.
퀄컴은 지난 해 7월 라마2 최적화 지원에 이어 라마3 역시 스냅드래곤 기반 기기에 최적화 예정이다. 스냅드래곤 내장 퀄컴 AI 엔진을 활용한 직접 구동으로 응답 속도 향상, 프라이버시 보호, 개인화 경험을 기대할 수 있다.
두르가 말라디 퀄컴 기술, 기획 및 엣지 솔루션 부문 본부장은 "라마3를 이용해 개발자를 지원하고 AI 혁신을 촉진하는 메타의 개방형 접근에 뜻을 같이 한다"고 밝혔다.
이어 "퀄컴은 엣지에 위치하는 다양한 기기 접근성과 함께 온디바이스 AI 분야 리더십을 통해 라마 생태계를 넓히고, 고객과 협력사와 개발자가 혁신적인 AI 경험을 얻도록 할 것"이라고 덧붙였다.
퀄컴은 현재 100개 이상의 최적화 AI 모델을 지원하는 퀄컴 AI 허브를 통해 스냅드래곤 플랫폼에서 라마3를 구동하는 데 필요한 개발툴과 자원 등을 제공할 예정이다.
권봉석 기자(bskwon@zdnet.co.kr)
Copyright © 지디넷코리아. 무단전재 및 재배포 금지.
- 메타, '라마3' 전용 AI인프라 공개...GPU만 4만9천개
- 퀄컴, '임베디드 월드 2024'서 신규 네트워크·IoT 플랫폼 소개
- 퀄컴, 'DX 서밋 코리아' 국내 첫 개최
- "엔비디아에 대항"…인텔·퀄컴·구글, AI연합 추진
- "규제개혁 기대 못미쳐, 소통 개선은 긍정적"…핀테크 B-학점
- 삼성전자 HBM3E '공급 난항설'…좀더 지켜봐야 하는 이유
- '배민클럽' 시동...배달앱 1등 지위 더 굳힐까
- SK하이닉스, 美 빅테크 기업에 HBM 공급 속도낸다
- "日 정부는 결정했다...네이버가 행정지도 안 따르면 100% 보복"
- [유미's 픽] "난 빅스비와 사랑에 빠질까?"…감정 읽는 AI 비서, 빅테크 新 격전지됐다