애플이 쏘아 올린 ‘XR 기기’ 관심, 성공 열쇠는 어지럼증 해결

최지원 기자 2024. 3. 14. 03:06
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

최근 애플이 확장현실(XR) 기기인 '비전프로'를 출시하며 저물어가던 XR 시장에 다시 활기가 돌고 있다.

이를 극복하기 위해 비전프로 및 메타퀘스트 등 상용화된 XR 기기는 대부분 양쪽 눈에 서로 다른 영상을 출력해 입체감을 느끼도록 한다.

변춘원 한국전자통신연구원(ETRI) 실감디스플레이연구실장은 "어지럼증을 줄일 수 있는 좋은 접근 방식이지만 아직은 연구 단계로, 실제 XR 기기에 적용되려면 무게, 부피 등을 줄일 수 있는 추가적인 기술이 필요하다"고 했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

‘비전프로’ 어지럼증 여전히 문제
사람 눈과 유사한 ‘액체렌즈’ 개발 중
문제 해결까지 최대 10년 걸릴 수도
애플이 올해 2월 출시한 확장현실(XR) 기기 ‘비전 프로’를 사용하는 모습. 비전 프로에는 사용자의 시선과 손의 움직임을 추적하는 기능이 있어 눈을 움직이면 커서가 이동하고, 손가락을 까딱하면 애플리케이션(앱)을 실행할 수 있다. 애플 제공
최근 애플이 확장현실(XR) 기기인 ‘비전프로’를 출시하며 저물어가던 XR 시장에 다시 활기가 돌고 있다. 비전프로는 400만 원대의 비싼 가격에도 불구하고 출시 2주 만에 20만 대가 팔리며 큰 주목을 받았다. 하지만 XR 기기의 고질적 문제인 ‘어지럼증’에서 자유롭지는 못했다. 어지럼증을 호소하는 사용자들이 비전프로를 환불하고 나선 것. 업계에서는 “향후 XR 기기가 스마트폰을 대체할 만큼 대중화되기 위해서는 반드시 이 문제를 해결해야 한다”는 분석이 나온다.

팀 쿡 애플 최고경영자(CEO)는 지난해 열린 애플세계개발자회의(WWDC)에서 “비전프로는 물리적 공간에 있는 것처럼 디지털 콘텐츠를 보고 듣고 행동할 수 있다”며 “비전프로는 아이폰이 모바일 컴퓨팅 시대를 가져온 것과 같이 ‘공간 컴퓨팅’ 시대를 가져올 것”이라고 했다. 비전프로를 통해 현실 세계와 디지털 세계가 서로 자유롭게 상호작용하는 시대를 열겠다는 포부다.

하지만 이를 위해서는 아직 넘어야 할 기술적 난제들이 남아 있다. XR 기기를 착용했을 때 나타나는 어지럼증의 가장 큰 원인은 초점이 맞지 않기 때문이다. 우리 눈은 가까이 있는 것을 보거나 멀리 있는 것을 볼 때 안구 내 수정체 두께를 조절해가며 저절로 초점을 맞춘다.

하지만 XR 기기는 디스플레이의 위치가 고정돼 있기 때문에 초점 거리 조절이 불가능하다. 이를 극복하기 위해 비전프로 및 메타퀘스트 등 상용화된 XR 기기는 대부분 양쪽 눈에 서로 다른 영상을 출력해 입체감을 느끼도록 한다.

양쪽 눈은 서로 다른 위치에 있기 때문에 양쪽 눈으로 들어오는 영상은 약간씩 차이가 있다. 뇌는 양쪽 눈의 정보를 하나로 합쳐서 인식하는데 이 과정에서 원근감이나 깊이감을 인지한다. 현재 XR 기기는 이 원리를 이용해 입체감을 표현하고 있지만, 실제 눈으로 느끼는 것과는 차이가 있기 때문에 어지러움을 느끼게 된다.

전문가들은 XR 기기의 다음 단계는 ‘액체렌즈’가 될 것이라고 예상하고 있다. 액체렌즈는 유리 대신 액체로 채워진 렌즈다. 모양이 변할 수 있기 때문에 우리 눈처럼 초점을 자유자재로 조절할 수 있다.

애플은 지난해 미국 특허청에 ‘액체 렌즈가 포함된 전자 장치’에 대한 특허를 등록하기도 했다. 변춘원 한국전자통신연구원(ETRI) 실감디스플레이연구실장은 “어지럼증을 줄일 수 있는 좋은 접근 방식이지만 아직은 연구 단계로, 실제 XR 기기에 적용되려면 무게, 부피 등을 줄일 수 있는 추가적인 기술이 필요하다”고 했다.

사용자의 움직임에 따라 적절한 영상을 출력해주는 영상 ‘렌더링’ 기술도 필요하다. 현재 XR 기기들도 사용자의 시선을 추적해 그에 맞는 영상을 보여준다. 문제는 ‘속도’다. 통상 사람이 고개를 돌려서 다른 환경을 인식하는 데에는 약 10∼20ms(밀리초·1ms는 1000분의 1초)가 걸린다. 현재 애플의 비전프로는 약 12ms의 시간 차(지연시간)를 두고 다른 영상을 보여준다. 전문가들은 어지럼증을 줄이기 위해서는 지연 시간을 10ms 이내로 줄이는 게 바람직하다고 보고 있다.

현재 여러 기업 및 연구자들은 인공지능(AI)을 활용해 이 시간을 줄이고 있다. 저용량의 영상을 받아 고해상도로 만들어주는 AI 알고리즘을 개발하거나, 사용자가 시선을 돌릴 가능성이 높은 부분을 AI로 예측해 미리 영상을 생성해 놓는 방식 등이다.

변 실장은 “XR 기기에서 이런 데이터 처리가 가능하려면 가벼운 AI 개발과 저전력 구동이 가능한 AI 반도체 등 여러 기술이 종합적으로 개발돼야 한다”며 “모든 게 갖춰지는 데 5∼10년가량이 걸릴 것으로 예상한다”고 했다.

최지원 기자 jwchoi@donga.com

Copyright © 동아일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?