죽은 가족 목소리도 재현… 아마존 인공지능 논란

실리콘밸리/김성민 특파원 2022. 6. 24. 14:47
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

음성인식 ‘알렉사’로 1분 녹음만 있으면 돼… 윤리문제 범죄 우려
아마존 알렉사가 적용된 아마존의 스마트스피커 에코와 에코플러스. /AP 연합뉴스

아마존이 1분 미만의 음성 샘플만 있으면 특정인의 목소리를 그대로 복제해 재현하는 AI(인공지능) 기술을 내놨다. 죽은 사람 목소리도 재현이 가능해 윤리 문제와 각종 범죄에 활용될 가능성이 제기되며 논란이 되고 있다.

워싱턴포스트는 23일(현지 시각) 아마존이 미 라스베이거스에서 열린 ‘리마스 콘퍼런스’에서 AI 음성인식 서비스 ‘알렉사’를 통해 숨진 가족의 목소리를 되살리는 기능을 공개했다고 보도했다. 아마존은 한 어린이가 알렉사가 장착된 스마트 스피커에 돌아가신 할머니 목소리로 책을 읽어달라고 요청하자, 할머니의 생전 목소리가 흘러나오는 시연 동영상을 공개했다.

로히트 프라사드 아마존 수석부사장은 “AI가 가족을 잃은 고통을 없애주지는 못하지만, 그들에 대한 기억을 오래 지속시킬 수 있다”고 말했다. 아마존은 이 기능 도입 시기를 밝히지 않았다. 세계적으로 알렉사가 적용된 전자기기가 1억대 이상인 것을 감안하면, 아마존의 이번 조치는 목소리 재현 기술 대중화에 큰 영향을 미칠 것으로 보인다.

워싱턴포스트는 “이 기능이 윤리적 문제와 더불어 사망자의 개인정보 권한을 둘러싼 논란을 초래한다”고 했다. 죽은 사람의 목소리를 허락 없이 마음대로 되살려 생전 하지 않았던 말을 하도록 만드는 것이 윤리적으로 문제가 될 수 있다는 것이다. 온라인 보안업체 소셜프루프시큐리티의 레이철 토백 CEO는 “다른 사람의 목소리를 복제해 사기와 계정 도용, 데이터 탈취 등 범죄가 벌어질 수 있다”고 했다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?