"네 목소리 아니었어?" 가족도 속았다…AI 보이스피싱 공포
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
챗GPT와 같은 생성 인공지능(AI) 기술이 보이스피싱 등 범죄에 악용될 수도 있다는 주장이 나와 주의가 요구된다.
AI를 통해 특정인의 아바타를 만든 뒤 가족에게 접근하거나, 은행 계좌정보를 얻을 수도 있다는 것이다.
스턴은 음성 AI 스타트업 일레븐랩스의 프로그램으로 '음성 아바타'를 만든 뒤 가족을 대상으로 자신의 실제 목소리와 구분할 수 있는지 시험했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
WSJ 칼럼니스트 AI로 인물, 음성 복제해 실험
가족, 은행도 ‘목소리 아바타’ 구별 못해
챗GPT와 같은 생성 인공지능(AI) 기술이 보이스피싱 등 범죄에 악용될 수도 있다는 주장이 나와 주의가 요구된다. AI를 통해 특정인의 아바타를 만든 뒤 가족에게 접근하거나, 은행 계좌정보를 얻을 수도 있다는 것이다.
30일 관련 업계에 따르면 미국 월스트리트저널(WSJ)의 IT 칼럼니스트 조안나 스턴은 지난 28일(현지시간) “AI로 자신을 복제했는데 은행과 가족이 속았다”는 내용의 칼럼 게재했다.
스턴은 음성 AI 스타트업 일레븐랩스의 프로그램으로 ‘음성 아바타’를 만든 뒤 가족을 대상으로 자신의 실제 목소리와 구분할 수 있는지 시험했다. 그의 여동생은 AI로 생성된 목소리가 호흡을 위해 대화 중 멈추지 않는 점을 제외하면 진짜와 매우 흡사하다는 반응을 보였다. 스턴의 아버지는 사회보장번호를 묻는 AI 음성이 스턴 본인의 목소리가 아니라고 눈치채지 못했다.
스턴은 이 음성 아바타로 미국 대형은행의 신용카드 관련 고객서비스도 이용해봤다. 그 결과 개인 목소리를 구분하는 생체인식 시스템을 손쉽게 통과할 수 있었다. 자동응답시스템이 AI 음성을 스턴 본인의 목소리로 인식해 직원에게 연결해줬다는 것이다.
스턴은 이와 함께 영국 런던의 AI 스타트업 신세시아의 프로그램을 활용해 아바타도 만들었다. 그리고 아바타에 챗GPT로 생성한 대사를 입력해 자신 대신 동영상 공유 사이트나 화상회의에 출연시켰다. 그 결과 화상회의에선 지나치게 곧은 자세와 위트 부족으로 진짜 사람이 아니란 사실이 곧장 들통났다. 다만 상호작용이 상대적으로 적은 동영상 공유 사이트에선 비교적 쉽게 들키지 않았다고 그는 밝혔다.
스턴은 “신세시아 프로그램과 일레븐랩스 프로그램 모두 AI 아바타가 살해 위협을 비롯한 비윤리적이거나 문제가 될 수 있는 내용을 제한하지 않는다고”며 “실제 사람과 구분되지 않는 AI 아바타가 우후죽순 생겨나 온라인 세상을 더욱 혼탁하게 만들 위험성이 있다”고 경고했다.
최진석 기자 iskra@hankyung.com
▶ 해외투자 '한경 글로벌마켓'과 함께하세요
▶ 한국경제신문과 WSJ, 모바일한경으로 보세요
Copyright © 한국경제. 무단전재 및 재배포 금지.
- 이서진이 왜 거기서 나와?…尹 대통령 "어떻게 오셨냐"
- '백종원 도시락' 인기 끌더니…이번엔 '2900원' 승부수 [송영찬의 신통유통]
- "비밀로 해달라"…스페인 식당 '미스터리' 예약자 알고 보니
- "한국인 직원 찾아요" 해외서 러브콜…'이 직업'에 몰렸다 [곽용희의 인사노무노트]
- 결혼식 하객들이 총격전…태국서 2명 사망, 2명 부상
- '미담 제조기' 임영웅, 군대 후임이 전한 미담 화제
- 서세원 유해 열흘 만에 고국으로…"피 토하는 심정으로 현지 화장"
- 쉰 목소리에 검사했다가 '깜짝'…이혜영 "2주간 말 못 해" [건강!톡]
- 신동엽, AV배우 만났다가…'동물농장' 이어 '놀토'까지 하차 요구
- 40일 된 아기 떨어뜨리고 방치해 사망…친모 "죄송하다" 눈물