스마트폰 중독은 약과?...“가상공간 음란행위까지 걱정할 때”

이새봄 기자(cestbon@mk.co.kr) 2023. 1. 1. 18:39
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

‘디지털 역기능’의 공포 엄습
해킹·딥페이크 등 부작용 심각
AI가 가족 흉내내 보이스피싱
배우 얼굴 합성해 음란물 유포
지난해 3월 우크라이나 대통령 볼로도미르 젤렌스키 대통령이 연단에 서서 우크라이나 인들과 군인들을 향해 ‘러시아와의 전쟁에서 무기를 내려놓으라’고 말하는 모습이 담긴 영상이 유튜브, 페이스북 등 SNS를 통해 순식간에 전 세계로 퍼져나갔다.

하지만 이후 젤렌스키 대통령은 자신의 SNS를 통해 해당 영상이 조작되었다고 밝혔다. 사실 이 영상은 인공지능(AI)으로 얼굴과 음성을 합성한 ‘딥페이크’였다.

젤렌스키 대통령의 영상은 러시아와 우크라이나간 전쟁이 오히려 전 세계의 관심을 받고 있었기 때문에 다행히도 큰 문제로 번지지 않은 채 신속하게 온라인에서 사라졌다. 유튜브와 페이스북은 관련 영상이 각 사의 미디어 규정을 위반한 것으로 판단해 삭제했다고 밝혔다.

하지만 비슷한 상황이 보이스피싱 사회의 감시망을 피해 개인에게 일어난다면 어떨까.실제 미국과 유럽에서는 할리우드 배우 등 유명인의 얼굴을 합성한 포르노 영상이 번지다가, 최근에는 일반인까지 대상이 되면서 더 큰 사회적 문제가 되고 있다. 자신이 찍지 않은 포르노 동영상의 주인공이 된 피해자에게 이를 지인에게 유포하겠다고 협박하며 금품을 갈취하는 범죄가 빈번하게 발생하고 있는 것이다.

AI 기술의 발달로 1분 이하의 짧은 샘플만 있다면 세상을 떠난 그리운 가족의 목소리를 재현해 낼 수 있는 시대가 됐지만 이를 악용한 범죄 가능성도 커지고 있다. 보이스피싱에 이 기술이 적용된다면 피해가 더 커진다. 실제 자녀의 목소리를 재현한 AI 음성으로 누군가가 전화해 ‘급하게 돈이 필요하다’고 말을 하며 계좌이체를 요구했을 경우에는 기존 보이스피싱 수법에 비해 피해자가 실제 자금을 이체할 확률이 훨씬 높아진다. 머지 않은 미래에는 화상통화를 통한 보이스피싱도 가능해 질 수 있다.

김문구 한국전자통신연구원(ETRI) 책임연구원(박사)은 “약 3년~5년 후 ‘범용 인공지능시대’가 오면 약 3분의 통화 녹음으로도 누구나 쉽게 목소리를 카피할 수 있는 시대가 온다”며 “기술이 발전할수록 실체와 거짓을 판별하기 어려워지는 것”이라고 말했다.

디지털 기술이 발달하면서 인류의 삶이 편리해졌지만 이면에는 이로 인한 범죄 등을 비롯한 각종 부작용이 발생하고 있다. 기술 발달의 속도가 빨라질수록 부작용으로 인한 피해 역시 가파르게 증가한다. 이를 ‘디지털 역기능’이라고 부른다.

디지털 활용 기술의 특징인 익명성과 가상성, 접근용이성,모방성, 경로의존성은 디지털 기술의 악용을 더욱 가속화 시키고 있다. 앞서 사례로 언급한 딥페이크 뿐만 아니라 게임중독, 사이버 폭력, 디지털 격차로 인해 발생하는 문제, 디지털 치매, 디지털 테러 등도 디지털 역기능에 포함된다.

박종현 ETRI 박사는 “수년 전 미국 10대 청소년이 권총을 장착한 드론을 띄워 총을 발표하면서 사회적 논란이 된 적이 있다”며 “기술 발달로 해킹을 통해 상대방의 드론 경로를 바꾸고 특정인의 머리 위에서 갑자기 추락하게 만드는 ‘디지털 테러’도 손쉽게 벌일 수 있는 세상이 됐다”고 경고했다.

실제 한국과학기술기획평가원(KISTEP)이 지난해 7월 국내 디지털 역기능 전문가 32인을 심층 설문조사한 결과 전문가들은 디지털 역기능의 심각성 수준이 현재 10점 만점의 6.8점으로 매우 높은 수준이라고 우려했다. 이들은 향후에 이 심각성이 58% 이상 증가할 것이라고 내다봤다. 또한 미래 디지털 역기능에 가장 큰 영향을 미칠 기술로는 AI(50%)가 꼽혔으며 메타버스(21.9%), 블록체인(15.6%), 지능형 로봇(12.5%) 순으로 나타났다.

과학자들이 AI기술을 가장 우려하는 이유는 AI기술이 빠르게 진화하면서 인간과 유사한 수준으로 자연스러운 대화와 이미지 생산이 가능해지고 있지만, 이로인해 보다 정교한 수준의 허위정보 생산과 편향성을 유발하는 문제점을 유발하고 있기 때문이다.

2022년 존스홉킨스대와 조지아공과대, 워싱턴대학은 공동연구를 통해 AI모델 중 하나인 CLIP를 바탕으로 설계된 로봇이 인간의 얼굴을 보고 이 중 범죄자를 구분하도록 지시받았을 때, 백인 남성보다 흑인 남성을 범죄자로 분류할 확률이 10% 더 높다는 사실을 확인했다. 가정주부를 구분하라는 명령을 받았을 때는 백인 남성보다는 유색인종 여성을 선택할 확률이 높다는 점도 발견했다.

컴퓨터 성능이 개선되고 AI가 모델이 발전하면서 AI가 인터넷 상의 방대한 자료를 학습하는 과정에서 왜곡된 정보나 편견, 잘못된 정보까지도 습득하는 문제가 생기는 게 주요 원인이다.

디지털 역기능에 대한 문제와 피해가 커지면서 기업과 과학자들은 디지털 기술 성장에 따른 부작용을 최소화 하기 위한 고민을 계속 하고 있다.실제 마이크로소프트(MS)는 자사의 안면인식 소프트웨어 기반의 AI가 흑인을 백인보다 무례하다는 식으로 해석하는 점을 포착하고 2022년 6월 안면인식기술에서 감정 인식 기능을 제거하겠다고 발표했다. 감정 인식 기술은 소프트웨어를 활용해 얼굴 표정, 목소리 톤 또는 단어 선택과 같은 여러 가지 특성을 살펴본 후 인간의 감정 상태를 자동으로 감지하는 기술이다. MS는 이 기술이 인간의 인권 침해와 차별 등을 비롯한 디지털 역기능을 유발한다는 판단에 위와 같은 결정을 내렸다.

KAIST는 2022년 초 AI 모델 학습데이터의 편향성을 분석·탐지·완화·제거하는 ‘MAF 2022’를 개발했다. 데이터 학습 과정에서 편향된 데이터를 학습하고 있는 것은 아닌지, 개발한 AI가 사용되는 분야에 맞춰 공정한 결과를 내는지를 분석하고 조치하는 역할을 하는 시스템이다.

지난해 11월에는 인텔이 딥페이크 여부를 판단하는 ‘페이크캣처(FakeCatcher)’라는 도구를 출시했다. 페이크캣처는 사람의 얼굴에서 혈류를 탐지하는 기술을 활용해 딥페이크 영상을 판별한다. 심장이 수축하면서 피를 내보낼때 정맥의 색깔이 바뀌는 현상을 활용했다. 육안으로는 파악이 어렵지만 살아있는 조직의 혈관에 빛이 흡수되거나 반사되는 양을 측정하면 이 변화를 감지할 수 있다. 페이크캣처는 이러한 혈류 신호를 영상 속 얼굴에서 수집하고, 심층학습을 통해 동영상의 진위를 감지한다.

ETRI의 경우 AI기술을 활용해 온라인 상의 유해 콘텐츠를 분석하는 기술을 지난 21년 9월에 개발했다. AI가 등록된 키워드로 웹페이지들을 검색하고 웹페이지의 텍스트, 이미지 등 게시물을 분석해 유해성을 검출한다.이들은 두달에 걸친 시범운영을 통해 영상물의 검색 키워드·섬네일 이미지·주소(URL) 등을 활용해 모두 1만8945건의 웹사이트를 자동 수집했고, 이 가운데 유해 사이트로 판별된 2631개 웹사이트를 걸러내는 데 성공했다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?