AI 범죄 막고 범죄 만들기도 하는 ‘모순의 두 얼굴’ [고평석의 인사이드아웃 AI]

고평석 (주)엑셈 대표 2025. 5. 17. 15:00
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

기술 진보의 이면에서 시험대 오른 인류의 윤리

(시사저널=고평석 (주)엑셈 대표)

중국 초나라에 한 상인이 있었다. 창과 방패를 함께 팔았는데 창을 팔면서는 어떤 방패도 뚫을 수 있다고 표현했고, 방패를 팔면서는 어떤 창도 막을 수 있다고 말했다. 이것을 지켜보던 한 사람이 물었다. "그 천하무적 창으로 단단한 방패를 찌르면 어떻게 됩니까?" 앞뒤 말이 안 맞는다는 것을 알게 된 상인이 슬그머니 짐을 싸서 자리를 옮겼다. 《한비자》에 나오는 '모순'의 유래다. 앞뒤가 맞지 않는 논리나 상황을 뜻하는 말이다. 

AI 시대의 진보된 기술도 모순 상황에 놓이고 있다. AI가 범죄 해결에 많은 도움을 주고 있지만, 한편에선 정반대 상황도 만들어가고 있다. 실제 많은 정부와 기업들이 다양한 AI 기술을 활용해 범죄율을 낮추거나 검거율을 높이고 있다. 그러나 급속한 AI 기술의 발달은 범죄를 고도화시킨다. 딥페이크를 통한 금융사기, 생성형 AI를 활용한 디지털 성범죄 등 예전 같으면 상상하기도 힘든 범죄들이 AI를 통해 일어난다. AI는 이런 모순적 상황에서 어떻게 자신의 역할을 찾아갈 수 있을까?   

ⓒChatGPT 생성이미지

악성 AI의 확산…기술 발전의 그림자

소프트웨어정책연구소(SPRi)의 올해 4월 보고서에 따르면 전 세계적으로 AI가 연루된 부정적 사건이 전년 대비 56.4% 정도 증가했다고 한다. 이렇게 AI 관련한 사건, 사고가 급증하는 추세인 데다 딥페이크 관련 성범죄 등 죄질이 좋지 않기 때문에 사회적으로 미치는 악영향이 큰 편이다. 작년 10월에는 외국인 부모가 한국을 여행 중이던 딸에게 납치되었으니 살려 달라며 울부짖는 영상을 받고 한국에 있는 영사관에 알려 한국 경찰이 즉각 출동한 결과 딸은 안전했고 딥페이크로 만든 가짜 영상이었다.  

이렇듯 AI가 사기 사건의 첨병 노릇을 하는 경우가 많아졌다. 피싱 이메일이나 딥페이크 사칭이 수시로 일어난다. 작년에는 AI로 회사 CEO 목소리를 위조해 회계 담당 직원에게 사기 계좌로 입금하도록 유도하는 사건도 벌어졌다. 

이뿐만이 아니다. AI는 콘텐츠 제작과 배포를 이전보다 훨씬 쉽고 편리하게 할 수 있도록 해준다. 허위의 내용을 대량으로 살포하면 문제의 심각성이 커진다. 특히 1~2주 내에 중요한 정치 리더를 뽑는 선거운동 기간에 후보의 이미지, 음성 등을 거짓으로 만들어 배포하는 것은 민주주의 제도 자체를 뒤틀어버리기 때문에 극히 조심해야 한다. 그러나 현실에선 이런 일들이 일어날 수밖에 없다. 

물론 AI는 사회에 올바른 영향을 미치며 범죄로부터 시민들을 지키는 역할을 해내고 있다. 시카고 경찰청은 범죄보고서, 체포기록, 번호판 이미지 등의 데이터를 분석해 특정 구역에서 일주일 내에 범죄가 발생할 가능성을 예측하는 시스템을 도입했다. 그리고 2016년 살인 사건이 급증한 이래 도입한 전략적 의사결정 지원 시스템(Strategic Decision Support System·SDSS)도 가동해 도입 3개월 만에 총격 피해자를 21%나 줄이는 성과를 거두기도 했다. 

우리나라도 범죄 예방을 위한 AI 기술 개발에 박차를 가하고 있다. 한국전자통신연구원은 범죄가 비슷한 패턴으로 반복된다는 것에 착안해 3만2000건의 CCTV 사건·사고 영상을 분석해 CCTV를 통해 AI가 범죄를 예측하는 기술을 작년에 개발한 바 있다. 특히 개인정보 보호 문제를 해결하기 위해 일반인의 얼굴은 화면에 나타나지 않는다. 범죄자로 등록된 얼굴만 화면에 드러난다. 이런 기술은 범죄 예측과 예방에 확실한 효과가 있을 것이다. 

AI 기술의 발달로 AI 범죄와 치안이란 상반된 두 가지가 모두 발전하고 있다. AI 기술의 부정적인 면을 줄이고 긍정적인 면을 극대화하기 위해선 결국 정부 정책과 시민 역할의 콜라보가 중요하다. 기술 발전 속도와 거의 비슷한 속도로 국가 차원에서 AI 범죄에 대한 규제 및 정책을 마련하고 있다. 미국은 2024년 8월에 '가짜 금지법(NO FAKES)'을 만들었다. 본인 동의 없이 딥페이크로 생성된 영상이나 음성에 대해 손해배상 청구가 가능하다. 유럽연합(EU)도 AI 법안을 2024년 5월에 만들었다. 각 플랫폼은 딥페이크 콘텐츠에 라벨을 붙이고 사용자가 이를 식별할 수 있도록 딥페이크 이미지에 워터마크 등을 해야 한다. 중국은 이들보다 더 빨리 대응했다. 2023년 1월에 AI 기반의 이미지, 오디오, 텍스트 생성 소프트웨어를 포함한 '딥 합성(deep synthesis)' 관리 규정을 통해 불법·유해한 정보를 생산, 복사, 출판 및 유포하거나, 신분을 위조해 명예를 훼손하는 등의 행위에 딥페이크 기술을 사용하는 것을 원천 금지했다.  

정부 정책과 규제 못지않게 시민과 AI의 역할이 중요하다. 치안이라는 공공의 목적을 달성하려면 시민들이 더욱 적극적으로 관심을 갖고 자원을 투입해야 한다. AI 치안 솔루션 개발과 발전을 위해 사용되는 빅데이터의 편향성 문제나 개인정보 침해 이슈는 시민의 적극적 참여로 해결 가능하기 때문이다. 이런 참여를 위해선 AI의 도움이 필수적이다. AI가 방대한 데이터를 분석하고 시민들의 의견을 수집·분석해 정책 결정 과정에 반영함으로써, 참여의 질과 효율성을 크게 높일 수 있다. 벨기에의 CitizenLab, 스페인의 Consul과 같은 플랫폼은 머신러닝(ML)과 자연어처리(NLP) 기술을 활용해 시민 의견을 효과적으로 수렴하고 집단지성을 이끌어낸다. 치안 역시 시민들이 체감하는 최적의 상태를 파악하고, 집단지성으로 해결책을 모색하는 과정이기 때문에 이러한 시민 참여 기반의 AI 플랫폼이 매우 중요하다. AI 기반 시민 참여 플랫폼은 신뢰와 투명성을 바탕으로 공공정책 결정의 민주성과 효율성을 높일 수 있다.

결국 정부 정책-시민-AI 역할의 콜라보가 중요

AI를 활용한 범죄 대응은 단순한 기술 경쟁을 넘어 인류의 윤리적 성숙도를 시험하는 무대가 되고 있다. AI 범죄를 억제하고 AI 치안에서 우위를 점하기 위해서는 정부 정책의 효과적인 대응과 시민들의 협력과 적극적인 참여의 콜라보가 필수적이다. 이러한 기반 위에서 AI 기술 발전의 속도가 AI 범죄의 진화를 앞설 때, 비로소 불안하지 않은 도시가 실현될 수 있다. 정부 정책과 시민 역할의 콜라보를 기대해 본다. 

Copyright © 시사저널. 무단전재 및 재배포 금지.