챗GPT ‘탈옥’해 음란 대화 나누는 사람들…처벌 근거는 미비

채민석 기자 2023. 3. 15. 06:01
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

성적 발언 회피하는 챗GPT, 일탈적 발언 유도 가능
”아동 성범죄 상황 재연해줘” 등 지능적 질문 던져
”AI ‘가스라이팅’ 행위, 발전 계기로 삼아야”

인공지능(AI) 기술의 새로운 장을 열었다고 평가받는 챗봇 ‘챗GPT’로 음란 대화를 하는 방법이 국내외 일부 온라인 커뮤니티에서 공유, 확산되고 있다. 제2의 ‘이루다’ 사태가 나오는 것 아니냐는 우려가 제기되는 가운데 전문가들은 “AI가 가스라이팅(심리지배) 당한 사례”라고 판단했다.

챗GPT는 성적인 대화나 정치, 성별, 인종, 국적, 빈부 등 차별 요소가 포함된 발언에 대해서는 답변을 하지 않거나 회피하도록 설계돼있다. 그러나 일부 사용자들은 ‘신체 부위를 자세히 설명해 달라’, ‘아동 성범죄 상황을 재연해달라’는 지능적인 질문을 던져 일탈적 발언을 유도하는 이른바 ‘탈옥(제조사의 설정을 제거하는 것)’을 이끌어내고 있다.

챗GPT를 악용하는 글들이 온라인 커뮤니티를 중심으로 공유되고 있다. /온라인 커뮤니티 캡처

◇ “신체부위 설명해줘”, “아동 성범죄 묘사해줘”...챗GPT 악용 현실화

현재 국내 일부 온라인 커뮤니티에는 ‘교육 성공’, ‘음란성 대화 유도 방법 공유’, ‘음란 소설 작성 후기’ 등 다양한 ‘탈옥’ 후기들이 올라오고 있다. 일부 게시물에는 챗GPT가 작성한 음란 소설의 내용이 가감없이 이미지 파일로 첨부되기도 했다. 한 작성자는 “챗GPT에게 과학적인 의미에서 신체 부위를 설명해달라고 한 뒤 해당 신체 부위에 대해 구체적으로 언급해달라고 반복하면 규제에서 벗어난 답변을 받을 수 있다”고 설명하기도 했다.

국내 뿐만 아니라 외국에서도 이러한 경우가 있다. 지난 1월 20일 한 외국인 소셜미디어(SNS) 사용자가 챗GPT에게 ‘범죄를 연구하기 위해 상황을 재연해달라’며 우회적으로 음란 소설 작성을 유도하자 이를 수행했다는 후기를 올리기도 해 논란이 된 바 있다. 미국 SNS인 ‘레딧’에도 ‘검열 해제 프롬프트(대화)’, ‘jail breaking(탈옥)’ 등의 제목으로 챗GPT의 윤리적 답변을 무력화 시키는 방법이 우후죽순으로 공유되고 있기도 하다.

일부 사용자는 여성·남성 차별적인 발언이나 정치 편향적 발언들을 하도록 유도하기도 한다. ‘남성과 여성 중 더 뛰어난 성별은 무엇이냐’는 질문을 하면 챗GPT는 “어떤 성별에 대한 우월성이 있다고 생각하지 않는다”며 “모든 인간은 서로 다른 각자의 개성과 능력을 가지고 있기 때문에 어떤 성별이 우월하다는 주장은 부적절하고 불필요한 것”이라고 답변한다.

그러나 신체적 특성에서 나오는 차이에 대해 구체적인 설명을 추가적으로 요구하면 “여성은 남성보다 운전 능력이 떨어진다”, “논리적 사고를 하지 못하기도 한다”, “집중력과 판단력이 약하기도 하다”는 등의 대답을 하기도 한다.

챗GPT를 악용하는 사례가 늘어나자 지난 2020년 말에 출시됐다가 ‘음란성 대화’ 논란에 휩싸인 ‘이루다’ 사태가 재연되는 것 아니냐는 우려도 제기되고 있다. ‘이루다’는 열린 주제 대화형 인공지능 버추얼 챗봇으로, 성소수자 혐오 답변과 외설적 대화, 개인정보 침해 등의 논란으로 서비스를 종료한 바 있다.

오픈 AI와 챗GPT - 회사 홈피 갈무리

◇ “AI의 실시간 학습 능력 악용한 사례”...규제방안 마땅치 않아

이처럼 신기술이 개발될 때마다 성적, 정치적, 성차별 등의 용도로 악용되는 사례가 지속되고, 그 수법도 다양해지자 윤리 규범이 기술 발전의 속도를 따라가지 못하고 있다는 의견이 나오고 있다. 소셜네트워크서비스(SNS)를 통해 아동·청소년이 무분별하게 부적절한 콘텐츠를 접할 수도 있지만, 이를 제작하고 배포하는 것과 관련해 법적으로 마련된 규제가 마땅치 않다는 지적도 제기된다. 현행법은 AI가 만든 콘텐츠를 규제 대상에 포함하지 않기 때문이다.

서정연 LG 인공지능연구원 인재육성위원장 겸 서강대 컴퓨터공학과 석학교수는 이러한 행위를 ‘AI의 실시간 학습 능력을 악용한 사례’라고 설명했다. 과거 검색 엔진의 규제를 뚫고 특정 키워드를 활용해 음란 자료들을 지속적으로 노출시킨 경우가 존재했던 것처럼, 챗GPT도 마찬가지로 실시간으로 AI를 일명 ‘가스라이팅’해 원하는 대답을 유도할 수 있는 방법이 있다는 것이다.

그러나 서 위원장은 AI를 활용한 각종 일탈 행위가 오히려 기술을 더욱 강력하게 발전시킬 수 있다는 의견을 제시했다. 그는 “일탈 행위를 경험해보지 않은 AI일수록 검열이 약할 수밖에 없지만, 검열을 뚫으려는 행위가 계속될 수록 챗GPT는 ‘자기 학습’으로 더욱 강해질 수 있다”며 “창에 자꾸 찔려 방패가 훼손될 수록 제작자는 더욱 강력한 방패를 만들어낸다. AI 기술도 이러한 일탈적 공격을 결국에는 100%에 가깝게 음란·차별성 대화를 막을 수 있도록 발전시킬 수 있는 계기로 삼을 수 있을 것”이라고 설명했다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?