[기자24시] 챗GPT에 드리워진 두 얼굴

김대은 기자(dan@mk.co.kr) 2023. 2. 2. 17:24
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

'챗GPT로 월 400만원 벌기'.

최근 국내외 인터넷상에는 이 같은 글이 회자되고 있다. 인공지능(AI)을 이용해 대량으로 콘텐츠를 만들어 부수입을 올릴 수 있다는 게 골자다. 적당한 연예인 이름을 소재로 한 글을 챗GPT에 써달라고 한 뒤, 글자를 음성으로 변환해주는 무료 AI 서비스를 덧대어 유튜브를 제작하는 방식이다. 이 때문에 벌써부터 사람들을 현혹하는 여론조작에 챗GPT가 악용될 위험성이 거론되고 있다. 과거 여론조작은 사람이 직접 댓글을 쓴 탓에 시간과 비용이 많이 들었고, 똑같은 내용을 복사·붙여넣기 하는 방식이었다. 그런데 AI는 사람처럼 자연스러운 댓글을 짧은 시간 안에 수만 개씩 양산할 수 있어 훨씬 파괴적인 영향력으로 여론조작에 쓰일 수 있는 것이다.

이처럼 AI가 가짜뉴스를 확산시킬 것이라는 비판이 나오자 챗GPT 개발사 오픈AI는 최근 'AI 글 판별기'를 출시했다. 이는 어떤 글이 인간이 쓴 것인지, AI가 쓴 것인지를 판별하는 기능이 있다. 하지만 이러한 방식으로 AI가 생산해내는 가짜뉴스를 잡아낼 수 있을지는 미지수다. 정확도가 26%에 불과해 그냥 찍어 맞히는 절반의 확률 수준에도 못 미치기 때문이다.

또 이 판별기의 원리는 AI가 쓴 글과 인간이 쓴 글을 비교해 어느 쪽에 가까운지를 따져보는 방식이다. 그런데 AI가 쓴 글도 결국 인간이 쓴 글을 학습시켜 만든 것이고, 앞으로 인간이 글을 쓰는 방식도 AI가 쓴 글을 수정·보완하는 식으로 혼합될 수밖에 없어 현저한 개선 가능성에 의문이 제기된다.

챗GPT발(發) 가짜뉴스 위험성에 대비하기 위해 기민한 정책적 대응도 필요해 보인다. 예컨대 현재 네이버는 뉴스 댓글에 욕설이 담겼는지를 탐지하기 위해 AI를 활용 중이다. 이들 플랫폼 기업이 알아서 챗GPT발 허위 정보를 걸러낼 것이라고 믿는다면 이는 순진한 발상이다. 이미 유튜브 등 플랫폼 기업은 광고 수입에 눈이 멀어 '사이버 레커' 등 허위 정보에 미온적으로 대처하는 등 사회적 폐해를 낳았다.

챗GPT발 가짜뉴스와 여론조작 위험성은 사이버 레커와는 비교할 수 없는 충격으로 사회를 혼란에 빠뜨릴 수 있다.

[김대은 디지털테크부 dan@mk.co.kr]

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?