[기자24시] 챗GPT에 드리워진 두 얼굴
'챗GPT로 월 400만원 벌기'.
최근 국내외 인터넷상에는 이 같은 글이 회자되고 있다. 인공지능(AI)을 이용해 대량으로 콘텐츠를 만들어 부수입을 올릴 수 있다는 게 골자다. 적당한 연예인 이름을 소재로 한 글을 챗GPT에 써달라고 한 뒤, 글자를 음성으로 변환해주는 무료 AI 서비스를 덧대어 유튜브를 제작하는 방식이다. 이 때문에 벌써부터 사람들을 현혹하는 여론조작에 챗GPT가 악용될 위험성이 거론되고 있다. 과거 여론조작은 사람이 직접 댓글을 쓴 탓에 시간과 비용이 많이 들었고, 똑같은 내용을 복사·붙여넣기 하는 방식이었다. 그런데 AI는 사람처럼 자연스러운 댓글을 짧은 시간 안에 수만 개씩 양산할 수 있어 훨씬 파괴적인 영향력으로 여론조작에 쓰일 수 있는 것이다.
이처럼 AI가 가짜뉴스를 확산시킬 것이라는 비판이 나오자 챗GPT 개발사 오픈AI는 최근 'AI 글 판별기'를 출시했다. 이는 어떤 글이 인간이 쓴 것인지, AI가 쓴 것인지를 판별하는 기능이 있다. 하지만 이러한 방식으로 AI가 생산해내는 가짜뉴스를 잡아낼 수 있을지는 미지수다. 정확도가 26%에 불과해 그냥 찍어 맞히는 절반의 확률 수준에도 못 미치기 때문이다.
또 이 판별기의 원리는 AI가 쓴 글과 인간이 쓴 글을 비교해 어느 쪽에 가까운지를 따져보는 방식이다. 그런데 AI가 쓴 글도 결국 인간이 쓴 글을 학습시켜 만든 것이고, 앞으로 인간이 글을 쓰는 방식도 AI가 쓴 글을 수정·보완하는 식으로 혼합될 수밖에 없어 현저한 개선 가능성에 의문이 제기된다.
챗GPT발(發) 가짜뉴스 위험성에 대비하기 위해 기민한 정책적 대응도 필요해 보인다. 예컨대 현재 네이버는 뉴스 댓글에 욕설이 담겼는지를 탐지하기 위해 AI를 활용 중이다. 이들 플랫폼 기업이 알아서 챗GPT발 허위 정보를 걸러낼 것이라고 믿는다면 이는 순진한 발상이다. 이미 유튜브 등 플랫폼 기업은 광고 수입에 눈이 멀어 '사이버 레커' 등 허위 정보에 미온적으로 대처하는 등 사회적 폐해를 낳았다.
챗GPT발 가짜뉴스와 여론조작 위험성은 사이버 레커와는 비교할 수 없는 충격으로 사회를 혼란에 빠뜨릴 수 있다.
[김대은 디지털테크부 dan@mk.co.kr]
Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지
- “김대리 레깅스 입고 출근했네”…“부장님 참, 이걸 모르시네” - 매일경제
- “신라면보다 인기라고?”…20일 만에 50만개 팔린 이 라면 - 매일경제
- 1분마다 3.5개씩 팔린 빵...10년간 한국인 입맛 홀렸다 - 매일경제
- 안철수가 급히 손가락에 적은 세가지…경선없이, 윤힘, 화합 - 매일경제
- “그돈에 왜 벤츠 대신 그랜저”…비싸도 대박, 다시 ‘성공신화’ 쓴다 [왜몰랐을카] - 매일경
- [단독] 尹, 참모들에게 “기회 있으면 출마 꼭 해라”…참모진 개편은 ‘아직’ - 매일경제
- “열에 아홉은 성관계 학생 커플”…서울시 ‘룸카페’ 특별단속 - 매일경제
- “연예인 건물도 안팔려요”…고금리 충격에 최악의 거래절벽 [매부리레터] - 매일경제
- [단독] 삼성전자 노조 “임금피크제·상한제 폐지”…자사주 53주도 요구 - 매일경제
- 러시아 최대 스포츠 신문 “안현수, 다시 돌아오길” - MK스포츠