‘딸깍 자소서·의견서’ 넘치는데…‘AI가 쓴 글’ 가려낼 방법이 없다

강재구 기자 2026. 5. 3. 17:37
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

‘AI 식별’ 새로운 난제
게티이미지코리아

“AI(인공지능) 활용 및 표절 여부 등을 철저히 검증할 예정이므로 불성실 작성으로 인한 불이익이 없도록 유의”(2026 상반기 국민연금공단 신입직원 채용 공고)

기술의 풍요는 또 다른 의심을 낳았다. 생성형 인공지능(AI)의 도움으로 누구나 쉽고 단번에 유려한 글을 쏟아낼 수 있게 되자, 사회는 글을 ‘누가 썼느냐’는, 원초적인 질문을 던지기 시작했다. 캠퍼스와 채용 시장은 리포트와 자기소개서를 헤집으며 인공지능의 흔적을 찾고, 인공지능 발 ‘가짜 판례’가 담긴 의견서를 접수한 법원은 대책 마련을 위한 태스크포스(TF)까지 꾸렸다. 인공지능 텍스트 범람 시대에 진짜 ‘글의 주인’을 솎아낼 완벽한 탐지망은 존재할까.

탐지의 두 갈래: 워터마크VS 사후 탐지

인공지능 텍스트를 탐지하는 방식은 크게 두 갈래로 나뉜다. 인공지능 모델 개발사들이 창작물 생성 단계에 워터마크(식별무늬)를 남기는 방식과 인공지능 텍스트의 특성과 패턴을 통계적으로 분석해 ‘사후 탐지’하는 방식이다.

워터마크 방식은 인공지능이 이미지, 오디오, 텍스트 등을 생성하는 과정에서 인간 눈에는 식별되지 않는 생성 표식을 삽입하는 기술이다. 구글은 통상 이미지 생성물에 적용하는 이 기술을 텍스트에도 적용했다. 구글 딥마인드는 2024년 10월 국제 학술지 네이처에 자체 개발한 워터마크인 ‘신스 아이디(Synth ID)’ 방식을 텍스트에 적용하는 기술을 소개했고, 이를 오픈소스(개방형)로 공개했다. 대형언어모델(LLM)은 문맥상 다음 자리에 올 확률이 높은 토큰(인공지능의 입·출력의 기본 단위)을 배치하는 방식으로 작동하는데, 신스 아이디는 텍스트 품질을 저하시키지 않으면서도 시스템이 인식할 수 있는 수준으로 확률을 미세하게 조정해 워터마크를 새긴다.

사후 탐지 방식은 대형언어모델이 생성한 텍스트가 가진 특성을 통계적으로 분석해 인공지능 생성 여부를 가려내는 기술이다. 표절 검사 프로그램으로 유명한 턴잇인이나 지티피제로(GTP zero) 등 국내외 다양한 업체들이 이런 방식을 바탕으로 한 서비스를 제공한다. 업체마다 차이는 있으나 인공지능이 생성한 텍스트와 인간의 글 사이에 문장 길이, 구조, 단어 선택 등에서 구분되는 특징이 있다고 보고 분류를 시도한다.

2026년 상반기 국민연금공단 신입직원 채용 공고. 공단 누리집 갈무리

확장성 없는 워터마크, 오픈AI도 접은 사후 탐지

다만 두 방식 모두 한계가 분명하다. 신스 아이디로 구글 인공지능 모델이 작성한 결과물은 식별할 수 있지만 다른 인공지능 모델로 만든 경우엔 식별하지 못한다. 즉, 제미나이(구글 모델)가 작성한 글은 찾아내도 챗 지피티(오픈에이아이 모델)로 작성한 글은 식별해내지 못한다는 것이다. 또한 제미나이가 작성한 텍스트라도 글을 대대적으로 수정하거나 다른 인공지능 모델을 동원해 워터마크를 제거하는 일이 이뤄질 경우 작동하지 않는다. 사후 탐지 방식도 상황은 매한가지다. 턴잇인은 인간의 글에 “격식 갖춘 학술적 어조, 반복적인 전문 용어 사용” 등의 특징이 있는 경우, 오탐지(인간의 글을 인공지능 텍스트라 착각) 가능성이 있다며 “인간의 검토를 대체하는 게 아니라 보조한다”고 명시적으로 밝히고 있다. 지피티제로는 새로 등장하는 대형언어모델들의 일반화 문제 등을 거론하며 “어떠한 탐지기도 완벽할 수 없다”고 한계를 인정한다. 사후 탐지기에서 제시하는 결과를 맹신하지 말고 참고만 하라는 것이다. 오픈에이아이 또한 챗 지피티 출시 초기였던 2023년 사후 탐지 방식을 적용한 ‘인공지능 탐지기’(AI Classifier)를 선보였다가 스스로 “정확도가 낮다”며 몇 달 만에 서비스를 종료한 바 있다. 김장현 성균관대 정보통신대학원 원장은 “인공지능이 인간에 의해 발현되는 특질을 상당 부분 모사하는 상황에서 인공지능 텍스트를 감지해낼 수 있을 것이란 기대는 과하다”고 말했다.
*클릭하면 크게 볼 수 있습니다.

전문가도 식별 어려운 할루시네이션…“인공지능 문해력 높여야”

‘창작자 진위’를 가려야 했던 인공지능 텍스트는 이젠 ‘정보의 진위’까지 의심해야 하는 상황이 됐다. 국내뿐만 아니라 미국에서도 변호사들이 인공지능의 할루시네이션(환각 현상)으로 생성된 가짜 판례와 법령을 인용한 의견서가 법원에 제출되는 사례가 하나둘 등장하기 시작했다. 인공지능 환각이 ‘세종대왕 맥북 던짐 사건’과 같이 터무니없는 수준에서, 특정 분야 전문가조차 낱낱이 뜯어보지 않으면 식별이 어려울 정도로 교묘해졌다는 것이다. 환각을 걷어내기 위한 여러 연구가 이뤄지고 기존보다 발생 빈도는 줄었지만, 아직까지 명쾌한 해법이 나오진 않았다. 최병호 고려대 휴먼 인스파이어드 인공지능연구원 연구교수는 “인공지능이 텍스트를 인간 대신 생성하는 게 문제가 아니라, 생성물 안에 들어 있는 정교해진 할루시네이션을 걷어내는 게 진짜 문제”라며 “인공지능이 대량의 정보를 읽고 생산하기에 (환각 여부를 일일이 검증하는 건) 인간이 감당하기 어렵다”고 말했다.

전문가들은 인공지능과의 공존이 피할 수 없는 흐름이라며 대변혁에 맞는 평가 기준 설정과 교육이 필요하다고 입을 모은다. 단순히 ‘사용 금지’ 규제를 넘어, 인공지능의 한계를 분명히 인식하고 비판적 활용 역량을 길러야 한다는 것이다. 인공지능 스타트업 포티투마루의 이승현 부사장은 인공지능 창작 여부를 가리는 시도를 “기술 도입기의 과도기적 현상”이라며 “인공지능이 썼느냐가 아니라, 이젠 문서 제출자가 그 안에 있는 내용을 얼마나 내재화했는지를 평가해야 한다”고 말했다. 최병호 교수는 “인공지능의 환각, 편향성, 왜곡을 걸러내기 위해 상당한 안목이 있어야 한다”며 “인공지능 문해력이 이 시대에 가장 중요한 능력”이라고 말했다.

강재구 기자 j9@hani.co.kr

Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지