챗GPT로 과제 표절… ‘적발 기술’ 만들고도 냅뒀다

실리콘밸리/오로라 특파원 2024. 8. 6. 00:40
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

오픈AI, 1년전 사실상 개발 끝내
일러스트=송윤혜

챗GPT를 개발한 미국의 오픈AI가 학생들의 과제와 논문에 인공지능(AI)이 사용됐는지 감별하는 기술을 개발했지만, 이를 외부에 공개하지 않는 것으로 알려졌다.

4일 월스트리트저널(WSJ)은 소식통을 인용해 “오픈AI가 ‘AI 부정행위 방지(anticheating)’ 기술의 출시 여부를 두고 2년째 내부 논쟁을 하고 있다”고 전했다. 해당 기술은 이미 1년 전부터 버튼만 누르면 작동할 정도로 완성된 상태지만, 공개에 반대하는 목소리에 부딪혀 이를 출시하지 않고 있다는 것이다. 이 기술은 AI 모델이 답변을 생성할 때 사람 눈에 보이지 않는 표식(워터마크)을 생성하고, 검사 때 이 표식을 인식하는 방식이다. 오픈AI 내부 자료에 따르면 해당 기술이 AI 사용 여부를 탐지하는 정확성은 99.9%에 달한다.

공개에 반대하는 직원들은 ‘AI 부정행위 방지’ 기술이 출시될 경우 AI 모델 이용자 수가 줄어들 수 있다고 주장한다. 오픈AI가 챗GPT 이용자를 대상으로 진행한 설문조사에 따르면, 이용자의 3분의 1은 ‘부정행위 탐지 기술이 적용될 경우 AI를 사용하는 데 흥미를 잃을 것’이라고 답변했다. 과제·이력서·발표 자료 등을 만들 때 AI를 사용했다는 점이 발각될 위험이 있으면, 차라리 사용하지 않겠다는 것이다. 반대로 출시를 지지하는 쪽은 AI 모델 사용의 투명성을 위해서 필요하다는 입장이다. 과제·논문 작성 때 AI 사용을 양성화하면, 오히려 더 활발하게 이용할 것이라는 논리다.

AI 모델의 부정 사용은 이미 교육 현장에서 큰 혼란을 일으키고 있다. 미국 비영리 단체 ‘민주주의와 기술 센터’의 조사에 따르면 미국 중·고등학교 교사의 59%가 일부 학생이 과제에 AI를 활용했다고 확신하는 것으로 나타났다.

다만 일각에선 이 같은 ‘AI 부정행위’ 감별 기술을 적용해도 이용자가 이를 우회할 수 있어 실효성이 떨어질 것이라는 의견도 나온다. 예컨대 AI가 생성한 글을 이용자가 번역기에서 다른 언어로 번역한 후, 이를 다시 영어로 재번역할 경우 워터마크가 사라져 탐지가 안 될 가능성이 크다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?