인공지능 기술의 발전을 막을 수 있을까 [미디어 리터러시]
‘챗지피티’로 촉발된 생성AI에 대한 관심이 여전히 뜨겁다. 구글, MS, 메타 등 거대 기술기업들의 관련 기술 경쟁은 더욱 격렬해지고 있으며, 하루만 지나도 이 기술을 이용한 새 서비스가 여러 개씩 나온다. 이렇듯 치열한 경쟁 한편으로는 어디까지 갈지 모르는 기술을 제어하기 위해 잠깐 개발을 멈추자는 제안이 나오고, 이탈리아 등 몇몇 국가는 개인정보 보호 등을 위해 챗지피티 접속을 차단하기도 했다. 대학 과제에서 학생들의 챗지피티를 이용한 부정행위를 우려해 사용을 금지하는 사례도 속속 등장했다. 그런데 이용을 금지하거나 개발을 중단하는 방식으로 기술의 발전을 막을 수 있을지 의문이다. 인터넷, 스마트폰 등이 처음 등장했을 때도 그랬다. 우리 모두를 위해 적당한 제어는 필요하겠지만, 발전하는 기술은 막을 수도 막을 필요도 없다.
이미 존재하거나 예상되는 문제를 그대로 둘 수는 없는 일이다. 하지만, 기술은 이러한 문제의 어떤 해결책보다 항상 앞서간다. 또한 규제를 위한 법안이나 정책 등은 다양한 해결책 중에서 가장 느린 편이다. 그나마 가장 빠른 방법은 기술이 만들어내는 문제에 대해 기술로 대응하는 것이다. 교육 현장에서 가장 우려하고 있는 챗지피티를 활용한 부정행위 문제를 예로 들어보자. 우리 모두 경험하고 있지만 챗지피티의 결과물이 인공지능이 생성한 것인지 사람이 직접 생성한 것인지를 판단하기는 쉽지 않다. 이를 막기 위해 접속 차단을 하고 이용을 금지시키더라도 은밀하게 이용할 방법은 많다. 어떻게 생성했는지를 기술을 활용해 판단하는 방법은 제한적이지만 이미 존재한다.
챗지피티를 만든 ‘오픈AI’가 제공하는 ‘인공지능 텍스트 분류기(AI Text Classifier, platform.openai.com/ai-text-classifier)’는 어떤 내용을 인공지능이 생성했는지 여부를 탐지하는 도구다. 인공지능이 생성한 것으로 의심이 가는 내용이 있을 경우 1000글자 이상을 입력하면 ‘very unlikely(매우 가능성이 없는)’ ‘unlikely(가능성이 없는)’ ‘possibly(아마도)’ ‘likely(그럴 것 같은)’ ‘very likely(매우 그럴 것 같은)’ 등으로 판정해 알려준다. 비슷한 내용을 재작성시켜도 AI가 작성한 글인지 여부를 비교적 정확하게 판단하고 있다. 오픈AI는 다음에 나올 단어의 확률을 계산하는 챗지피티의 작동 방식을 잘 알고 있기에, 그 확률을 역으로 계산해 ‘인공지능 텍스트 분류기’를 개발했다. ‘GPT제로(GPTZero)’ 등 유사한 서비스들도 이와 비슷한 방식으로 작동하고 있다. 하지만, 오픈AI가 스스로 밝힌 바로 추정컨대 아직 정확도는 50%를 약간 상회하는 수준이다. 인공지능이 작성한 내용에서 주술 관계를 몇 개만 바꿔도 정확하게 판정하는 확률이 급격히 떨어진다. 한편, 텍스트뿐만 아니라 이미지, 영상 등도 각 생성물의 메타데이터를 확인하는 방식으로 인공지능이 생성했는지 여부를 어느 정도 식별 가능하다.
나를 대신할 사람이 없듯 나를 대체할 도구도 없다
인공지능이 우리 곁으로 온 이상 이것의 활용을 막기는 어렵다. 문제는 수정해야겠지만, 단순히 이용을 막거나 규제하는 것보다 효율적 방안을 찾는 게 현명하다. 여전히 제한적이겠으나, 이 문제를 방지하는 기술을 병행해 개발하는 것이 더 효율적일 수 있다. 정책적으로 이러한 기술개발을 지원하는 편이 이용을 막는 것보다 빠른 해결책이 될 수 있다. 그 전에 더 중요한 것은 생성AI를 활용하는 우리 자신이다. 남의 글을 베끼는 것처럼 창작 영역에서 생성AI의 결과물을 그대로 쓰는 것은 표절이다. 생성AI는 나를 대신해서 어떤 내용을 만들어주는 도구가 아니라 내가 더 나은 내용을 만들 수 있도록 돕는 도구에 불과하다. 나를 대신할 사람이 없듯이 나를 대체할 도구도 없다.
오세욱 (한국언론진흥재단 책임연구위원) editor@sisain.co.kr
▶좋은 뉴스는 독자가 만듭니다 [시사IN 후원]
©시사IN, 무단전재 및 재배포 금지
Copyright © 시사IN. 무단전재 및 재배포 금지.