인공지능 기술의 발전을 막을 수 있을까 [미디어 리터러시]

오세욱 2023. 4. 29. 08:23
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

언론에 대한 반감이 어느 때보다 높습니다. 역으로 생각하면 '좋은 언론'을 향한 갈구는 더 커지고 있다는 의미이겠지요. 매체를 비판적으로 이해하고 활용하는 능력, 곧 '미디어 리터러시'가 중요해지는 시대, 우리 언론의 방향을 모색합니다.
인터넷, 스마트폰 등이 처음 등장할 때처럼 적당한 제어는 필요하지만, 발전하는 기술은 막을 수도 막을 필요도 없다. 사진은 인공지능 이미지.

‘챗지피티’로 촉발된 생성AI에 대한 관심이 여전히 뜨겁다. 구글, MS, 메타 등 거대 기술기업들의 관련 기술 경쟁은 더욱 격렬해지고 있으며, 하루만 지나도 이 기술을 이용한 새 서비스가 여러 개씩 나온다. 이렇듯 치열한 경쟁 한편으로는 어디까지 갈지 모르는 기술을 제어하기 위해 잠깐 개발을 멈추자는 제안이 나오고, 이탈리아 등 몇몇 국가는 개인정보 보호 등을 위해 챗지피티 접속을 차단하기도 했다. 대학 과제에서 학생들의 챗지피티를 이용한 부정행위를 우려해 사용을 금지하는 사례도 속속 등장했다. 그런데 이용을 금지하거나 개발을 중단하는 방식으로 기술의 발전을 막을 수 있을지 의문이다. 인터넷, 스마트폰 등이 처음 등장했을 때도 그랬다. 우리 모두를 위해 적당한 제어는 필요하겠지만, 발전하는 기술은 막을 수도 막을 필요도 없다.

이미 존재하거나 예상되는 문제를 그대로 둘 수는 없는 일이다. 하지만, 기술은 이러한 문제의 어떤 해결책보다 항상 앞서간다. 또한 규제를 위한 법안이나 정책 등은 다양한 해결책 중에서 가장 느린 편이다. 그나마 가장 빠른 방법은 기술이 만들어내는 문제에 대해 기술로 대응하는 것이다. 교육 현장에서 가장 우려하고 있는 챗지피티를 활용한 부정행위 문제를 예로 들어보자. 우리 모두 경험하고 있지만 챗지피티의 결과물이 인공지능이 생성한 것인지 사람이 직접 생성한 것인지를 판단하기는 쉽지 않다. 이를 막기 위해 접속 차단을 하고 이용을 금지시키더라도 은밀하게 이용할 방법은 많다. 어떻게 생성했는지를 기술을 활용해 판단하는 방법은 제한적이지만 이미 존재한다.

챗지피티를 만든 ‘오픈AI’가 제공하는 ‘인공지능 텍스트 분류기(AI Text Classifier, platform.openai.com/ai-text-classifier)’는 어떤 내용을 인공지능이 생성했는지 여부를 탐지하는 도구다. 인공지능이 생성한 것으로 의심이 가는 내용이 있을 경우 1000글자 이상을 입력하면 ‘very unlikely(매우 가능성이 없는)’ ‘unlikely(가능성이 없는)’ ‘possibly(아마도)’ ‘likely(그럴 것 같은)’ ‘very likely(매우 그럴 것 같은)’ 등으로 판정해 알려준다. 비슷한 내용을 재작성시켜도 AI가 작성한 글인지 여부를 비교적 정확하게 판단하고 있다. 오픈AI는 다음에 나올 단어의 확률을 계산하는 챗지피티의 작동 방식을 잘 알고 있기에, 그 확률을 역으로 계산해 ‘인공지능 텍스트 분류기’를 개발했다. ‘GPT제로(GPTZero)’ 등 유사한 서비스들도 이와 비슷한 방식으로 작동하고 있다. 하지만, 오픈AI가 스스로 밝힌 바로 추정컨대 아직 정확도는 50%를 약간 상회하는 수준이다. 인공지능이 작성한 내용에서 주술 관계를 몇 개만 바꿔도 정확하게 판정하는 확률이 급격히 떨어진다. 한편, 텍스트뿐만 아니라 이미지, 영상 등도 각 생성물의 메타데이터를 확인하는 방식으로 인공지능이 생성했는지 여부를 어느 정도 식별 가능하다.

이 원고를 ‘인공지능 텍스트 분류기’에 입력한 결과. AI가 생성했을 가능성이 매우 낮다고 나온다. ⓒ오픈AI 갈무리

나를 대신할 사람이 없듯 나를 대체할 도구도 없다

인공지능이 우리 곁으로 온 이상 이것의 활용을 막기는 어렵다. 문제는 수정해야겠지만, 단순히 이용을 막거나 규제하는 것보다 효율적 방안을 찾는 게 현명하다. 여전히 제한적이겠으나, 이 문제를 방지하는 기술을 병행해 개발하는 것이 더 효율적일 수 있다. 정책적으로 이러한 기술개발을 지원하는 편이 이용을 막는 것보다 빠른 해결책이 될 수 있다. 그 전에 더 중요한 것은 생성AI를 활용하는 우리 자신이다. 남의 글을 베끼는 것처럼 창작 영역에서 생성AI의 결과물을 그대로 쓰는 것은 표절이다. 생성AI는 나를 대신해서 어떤 내용을 만들어주는 도구가 아니라 내가 더 나은 내용을 만들 수 있도록 돕는 도구에 불과하다. 나를 대신할 사람이 없듯이 나를 대체할 도구도 없다.

오세욱 (한국언론진흥재단 책임연구위원) editor@sisain.co.kr

▶읽기근육을 키우는 가장 좋은 습관 [시사IN 구독]
▶좋은 뉴스는 독자가 만듭니다 [시사IN 후원]
©시사IN, 무단전재 및 재배포 금지

Copyright © 시사IN. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?