[김정호의 AI시대의 전략] AI 댓글 부대, 얼마든 가능하다

김정호 KAIST 전기·전자공학과 교수 2024. 3. 13. 03:04
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

그래픽=김현국·미드저니

대학 시절 도서관 창문 아래 보이는 콘크리트로 덮인 마당엔 ‘아크로폴리스’ 광장(廣場)이 있었다. 그 광장에서는 집회가 열리고 있었고, 같은 시간 도서관 5층 열람실에서는 학생들이 열심히 공부하고 있었다. 그들은 서로 각자 다른 길을 가지만 희망찬 미래를 함께 만들어 가자는 공통된 꿈이 있었다. 그 아크로폴리스라는 단어는 그리스어로 ‘높은’을 뜻하는 ‘아크로’와 ‘도시’를 뜻하는 ‘폴리스’가 합쳐져 만들어진 단어다. 아테네의 높은 언덕에도 있다.

시간이 한참 흘러서 이제는 반도체 기술이 발전하면서 시민들이 모이고 의견을 주고받는 토론의 장소가 인터넷 공간으로 옮겨졌다. 마침내 인터넷 ‘댓글’이 활발한 의견 표출과 토론의 장소가 된 것이다. 최근에는 유튜브 동영상에 댓글이 많이 달린다. 때때로 인터넷 기사의 제목만 보고 오히려 댓글을 더 자세히 보는 경우도 있다. 기사에 대한 시민들의 반응이 궁금하기 때문이다. 이렇게 인터넷 댓글은 여론에 큰 영향을 미치기 시작했다. 그런데 최근 생성 인공지능인 거대언어모델(LLM·Large Language Model)이 등장하면서 인간을 대신해서 인공지능이 인터넷 댓글을 스스로 달 수 있게 되었다. 인공지능이 여론의 광장을 점령하고 정치에도 참여할 수 있는 가능성이 생긴 것이다.

생성 인공지능은 글도 쓰고, 말도 하고, 그림도 그리고, 음악도 작곡한다. 결국 영화도 직접 만들 수 있다. 그중에서도 LLM은 방대한 양의 독서를 통해서 미리 사전 학습된 모델이다. 하도 책과 글을 많이 읽어서 인간처럼 생각도 할 수 있는 것처럼 보인다. 자신의 주장을 말하기도 한다. 최근에 나온 GPT-4는 12만8000개의 단어, 즉 300페이지 정도의 글을 한 번에 읽을 수 있고, 한 번에 4096개 단어를 쏟아낸다. 그런데 이러한 LLM은 학습한 데이터와 학습 방법에 따라 특정 이념이나 가치를 강제적으로 가지도록 훈련받을 수 있다. 특히 특정 국가와 정당이나 인물을 지지하도록 학습할 수 있다. 종교도 가질 수 있다. 선택적으로 특정한 지식만을 주입하고 그 근거도 충분히 기억하게 할 수 있다. ‘역사 왜곡이나 사실 왜곡’을 주입할 수도 있다. 이렇게 학습받은 인공지능은 특정한 방향으로 지속적으로 인터넷 댓글을 작성할 수 있는 것이다.

그래픽=김현국

인공지능이 자동 댓글을 다는 알고리즘은 다음의 절차를 따를 수 있다. 제일 먼저 LLM 모델을 선택한다. 직접 개발하거나 공개된 오픈소스 모델을 사용할 수 있다. 그리고 선택한 LLM 모델을 특정한 데이터로 정밀하게 학습시킨다. 다음으로 학습한 LLM을 불러서 댓글을 쓰도록 명령한다. 이를 위해서는 LLM의 ‘API(Application Programming Interface)’를 사용한다. API는 응용 프로그래밍을 위한 소프트웨어 인터페이스이다. 마지막으로 특정한 방향으로 댓글을 달도록 ‘프롬프트(Prompt)’를 입력한다. 이렇게 하면 인공지능 스스로 다양한 기사를 찾아 제한없이 특정한 방향으로 댓글을 달 수 있는 것이다. 더 나아가 인공지능 스스로 가짜 뉴스를 만들어 배포할 수도 있다. 한국어뿐만 아니라 다국적 언어로도 댓글을 달 수 있다. 인간처럼 ‘이모티콘’도 달고 ‘해시태그’도 붙인다. 인간의 댓글과 구별하기 어렵다.

‘댓글 조작’은 인터넷을 사용해 다양한 방법으로 여론을 선동하고 왜곡하거나 또는 조작하는 행위이다. 주로 매크로나 댓글 알바, 특정 단체 회원을 동원해 불특정 다수 시민의 의견인 것처럼 보이게 한다. 이러면 개개인의 자발적이고 민주적인 의견이 무시된다. 이제 인공지능이 이러한 댓글 부대를 대신할 수 있다. 무차별적으로 편향된 글을 남길 수도 있다.

이러한 인공지능 댓글 문제를 방지하기 위해 다양한 방법이 사용될 수 있다. 하지만 현재의 기술로는 인간이 쓴 글인지, 인공지능이 작성한 글인지 잘 구별하기 어렵다. 인공지능이 쓴 글을 분별해 내는 새로운 ‘판독 인공지능’을 개발할 필요가 있다. 인공지능이 쓴 글에는 ‘워터마크(Watermark)’와 같은 표시를 강제할 수도 있다. 또 인터넷 댓글을 실명화하고 지속적으로 특정 경향의 댓글을 다는 아이디를 추적하는 방법이 있을 수 있다. 마지막으로 일정한 기간에 같은 아이디로 달 수 있는 댓글의 수를 제한하는 방법이 있을 수 있다. 하지만 인공지능이 스스로 가짜 아이디를 만들 능력까지 생긴다면 매우 어려운 작업이 될 것이다. 인공지능 기술이 발전하면서 민주주의를 지키기 더욱 어렵게 되었다.

인터넷이나 소셜미디어 등 정보통신망을 통해 허위사실을 유포함으로써 타인의 명예를 훼손한 때에는 징역형을 선고할 수 있다. 하지만 인공지능이 스스로 인간의 명예를 훼손한 경우 과연 어떻게 인공지능에 징역형을 선고할 수 있는지 의문이다. 인공지능 자체가 유죄가 될 수 있는지, 그 프로그램을 코딩한 인간이 유죄인지, 프롬프트를 입력한 인간이 유죄인지, 아니면 인공지능을 소유한 개인이나 기업이 유죄가 되는지를 고민해 봐야 한다. 이에 대한 새로운 철학과 법률이 필요할 수 있다. 민주주의에서는 개인 각각의 자발성과 진실성이 중요하다. 하지만 이렇게 소중한 민주주의 원리가 인공지능에 의해 위협받을 수도 있다. 선거에도 영향을 미칠 수 있다. 인공지능이 정치를 지배할 수도 있는 것이다. 민주의 광장이 흔들릴 수 있다. 인공지능 시대를 맞아 더 많은 준비가 필요하다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?