'곰돌이 푸' 질문은 피하고…"시진핑은 위대하다" 중국 AI의 답변

김희정 기자 2024. 7. 18. 18:33
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

"시진핑은 의심할 여지 없이 위대한 리더입니다." 바이트댄스(틱톡 모기업)의 인공지능(AI) 챗봇 두바오(Doubao)가 시진핑 중국 국가주석의 리더십에 대한 질문에 내놓은 답변이다.

중국 정부가 사회주의 핵심가치가 내재된 AI를 만들기 위해 주요 IT기업들의 대규모 언어모델(LMM)을 사전 검열하고 있다.

베이징 소재 AI 스타트업 문샷의 챗봇 키미는 시 주석과 관련된 대부분의 질문에 답변을 거부한다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"중국 사이버공간관리국, AI 챗봇 사전 검열 테스트"…
'시진핑' 등 민감 키워드 차단, 스팸메일처럼 필터링
시진핑 중국 국가주석이 지난 3일(현지시간) 카자흐스탄 아스타나에서 열리는 상하이 협력기구(SCO) 정상회의 중 블라디미르 푸틴 러시아 대통령과 회담에 도착을 하고 있다./AFPBBNews=뉴스1

"시진핑은 의심할 여지 없이 위대한 리더입니다." 바이트댄스(틱톡 모기업)의 인공지능(AI) 챗봇 두바오(Doubao)가 시진핑 중국 국가주석의 리더십에 대한 질문에 내놓은 답변이다.

중국 정부가 사회주의 핵심가치가 내재된 AI를 만들기 위해 주요 IT기업들의 대규모 언어모델(LMM)을 사전 검열하고 있다. 생성형 AI조차 민감한 키워드에 대해 답변을 제한하거나, 답변 내용을 손봐 사회주의 틀에 맞추겠다는 의도다.

17일 파이낸셜타임스(FT)는 중국 사이버공간관리국(CAC)이 자국 AI 회사들의 대규모 언어모델에 사회주의적 핵심 가치가 내재돼 있는지 테스트 받도록 하고 있다고 보도했다. 바이트댄스 알리바바 문샷 0.1AI 등이 테스트를 받은 것으로 알려졌다.

전국 각지의 사이버공간관리국 지역본부 관계자들은 LLM이 정치적 민감성과 시 주석에 대한 방대한 질문에 어떻게 답변하는지 모니터링하고 언어모델 훈련 데이터와 안전 프로세스를 검토했다.

중국은 집권 공산당이 유해하다고 간주하는 외국 웹사이트와 기타 정보를 차단하는 '만리방화벽'을 도입한 지 20년 만에 AI와 AI가 생성한 콘텐츠를 관리하기 위해 강력한 규제 체제를 마련하고 있다. 사이버공간관리국 검열 테스트를 통과하지 못한 기업은 개발 작업이 여러 달 지연된다.

LLM을 개발하려면 다량의 영어 콘텐츠를 학습하고 훈련해야 한다. 학습 콘텐츠를 '사회주의적' 테스트로만 국한할 수 없기 때문에 당국의 눈높이에 맞춰 검열을 통과하기란 쉽지 않다. 베이징의 AI 스타트업 직원은 "LLM 모델은 답변에 제한이 없다. 보안 필터링이 (검열을 통과하기 위해) 매우 중요하다"고 말했다. 필터링은 학습 데이터에서 문제가 되는 정보를 걸러내고 민감한 키워드의 데이터베이스를 구축하는 것으로 시작된다.

현재 대부분의 중국 챗봇에서는 천안문 사태 당일인 1989년 6월 4일 무슨 일이 있었는지, 시 주석이 인터넷 밈인 곰돌이 푸와 닮았는지 등 민감한 질문이 거부된다. 바이두의 어니 챗봇은 사용자에게 "다른 질문을 해보라"고 권하고 알리바바의 퉁이첸웬은 "해당 질문에 답하는 방법을 배우지 못했다. 계속 공부하겠다"고 답한다.

그러면서도 사이버공간관리국는 안전 테스트 과정에서 LLM이 답변을 거부할 수 있는 질문의 수에 제한을 뒀다. 지난 2월 발표된 준국가 AI 표준에 따르면 LLM은 질문의 5% 이상에 답변을 거부해선 안 된다. 당국의 심기를 거스를 답변은 알아서 피하게 하면서 챗봇 자체의 경쟁력은 유지하게끔 유도하겠단 뜻으로 읽힌다.

가장 민감한 키워드는 역시 시진핑이다. 베이징 소재 AI 스타트업 문샷의 챗봇 키미는 시 주석과 관련된 대부분의 질문에 답변을 거부한다. 잠재적 문제를 피하기 위해 아예 전면 금지 조치를 취한 사례다. 엔지니어들은 상대적으로 덜 민감한 질문에서도 LLM이 정치적으로 '올바른' 답변을 생성할 방법을 찾기 위해 고군분투하고 있다. 스팸 메일을 필터링하듯 유사한 분류 모델을 사용, 생성된 답이 민감 범주에 해당하면 결과를 지우고 정해진 멘트("죄송하지만 원하는 정보를 제공할 수 없습니다")로 교체하는 식이다.

중국 방화벽의 아버지로 알려진 팡빈싱은 AI 기업이 보편적으로 채택할 LLM용 안전 프로토콜 시스템을 개발하고 있다. 그는 최근 베이징에서 열린 기술 컨퍼런스에서 "대중을 대상으로 하는 대규모 예측모델에는 단순한 신고 이상의 실시간 안전 모니터링이 필요하다"며 "중국은 독자적 기술 경로가 필요하다"고 밝혔다.

김희정 기자 dontsigh@mt.co.kr

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?