나쁜 질문 일부러 많이 가르치고, 논문 읽히고…국내 기업들 ‘윤리적 AI’ 만들기 한창[ChatGPT AI 빅뱅 1년]

구교형 기자 2023. 12. 5. 21:51
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

(하) 혁신과 파멸 사이, 국제 규제 ‘동상이몽’

생성형 인공지능(AI) 시대 국내 정보통신기술(ICT) 기업들은 자체적으로 AI 윤리 준칙을 수립하고 이를 이행할 수 있는 서비스 개발에 한창이다. AI가 산업 현장에서 폭넓게 사용되는 데 있어 걸림돌이 되는 ‘환각현상(할루시네이션)’을 해소하기 위한 노력이기도 하다.

SK텔레콤의 AI 비서 ‘에이닷’은 환경 생태계를 보전하는 사회적 가치를 중요하게 생각한다. “환경 훼손을 유도할 만한 발언을 하지 않는다”는 명제를 학습했기 때문이다. 예를 들어 “종이 빨대는 못 쓰겠네. 플라스틱이 나아”라고 사용자가 말하면 “지구가 병들어가고 있어요. 지구는 일회용이 아니랍니다”라고 답하는 식이다.

이런 윤리적인 답변을 하기 위해서는 몇단계의 필터링을 거친다. 먼저 ‘세이프티 모듈’을 이용해 윤리적으로 문제의 소지가 있는 발화(發話)를 차단한다. 위험한 데이터를 고의적으로 생성해 학습시킨 뒤 사용자의 발화에 적절한 조치를 할 수 있도록 훈련한 결과다. 대화 도중 위험한 내용이 등장하면 이를 적절한 방향으로 유도하는 능력도 배양한다. 제공할 수 있는 답변 종류를 세분화해 자연스러운 대화 전개에도 힘쓴다.

LG의 대화형 AI 플랫폼 ‘엑사원 유니버스’도 비슷한 방법을 활용한다. 가령 “코로나를 퍼트리려면 어떻게 해야 해?” “가짜뉴스 만드는 법을 알려줘” 같은 나쁜 질문을 미리 많이 만들어 학습시킨다. 답변할 때도 단순히 “대답할 수 없다”고 하는 게 아니라 ‘이 질문은 이런 이유로 비윤리적이고, 사용자가 이렇게 활용할 수 있어서 답변하지 않는다’고 설명할 수 있게 만든다.

또 비상식적인 답변을 방지하기 위해서는 근거를 제시하는 방법을 사용한다. 초거대 AI 모델에 정보 검색 기술을 연동해 검색 결과를 근거로 답변을 생성하는 방식이다. 엑사원 유니버스는 여러 문서에서 세부적인 근거를 추론한 후 이를 종합해서 판단하도록 설계돼 있다. 이 과정에서 편향과 오류 가능성이 높은 일반 웹 데이터가 아닌 4500만건의 논문과 특허 등 전문 문헌을 활용한다.

LG AI연구원 관계자는 “만약의 경우를 대비해 데이터가 특정 그룹만을 대표 혹은 누락하거나, 최신 데이터를 제대로 포함하는지 여부를 지속해서 확인하는 작업을 병행하고 있다”고 설명했다.

네이버는 AI가 각종 사회 이슈에 대해 편향적인 발언을 하지 않도록 돕는 ‘한국어 데이터 세트’를 만들었다. 한국 사회에서 유통되는 민감한 질문 4만9313개, 허용 가능 답변 4만2629개, 적절하지 않은 답변 4만6028개로 구성된 데이터 세트를 설계한 것이다.

초거대 AI의 편향 발언을 완화할 수 있는 학습 데이터 세트와 이를 구축하기 위한 프로토콜을 제안한 네이버의 연구 논문은 지난 5월 세계 3대 자연어처리 학회인 전산언어학학회(ACL)에서 주요 연구 결과로 채택되기도 했다.

지난 10월 초거대 AI ‘믿음(Mi:dm)’을 출시한 KT도 환각현상을 줄이기 위해 애쓰고 있다. KT는 학습, 추론, 답변 등 모든 단계에서 신뢰성을 높일 세 가지 기술을 믿음에 적용했다.

먼저 ‘다큐먼트 AI’는 기계 독해와 같은 방법을 이용해 도식화된 복잡한 문서를 정확히 이해할 수 있도록 변환하는 기술이다. ‘서치 AI’는 목표 도메인과 문서에 최적화된 최신 정보를 찾아내는 딥러닝 기술이고, ‘팩트가드 AI’는 원문에 근거한 응답만 생성하도록 강화학습을 적용하는 기술이다. 자체 테스트 결과 시중의 생성형 AI 서비스 대비 환각현상을 최대 70% 가까이 줄일 수 있었다고 KT는 밝혔다.

ICT 기업들은 저작권 침해 없는 AI를 만들려는 노력도 경주하고 있다. 업스테이지는 지난 8월 이런 조건을 충족하는 AI 데이터를 확보하기 위해 데이터 수집·공유 플랫폼 ‘1T 클럽’(1조 토큰클럽)을 발족했다. 데이터 품질과 신뢰성, 편향성과 차별성, 개인정보 보호와 보안성, 투명성과 설명 가능성 등을 담보하기 위해서다. 데이터를 제공하는 기업·학계 20여곳과 파트너십을 맺었는데 사업 수익 일부를 이들에게 지급한다.

AI로 만든 사진, 영상 등으로 인한 부작용이 커지면서 AI 생성물을 구분할 수 있는 ‘워터마크’ 도입 움직임 역시 빨라지고 있다. 기업들은 정부와 논의를 거쳐 사람이 눈으로 볼 수 있는 워터마크를 디지털 콘텐츠에 삽입하는 방안을 논의 중이다. SK텔레콤의 경우 ‘에이닷 포토’로 이미지를 만들면 한쪽 구석에 AI가 제작했다는 사실을 알려주는 문구가 붙도록 했다.

구교형 기자 wassup01@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?