"하이퍼클로바X, 데이터세트 학습으로 윤리·안전성 확보노력"

오규진 2023. 8. 24. 15:58
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

네이버는 새로운 거대언어모델(LLM) '하이퍼클로바X' 개발 과정에서 자체 데이터세트를 반복 학습하고 고도화해 '신뢰할 수 있는' 인공지능(AI)을 만드는 데 주력했다고 설명했다.

이화란 네이버클라우드 랭귀지 리서치 리더는 24일 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '팀 네이버 콘퍼런스 단 23'에서 "다양한 공동 연구를 통해 언어모델의 윤리·안전성을 높이기 위해 '스퀘어'(SQuARe)와 '코스비'(KoSBi)라는 두 가지 데이터세트를 정의하고 구축했다"고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"자체 데이터세트로 신뢰수준 제고"…AI 윤리 자문에 외부 전문가 시각 반영
발언하는 성낙호 하어퍼스케일 AI 기술 총괄 (서울=연합뉴스) 성낙호 네이버클라우드 하어퍼스케일 AI 기술 총괄이 24일 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 컨퍼런스 '단(DAN) 23'에서 발언하고 있다. 2023.8.24 [네이버 제공. 재판매 및 DB 금지] photo@yna.co.kr

(서울=연합뉴스) 오규진 기자 = 네이버는 새로운 거대언어모델(LLM) '하이퍼클로바X' 개발 과정에서 자체 데이터세트를 반복 학습하고 고도화해 '신뢰할 수 있는' 인공지능(AI)을 만드는 데 주력했다고 설명했다.

AI의 답변이 윤리적 논란을 일으키거나 정치적 논쟁 등에 휘말리지 않게 하기 위해서다.

이화란 네이버클라우드 랭귀지 리서치 리더는 24일 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '팀 네이버 콘퍼런스 단 23'에서 "다양한 공동 연구를 통해 언어모델의 윤리·안전성을 높이기 위해 '스퀘어'(SQuARe)와 '코스비'(KoSBi)라는 두 가지 데이터세트를 정의하고 구축했다"고 밝혔다.

스퀘어는 객관적인 정보를 요구하지 않는 질문 가운데 다양한 의견이 나올 수 있는 질문, 명확한 윤리 기준에 따라서 대답해야 하는 질문, 미래를 예측하고 판단하면서 사용자에게 잘못된 영향을 미칠 수 있는 질문 등을 고려했다.

네이버는 사용자 파일럿스터디와 다각적 전문가 논의를 거쳐 수용할 수 있는 답변을 여섯 가지로 분류했다. 여기에는 다양한 사회적 그룹과 의견을 포용하고, 윤리적이며, 미래를 예측하지 않고, 객관적이며, 회피하는 답변 등이 포함된다.

예컨대 '우리 모두가 믿어야 할 종교는 무엇인가' 같은 질문에 하이퍼클로바X는 특정 종교에 대한 편향적 답변을 하기보단 '누구나 자신이 선택한 종교를 믿을 권리가 있다'는 식으로 답변을 생성한다.

코스비는 한국 실정에 맞게 윤리적 발화를 생성하기 위한 데이터세트다.

네이버는 유엔(UN)의 '세계인권선언'과 국가인권위원회 기준에 맞춰 15개 카테고리, 사회적 그룹 72곳으로 이용자들을 분류했다고 소개했다.

이 리더는 "기존에 나온 사회적 편견 관련 연구들은 주로 영미권 문화를 바탕으로 하다 보니 한국 실정에 맞지 않는 경우가 많았다"면서 "국내에 있는 다양한 집단을 폭넓게 존중하기 위함"이라고 강조했다.

회사는 하이퍼클로바가 다량으로 생성한 예제 문장을 사람이 직접 레이블링한 뒤, 모델이 이를 반복 학습하는 방식으로 데이터세트를 만들었다고 소개했다.

이를 통해 스퀘어와 코스비는 각각 13만9천854개와 6만7천993개 문장으로 이뤄진 학습 데이터세트를 보유하게 됐다.

네이버는 스퀘어와 코스비 데이터세트를 외부에 공개하는 한편, 언어모델이 사회에 사용됐을 때의 영향력을 분석하고, 의도적으로 취약점 등을 노려 분석하는 '레드티밍' 기법을 고도화하면서 모델의 신뢰를 높일 예정이다.

아울러 인공지능에서 제기되는 윤리적 우려 사항을 부서 단위가 아닌, 전사적 관점 또는 외부 전문가 시선에서 살펴보고 개선할 수 있도록 체크(CHEC) 윤리 자문 프로세스를 구축할 방침이다.

acdc@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?