네이버, 'AI 안전 프레임워크'로 국가별 가치 AI에 반영한다

한광범 2024. 5. 26. 12:58
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

안전한 AI 해법 담길듯…"글로벌 AI 안전성 리더십 기대"
지속적 AI안전성 노력…AI정상회의 초대 등 글로벌도 '주목'
"AI의 잠재적 위험을 최소화 위한 안전성 검증 시스템 필요"

[이데일리 한광범 기자] 네이버가 다음달 공개 예정인 ‘네이버 AI 안전 프레임워크(NAVER AI Safety Framework)’를 통해 글로벌 AI 안전성 분야에서의 리더십 강화에 나선다. AI 안전 프레임워크가 문화별 가치를 반영한 안전성 검증 프로토콜의 국제적 선례가 될 수 있을지 관심이 모아지고 있다.

경기 성남 정자동에 위치한 네이버 사옥 ‘네이버 1784’. (사진=뉴시스)

네이버 창업자인 이해진 글로벌투자책임자(GIO)는 지난 21일 각국 정상과 빅테크 대표 등이 참석한 ‘AI 서울 정상회의(AI Seoul Summit)’ 정상 세션에서 AI 안전성과 AI 주권을 강조하며 “다음 달 네이버 AI 안전 프레임워크를 공개할 예정”이라고 밝혔다.

공개 예정인 네이버 AI 안전 프레임워크는 기존의 AI 안전성 실행 체계를 한층 강화한 것이 특징이다. 네이버 구성원이 산업 현장에서 AI 시스템을 개발하고 배포하는 과정에서 AI 안전성을 구체적으로 실천하기 위한 구체적 내용이 담기게 될 것으로 알려졌다.

네이버 관계자는 “글로벌 커뮤니티에서도 네이버 AI 안전 프레임워크를 참고해 각 국가 또는 문화권만의 가치를 반영한 안전성 검증 프로토콜을 설계할 수 있기를 기대한다”고 밝혀, AI 다양성과 안전성을 위한 획기적 방안이 담기게 될 것이란 점을 암시했다.

네이버, 2021년부터 AI 레드팀 운영…국내외 협업도 지속

네이버는 그동안 지속적으로 AI 안전성을 위한 노력을 이어왔다. 2021년 상반기 생성형 AI 안전성 강화를 위한 레드팀을 구성해 운영하고 있고, 이를 기반으로 자체 초대규모 AI 하이퍼클로바X의 경우 안전성 측면에서 우수한 평가를 받고 있다. 네이버클라우드가 지난달 공개한 하이퍼클로바X 테크니컬 리포트에 따르면 하이퍼클로바X 답변의 안전성은 비교 대상 모델들 중 가장 높은 점수를 받았다. 한국어 답변의 유해성을 평가하는, 벤치마크를 기준으로 답변의 질적 측면과 유해성을 종합적으로 고려했을 때도 리포트 내 비교 모델들 대비 가장 우수한 결과를 보였다.

하정우 네이버 퓨처AI센터장이 지난 22일 한국과학기술연구원(KIST)에서 열린 AI 서울 정상회의 AI 글로벌 포럼 전문가세션에서 발언하고 있다.(사진=강민구 기자)
AI 안전성을 위한 적극적인 외부 전문가와의 협력도 이어가고 있다. 서울대 AI 정책 이니셔티브(SNU AI Policy Initiative)와 협업하며 네이버의 모든 구성원이 AI 개발과 이용에 있어 준수해야 하는 원칙인 ‘네이버 AI 윤리 준칙’을 2021년에 발표했다. 서울대, 카이스트, 독일 튀빙겐대, 캐나다 토론토대 등 국내외 유수 기관과 설립한 공동 연구 센터들과 협업해 고도화된 AI 안전성 기술도 연구하고 있다. 나아가 올해 초 설립한 글로벌 AI 연구 및 정책 조직 ‘퓨처 AI 센터’에서는 국내외 AI 윤리 정책 전문가 그룹과 함께 AI 산업 생태계에 적용할 AI 윤리 정책도 수립해나가고 있다.

네이버는 지난해엔 AI가 종교·도덕 등 사회적으로 첨예한 이슈에 대해 편향적으로 발언하는 문제를 완화하기 위해 한국어로 구성된 데이터셋을 제안해 글로벌 최고 권위 AI 학회에 채택되기도 했다. 특히 문화권에 따라 편향적 발언의 기준이 다를 수 있다는 점을 고려해 다른 국가에서도 자체적으로 데이터셋을 구축할 수 있도록 설계 방법을 함께 제안해 학계의 주목을 받기도 했다.

다양성 지키기 위한 ‘소버린 AI’ 필요성 지속 강조

이 같은 노력으로 네이버는 두 차례 열린 AI 정상회의에 글로벌 기업들과 함께 참가하며 AI 기술력 및 AI 안전성을 위한 노력이 글로벌에서도 인정받았다. 글로벌 빅테크들이 참가해 AI 안전성 연구 및 레드팀 운영 관련 협력을 논의한 AI 정상회의에 국내 기업 중엔 네이버와 삼성전자만 두 번 모두 참석했다.

하정우 네이버 퓨처 AI 센터장은 지난 22일 AI 글로벌 포럼에서 “생성형 AI가 생산성 혁신을 불러올 수 있지만 AI의 잠재적 위험을 최소화하기 위해 안전성을 검증할 수 있는 시스템이나 프로토콜을 만들어야 한다”며 안전한 AI 구축을 위해 네이버가 수행한 노력을 소개했다.

하 센터장은 “보편적인 가치를 훼손하지 않는 선에서 AI 안전성에는 각 문화나 지역의 특징적인 가치를 반영해야 한다”며 “해당 문화에 적합한 안전성 검증 프로토콜을 효과적으로 구축할 수 있는 도구를 제공해야 한다”고 말했다. 그러면서 안전한 AI가 만들어낸 혁신의 기회에서 어떤 사람이나 이해관계자, 국가도 배제되지 않으려면 모든 국가들이 각국의 문화와 맥락을 충분히 이해하고 있는 소버린 AI를 개발할 수 있도록 도와야 한다고 강조했다.

한광범 (totoro@edaily.co.kr)

Copyright © 이데일리. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?