네이버-서울대, AI 윤리준칙 공개..활용사례 공유하고 스타트업 돕겠다

김명희 2021. 2. 17. 14:12
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

네이버가 3년 전부터 서울대 등 학계 전문가와 협업해 만든 '네이버 인공지능(AI) 윤리 준칙'을 바탕으로 관련 사례를 공개하고 스타트업을 돕겠다고 나섰다.

네이버는 AI 윤리 준칙이 단순 구호가 되지 않도록 단계적 실천방안도 발표했다. 이른바 '이루다AI' 쇼크로 인해 AI 기술 발전이나 스타트업 활동이 저해하지 않도록 빅테크 기업이 앞장서 기술 개발 및 이용 사례를 공개하기로 했다. AI 기술 리더로서 첫 걸음이다.

네이버는 17일 서울대 인공지능 정책 이니셔티브(SNU AI Policy Initiative, SAPI)와 '인공지능 윤리: 원칙을 넘어 실천으로-현장에서 논하는 AI 윤리' 웨비나를 공동 개최하고, 이같은 내용을 밝혔다.

네이버 AI 윤리 준칙은 △사람을 위한 AI 개발 △다양성의 존중 △합리적인 설명과 편리성의 조화 △안전을 고려한 서비스 설계 △프라이버시 보호와 정보 보안 등 5개 조항으로 구성됐다.

네이버의 모든 구성원이 AI 개발과 이용에 있어 준수해야 하는 원칙이다. 개발자뿐 아니라 아이디어 단계부터 개발, 마케팅에 이르기까지 AI를 활용하는 모든 구성원은 참고해야 한다.

이번 서울대와 협력은 AI 윤리 준칙 마련에만 그치는 것이 아닌 전방위 협력으로 이뤄졌다. 서울대와 네이버는 2018년부터 협업해 왔으며, 앞으로도 학계와 협력을 지속한다는 방침이다.

네이버는 단계적 실험을 통한 실천 방안도 제시했다. 사내 커뮤니케이션 채널을 마련해 프로젝트 진행이나 서비스 개발 시 사안을 중심으로 문의하고, 논의를 진행할 수 있도록 한다.

네이버는 SAPI와 협력하며 사례 중심의 이슈 페이퍼 및 커뮤니케이션 채널의 운영 경과를 담은 프로그레스 리포트도 발간한다. 스타트업 지원기관과 연계해 AI 이슈에 대해 미리 고민할 수 있도록, 경험과 노하우를 전달할 계획이다.

최근 AI챗봇 '이루다' 논란으로 인해 우리 사회에 AI 윤리가 중요한 거버넌스 원리로 주목받고 있다. 디지털 경제로 이행하는 상황에서 AI 윤리가 추상적 원칙이 아니라 기업 내부의 구체적 프로세스로 자리잡는 모범사례의 필요성이 한층 높아졌다. 성공사례 뿐만 아니라 실패사례에 대한 공유나 연구도 요구된다. 시간과 자원이 부족한 스타트업의 경우 내부 AI 윤리 준칙이나 관련 프로세스 수립에 어려움을 겪을 수 있다.

임용 서울대 법학전문대학원 교수는 “이루다 사태뿐만 아니라 AI는 필연적으로 사건, 사고가 많이 일어나고 오류가 날 수 밖에 없다”면서 “실패가 있더라도 바로 폐기하는 게 아니라 왜 어떻게 실패했는지 들여다보고 논의하는 발전적 논의를 해야 결과적으로 이용자에게 더 나은 서비스를 제공해줄 수 있다”고 강조했다.

송대섭 네이버 정책연구실장은 “네이버 AI 윤리 준칙을 수립해 발표하는 것은 이 프로젝트의 시작 단계일 뿐”이라며 “앞으로도 학계와 계속 협업하고, 현장 적용 사례를 축적하며, 지속적으로 실천 가능한 방향으로 준칙을 더욱 구체화하고 개선해나갈 것”이라고 밝혔다.

※네이버 AI 윤리 준칙(NAVER Artificial Intelligence Ethics Principles) 주요 내용

1. 사람을 위한 AI 개발

네이버가 개발하고 이용하는 AI는 사람을 위한 일상의 도구다. 네이버는 AI의 개발과 이용에 있어 인간 중심의 가치를 최우선으로 삼는다.

2. 다양성의 존중

네이버는 다양성의 가치를 고려해 AI가 사용자를 포함한 모든 사람에게 부당한 차별을 하지 않도록 개발하고 이용한다.

3. 합리적인 설명과 편리성의 조화

네이버는 누구나 편리하게 AI를 활용하도록 도우면서, 일상에서 AI의 관여가 있는 경우 사용자에게 그에 대한 합리적인 설명을 하기 위한 책무를 다한다. 네이버는 AI에 관한 합리적인 설명의 방식과 수준이 다양할 수 있다는 점을 고려해, 이를 구체적으로 실현하기 위하여 노력한다.

4. 안전을 고려한 서비스 설계

네이버는 안전에 유의하여, 서비스의 전 과정에서 사람에게 유해한 영향을 미치지 않는 AI 서비스를 설계한다.

5. 프라이버시 보호와 정보 보안

네이버는 AI를 개발하고 이용하는 과정에서 개인정보 보호에 대한 법적 책임과 의무를 넘어 사용자의 프라이버시가 보호될 수 있도록 노력한다. 또한 개발 단계를 포함해 AI 서비스의 전 과정에서 정보 보안을 고려한 설계를 적용한다.

김명희기자 noprint@etnews.com

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?