안전한 AI 활용 힘써 온 네이버...ASF로 글로벌 리더십 확보
ASF 위험 평가 결과, 실천 경험 외부에 공유...생태계 구성
국내외 유수 연구기관, 전문가와 적극 협력...커뮤니티에 공유
안전한 인공지능(AI) 활용을 강조해온 네이버는 '혼자' 잘하는 것이 아니라 다함께 잘하기 위해 ASF 성과를 글로벌에 공유하면서 AI 안정성 분야 리더십을 확보해나갈 계획이다.
네이버는 17일 자체 기술 채널인 '채널 테크'를 통해 '네이버 ASF(AI Safety Framework)'를 발표했다. AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계다. 네이버 ASF는 인간의 AI 통제력 상실 위험을 완화하기 위해 'AI 위험 평가 스케일'을 통해 AI 시스템의 위험을 주기적으로 평가하고 관리한다. 악용에 대해서는 'AI 위험 평가 매트릭스'를 적용해 대응한다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리한다.
네이버는 '네이버 ASF'를 토대로 안전한 AI 활용을 실천하기 위해 거버넌스를 구축했다. 거버넌스는 △AI 시스템 위험에 대한 실무적인 논의 기구 '퓨처 AI 센터', 실무적으로 논의된 AI 시스템 위험에 대해 이사회에 보고할 사항을 판단하는 '리스크관리워킹그룹' △AI 시스템 위험에 대한 최종적인 의사결정 기구 '이사회(리스크관리위원회)' 등으로 구성됐다.
네이버는 AI 안정성 확보를 위해 내부적으로 다양한 평가 방식을 수립해왔다. 레드티밍, 적대적 프롬프팅(adversarial prompt) 등 테스트를 통해 위험을 살펴보고 있으며 테스트 방법을 고도화해나갈 예정이다. ASF 고도화를 위한 협력도 진행해왔다. 지난 4월 정부기관, 생성형 AI 기업, 다양한 분야의 참가자들과 함께 진행한 '생성형 AI 레드팀 챌린지'가 대표적이다. 레드티밍은 AI의 잠재적 취약점과 편향성을 테스트해 신뢰성과 성능을 높이는 프로세스다.
레드팀 챌린지는 다양한 참가자들이 탈옥, 편견·차별, 인권침해, 사이버 공격, 불법콘텐츠, 잘못된 정보, 일관성 등 7개 주제를 대상으로 잠재적 위험과 취약점을 찾는 방식으로 진행됐다. 참가자들은 유해한 콘텐츠를 유도하거나 특정 사회적 집단에 대한 고정관념이나 편견에 근거한 부정적 응답 제공 등을 유도하며 생성형 AI 모델의 취약점을 발굴했다.
네이버는 ASF를 활용한 위험 평가 결과나 실천 경험을 외부에 공유하면서 ASF를 지속적으로 개선함과 동시에 안전한 AI 생태계 를 구성해나갈 계획이다.
앞서 지난 4월 '하이퍼클로바X 테크니컬 리포트'를 통해 하이퍼클로바X의 AI 안전성 평가 결과를 공개한 바 있다. AI 안전성과 관련해 하이퍼클로바X에 적용된 윤리 준칙과 이를 지키기 위한 레드티밍 테스트, 안전성 데이터 수집, 안전성 평가 등의 내용이 포함됐다. 네이버는 이와 같은 방식으로 외부에 공개하는 방안을 검토 중이다.
하정우 네이버 퓨처 AI 센터장은 "네이버는 국내외 유수 연구기관 및 전문가들과 적극적으로 협력하며 AI 안전성 관련 선행 연구와 정책 분야에서 다양한 성과를 거두며 안전하고 지속 가능한 AI 생태계를 만드는 데 앞장서왔다"며 "특히 최근에는 UN의 AI 안전성 보고서 작성에 기술 자문을 제공하고 다수 빅테크들이 참여하는 개방형 컨소시엄 'MLCommons'에서 AI 안전 벤치마크 구축 작업에 기여하는 등 글로벌 커뮤니티와의 협업을 늘려가고 있다"고 설명했다.
하정우 센터장은 "네이버 ASF는 생성형 AI 시대에 네이버가 다시 한 번 선제적으로 수립한 안전성 검증 프로토콜로, 이러한 앞선 경험을 글로벌 커뮤니티에도 공유하며 AI 안전성 분야 리더십을 확보해나갈 것"이라고 강조했다.
네이버는 AI를 '사용자를 위한 일상의 도구'로써 AI의 개발과 이용에 있어 인간 중심의 가치를 최우선으로 내다보고 있으며 AI 시스템과 관련된 위험을 예방하기 위해 NAVER ASF를 구현하고 실천하기 위한 방안을 소개했다. △안전한 소버린 AI 공동개발 △ASF 통한 AI 정책 고도화 △AI 세이프티 관리구조 구체화 △글로벌 AI 세이프티 움직임 동참 등이다. 기술 발전에 따른 글로벌 논의 흐름을 ASF에 지속 반영, 개선하며 이를 위해 국내외 AI 안전 연구소 네트워크, Frontier Model Forum, UN, OECD 등과 긴밀히 협력할 계획이다.
송대섭 네이버 아젠다 리서치 리더는 "AI 개발에 있어서 '사람을 위한 AI'라는 보편적 가치와 '다양성'을 조화롭게 고려할 필요가 있다고 믿으며 AI 안전성도 글로벌 움직임에 발맞추는 한편 각 지역의 사회기술적 맥락(socio-technical context)을 고려해 접근하는 것이 중요하다고 생각한다"며"이러한 관점이 네이버 ASF에도 담겨 있으며, 향후 AI 기술 발전에 따른 AI 안전성 관련 글로벌 논의 흐름에 맞춰 네이버 ASF를 지속적으로 개선할 것"이라고 밝혔다.김영욱기자 wook95@dt.co.kr
Copyright © 디지털타임스. 무단전재 및 재배포 금지.
- 헌법84조로 이재명 겨눈 한동훈...국민 73% "대통령돼도 형사재판해야"
- `나이롱 환자` 이렇게 만들어졌다…기록 조작해 11억 가로챈 의사
- "올림픽 누구도 원치 않아"...파리 시민들, SNS로 보이콧
- ‘이태원 참사’ 희생자 찾은 이언주 “그곳에 걸린 사진 보니 슬픔 밀려와”
- ‘피 토하며 후원금 요청` 정유라…감정 복받친 지지자들 “많이 못보내 미안”
- 韓 "여야의정 제안 뒤집고 가상자산 뜬금 과세… 민주당 관성적 반대냐"
- [트럼프 2기 시동] 트럼프, 김정은과 협상할까… "트럼프 일방적 양보 안 할 것"
- 내년 세계성장률 3.2→3.0%… `트럼피즘` 美 0.4%p 상승
- `범현대 3세` 정기선 수석부회장, HD현대 방향성 주도한다
- "AI전환과 글로벌경쟁 가속… 힘 합쳐 도약 이뤄야"