“AI 악용·통제력 상실 막는다”…네이버, 안전성 실천 체계 발표

이주은 2024. 6. 17. 10:16
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

네이버는 AI(인공지능) 안전성 실천 체계 '네이버 ASF(AI Safety Framework)'를 17일 발표했다.

네이버가 AI 시스템을 개발하고 배포하는 과정에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계이다.

네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 각각 '통제력 상실 위험'과 '악용 위험'으로 정의하고, 이에 대한 대응 방법을 설계한 것이 특징이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 잠재적 위험 대응 체계 마련
문화적 특성 반영해 시스템 고도화
최수연 네이버 대표.ⓒ네이버

네이버는 AI(인공지능) 안전성 실천 체계 ‘네이버 ASF(AI Safety Framework)’를 17일 발표했다. 네이버가 AI 시스템을 개발하고 배포하는 과정에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계이다.

네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 각각 ‘통제력 상실 위험’과 ‘악용 위험’으로 정의하고, 이에 대한 대응 방법을 설계한 것이 특징이다.

먼저 인간이 AI 시스템에 영향을 미치지 못하게 되는 ‘통제력 상실 위험’을 완화하기 위해, AI 위험 평가 스케일을 통해 시스템의 위험을 주기적으로 평가하고 관리한다. 현존 최고 성능의 AI 시스템을 ‘프런티어 AI’로 정의하고, 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다. 시스템의 능력이 기존보다 6배 이상 급격히 증가한 경우에는 그 시점에 추가 평가가 이뤄진다.

또 다른 잠재적 위험인 악용 가능성에는 ‘AI 위험 평가 매트릭스’를 적용해 대응한다. AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리하는 것이다.

예컨대, 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화한다. 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템이라면 추가적인 기술적·정책적 안전 조치를 통해 위험이 완화될 때까지는 배포하지 않는다.

네이버는 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시켜나갈 계획이다. 한국 외 다른 지역의 정부 및 기업과 소버린 AI를 공동 개발해 특정 문화권에서 성립될 수 있는 위험을 식별하고, 위험의 정도를 측정하는 벤치마크도 문화권의 특성을 반영해 고도화할 예정이다.

최수연 네이버 대표이사는 “향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선해나갈 계획”이라며 “이를 통해 다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 사용되며 공존하는 지속 가능한 AI 생태계에 네이버가 적극적으로 기여할 것”이라고 말했다.

하정우 네이버 퓨처 AI 센터장은 “네이버 ASF는 생성형 AI 시대에 네이버가 다시 한 번 선제적으로 수립한 안전성 검증 프로토콜로, 이러한 앞선 경험을 글로벌 커뮤니티에도 공유하며 AI 안전성 분야 리더십을 확보해나갈 것”이라고 밝혔다.

Copyright © 데일리안. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?