네이버, AI 안전성 실천체계 공개…"3개월마다 위험 평가"

임태우 기자 2024. 6. 17. 14:06
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

네이버가 AI의 위험에 대응하는 방법을 담은 안전성 실천 체계를 발표했습니다.

네이버는 AI 위험을 크게 '통제력 상실 위험'과 '악용 위험' 둘로 구분했습니다.

이 가운데 '통제력 상실 위험' 관련해 AI 시스템의 위험을 주기적으로 평가 관리하고, 최고 성능 AI는 3개월마다 위험 평가를 수행하도록 했습니다.

네이버 관계자는 AI 안전성 체계를 설계하고 실천하는 것은 국내 최초라며 평가 결과 등을 외부에 공개하는 방안을 고민하고 있다고 밝혔습니다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.


네이버가 AI의 위험에 대응하는 방법을 담은 안전성 실천 체계를 발표했습니다.

네이버는 AI 위험을 크게 '통제력 상실 위험'과 '악용 위험' 둘로 구분했습니다.

이 가운데 '통제력 상실 위험' 관련해 AI 시스템의 위험을 주기적으로 평가 관리하고, 최고 성능 AI는 3개월마다 위험 평가를 수행하도록 했습니다.

'악용 위험'에 대해선 위험 평가 매트릭스를 적용해 사용 목적 등에 따라 맞춤형으로 관리하기로 했습니다.

네이버 관계자는 AI 안전성 체계를 설계하고 실천하는 것은 국내 최초라며 평가 결과 등을 외부에 공개하는 방안을 고민하고 있다고 밝혔습니다.

임태우 기자 eight@sbs.co.kr

Copyright © Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?