AI 신뢰성 검증, 11월부터 민간자율로 실시

박수형 기자 2023. 10. 25. 15:39
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 신뢰 확보를 위해 민간 자율 형태의 신뢰성 검증과 인증을 11월부터 추진한다.

과학기술정보통신부는 25일 LG사이언스파크에서 제4차 AI최고위전략대화를 열고 안전한 AI 확산방안을 논의하면서 '인공지능 윤리 신뢰성 확보 추진계획'을 발표했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

과기정통부, '최고위 전략대화'서 윤리·신뢰성 확보 추진계획 발표

(지디넷코리아=박수형 기자)인공지능(AI) 신뢰 확보를 위해 민간 자율 형태의 신뢰성 검증과 인증을 11월부터 추진한다.

과학기술정보통신부는 25일 LG사이언스파크에서 제4차 AI최고위전략대화를 열고 안전한 AI 확산방안을 논의하면서 ‘인공지능 윤리 신뢰성 확보 추진계획’을 발표했다.

이 추진계획은 ▲민간 자율 인공지능 윤리 신뢰성 확보 지원 ▲세계를 선도하는 인공지능 윤리 신뢰성 기술 제도적 기반 마련 ▲사회 전반 책임 있는 인공지능 의식 확산 등 인공지능 윤리 신뢰성 모범국가를 위한 내용이다.

이를 위해 주요 국가와 국제기구들이 AI 신뢰성 확보를 산업 발전의 전제로 인식해 가이드라인 등 자율 실천방안을 제시하는 상황에서 ‘국가 인공지능 윤리기준’의 구체적 실천수단으로 채용, 생성형 인공지능 기반 서비스 등 분야별 가이드라인을 마련할 예정이다.

특히 민간 자율 AI 신뢰성 검증과 인증을 11월부터 추진할 계획이다. AI 사업 중 고위험 영역 AI 개발 실증 사업을 수행하는 기업을 일부 선정해 12월에 시범 인증을 추진할 예정이다.

AI 자체가 내포하는 편향성, 불투명성 등 기술적 한계와 인공지능 오작동 등에 따른 AI의 잠재 위험요인에 대응하기 위해 기존 AI의 한계를 극복하고 초거대 AI의 신뢰성을 확보하기 위한 기술개발을 내년부터 신규 추진할 예정이다.

챗GPT와 같은 초거대 AI 확산으로 AI가 가져다 줄 혜택에 대한 기대와 함께 안전에 대한 위험성 우려가 확대되는 상황에서 AI 생성한 결과물에 대한 워터마크 도입의 제도화를 검토한다.

고위험 AI에 대한 해설서를 내년 1분기에 마련해 신뢰성 확보를 위한 제도 정립 과제를 추진할 방침이다.

이종호 장관은 “인공지능은 디지털 심화 시대의 핵심기술로서 인공지능의 신뢰성과 안전성을 확보하기 위한 노력이 무엇보다 중요하다”고 말했다.

이어, “민간 자율 인공지능 신뢰성 검증 인증 지원을 비롯한 인공지능 윤리 생태계 기반 조성과, 적합한 규제 체계를 정립해가는 데 힘쓰겠다”면서 “관계부처와 함께 인공지능 윤리 신뢰성을 확보할 수 있는 정책방안을 보완해 새로운 디지털 질서의 모범이 되기 위하여 최선을 다하겠다”고 강조했다.

박수형 기자(psooh@zdnet.co.kr)

Copyright © 지디넷코리아. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?