국정원, 챗GPT 통한 보안 허점 막는다…가이드라인 6월 중 마련

박소은 기자 2023. 6. 11. 15:02
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

국가정보원(국정원)이 챗GPT 등 생성형 AI기술 활용 과정에서 발생할 수 있는 보안 문제를 사전 예방하기 위해 보안 가이드라인을 마련중이라고 11일 밝혔다.

이에 국정원은 지난 4월부터 국가보안기술연구소 및 학계 전문가 합동으로 '챗GPT 등 생성형 AI 기술 활용 보안 가이드라인' 제정에 착수했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

국정원, '챗GPT 등 생성형 AI기술 활용 보안가이드라인' 제정中
산학연 전문가 의견 및 현장 목소리 반영해 6월中 각급기관 배포
국가정보원 로고

(서울=뉴스1) 박소은 기자 = 국가정보원(국정원)이 챗GPT 등 생성형 AI기술 활용 과정에서 발생할 수 있는 보안 문제를 사전 예방하기 위해 보안 가이드라인을 마련중이라고 11일 밝혔다.

이와 관련 국정원은 관련 분야 산학연(産學硏) 전문가 의견 청취를 위해 '국가 사이버안보 민관(民官) 협의체 회의'를 9일 개최했다.

이번 국정원의 보안 가이드라인 제정 및 전문가 의견 청취는 관련기술 활용 과정에서 △업무상 비밀·개인정보 유출 △가짜뉴스·비윤리적 자료 생성 등 기술 악용 우려가 제기돼 온 가운데 AI기술을 통해 행정업무 효율화를 달성하려는 정부기관들을 지원하기 위한 것이다.

최근 미국과 유럽연합은 정부차원에서 챗GPT 사용시 부작용 방지를 위한 ‘AI 행동강령’ 제작에 착수했다. 이탈리아 정부는 ‘정보보호’ 명목으로 챗GPT 접속을 차단했다가 운영사의 보안조치 시행을 확인한 뒤 접속을 재개하기도 했다. 또한 국내외 민간 기업들도 사내 보안정책을 강화하는 추세이다.

이에 국정원은 지난 4월부터 국가보안기술연구소 및 학계 전문가 합동으로 '챗GPT 등 생성형 AI 기술 활용 보안 가이드라인' 제정에 착수했다. 해당 가이드라인(案)에는 △생성형 AI 기술 개요 및 보안위협 △안전한 AI 기술 사용 방안 △기관 정보화사업 보안대책 등의 내용을 담았다.

이날 회의에는 '국가 사이버안보 민관 협의체'소속 AI기술 및 정보보안 전문가를 포함해 행정안전부·교육부 등 각 부처 정보보안 담당자 등 60여명이 참여했다.

권태경 한국정보보호학회 AI보안연구회 부위원장(연세대 교수)은 “기술의 발전만큼 중요한 것이 관련 보안제도의 마련이다. 보안정책의 기틀 위에서 AI기술 활용이 이루어져야 한다”고 말했다.

아울러 국정원은 “국가기관에서 AI 기술 사용시, 민간기술 등을 활용하여 정부 차원 AI모델을 행정업무망 내부에 자체 구축하는 형태가 되어야 한다”고 지적했다.

이어 “이날 논의된 내용과 기관별 애로사항을 반영해 이달중 전체 국가공공기관 및 지자체에 보안가이드라인을 배포할 계획”이며 “앞으로 지속 등장하는 IT 신기술에 대한 보안대책을 적시 마련해 각급기관의 안전한 정보통신기술 활용을 지원할 방침”이라고 전했다.

soso@news1.kr

Copyright © 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.

이 기사에 대해 어떻게 생각하시나요?