챗GPT 사용 이렇게···국정원 '보안 가이드라인’ 배포

강도림 기자 2023. 6. 29. 09:29
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

국가정보원이 '챗GPT 등 생성형 인공지능(AI) 활용 보안 가이드라인'을 29일 공개했다.

앞서 국정원은 챗GPT 등 생성형 AI 기술 활용 과정에서 개인정보 유출, 가짜뉴스 생성 등의 기술 악용 우려가 제기되자 지난 4월 국가보안기술연구소와 학계 전문가들과 함께 이번 보안 가이드라인 제정에 착수했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

생성형 AI 보안 위협 등 소개
공공분야 AI 안전한 사용 목적
[서울경제]

국가정보원이 ‘챗GPT 등 생성형 인공지능(AI) 활용 보안 가이드라인’을 29일 공개했다. 챗GPT와 관련된 보안 문제를 사전에 예방하기 위한 목적이다.

가이드라인은 생성형 AI 기술 서비스 접속부터 질의, 결과물 활용 등 과정 전반에서 지켜야 할 보안 지침을 단계별로 안내한다. 기관 담당자와 일반 국민들 눈높이에 맞춰 챗GPT 사례 중심의 해외 동향, 보안 위협 사례, 국가·공공기관의 정보화사업 구축 방안 및 보안 대책 등도 소개한다.

국정원은 생성형 AI 기술을 안전하게 이용하기 위한 필수 보안 수칙으로 △비공개·개인정보 등 민감 정보 입력 금지 △생성물에 대한 정확성·윤리성·적합성 등 재검증 △생성물 활용시 지적 재산권·저작권 등 법률 침해·위반여부 확인 △연계·확장 프로그램 사용 시 보안 취약 여부 등 안전성 확인 △로그인 계정에 대한 보안 설정 강화 등을 제시했다.

국정원은 국가 공공기관과 지자체 외에 교육부와 협조해 이번 보안 가이드라인을 국내 420여개 국·공·사립대학 등에 배포할 계획이다. 국정원 국가사이버안보센터 홈페이지에서도 볼 수 있다.

앞서 국정원은 챗GPT 등 생성형 AI 기술 활용 과정에서 개인정보 유출, 가짜뉴스 생성 등의 기술 악용 우려가 제기되자 지난 4월 국가보안기술연구소와 학계 전문가들과 함께 이번 보안 가이드라인 제정에 착수했다. 지난 9일에는 ‘국가 사이버안보 민관 협의체 회의’를 열고 관련 분야 산학연 전문가 의견을 청취했다.

국정원 관계자는 "챗GPT 등이 각광을 받으면서 여러 공공기관이 해당 기술을 활용하려고 했지만 정부 차원의 보안 대책이 없어 기술 도입이 어려운 상황이었다”며 "공공분야를 비롯한 대한민국 전역에서 AI 등 IT 신기술이 안전하게 사용될 수 있도록 지속적으로 노력하겠다"고 말했다.

강도림 기자 dorimi@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?