국정원 “생성형AI에 함부로 개인정보 입력하지 마세요”

이현호 기자 2023. 6. 29. 11:03
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

국정원은 생성형 AI 기술을 안전하게 이용하려면 개인 정보나 비공개 정보 등 민감한 내용을 입력해서는 안 된다고 권고했다.

국정원은 29일 이 같은 내용을 담은 '챗 GPT 등 생성형 AI 활용 보안 가이드라인'을 공개했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

국정원, ‘챗GPT 등 생성형 AI 활용 보안 가이드라인’ 배포
[서울경제]

국정원은 생성형 AI 기술을 안전하게 이용하려면 개인 정보나 비공개 정보 등 민감한 내용을 입력해서는 안 된다고 권고했다.

국정원은 29일 이 같은 내용을 담은 ‘챗 GPT 등 생성형 AI 활용 보안 가이드라인’을 공개했다.

가이드라인에 따르면 △생성물에 대한 정확성·윤리성·적합성 등 재검증 △생성물 활용시 지적 재산권·저작권 등 법률 침해 및 위반여부 확인 △연계·확장프로그램 사용시 보안 취약여부 등 안전성 확인 △로그인 계정에 대한 보안설정 강화 등이 필요하다고 제시했다.

또 생성형 AI기술과 관련한 △개요 및 해외동향(챗GPT 사례 중심) △보안위협 사례 △기술 사용 가이드라인 △국가·공공기관의 정보화사업 구축 방안 및 보안대책 등이 담겼다.

국정원 관계자는 “챗GPT 등이 각광을 받으면서 여러 공공기관이 해당 기술을 활용하려고 했지만 정부 차원의 보안 대책이 없어 기술도입이 어려운 상황이었다”며 “이번 보안 가이드라인을 마련해 각급기관이 생성형 AI기술을 적극 활용할 수 있는 토대가 형성되길 기대한다”고 했다.

이현호 기자 hhlee@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?