정부, 챗GPT 보안 유의 당부…"개인정보·비공개 자료 입력 안돼"

윤지원 기자 이기범 기자 2023. 5. 3. 16:18
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

정부가 전부처 공무원에게 챗GPT 등 생성형 인공지능(AI) 활용 시 보안에 유의해달라고 당부했다.

3일 정부 부처 등에 따르면 전날 국가정보원은 '챗GPT 등 언어모델 AI 활용 시 보안 유의사항 안내' 공문을 전부처에 전달했다.

공문은 "최근 챗GPT 등 대형 언어모델(LLM) 기반 인공지능 기술의 업무 활용 소요 증가에 따라 정보 수집·데이터 유출 등 보안 우려가 지속 제기되고 있다"고 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

지난 2일 '챗GPT 등 언어모델 AI 활용 시 보안 유의사항 안내' 공문 전달
"공개된 정보 위주로 챗GPT 사용해야"…국정원 보안성 검토도 강조
미국 인공지능(AI) 회사 오픈AI가 개발한 AI 채팅로봇 '챗GPT' ⓒ 로이터=뉴스1 ⓒ News1 김성식 기자

(서울=뉴스1) 윤지원 이기범 기자 = 정부가 전부처 공무원에게 챗GPT 등 생성형 인공지능(AI) 활용 시 보안에 유의해달라고 당부했다.

3일 정부 부처 등에 따르면 전날 국가정보원은 '챗GPT 등 언어모델 AI 활용 시 보안 유의사항 안내' 공문을 전부처에 전달했다.

공문에 따르면 공무원은 공개된 정보 위주로 보안에 유의해 챗GPT를 사용해야 한다. △개인정보 △비공개 업무자료 등 민감정보 입력 시 정보가 유출될 수 있기 때문이다.

공문은 "최근 챗GPT 등 대형 언어모델(LLM) 기반 인공지능 기술의 업무 활용 소요 증가에 따라 정보 수집·데이터 유출 등 보안 우려가 지속 제기되고 있다"고 밝혔다.

또 'GPT API' 도입 등 대형 언어모델 기반의 AI 기술을 활용한 정보화 사업을 추진할 때 국정원의 사전 보안성 검토를 거쳐야 한다.

'국가 정보 보안 기본 지침' 제15조 제1항 제19호에 따르면 첨단 정보 통신 기술 활용 정보화 사업으로서 국정원장이 해당 기술에 대해 안정성 확인이 필요하다고 지정하는 사업은 국정원 보안성 검토 대상에 해당한다.

정부뿐만 아니라 기업들도 최근 챗GPT 활용으로 인한 보안 유출 방지에 나서고 있다. 삼성전자는 직원들에게 챗GPT, 마이크로소프트의 검색엔진 빙(Bing) 등 생성형 AI 사용을 잠정 제한하기로 했다.

g1@news1.kr

Copyright © 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.

이 기사에 대해 어떻게 생각하시나요?