보안에 막힌 AI 대중화… 개발사들 ‘폐쇄 서비스’ 대안 마련
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
챗GPT와 같은 생성형 인공지능(AI)을 업무에 활용하는 사람들이 늘면서 민감 정보의 유출 우려도 커지고 있다.
산업계에선 '정보보안 신뢰성'이 쌓일 때까지 기업이나 정부가 생성형 AI를 업무 영역에 적극적으로 도입할 수 없을 것이라는 전망도 내놓는다.
삼성전자는 "생성형 AI에 입력된 내용은 외부 서버에 전송·저장된 뒤 AI 학습에 활용되므로 한 번 업로드한 내용을 회수, 삭제할 수 없다. 회사의 중요 정보가 다른 사람의 질문에 대한 답변으로 쓰일 수 있는 등 심각한 보안 위험이 있다"고 설명했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
정부, 비공개·개인정보 입력 제한
MS, ‘프라이빗 챗GPT’ 출시 계획
챗GPT와 같은 생성형 인공지능(AI)을 업무에 활용하는 사람들이 늘면서 민감 정보의 유출 우려도 커지고 있다. 생성형 AI의 답변을 얻기 위해 데이터를 입력하면, 이 데이터들은 AI 학습에 재활용될 수 있다. 민감한 정보를 입력하면 그대로 외부에 유출될 위험성이 높은 것이다. 산업계에선 ‘정보보안 신뢰성’이 쌓일 때까지 기업이나 정부가 생성형 AI를 업무 영역에 적극적으로 도입할 수 없을 것이라는 전망도 내놓는다.
7일 산업계에 따르면 기업들은 잇따라 생성형 AI의 업무영역 활용을 제한하고 나섰다. 삼성전자 DX(디바이스경험) 부문은 지난달 28일 사내 PC로 챗GPT를 포함한 생성형 AI 사용을 일시적으로 제한한다고 공지했다. 삼성전자는 “생성형 AI에 입력된 내용은 외부 서버에 전송·저장된 뒤 AI 학습에 활용되므로 한 번 업로드한 내용을 회수, 삭제할 수 없다. 회사의 중요 정보가 다른 사람의 질문에 대한 답변으로 쓰일 수 있는 등 심각한 보안 위험이 있다”고 설명했다. 생성형 AI에 따른 보안사고 우려가 커지면서 이뤄진 조처다. 삼성전자는 지난달 초 임직원을 대상으로 AI 활용에 대한 설문조사를 진행했다. 임직원 65%가 “사내 사용 시 보안 리스크가 있다”고 답한 것으로 전해졌다.
삼성전자에서 반도체를 담당하는 DS(디바이스솔루션) 부문은 챗GPT에 질문을 할 때 한 번에 1024바이트 이상을 업로드할 수 없도록 막는다. 챗GPT 사용을 허가한 뒤 곧바로 몇 건의 정보 유출 문제가 불거지면서 이뤄진 강경 조치다. 삼성전자는 생성형 AI를 쓸 수 있는 업무의 종류와 용도를 명시하는 가이드라인을 별도로 마련할 계획이다.
SK하이닉스도 지난 2월 공지를 통해 원칙적으로 사내망에서 챗GPT를 쓰지 못하게 접근을 제한했다. 챗GPT 사용이 필요한 경우 보안성 검토를 거쳐 회사 승인을 받아야 하는 일종의 ‘허가제’를 시행하고 있다. 포스코는 내부 인트라넷을 통해서만 챗GPT에 접속할 수 있도록 했다. 정보 유출의 가능성을 사전에 차단하겠다는 취지에서다.
기업뿐만 아니라 국민의 민감정보를 보유한 정부도 생성형 AI 사용 제한에 돌입했다. 국가정보원은 최근 전 부처에 ‘챗GPT 등 언어모델 AI 활용 시 보안 유의사항 안내’ 공문을 전파했다. 공무원이 챗GPT를 사용할 때는 공개된 정보를 위주로 사용하도록 했다. 또 개인정보나 비공개 업무자료 등 민감 정보 입력은 자제하도록 했다.
IT 업계에서는 정보유출 우려가 생성형 AI의 대중화에서 발목을 잡을 수 있다고 내다본다. 한 AI 전문가는 “일반인뿐만 아니라 기업 등 산업 영역에서 생성형 AI 서비스를 도입하고 업무에 본격적으로 활용해야만 진정한 의미의 AI 시대가 열릴 수 있다. 하지만 기업들이 보안을 중시하며 업무 영역에서의 도입을 꺼리면 생성형 AI의 파급력도 그만큼 약해진다. 생성형 AI의 가치도 함께 줄어든다”고 말했다.
생성형 AI 개발 기업들은 ‘폐쇄성’을 해법으로 내놓고 있다. 마이크로소프트(MS)는 기업 전용 클라우드 서비스를 통해 챗GPT의 보안 우려를 잠재우겠다는 전략을 세웠다. 챗GPT 대화 데이터를 별도의 전용 서버를 만들어 보관하는 방식으로 유출 우려를 해소한다는 것이다. MS는 ‘프라이빗 챗GPT’를 조만간 출시할 계획이다.
국내에서는 LG CNS가 보안성 강화에 나섰다. LG CNS는 MS의 ‘고객 맞춤형 보안 서비스(MSSP)’ 파트너 자격을 획득했다. ‘MS 애저 오픈AI’ 서비스를 기반으로 챗GPT와 같은 생성형 AI를 위한 보안 아키텍처를 설계·구축하기로 했다. 생성형 AI를 활용하고 싶지만, 데이터 유출 우려 등으로 주저하는 기업들의 해결사로 나선다는 목표다.
전성필 기자 feel@kmib.co.kr
GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지
Copyright © 국민일보. 무단전재 및 재배포 금지.
- [전문] 尹 “후쿠시마 오염수 韓 시찰단 현장 파견 합의”
- 대관식서 3.6㎏ 보검 들고…찰스보다 주목받은 이 여성
- 이재명 ‘법원의 시간’ 시작… 11일부터 대장동·성남FC 재판
- 김남국, ‘60억 코인’ 논란에 “문제될 만한 행동 전혀 없었다”
- 부모님 댁 이런 김치냉장고? “당장 리콜…화재 수백건”
- ‘1000조’ 자영업자 대출 중 70% 다중채무자… 비은행권 비중 40%
- “러, ‘악마의 무기’ 또 쏟아부어”…우크라 공개한 영상
- 워런 버핏 “올해 여러 기업들 수익 감소할 것”…1분기 순익 47조원
- 무면허·음주운전 걸리자…친언니 주민등록번호 댄 40대
- 박영수, ‘시세조종 의혹’ 라덕연 업체서 법률자문 맡아