삼성도 정부도 ‘사용 제한’… 보안 우려에 흔들리는 생성형 AI
챗GPT와 같은 생성형 인공지능(AI)을 업무에 활용하는 사람들이 늘어나면서 민감 정보 유출에 대한 우려도 커지고 있다. 생성형 AI 답변을 얻기 위해 데이터를 입력하면 이들 데이터는 AI 학습에 재활용될 수 있다. 민감한 정보를 입력하면 그대로 외부에 유출될 위험성이 높은 것이다. 산업계에서는 정보 보안에 대한 신뢰성이 쌓일 때까지 기업이나 정부가 생성형 AI를 업무 영역에 적극적으로 도입할 수 없을 것이라는 전망도 내놓는다.
7일 산업계에 따르면 국내 기업들은 잇따라 생성형 AI를 업무 영역에서 활용하는 것을 제한하고 나섰다. 삼성전자는 지난달 28일 DX(디바이스경험) 부문에서 사내 PC로 챗GPT를 포함한 생성형 AI 사용을 일시적으로 제한한다고 공지했다. 삼성전자는 “생성형 AI에 입력된 내용은 외부 서버에 전송·저장된 뒤 AI 학습에 활용되므로 한번 업로드된 내용은 회수, 삭제할 수 없다. 회사의 중요 정보가 타인의 질문에 대한 답변으로 활용될 수 있는 등 심각한 보안 위험이 있다”고 설명했다.
삼성전자 내부에서 생성형 AI로 인한 보안 사고 우려가 커지면서 이뤄진 조처다. 삼성전자는 지난달 초 내부 임직원들을 대상으로 AI 활용에 대한 설문조사를 진행했다. 그 결과 임직원 65%가 “사내 사용 시 보안 리스크가 있다”고 응답한 것으로 전해졌다.
삼성전자에서 반도체를 담당하는 DS(디바이스솔루션) 부문은 챗GPT에 질문을 할 때 한 번에 1024바이트 이상을 업로드할 수 없도록 했다. 챗GPT 사용을 허가한 뒤 곧바로 몇 건의 정보 유출 문제가 불거지면서 이뤄진 강경 조치다. 삼성전자는 생성형 AI를 쓸 수 있는 업무의 종류와 용도를 명시하는 가이드라인을 별도로 마련한다는 계획이다.
SK하이닉스도 지난 2월 공지를 통해 원칙적으로 사내망으로 챗GPT를 쓰지 못하게 접근을 제한했다. 챗GPT 사용이 필요한 경우 보안성 검토를 통해 회사 승인을 받아야 하는 일종의 ‘허가제’를 시행했다. 포스코는 내부 인트라넷을 통해서만 챗GPT에 접속할 수 있도록 했다. 정보 유출 가능성을 사전에 막겠다는 취지에서다.
기업뿐만 아니라 국민의 민감정보를 보유한 정부도 생성형 AI 사용 제한에 돌입했다. 국가정보원은 최근 전 부처에 ‘챗GPT 등 언어모델 AI 활용 시 보안 유의사항 안내’ 공문을 전파했다. 공무원이 챗GPT를 사용할 때는 공개된 정보를 위주로 사용하도록 했다. 또 개인정보나 비공개 업무자료 등 민감 정보 입력은 자제하도록 했다.
IT업계에서는 생성형 AI의 정보 유출 우려가 생성형 AI 대중화의 발목을 잡을 수 있다고 내다본다. 한 AI 전문가는 “일반인뿐만 아니라 기업 등 산업 영역에서 생성형 AI 서비스를 도입하고 업무에 본격적으로 활용해야만 진정한 의미의 AI 시대가 열릴 수 있다. 그러나 기업들이 보안을 중시하며 업무 영역 도입을 꺼리면 생성형 AI의 파급력도 그만큼 약해진다. 생성형 AI의 가치도 함께 줄어든다”고 말했다.
생성형 AI 개발 기업들은 ‘폐쇄성’을 해법으로 내놓고 있다. 마이크로소프트(MS)는 기업 전용 클라우드 서비스를 통해 챗GPT의 보안 우려를 잠재우겠다는 전략을 세웠다. 챗GPT 대화 데이터를 별도의 전용 서버를 만들어 보관하는 방식으로 유출 우려를 해소한다는 것이다. MS는 ‘프라이빗 챗GPT’를 조만간 출시할 계획이다.
국내에서는 LG CNS가 보안성 강화에 나섰다. LG CNS는 MS의 ‘고객 맞춤형 보안 서비스(MSSP)’ 파트너 자격을 획득했다. ‘MS 애저 오픈AI’ 서비스를 기반으로 챗GPT와 같은 생성형 AI를 위한 보안 아키텍처를 설계·구축하기로 했다. 생성형 AI를 활용하고 싶지만, 데이터 유출 우려 등으로 주저하는 기업들의 해결사로 나선다는 목표다.
전성필 기자 feel@kmib.co.kr
GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지
Copyright © 국민일보. 무단전재 및 재배포 금지.