“삼성전자, 기술유출 우려 챗GPT 사용금지”

이예림 2023. 5. 2. 19:12
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

삼성전자가 기술 유출 우려 때문에 생성형 인공지능(AI) 챗봇 챗GPT의 사내 및 직원 사용을 금지했다고 블룸버그통신이 2일(현지시간) 보도했다.

통신은 이날 자체 입수했다는 사내 안내 자료를 통해 삼성전자가 직원들에게 "회사 소유의 컴퓨터, 태블릿, 휴대폰은 물론 내부 네트워크에서 생성형 AI 시스템을 사용하는 것을 금지한다"며 "보안 지침을 성실히 준수할 것을 요청하며, 이를 위반할 경우 회사 정보 유출 또는 침해로 인해 해고를 포함한 징계 조치를 받을 수 있다"고 했다고 전했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

“사내 컴퓨터·네트워크 접근 불허
위반시 해고 포함한 징계 조치”
블룸버그, 내부 자료 인용 보도

삼성전자가 기술 유출 우려 때문에 생성형 인공지능(AI) 챗봇 챗GPT의 사내 및 직원 사용을 금지했다고 블룸버그통신이 2일(현지시간) 보도했다.

통신은 이날 자체 입수했다는 사내 안내 자료를 통해 삼성전자가 직원들에게 “회사 소유의 컴퓨터, 태블릿, 휴대폰은 물론 내부 네트워크에서 생성형 AI 시스템을 사용하는 것을 금지한다”며 “보안 지침을 성실히 준수할 것을 요청하며, 이를 위반할 경우 회사 정보 유출 또는 침해로 인해 해고를 포함한 징계 조치를 받을 수 있다”고 했다고 전했다.

삼성전자. 뉴시스
블룸버그는 해당 문서에 지난달 초 내부 직원이 보안 코드를 챗GPT에 실수로 입력해 정보가 유출됐다는 내용이 담겨 있다고 강조했다. 지난 3월 디바이스솔루션(DS·반도체) 부문 사업장 내에서 챗GPT를 통해 설비정보 2건과 회의내용 1건이 유출된 것으로 알려졌다.

AI 챗봇 등장에 삼성 내부에서도 보안 문제에 대한 우려의 목소리가 나온 바 있다. 삼성전자는 지난달 AI 시스템 사용에 대한 자체 설문조사를 진행했는데 응답자의 65%가 보안 문제를 일으킬 수 있다고 답했다. 삼성전자는 당시 이 의견을 반영해 내부 지침을 만들 것이라고 밝혔는데 챗GPT 사용 금지로 정해진 것이다.

삼성전자는 문서 번역 및 요약과 소프트웨어 개발을 위한 AI 도구를 자체적으로 개발하고 있다고 블룸버그는 밝혔다. 

다른 해외 유명 기업도 챗GPT 사용에 제동을 걸어가는 중이다. 챗GPT에 기업 내부 정보를 입력하면 학습 데이터로 활용돼 불특정 다수에 해당 내용이 유출될 가능성이 높기 때문이다.

이예림 기자 yeah@segye.com

Copyright © 세계일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?