"정보 유출 막아라"…삼성전자, 챗GPT 사용 금지령

서민지 2023. 5. 2. 15:37
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

생성형 인공지능(AI)의 활용 범위가 확대되는 가운데 삼성전자가 정보 유출 등을 막기 위해 직원들의 챗GPT 사용을 금지하기로 했다.

2일 삼성전자에 따르면 모바일과 가전 등을 담당하는 DX부문은 최근 임직원에게 사내 네트워크나 회사 소유 단말기를 통한 챗GPT 등 생성형 AI 사용을 제한한다고 공지했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

최근 내부 소스코드 유출 사고 발생…임직원 설문서도 65% "챗GPT 보안 우려"

[아이뉴스24 서민지 기자] 생성형 인공지능(AI)의 활용 범위가 확대되는 가운데 삼성전자가 정보 유출 등을 막기 위해 직원들의 챗GPT 사용을 금지하기로 했다.

2일 삼성전자에 따르면 모바일과 가전 등을 담당하는 DX부문은 최근 임직원에게 사내 네트워크나 회사 소유 단말기를 통한 챗GPT 등 생성형 AI 사용을 제한한다고 공지했다.

챗GPT 등에 입력된 데이터는 외부 서버에 전송되기 때문에 관리가 어렵고, 노출 위험성이 있다는 우려에 따른 조치로 풀이된다.

최근 챗GPT를 각종 업무에 사용하는 사례가 늘어남에 따라 내부 정보가 유출되는 사고가 벌어지면서 기업들의 고민이 커지고 있는 상황이다.

삼성 서초사옥 [사진=아이뉴스24 포토DB]

실제 삼성전자도 지난 3월 DS(반도체) 부문에 챗GPT 사용을 허용한 후 얼마 되지 않아 정보 유출 사태를 겪었다. 삼성전자 엔지니어는 실수로 내부 소스코드를 챗GPT에 업로드해 해당 코드가 외부에 유출된 것으로 전해졌다.

삼성전자는 지난달 DX부문 임직원을 대상으로 챗GPT 사용과 관련한 설문조사를 진행하기도 했다. 조사 결과 임직원 65%가 챗GPT에 대한 보안 우려를 표한 것으로 알려졌다.

삼성전자는 내부 안내를 통해 "챗GPT 같은 생성형 AI 플랫폼에 대한 관심이 대내외적으로 커지고 있다"며 "회사는 직원의 생산성과 효율성을 향상시키기 위해 생성형 AI를 안전하게 사용할 수 있는 방안을 마련 중"이라고 밝혔다.

삼성전자 관계자는 "챗GPT가 업무에 도움이 되는 부분도 있지만, 오남용되는 경우 내부 정보가 유출되는 등의 우려가 있다"며 "이 때문에 사내 보안 정책이 마련되기 전까지 사용을 금지하기로 했다"고 설명했다.

/서민지 기자(jisseo@inews24.com)

Copyright © 아이뉴스24. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?