챗GPT 활용하면 해고…보안·정보유출 우려에 딜레마
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
[앵커]
챗GPT 같은 생성형 AI는 필요한 정보를 빠르게 모으고 요약할 수 있어, 상당수 기업들이 관심 있게 보고 있는 기술입니다.
다만, 기업의 기밀 유출 등 보안 문제가 생기면서 사용을 제한하는 기업들도 빠르게 늘고 있습니다.
배진솔 기자가 보도합니다.
[기자]
올해 초 삼성전자 반도체 부문 한 엔지니어가 내부 소스코드를 챗GPT에 올렸다가 기밀이 유출된 사례가 발생했습니다.
소스코드는 프로그램 개발과정과 틀을 담고 있는 중요한 기밀 정보입니다.
삼성전자는 결국 사업부별로 챗GPT 등 '생성형 AI'의 사용 범위를 좁히거나 제한했습니다.
삼성전자 반도체사업을 하는 DS 부문은 글자수를 제한했고 휴대폰과 가전사업을 하는 DX는 사용이 아예 금지됐습니다.
지침을 위반할 땐 최대 해고를 포함한 징계 조치를 받을 수도 있다고 경고한 것으로 알려졌습니다.
삼성전자는 "회사 밖에서 생성·대화형 AI를 사용할 때 회사 정보와 개인정보 등은 입력하지 말아달라"고도 요청했습니다.
현재 SK하이닉스와 포스코 등 다른 기업들도 사내에선 챗GPT를 사용하지 못하게 막고 있습니다.
[김승주 / 고려대 정보보호대학원 교수: 생성형 AI라는 건 문서작성이나 업무를 하는데 편의성을 제공해주는 건 맞는데, 실제로 그걸 무분별하게 이용하다 보면 개인정보나 회사 기밀정보가 유출될 수 있습니다. 그래서 초반에 가이드라인 같은 게 정착되기 전까지는 조심할 필요가….]
내부 임직원들 설문 조사에서도 "사내 사용 시 보안 리스크가 있다"는 반응이 65%를 차지했습니다.
다만 빠른 정보 습득과 번역, 문서 요약에선 수요가 높았습니다.
삼성전자는 자체적으로 생성형 AI를 개발해 직원들의 업무 효율성을 높이는 방안을 검토하고 있습니다.
LG그룹도 AI 플랫폼 '딥하우'에 투자하며 생성형 AI 개발에 나선 바 있습니다.
SBS Biz 배진솔입니다.
짧고 유익한 Biz 숏폼 바로가기
저작권자 SBS미디어넷 & SBSi 무단전재-재배포 금지
Copyright © SBS Biz. 무단전재 및 재배포 금지.