"챗GPT 보안 위협, 규제·협력 동시에 이뤄져야"

강나훔 2023. 6. 14. 07:32
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

챗GPT 등 생성형 인공지능(AI) 기술을 활용한 사이버 공격과 개인정보 유출 우려가 커지고 있다.

박윤규 과기정통부 2차관은 "챗GPT 등 생성형 인공지능 기술은 우리 일상에 폭넓게 보편적으로 사용될 것인 만큼 보안 위협 우려에 적극적으로 대응해 나갈 필요가 있다"면서 "정부는 생성형 AI 서비스를 국민이 안심하고 이용하도록 안전한 사이버 환경을 조성하는 한편, 갈수록 지능화·고도화하는 사이버위협에 대한 대응역량을 갖추기 위해 최선을 다하겠다"고 말했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

챗GPT 등 생성형 인공지능(AI) 기술을 활용한 사이버 공격과 개인정보 유출 우려가 커지고 있다. 전문가들은 대응 체계를 갖추기 위해 정부의 선제적인 규제와 민·관 협력 생태계 구축이 필요하다고 강조했다.

이상근 고려대학교 정보보호대학원 교수는 13일 과학기술정보통신부가 개최한 '생성형 AI 보안 위협 대응방안 토론회'에서 "생성형 AI에 프로그램 취약점을 이용한 공격코드를 생성해달라고 하면 처음에는 만들어주지 않지만 우회해서 질문하면 공격코드를 만들어주는 것은 물론 공격의 원리까지 설명해준다"고 지적했다.

그는 "심지어 오픈AI의 GPT2 모델 학습에 쓰인 데이터로부터 이름, 전화번호, 이메일 주소, SNS 대화 내역 등 민감한 개인정보 추출이 가능하다는 보고도 있다”고 덧붙였다.

김정희 한국인터넷진흥원(KISA) 미래정책연구실장도 "해킹 기술을 습득하기 위한 진입장벽이 생성형AI 서비스들의 등장으로 크게 낮아졌다"라며 "국내 공공분야 사이버 위협의 74% 이상이 피싱 이메일 공격 형태인데, 챗GPT로 사람보다 더 정교하고 친밀한 피싱 메일을 작성할 수 있다면 피해 규모가 훨씬 커질 것”이라고 우려했다.

기업들도 전문가들의 이같은 지적에 공감하며 대응 방안에 대한 고민을 털어놨다. 박환석 KT 보안기획담당은 "마이크로소프트와 KT 전용의 챗GPT 공간을 활용하는 방안을 논의 중"이라며 "챗GPT가 입력 데이터를 재학습, 재활용하는 것을 거부할 수 있도록 직원들에게 안내하고 있다"고 말했다.

곽규복 LG CNS 보안사업담당 위원도 "기업들은 폐쇄된 환경에서만 챗GPT를 쓸 수 있게 하거나 모니터링 툴을 적용해서 필터링을 거는 식으로 대응하고 있다"고 말했다.

보안 기업에선 생성형 AI를 접목시킨 보안 기술에 대한 적극적 연구가 필요하다고 제언했다. 아울러 민간과 정부의 협력 생태계 구축의 필요성도 강조했다. 정일옥 이글루코퍼레이션 관제기술연구팀장은 "챗GPT는 어떻게 활용하느냐에 따라 사이버 위협이 되기도 하고, 보안을 강화하는 재료가 되는 양날의 검"이라며 "보안 분야에 특화된 sLLM 모델을 만들어 서비스한다면 데이터 유출 걱정없이 활용할 수 있는 구축형 AI를 만들 수 있다. AI 통해 업무를 효율화하고 보안을 강화하는 목표를 이루기 위해서는 산학연 협력이 필요하다"고 말했다.

윤두식 지란지교시큐리티 대표도 "과기정통부뿐만 아니라 경찰, 통신사, 학계 등의 협력을 통해 대응 방안을 만들지 않으면 큰 사고가 터질 것"이라며 "적극적인 고민이 필요하다"고 말했다.

박윤규 과기정통부 2차관은 “챗GPT 등 생성형 인공지능 기술은 우리 일상에 폭넓게 보편적으로 사용될 것인 만큼 보안 위협 우려에 적극적으로 대응해 나갈 필요가 있다”면서 “정부는 생성형 AI 서비스를 국민이 안심하고 이용하도록 안전한 사이버 환경을 조성하는 한편, 갈수록 지능화·고도화하는 사이버위협에 대한 대응역량을 갖추기 위해 최선을 다하겠다”고 말했다.

강나훔 기자 nahum@asiae.co.kr

Copyright © 아시아경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?