진화하는 챗GPT, 커지는 보안 위협… “AI 악용 공격, AI 활용해 막아야”

윤진우 기자 2023. 6. 13. 15:46
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

과기정통부, 생성형 AI 보안 위협 대응 토론회
예방·대응 방향 집중 논의, 안전한 환경 조성 필요
박윤규 차관 “지능·고도화 대응 방안 적극 모색”
박윤규 과기정통부 차관이 13일 서울 송파구 이글루코퍼레이션에서 열린 ‘챗GPT 등 생성형 AI 보안 위협 대응 관련 토론회’에서 발언하고 있다./윤진우 기자

챗GPT 등 생성형 인공지능(AI) 기술이 빠르게 진화하면서 사이버보안 위협 사례도 늘고 있다. 챗GPT를 활용하는 과정에서 업무상 비밀·개인정보가 유출되거나 가짜뉴스 및 비윤리적 자료가 생성되는 등 기술 악용 우려가 커진 것이다.

이런 이유로 유럽연합(EU)을 중심으로 챗GPT로 대표되는 생성형 인공지능(AI) 기술 개발 속도를 늦춰야 한다는 주장도 나오고 있다. 지난 4월 유럽의회 의원 12명은 공동 성명을 내고 조 바이든 미국 대통령과 우르줄라 폰데어라이엔 EU 집행위원장에게 “AI 기술 개발을 통제하기 위한 정상회담을 개최해야 한다”라고 촉구했다. 그러면서 생성형 AI 관련 안전 규약이 마련될 때까지 생성형 AI 기술 개발을 6개월간 중단할 것을 제안하기도 했다.

13일 과학기술정보통신부는 서울 송파구 이글루코퍼레이션에서 ‘챗GPT 등 생성형 AI 보안 위협 대응 관련 토론회’를 개최했다. 챗GPT가 불러온 보안 관련 국내외 동향과 영향을 공유하는 동시에 보안 위협을 대응할 수 있는 전문가들의 다양한 의견을 듣겠다는 취지다.

이날 토론회를 주재한 박윤규 과기정통부 2차관은 “챗GPT 등 생성형 인공지능 기술은 앞으로 더욱 발전해 우리 일상에 폭넓고 보편적으로 사용될 것”이라며 “그만큼 우리는 보안 위협 우려에 적극적으로 대응할 필요가 있다”라고 했다. 박 차관은 “정부는 생성형 AI 서비스를 국민이 안심하고 이용하도록 안전한 사이버환경을 조성하겠다”라며 “지능·고도화되는 보안 위협에 대한 대응역량을 갖추기 위해 최선을 다하겠다”라고 했다.

이상근 고려대 정보보호대학원 교수가 ‘챗GPT 기술의 진화, 그리고 사이버보안’을 주제로 발표를 진행했다. 이 교수는 “챗GPT는 자연어 처리와 생성형 AI, 오픈AI 모델 등으로 구분된다”라며 “AI 언어 모델은 학습, 생성, 출력 피드백을 통한 생성 등으로 나뉜다”라고 했다.

이 교수는 “초거대 AI 기술은 2017년 구글 트랜스포머를 시작으로 오픈AI의 GPT1·2·3, 코덱스를 거쳐 챗GPT 등으로 발전했다”라며 “생성형 AI는 소프트웨어 취약점을 발견하고 해당 취약점을 공격하는 코드 작성, AI에 대한 취약점 공격, 모델 복제 공격, 학습 데이터 추출 공격 등으로 확장하고 있다”라고 했다. 이어 “챗GPT는 해킹 등에 악용될 가능성이 높은 만큼 AI를 통한 사이버보안 강화, AI의 적대적 사용에 대한 대응 필요성 등이 재고되고 있다”라고 했다.

그래픽=정서희

정일옥 이글루코퍼레이션 연구위원은 ‘챗GPT 등 AI가 보안 산업에 미치는 영향’을 주제로 한 발표에서 “좋은 AI 없이는 챗GPT 등 생성형 AI를 활용한 사이버 팬데믹은 대비할 수 없다”라며 “사이버보안을 위한 AI는 꼭 필요하다”라고 했다. 그는 “마이크로소프트(MS), 구글 등 빅테크를 중심으로 챗GPT 등 생성형 AI를 보안 침해 대응에 적용한 사례는 많다”라며 “보안전문 업체 이글루코퍼레이션도 자사 AI 모델에 챗GPT 등 생성형 AI를 결합한 하이브리드 모델을 제공하고 있다”라고 했다.

정 연구위원은 “챗GPT와 같은 대규모언어모델(LLM) AI의 성능은 우수하지만 틀린 것을 정답처럼 제시하는 ‘할루시네이션(Hallucination·환각)’으로 보안 분야의 신뢰성이 흔들리는 경향이 있다”라며 “데이터 보안에 필요한 비식별화 및 적대적 AI에 대한 방안 마련도 필요하다”라고 했다.

김정희 한국인터넷진흥원 미래정책연구실장은 ‘챗GPT 등 생성형 AI의 보안 위협과 과제’를 주제로 발표했다. 김 실장은 “챗GPT를 통한 보안 위협은 피싱 메일 생성, 우회 질문을 통한 악성코드 생성, 소스코드 내 취약점(버그·오류) 식별 등으로 나뉜다”라고 강조했다. 무분별한 챗GPT 입력으로 민감한 정보 유출 가능성과 악의적인 학습 데이터 주입을 통한 데이터 오염 공격 등이 존재한다는 것이다.

김 실장은 “생성형 AI에 대한 우려와 기대가 동시에 존재하는 만큼 AI를 악용한 공격과 AI를 활용한 방어가 맞서고 있다”라며 “결국 생성형 AI 악용 공격을 대비한 대응체계를 정비하고 중요한 데이터와 개인정보 등을 안전하게 활용할 수 있도록 AI 보안 관리 체계가 확립돼야 한다”라고 했다.

이후 진행된 토론에서는 챗GPT를 활용하는 기업 내 임직원과 개인의 의도치 않은 정보 유출이 가장 큰 보안 위협이라는 목소리가 많았다. 곽규복 LG CNS 보안솔루션사업부 보안사업담당 위원은 “챗GPT를 활용한 악용 사이버 공격 사례는 다양하게 진행 중이지만 현재 대응이 안 되는 수준은 아니다”라며 “당면한 문제는 기업의 소스코드와 보고서 등을 임직원이 챗GPT를 잘 활용하기 위해 업로드하면서 기업 정보가 유출되는 사례 등이다”라고 했다. 박환석 KT 정보보안단 IT부문 보안기획담당(상무) 역시 “기업 및 개인정보 유출 가능성이 있는 만큼 도메인을 이용한 로그인 등에 대한 모니터링과 차단 조치를 시행 중이다”라고 했다.

박 차관은 “누군가는 생성형 AI를 ‘게임 체인저’로 주목하고 있지만 챗GPT 등 AI 서비스가 폭넓게 활용되면서 다양한 이슈가 대두되고 있고 보안 문제에 대한 우려도 크다”라며 “국민과 기업이 더 안전하게 생성형 AI를 활용할 수 있도록 대응 방안을 모색하는 동시에 다양한 대응책을 마련하는 데 정부가 적극 나서겠다”라고 했다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?