챗GPT 확산하는 데 오픈AI가 해킹된다면...
국내 기업들 챗GPT 활용 시 가장 큰 보안위협 '정보 유출'
【서울=뉴시스】송혜리 기자 = "우리의 정보를 가진 챗GPT 개발사인 오픈 AI가 해킹을 당할 수 있다는 가능성을 배제해선 안됩니다."
정일옥 이글루코퍼레이션 위원은 13일 서울 송파구 이글루코퍼레이션에서 열린 과학기술정보통신부 주최 '챗GPT 등 생성형 AI의 보안 위협 대응방향 모색을 위한 현장 토론회'에서 이같이 강조했다.
민간·공공 할 것 없이 챗GPT 등 생성형AI를 활용해 업무 효율 향상을 꾀하고 있지만, 정작 이 기술을 공급하고 또 막대한 정보를 수집하고 있는 AI 개발사가 해킹 당해 개인·기업의 기밀 정보가 유출될 수 있다는 것은 간과하고 있다는 설명이다. 생성형AI 활용 시 정보 유출 가능성을 재차 환기시키는 언급이다.
이날 토론회는 정보보호기업 및 학계, 유관기관 전문가들이 모여 최근 이슈가 되고 있는 챗GPT 등 생성형 AI 서비스의 이용 확산에 따른 국내외 보안 위협 동향과 산업적 파급 효과 등을 공유하고, 국가 차원의 보안 위협 대응방향을 논의하기 위해 마련됐다.
챗GPT로 대량 피싱메일도 쉽게 작성
그러면서 정 위원은 "챗GPT 개발사인 오픈AI가 해킹을 당하거나, 공격자들은 DAN(Do Anything Now, 지금 무엇이든 해라)을 이용해 오픈AI가 걸어 놓은 챗GPT 제약을 풀어 개인과 기업의 정보가 유출될 수 있다"고 강조했다.
오픈AI는 전세계 개인·기관·기업에서 챗GPT에 입력하고 질문한 내용을 학습데이터로 수집하고 있어, 이의 해킹 시 걷잡을 수 없는 피해가 발생할 수 있다. 이 때문에 언어모델 서비스 제공업체(LLM) 자체에 대한 보안 강화와 생성형AI 모델 자체의 보안 확보방안이 필요하다는 게 보안 전문가들의 지적이다.
실제, 지난 3월 이탈리아에선 챗GPT를 쓰던 사용자 일부에게 다른 사용자의 대화 이력이 보이는 버그가 발견됐다. 또 오픈AI 측이 가입 확인 이메일을 잘못 발송해 사용자의 이름, 이메일 주소, 결제주소, 신용카드 번호 마지막 네 자리 등이 약 9시간 동안 고스란히 노출되기도 했다. 이후 이탈리아 정부는 '정보보호' 명목으로 챗GPT 접속을 차단했다가 오픈AI의 보안조치 시행을 확인한 뒤 접속을 재개하기도 했다.
이날 참석한 기업 보안 전문가들도 기업에서의 챗GPT 활용 시 가장 큰 보안위협으로 '정보 유출'을 꼽았다.
곽규복 LG CNS 보안사업담당 위원은 "초보 해커들의 진입장벽이 낮아졌다는 점도 문제점이지만, 기업입장에선 소스 코드라든지 어떤 핵심 자산이 챗GPT로 수집돼 유출되거나 혹은 고객의 개인정보가 유출되는 것들이 당면 현안과제"라고 강조했다. 곽 위원은 "국내 대기업들처럼 챗GPT를 사용하지 못하게 하거나, 어떤 폐쇄된 환경에서만 사용할 수 있도록 아니면 모니터링툴을 이용해 챗GPT에 수집되는 데이터를 필터링하는 수준으로 대응하고 있는 실정"이라고 말했다.
박환석 KT 보안기획담당(상무)은 "KT는 내부적으로 4월 초에 챗GPT 사용 십계명을 만들어 직원들에 배포한 상태로, 챗GPT 사용 시 KT가 의도적으로 표현되지 않도록 하고 있다"면서 "KT가 사용하는 소스코드가 KT를 공격하는데 사용되지 않도록 하기 위함"이라고 말했다. 이어 박 상무는 "MS와 협력해 KT 전용 챗GPT를 사용하려고 모색 중"이라고 덧붙였다.
챗GPT 보안제약 뚫린다면 더 파국…정부 챗GPT 보안 대응 연구 추진
이를 통해 생성형 AI 기반의 신규 보안위협 대응 기술, 생성형 AI 모델 보호 기술, 생성형 AI활용 보안 기술 개발 등을 추진한다.
박윤규 제2차관은 "챗GPT 등 생성형 AI 기술은 앞으로 더욱 발전해 우리 일상에 폭 넓게 보편적으로 사용 될 것인 만큼 보안 위협 우려에 적극적으로 대응해 나갈 필요가 있다"고 말했다. 이어 "정부는 생성형AI를 보다 안전하게 활용할 수 있도록 보안 위협 대응방안을 오늘을 기점으로 모색해 나갈 것"이라고 말했다.
☞공감언론 뉴시스 chewoo@newsis.com
Copyright © 뉴시스. 무단전재 및 재배포 금지.