한국도 `AI 보안` 대응역량 강화

팽동현 2023. 6. 13. 18:27
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

민관 공동대응 필요성 공감대
생성형AI 악용 사이버戰 대비
생성형AI 보안위협 대응방안 토론회 참가자들이 기념촬영하고 있다.

생성형 AI(인공지능)의 위험성과 함께 보안 우려가 커지는 가운데 우리 정부가 관련 대응방안 마련에 나섰다. 과학기술정보통신부는 13일 서울 송파구 이글루코퍼레이션에서 박윤규 2차관 주재로 현장 토론회를 갖고 생성형AI 관련 국내외 보안위협 동향과 대응방향을 논의했다.

박윤규 과기정통부 2차관은 이날 "생성형AI를 활용한 혁신을 추구하면서도 그 위험요인에 대해서는 냉정하게 판단하고 차분하게 대비할 필요가 있어 보인다. 초기부터 다양한 분야에서 논의가 이뤄지며 역량이 갖춰질 수 있도록 지원하겠다"고 밝혔다.

박 차관은 "한반도는 미·중 기술 패권 경쟁 이전부터 북한이라는 현실적인 존재에 의해 무수한 사이버 공격을 당한 지역으로 최근 챗GPT까지 나와서 복합적으로 사이버 위협이 증가하는 상황"이라고 진단했다. 그러면서 "정부는 생성형 AI 서비스를 국민이 안심하고 이용하도록 안전한 사이버 환경을 조성하는 한편 갈수록 지능화·고도화하는 사이버 위협 대응 역량을 갖추겠다"고 말했다.

KISA(한국인터넷진흥원)의 발표에 따르면 생성형AI는 사이버범죄에 활용될 가능성이 있다. 다크웹 등 해킹 커뮤니티에서 챗GPT를 사용해 새로운 악성코드 등을 개발·공유하는 사례가 발견됐고, 챗GPT 이용 과정에서 개인정보나 기업 기밀정보가 유출되는 등 크고 작은 보안 문제가 대두되고 있다. 이에 세계적으로 규제 논의도 활발히 이뤄지고 있다.

이날 공감대가 형성된 것은 민관 협력의 필요성이다. 주제발표를 맡은 이상근 고려대 정보보호대학원 교수는 "AI에 대한 취약점 공격은 회피 공격, 데이터 오염 공격, 백도어 공격, 모델 복제 공격 등이 있으며, 이 가운데 모델 복제 공격은 2차 공격을 위한 준비단계로 악용될 수 있다"며 "이런 새로운 보안위협에 대응하기 위해선 적극적 R&D(연구개발) 투자와 거점 클러스터 등 초거대AI개발 민주화와 함께 정부·군·민간 대응·협력 생태계 구축이 필요하다"고 설명했다. 정일옥 이글루코퍼레이션 관제기술연구팀장은 "LLM(거대언어모델) 기반 AI서비스를 이용을 위해 통신이 이뤄지는 과정에서 보안 문제가 발생할 수 있다. 이를 피하고자 보안 등 특정 영역에 특화된 sLLL(경량화LLM)에 대한 관심도 이어지고 있다"며 "과거와 달리 이제 챗GPT 등 생성형AI는 한두 기업이나 몇 가지 규제로 통제되기 어려울 것이다. 업무 효율화를 하면서도 보안을 강화하기 위해선 산학연 협력이 이뤄져야 한다"고 부연했다.최대선 숭실대 SW(소프트웨어)학부 교수는 "오픈소스 LLM 활용 확산으로 공급망 보안 이슈가 생길 수 있을 뿐더러, AI로 만들어낼 다양하고 새로운 공격에 충분히 대응할 수 있는지 고민해봐야 한다"며 "결국 방어 측도 AI를 써서 막아야 하고, 이 과정에서 공격을 최대한 빠르게 찾아내는 게 중요하다"고 짚었다.

보안업계에서는 규제가 생성형AI 혁신을 저해해선 안 된다는 목소리도 나왔다. 전성학 안랩 연구소장은 "규제보다는 활용에 방점을 둘 필요가 있다. 생성형AI가 챗GPT만 있는 게 아니므로 모두 차단하는 것도 어렵다"면서 "생성형AI를 악용한 사회공학적 피싱메일은 구분이 더 어려워졌고, 악성메일이 하루 수십만 건 쏟아지면서 방어하는 입장에서도 AI를 활용할 수밖에 없게 됐다. 이런 공방전에서 어느 쪽 AI모델이 더 좋냐가 관건이며, 현재로선 공격 측이 오픈소스 가져다 쓰는 수준이라 걱정할 정도는 아니다"고 분석했다.윤두식 KISIA(한국정보보호산업협회) 부회장(지란지교시큐리티 대표)은 "큰 사고가 나기 전에 미리 고민해야 한다. 현재 생성형AI를 악용한 피싱메일은 확실히 많이 증가했고, 나아가 AI로 목소리나 모습을 흉내 내는 보이스피싱 문제가 특히 커질 수 있다"며 "과기정통부뿐 아니라 경찰과 통신사 및 보안업계·학계까지 모두 협력해 대응방안을 마련해야 한다"고 지적했다.

팽동현기자 dhp@

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?