英 보안당국, 기업 AI챗봇 사용에 "아직 위험하다" 경고

강진욱 2023. 8. 31. 16:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

영국 당국이 인공지능(AI)의 기업 업무를 연계할 경우 악용 소지가 커 위험하다는 지적을 내놓았다고 로이터 통신이 30일(현지시간) 보도했다.

사이버 보안 회사인 리버세이프는 기업인들이 AI 기반 도구의 위험성을 제대로 점검하지 않는다면, 이를 일상 업무에 통합하려는 경쟁이 자칫 "재앙적 결과"를 초래할 수 있다고 경고했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

"해커가 잘못된 명령 내리거나 방화벽 우회하게 속일 수 있어"
AI 거대언어모델 활용한 챗GPT [로이터 연합뉴스 자료사진]

(서울=연합뉴스) 강진욱 기자 = 영국 당국이 인공지능(AI)의 기업 업무를 연계할 경우 악용 소지가 커 위험하다는 지적을 내놓았다고 로이터 통신이 30일(현지시간) 보도했다.

영국 국가사이버보안센터(NCSC)는 이날 공식 블로그를 통해, "거대언어모델(LLM)로 불리며 사람의 목소리를 흉내 내는 알고리즘의 보안 문제가 아직 해결되지 않았다"며 이같이 밝혔다.

업계에서는 AI에 기반한 챗봇이 인터넷 검색뿐만 아니라 고객 응대 서비스나 텔레마케팅까지 대체할 것으로 보고 이를 점차 널리 활용하는 추세다.

NCSC는 이런 사업 모델이 다른 업무와 연결될 경우 위험한 일이 생길 수 있다고 지적했다.

해커가 AI 챗봇에 잘못된 명령을 내리거나 내부 보안 방화벽을 우회하도록 속일 수 있는 방법들이 학계와 연구자들에 의해 계속 발견되고 있다는 것이다.

예컨대 은행에 설치된 AI 기반 챗봇이 거래 승인 여부를 물을 때 해커가 잘못된 신호를 입력할 경우 승인되지 않은 거래가 이뤄질 가능성이 있다.

NCSC는 "LLM 서비스를 구축하려는 조직은 베타 버전 제품이나 코드 라이브러리를 사용할 때처럼 주의해야 한다"고 경고했다.

이어 "베타 버전 제품이 고객 대신 거래하지 못하도록 관리하고, 그 제품을 전적으로 신뢰하지 않는 것처럼, LLM에도 그런 주의가 필요하다"고 언급했다.

중국 바이두의 챗봇이 에러 메시지를 보여주고 있다. [AFP 연합뉴스 자료사진]

각국 관계 당국은 최근 개방형 AI를 활용한 챗GPT 등 LLM이 등장해 기업들이 이를 판매와 고객 관리를 포함한 광범위한 서비스에 활용하는 데 대해 신경을 곤두세우고 있다고 로이터는 짚었다.

또 각국은 AI가 보안에 미치는 영향에 대해서도 계속 주목하고 있고, 미국과 캐나다의 경우 해커들이 이 기술을 적극 수용하는 것으로 보고 있다는 것이다.

최근 로이터와 입소스가 공동으로 실시한 여론 조사에 따르면 많은 회사원이 챗GPT와 같은 도구를 사용해 이메일 초안 작성이나 문서 요약, 예비 조사와 같은 기본적인 업무에 활용하고 있는 것으로 나타났다.

설문에 응한 사람 중 약 10%는 직장 상사가 외부 AI 도구를 사용하지 못하도록 했다고 답했지만, 응답자의 4분의 1은 회사가 AI 기술 활용을 허용했는지조차 모른다고 대답했다.

사이버 보안 회사인 리버세이프는 기업인들이 AI 기반 도구의 위험성을 제대로 점검하지 않는다면, 이를 일상 업무에 통합하려는 경쟁이 자칫 "재앙적 결과"를 초래할 수 있다고 경고했다.

또 "고위 경영진은 최신 AI 트렌드를 무턱대고 수용하기 전에 심사숙고해야 한다"며, "AI의 이점과 위험을 평가해 조직이 위험에 빠지지 않도록 필요한 사이버 보안 조치도 함께 강구해야 한다"고 강조했다.

kjw@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?