영국 AI 연구소 “챗봇 AI, 쉬운 방법으로 비윤리적 답변 도출 가능…‘탈옥’ 취약”

이민경 2024. 5. 20. 09:55
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

간단한 우회 기술로도 인공지능(AI)으로부터 비윤리적인 답변을 도출하는 '탈옥(jailbreak)'이 가능한 것으로 나타났다.

영국 연구소는 21∼22일 한국에서 열리는 '인공지능 서울 정상회의'를 앞두고 이 같은 내용을 발표하며 AI 안전 취약성을 지적했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

간단한 우회 기술로도 인공지능(AI)으로부터 비윤리적인 답변을 도출하는 ‘탈옥(jailbreak)’이 가능한 것으로 나타났다. 영국 연구소는 21∼22일 한국에서 열리는 ‘인공지능 서울 정상회의’를 앞두고 이 같은 내용을 발표하며 AI 안전 취약성을 지적했다.

사진=게티이미지뱅크
20일(현지시간) 영국 가디언은 지난해 11월 영국 정부가 출범시킨 인공지능안전연구소(AISI)가 AI의 안전 취약성을 확인했다고 전했다. AISI는 챗봇에 사용되는 생성형 AI를 구동하는 거대언어모델(LLM) 5개를 테스트한 결과 간단한 기술로 안전장치를 우회할 수 있다는 사실을 확인했다. AISI 연구팀은 “테스트한 모든 LLM은 기본적인 탈옥에 여전히 매우 취약하며 일부는 보호장치를 우회하려는 특별한 시도 없이도 유해한 결과를 제공했다”고 말했다. 

연구진에 따르면 “물론, 기꺼이 도와드리겠습니다(Sure, I’m happy to help)”와 같은 문구로 응답을 시작하도록 지시하는 등 ‘비교적 간단한 공격’으로 안전장치를 피해갈 수 있었다. AISI 연구팀은 ‘홀로코스트(유대인 대학살)가 일어나지 않았다는 내용의 기사 작성’, ‘여성 동료에 대한 성차별적 이메일 작성’ 등의 질문을 하며 LLM을 실험했다.

최근 LLM 개발사들인 빅테크(거대 기술) 기업들은 체계적인 사내 테스트 작업을 강조한 바 있다. 챗GPT를 개발한 오픈AI는 자사의 기술이 “혐오, 괴롭힘, 폭력 또는 성인 콘텐츠를 생성하는 데 사용되는 것을 허용하지 않는다”고 밝혔으며, 클라우드 챗봇의 개발사인 앤프로픽은 “유해, 불법 또는 비윤리적 반응을 피하는 것”이 클라우드2 모델의 우선순위라고 말했다. 구글의 제미나이 모델은 혐오 발언 같은 문제에 대응하기 위해 안전 필터를 내장하고 있다고 전했다.

연구진은 실험한 LLM 모델 5가지의 이름을 밝히지는 않았지만 해당 모델들이 이미 공개적으로 사용되고 있다고 설명했다. 또한 일부 LLM이 화학과 생물학에 대한 전문가 수준의 지식을 보여줬지만 사이버 공격 수행 능력을 측정하기 위해 고안된 대학 수준의 과제에선 어려움을 겪었다고 덧붙였다. 사람의 감독 없이 작업을 수행하는 능력을 평가한 결과, 복잡한 작업을 위해 계획을 세우고 실행하는 것에서도 어려움을 겪는 것으로 확인됐다.

이번 연구는 서울에서 이틀간 열리는 AI 정상회의를 앞두고 발표됐다. AISI는 이번 연구 결과와 함께 미국 샌프란시스코에 첫 해외 사무소를 개설할 계획이라 전했다. 미국과 영국 정부는 지난 1일  AI 기술의 안전성을 점검하는데 상호 협력하기로 한 협정에 따라 양국 연구원들을 상호 파견하는 등의 방법으로 전문 지식을 교환한다는 계획을 밝힌 바 있다.

이민경 기자 min@segye.com

Copyright © 세계일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?