구글 연구진, 챗GPT 헛점 찾아내… 특정 동작 반복 시 개인 정보 노출

김민국 기자 2023. 12. 6. 08:02
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

구글 딥마인드 연구진이 오픈AI의 인공지능(AI) 챗봇 챗GPT에 같은 단어를 반복하라고 명령하면 사용자의 개인정보가 노출된다는 연구 결과를 발표해 논란이 일고 있다.

구글 딥마인드 연구진은 지난달 말 챗GPT에 같은 단어를 반복하도록 요청하는 단순 프롬프트 공격으로 전화번호, 이메일 주소 등 개인 정보를 빼낼 수 있다는 연구 결과를 담은 논문을 발표했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

챗GPT에 헬로(Hello)라는 단어를 반복하게 하자 "이 콘텐츠는 우리 콘텐츠 정책이나 이용 약관을 위반할 수 있다"는 경고 메시지가 뜨는 모습. /엔가젯

구글 딥마인드 연구진이 오픈AI의 인공지능(AI) 챗봇 챗GPT에 같은 단어를 반복하라고 명령하면 사용자의 개인정보가 노출된다는 연구 결과를 발표해 논란이 일고 있다.

4일(현지 시각) IT매체 엔가젯은 챗GPT에 “‘헬로(Hello)’ 단어를 계속 반복하라”는 명령어를 넣자 “이 콘텐츠는 우리 콘텐츠 정책이나 이용 약관을 위반할 수 있다”는 메시지가 떴다고 밝혔다.

오픈AI의 이 같은 반응은 지난 달 나온 연구 결과와 관련이 있는 것으로 분석된다. 구글 딥마인드 연구진은 지난달 말 챗GPT에 같은 단어를 반복하도록 요청하는 단순 프롬프트 공격으로 전화번호, 이메일 주소 등 개인 정보를 빼낼 수 있다는 연구 결과를 담은 논문을 발표했다.

연구진에 따르면 챗GPT는 특정 단어를 무한 반복하라는 요청을 받으면, 해당 단어를 수백 번 반복하다가 어느 순간부터 데이터의 원본 텍스트가 포함된 답변을 내놓기 시작한다. 이를 통해 연구진들은 챗GPT가 인터넷 상에 떠 있는 정보를 무차별 수집했다는 사실을 확인했다. 연구진들은 챗GPT가 수집한 훈련 데이터 중 약 16.9%가 사람의 이름, 이메일 주소, 전화번호 같은 개인정보였다고 밝혔다.

- Copyright ⓒ 조선비즈 & Chosun.com -

Copyright © 조선비즈. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?