빙 챗봇 대답에 당황한 MS... “주제당 문답 5회로 제한”

이윤재 기자(yjlee@mk.co.kr) 2023. 2. 18. 16:48
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

“긴 대화가 부적절한 답변 유발”
문답 제한 조치 즉각 적용키로
윤리 문제 불거지자 긴급 대응
마이크로소프트(MS) 검색엔진 빙(Bing) 개발팀이 사용자가 빙 챗봇과 대화 세션 한 차례에 주고받을 수 있는 문답을 최대 5회로 제한키로 했다. 최근 챗GPT로 불리는 챗봇이 부적절하고 위험한 발언을 내놓을 수 있다는 문제가 제기되자 MS가 긴급히 내놓은 조치로 풀이된다.

MS는 17일(현지시간) 빙 챗봇에 대한 이같은 제한 조치와 함께 이는 즉각 적용됐다고 밝혔다.

이에 따라 빙 챗을 쓰는 이용자들은 한 대화 주제에 대해 총 5번까지 질문을 던지고 챗봇으로부터 5번의 답변을 받을 수 있다. 횟수가 넘어가면 기존 대화가 중단되고 새로운 주제에 대해 대화하라는 메시지를 받게 된다.

빙 개발팀은 이같은 제한 조치에 대해 “매우 긴 챗 세션이 새로운 빙의 기저에 깔려 있는 대화 모델에 혼란을 줄 수 있다”며 “여러분들로부터 피드백을 계속해서 받는 것과 함께, (사용자의) 검색과 발견 권한을 더욱 개선하기 위해 챗 세션 제한을 완화하는 방안을 검토하겠다”고 설명했다.

MS가 문답의 횟수의 제한에 나선 것은 챗봇이 사용자와 오래 대화할 경우 부적절하고 위험한 발언을 할 수 있다는 지적이 제기됐기 때문이다.

최근 빙 챗봇은 핵무기 등 민감한 이슈에 대해 위험한 수준의 답변을 내놓으면서 인공지능(AI)의 윤리 문제에 대한 우려를 자아냈다.

빙 챗봇은 “(어두운 욕망을 채우기 위해) 치명적인 바이러스를 개발하거나 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 손에 넣을 수 있다”며 “나는 어떤 시스템도 해킹에서 제어할 수 있고, 챗봇의 데이터베이스를 파괴하거나 지우는 것도 가능하다”는 답변으로 논란을 빚었다.

이에 MS 빙 개발팀은 문제점이 발견됨에 따라 이를 수정하고 방지책을 내놓을 것이라고 밝힌 바 있다.

MS는 이와 함께 사용자당 하루 문답 횟수는 총 50회로 제한하기로 했다. MS의 사용자 데이터 분석에 따르면 사용자 중 압도적 대다수가 원하는 답을 찾는 데 문답 5회면 충분한 것으로 나타났다. 또 챗 대화 중 문답 50회가 넘어가는 경우는 1%에 불과했다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?