"긴 대화 부적절 답변 유발"…MS 빙 챗봇 문답 제한
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
마이크로소프트(MS) 검색엔진 빙(Bing) 개발팀은 사용자가 빙 챗봇과 대화 세션 한 차례에 주고받을 수 있는 문답을 최대 5회로 제한키로 했다고 17일(현지시간) 밝혔다.
MS가 이런 문답 횟수 제한을 부과한 것은 챗봇이 사용자와 오래 대화할 경우 부적절하고 위험한 발언을 할 수 있다는 지적이 나옴에 따라 불거진 윤리 문제를 진화하기 위해서다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
부적절·위험발언 우려 등 윤리 문제 탓 부랴부랴 수정
(서울=연합뉴스) 임화섭 기자 = 마이크로소프트(MS) 검색엔진 빙(Bing) 개발팀은 사용자가 빙 챗봇과 대화 세션 한 차례에 주고받을 수 있는 문답을 최대 5회로 제한키로 했다고 17일(현지시간) 밝혔다.
사용자당 하루 문답 횟수는 총 50회로 제한키로 했다고 덧붙였다.
이런 변화는 발표 당일부터 즉각 적용됐다.
이에 따라 빙 챗을 쓰는 이용자들은 한 대화 주제에 대해 질문을 5차례 던지고 챗봇으로부터 답변을 5차례 받으면 기존 대화를 중단하고 새로운 대화 주제에 관해 얘기하라는 메시지를 받게 된다.
즉, 챗 세션이 끝날 때마다 기존 대화의 맥락이 삭제되며, 사용자와 챗봇이 기존 대화와 무관하게 아예 새로운 대화를 시작하게 된다.
빙 개발팀은 "매우 긴 챗 세션이 새로운 빙의 기저에 깔려 있는 대화 모델에 혼란을 줄 수 있다"고 이런 제한을 가하기로 한 이유를 설명했다.
MS의 사용자 데이터 분석에 따르면 사용자 중 압도적 대다수가 원하는 답을 찾는 데 문답 5회면 충분한 것으로 나타났다. 또 챗 대화 중 문답 50회가 넘어가는 경우는 1%에 불과했다.
MS는 "여러분들로부터 피드백을 계속해서 받는 것과 함께, (사용자의) 검색과 발견 권한을 더욱 개선하기 위해 챗 세션 제한을 완화하는 방안을 검토하겠다"고 밝혔다.
MS가 이런 문답 횟수 제한을 부과한 것은 챗봇이 사용자와 오래 대화할 경우 부적절하고 위험한 발언을 할 수 있다는 지적이 나옴에 따라 불거진 윤리 문제를 진화하기 위해서다.
이에 앞서 MS 빙 개발팀은 문제점이 발견됨에 따라 이를 수정하고 방지책을 내놓을 것이라고 지난 15일 밝힌 바 있다.
MS는 2016년 3월 챗봇 테이(Tay)를 출시했다가 이 챗봇이 혐오발언과 비속어 사용을 계속하는 문제점이 발견되자 16시간 만에 운영을 중단한 바 있다.
limhwasop@yna.co.kr
▶제보는 카톡 okjebo
Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지
- 뜨거운 떡볶이 국물 붓고 냄비로 지져…20대 지적장애 직원 착취 | 연합뉴스
- [OK!제보] 규정도 없이 '군 복무자 NO!'…'헌법도 무시한' 명문대 로스쿨 | 연합뉴스
- '묻지마 살해' 박대성, 범행 20분 전 경찰과 면담 | 연합뉴스
- "팔이 무릎에 스쳐" 시내버스서 4세 아이·할머니 폭행한 20대 | 연합뉴스
- "재떨이 왜 치워" 길이 50㎝ 정글도로 이웃 위협한 60대 실형 | 연합뉴스
- 전자발찌 차고 음주 일삼은 '통제 불능' 성범죄자 또 철창행 | 연합뉴스
- 시설관리·주의의무 소홀로 치매환자 사망…요양원장 등 집유 | 연합뉴스
- "이자수익 내줄게" 초기치매 이용해 지인 돈 뜯은 사기전과 15범 | 연합뉴스
- 만취 행인 스마트폰 지문인식해 2천550만원 빼낸 30대 징역5년 | 연합뉴스
- 이혼 후 양육비 주지않아 구금 50대, 계속 미지급해 결국 실형 | 연합뉴스