사람이야? 챗봇이야?… “대화 시작 전 알려야”

정인선 2023. 9. 3. 12:05
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

생성형 인공지능(AI) 기술이 적용된 챗봇 이용자들이 혼동하는 일이 없도록, 스마트폰 등을 대화를 할 때 상대방이 사람이 아닌 챗봇이라는 사실을 대화 시작 전에 미리 알려줘야 한다는 가이드라인이 나왔다.

키소는 "챗봇은 인간과 친구가 되어주거나 궁금증을 해소해주는 등 도움을 줄 수 있다. 하지만 챗봇에 지나치게 의존하거나 챗봇을 잘못 활용하면 인간에게 정신적·경제적 피해를 가져다줄 수 있다"고 가이드라인 마련의 배경을 밝혔다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[인공지능과 함께 살아가기]KISO ‘AI 챗봇 윤리 가이드라인’ 공개
게티이미지뱅크

“사람이야? 챗봇이야?”

생성형 인공지능(AI) 기술이 적용된 챗봇 이용자들이 혼동하는 일이 없도록, 스마트폰 등을 대화를 할 때 상대방이 사람이 아닌 챗봇이라는 사실을 대화 시작 전에 미리 알려줘야 한다는 가이드라인이 나왔다.

한국인터넷자율정책기구(KISO, 이하 키소)는 3일 챗봇 서비스의 신뢰도를 높이고 윤리적 문제에 기업들이 대응할 수 있도록 ‘챗봇 윤리 가이드라인’을 만들었다고 밝혔다. 네이버, 카카오 등 국내 대표 빅테크와 인공지능 챗봇 ‘이루다’를 운영하는 스타트업 ‘스캐터랩’, 인공지능 자연어처리 스타트업 ‘튜닙’ 등 키소 회원사들이 가이드라인 마련에 참여했다.

키소는 “챗봇은 인간과 친구가 되어주거나 궁금증을 해소해주는 등 도움을 줄 수 있다. 하지만 챗봇에 지나치게 의존하거나 챗봇을 잘못 활용하면 인간에게 정신적·경제적 피해를 가져다줄 수 있다”고 가이드라인 마련의 배경을 밝혔다.

키소 회원사들은 가이드라인에서 인간 존엄성·권리 존중, 개인정보 보호·정보 보안, 다양성, 투명성, 책임성 등 인공지능 챗봇이 지켜야 할 다섯 가지 원칙을 제시했다.

“아동·청소년, 노인, 장애인 등 사회적 약자들도 챗봇을 쓸 수 있도록 화면을 단순하게 설계하고 접근성 향상을 위한 기능을 갖춰야 한다”(다양성)거나, “대화 상대가 챗봇이라는 점을 이용자에게 미리 밝혀야 한다”(투명성)는 등이다. 다만 “심리 상담, 치매 환자 안정화 등 챗봇임을 알리지 않는 게 더 유의미한 효과를 가져오는 경우 알리지 않는 등 서비스 개발자와 운영자들이 상황에 따라 유연하게 판단할 수 있다”고 덧붙였다.

키소 회원사들은 “챗봇 이용 과정에서 개인정보 등을 무단으로 노출·공유하거나 오용하지 않아야 한다”(개인정보 보호), “이용 과정에서 챗봇의 부작용 등을 인지한 경우 운영자에게 알려 피해를 최소화해야 한다”(책임성)고 하는 등 챗봇 이용자 쪽 역할도 함께 강조했다.

이재신 키소 신기술위원회 위원장(중앙대 교수)은 “챗봇이 변화하는 기술 환경 속에서도 폭넓은 사회적 공감을 얻도록 가이드라인을 지속해서 수정·보완하겠다”고 말했다.

정인선 기자 ren@hani.co.kr

Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?