"소비자, 인간 상담원엔 도덕성·AI 챗봇에는 기능성 기대"

김준태 2026. 4. 13. 17:11
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

고객은 인간 상담원에게 도덕성을, 인공지능(AI) 챗봇에는 기능적 완벽성을 기대해 서비스 실패 시 각기 다른 맞춤형 사과 전략이 필요하다는 연구 결과가 나왔다.

연구팀은 스마트폰 구매 상황을 가정해 인간 상담원과 AI 챗봇이 각각 '여성은 분홍색'이라는 고정관념적 오류(도덕성 실패)와 스마트폰 대신 헤드폰을 추천하는 오류(기능성 실패)를 냈을 때의 소비자 반응을 조사했다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

이화여대 김은실 교수 연구팀 '맞춤형 사과 전략' 논문
연구를 진행한 이화여대 심리학과 김은실 교수(왼쪽)·소지현 석사 [이화여대 제공. 재판매 및 DB 금지]

(서울=연합뉴스) 김준태 기자 = 고객은 인간 상담원에게 도덕성을, 인공지능(AI) 챗봇에는 기능적 완벽성을 기대해 서비스 실패 시 각기 다른 맞춤형 사과 전략이 필요하다는 연구 결과가 나왔다.

13일 이화여대에 따르면 이 학교 김은실 심리학과 교수 연구팀은 이 같은 내용을 담은 논문을 발표했다.

연구팀은 스마트폰 구매 상황을 가정해 인간 상담원과 AI 챗봇이 각각 '여성은 분홍색'이라는 고정관념적 오류(도덕성 실패)와 스마트폰 대신 헤드폰을 추천하는 오류(기능성 실패)를 냈을 때의 소비자 반응을 조사했다.

실험 결과 참가자들은 인간 상담원이 고정관념적 오류를 냈을 때, AI 챗봇이 엉뚱한 제품을 추천했을 때 더 큰 부정적 반응을 보였다. 고객이 인간에게는 도덕성을, AI에는 기술적 정확성을 기대하기 때문이라는 게 연구팀 분석이다.

효과적인 사과 방식도 달랐다. 고정관념 오류 상황에서 인간 상담원은 '자기 잘못 인정'이, AI 챗봇은 '외부 기술적 원인 핑계'가 소비자의 용서를 구하는 데 효과적이었다.

반면 단순 기능 오류 상황에서는 인간 상담원이 '외부 원인'을 댈 때, AI가 '자신의 부족함을 인정'할 때 소비자의 용서 의향이 더 높게 나타났다.

김 교수는 "기존 연구가 사과의 내용에 집중했다면 이번 연구는 상황에 따라 인간과 AI 중 누가 사과해야 더 효과적인가에 주목했다"며 "유형에 따라 효과가 다르므로 기업의 AI 고객 응대 전략에 중요한 시사점을 제공한다"고 설명했다.

서비스 실패 유형 및 원인 설명 상황 [이화여대 제공. 재판매 및 DB 금지]

readiness@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지