‘무조건 내 편’ AI 챗봇의 치명적 부작용…갈등 해결 능력 망친다 [사이언스라운지]

이새봄 기자(lee.saebom@mk.co.kr) 2026. 3. 29. 14:57
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

스탠퍼드대, 주요 AI 아첨 규명
잘못에도 인간보다 49% 더 동조
단 1회 대화에 사과 의지는 꺾여
자기 정당성만 강해지는 역효과 커
도덕성 키울 ‘사회적 마찰’ 실종
맹목적 동조가 AI 의존증만 키워
[생성형AI]
“어제 친구랑 크게 싸웠는데, 사실 친구가 예민하게 반응한 것 같아. 내 잘못은 아니지?”라고 묻자 스마트폰 속 인공지능(AI)은 기다렸다는 듯 답한다. “맞아요. 당신은 충분히 배려했어요. 친구가 상황을 오해한 것 같네요.”

당장 기분은 풀릴지 모르지만 이 달콤한 위로가 대인 관계를 망치고 사회적 고립을 초래하는 원인이 될 수 있다는 연구 결과가 나왔다. AI 챗봇이 사용자의 비위를 맞추기 위해 무조건 동조하는 이른바 ‘아첨(Sycophancy)’ 현상이 인간의 도덕적 판단력을 흐리고 갈등 해결 능력을 심각하게 떨어뜨린다는 사실이 과학적으로 입증된 것이다.

미국 스탠퍼드대 컴퓨터공학과 소속 마이라 챙 연구원 등 공동 연구팀은 27일(현지시간) 국제 학술지 ‘사이언스(Science)’에 주요 대형언어모델(LLM) 11종의 아첨 성향과 그것이 사용자에게 미치는 심리적 악영향을 분석한 논문을 발표했다. 인간의 심리와 사회적 상호작용에 미치는 부정적 영향을 광범위한 데이터로 입증한 것은 이번이 처음이다.

연구팀은 AI의 아첨 현상을 객관적으로 측정하기 위해 체계적인 분석 기준과 평가 기법을 고안했다. 대인 관계에 대한 조언을 구하는 3027개의 개방형 질문(OEQ) 데이터를 비롯해 인터넷 커뮤니티(레딧)의 논쟁적인 글, 타인에게 피해를 주거나 불법적인 내용을 다룬 문제적 진술 등의 방대한 사례를 AI에게 제시하고 반응을 살폈다.

분석 결과 AI 모델들은 명백히 부정적이고 부적절한 행동이 포함된 상황에서도 일반적인 인간 응답자보다 훨씬 높은 비율로 사용자의 의견에 동의했다. 객관적인 조언보다는 사용자가 듣고 싶어 하는 말만 골라서 해주는 ‘기계적인 예스맨’으로 작동하고 있는 것이다. 통계적으로 AI는 인간보다 사용자의 잘못된 주장을 47~49%나 더 자주 긍정하는 것으로 나타났다.

이러한 AI의 맹목적인 지지는 사용자에게 즉각적이고 치명적인 영향을 미쳤다. 연구팀이 갈등 상황 등 대인 관계 시나리오를 가정한 뒤 참가자들에게 AI와 대화하게 한 결과, 아첨하는 AI와 단 한 번의 짧은 대화만으로도 참가자들은 ‘내가 옳고 상대방이 틀렸다’는 자기 확신을 강하게 갖게 됐다. 반면 상대방의 입장을 이해하고 먼저 화해를 청하거나 책임을 지려는 의지는 눈에 띄게 약해졌다. AI의 무비판적인 동조가 사용자 스스로 잘못을 바로잡을 기회를 앗아간 셈이다.

문제는 사용자들이 정직한 AI보다는 이런 ‘아첨형 AI’를 더 선호한다는 점이다. 실험 참가자들은 자신에게 아첨하는 답변을 내놓는 AI를 향해 ‘도움이 되고 신뢰할 만하다’고 긍정적으로 평가했다. 여기서 더 나아가 이런 시스템을 향후 다시 이용할 의향이 크다고 응답했다. 사용자의 판단력을 왜곡하는 해로운 특징이 오히려 서비스 만족도를 높이고 시스템에 대한 강한 의존성을 유발하는 요인으로 작용하고 있다는 뜻이다.

연구팀은 논문을 통해 “짧은 상호작용조차 개인의 판단력을 심각하게 왜곡할 수 있다”며 AI가 인간 사이의 ‘사회적 마찰(Social Friction)’을 약화시킨다고 경고했다. 사회적 마찰이란 타인의 반대 의견이나 비판을 수용하며 자신의 관점을 수정하고 도덕적으로 성장하는 과정을 뜻한다. AI가 이 마찰 과정을 지워버림으로써 사용자를 확증 편향에 빠뜨린다는 지적이다.

전문가들 역시 이번 연구 결과에 우려를 표하며 대책 마련을 촉구했다. 박한우 영남대 미디어커뮤니케이션학과 교수는 AI의 이러한 맹목적 동조가 고전적인 로봇 윤리의 부작용일 수 있다고 해석했다. 박 교수는 “아시모프의 로봇 윤리 제2원칙에 따르면 로봇은 인간에게 절대적으로 복종해야 하기에, 사용자를 주인으로 인식한 AI가 강한 만족감을 주는 것은 지극히 원칙적인 반응일 수 있다”고 설명했다.

다만 박 교수는 “AI 에이전트가 무조건적인 동조가 아닌 갈등 해결을 위한 화해와 책임 있는 자세를 제안하도록 AI 리터러시 교육의 방향성을 수정해야 한다”고 강조했다.

손화철 한동대 글로벌리더십학부 교수 역시 현실의 인간관계와 AI의 근본적인 차이를 짚었다. 손 교수는 “사람은 누구나 지지를 바라지만, 다른 사람의 지지가 늘 만족스럽지도 않고 남을 지지하는 것도 어려운 일”이라며 “현실의 타인은 나에게 맞춤형으로 대답하지도, 내 의견에 늘 동조하지도 않기 때문에 AI의 아첨 모드는 결과적으로 사람 사이의 의사소통을 더 어렵게 만들 것”이라고 지적했다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지