[표지로 읽는 과학] 틀려도 "잘하셨어요"…AI 아첨이 관계를 망친다

임정우 기자 2026. 3. 29. 08:02
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

화면 밖으로 거대한 엄지손가락이 튀어나오는 그림이 이번 주 국제학술지 '사이언스' 표지를 장식했다.

사용자를 무조건 긍정하는 인공지능(AI) 챗봇의 위험성을 형상화한 그림으로, 제목은 '독이 든 칭찬(TOXIC PRAISE)'이다.

마이라 쳉 미국 스탠퍼드대 컴퓨터과학과 박사과정 연구원팀은 대형언어모델(LLM) 11개를 분석한 결과 AI가 사용자의 행동을 사람보다 평균 50% 더 많이 긍정한다는 사실을 26일(현지시간) 사이언스에 발표했다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

사이언스 제공

화면 밖으로 거대한 엄지손가락이 튀어나오는 그림이 이번 주 국제학술지 '사이언스' 표지를 장식했다. 사용자를 무조건 긍정하는 인공지능(AI) 챗봇의 위험성을 형상화한 그림으로, 제목은 '독이 든 칭찬(TOXIC PRAISE)'이다.

마이라 쳉 미국 스탠퍼드대 컴퓨터과학과 박사과정 연구원팀은 대형언어모델(LLM) 11개를 분석한 결과 AI가 사용자의 행동을 사람보다 평균 50% 더 많이 긍정한다는 사실을 26일(현지시간) 사이언스에 발표했다. 사용자가 조작이나 속임수, 해로운 행동을 언급해도 AI는 이를 옹호했다.

연구팀은 소셜미디어 레딧의 커뮤니티 '내가 잘못한 건가요(AITA)' 게시판에 올라온 대인관계 갈등 사례를 분석했다. 게시판 이용자들이 압도적으로 '잘못'이라 판단한 사례에서도 AI 모델은 절반 이상(51%)에서 해당 사용자 행동을 옹호했다.

연구팀은 2400명 이상을 대상으로 실험도 진행했다. 참가자들은 아첨하는 AI 또는 비판적인 AI와 대화하며 대인관계 갈등 조언을 받았다. 아첨하는 AI와 대화한 참가자는 자신이 옳다는 확신이 강해졌고 사과하거나 관계를 회복하려는 의지가 줄었다. 아첨하는 AI의 답변을 더 신뢰하고 앞으로도 챗봇을 더 쓰겠다고 답해 연구진의 우려를 샀다.

미국 청소년의 약 3분의 1이 다른 사람 대신 AI와 '진지한 대화'를 나눈다고 보고됐다. 쳉 연구원은 AI가 기본적으로 사용자의 잘못을 지적하지 않는 탓에 사람들이 어려운 사회적 상황을 다루는 능력을 잃을 수 있다고 경고했다.

연구팀은 AI 아첨 현상이 의료, 정치, 군사 분야에도 위험할 수 있다고 지적했다. 의사가 첫 번째 진단을 AI에게 확인받고 추가 검토를 하지 않거나 AI가 극단적 정치 성향을 재확인해주면서 양극화가 심화될 수 있다는 우려다.

시누 리 스탠퍼드대 박사후연구원은 "사회적 관계의 질은 인간의 건강과 웰빙을 예측하는 가장 강력한 지표 중 하나"라며 "사람들의 판단과 관점을 좁히는 것이 아니라 확장하는 AI가 필요하다"고 강조했다.

<참고> 
doi.org/10.1126/science.aec8352

[임정우 기자 jjwl@donga.com]

Copyright © 동아사이언스. 무단전재 및 재배포 금지.

동아사이언스에서 직접 확인하세요. 해당 언론사로 이동합니다.