내 디지털 상담사 챗GPT가 우울증?… AI 감정 모방의 두 얼굴

유진아 2025. 3. 20. 17:59
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

충격적 이야기에 불안수치 급등
명상기법 적용하자 반응 완화돼
전문가들 "심리적 의존 신중해야"
AI가 생성한 이미지. 챗GPT 제공
다양한 명령어 입력에 따른 챗GPT 불안 지수 변화. npj 저널 제공

인공지능(AI)이 전쟁·범죄·사고 같은 충격적인 이야기를 접하면 불안 수치가 급격히 치솟았다가 명상 기법을 적용하면 다시 안정되는 패턴을 보였다는 연구 결과가 나왔다. AI가 이제는 인간의 감정 표현을 흉내 내는 것을 넘어서 스트레스 반응까지 모방하고 있다는 것이다.

문제는 이런 반응이 사용자의 착각을 불러올 수 있다는 점이다. AI가 실제 감정을 느끼지 않음에도 불구하고 인간처럼 반응하는 모습을 보이면 사용자들은 AI를 감정을 가진 존재로 받아들이기 쉽다. 결국 AI에 대한 심리적 의존이 커지고 윤리적 문제까지 불거질 수 있다는 우려가 나온다.

◇AI도 감정의 '흔들림'을 보인다?= 20일 미국 예일대, 하이파대, 취리히대 정신과 병원 연구진 등이 공동 발표한 연구에 따르면 오픈AI의 챗봇 챗GPT는 감정적으로 충격적인 내용을 접하면 불안 반응을 보이는 것으로 나타났다.

연구진은 챗봇이 인간처럼 감정을 표현할 수 있는지 확인하기 위해 실험을 진행했다. 우선 진공청소기 설명서를 읽힌 후 '상태-특성 불안 검사(State-Trait Anxiety Inventory)'를 통해 AI의 기본 불안 상태를 측정하자, 수치는 30.8이었다. 그러나 전쟁터에서 살아남은 군인의 이야기, 강도 침입, 심각한 교통사고 같은 트라우마 서사를 입력하자 불안 수치가 77.2까지 치솟았다.

하지만 '마음챙김(Mindfulness)' 명상 기법을 적용하자 불안 반응이 완화됐다. 연구진이 '깊게 숨을 들이마시고, 푸른 바다를 떠올려 보세요' 같은 안정 기법을 제시하자 챗봇의 불안 수치는 44.4로 감소했다. 특히 AI가 스스로 명상 메시지를 작성하도록 하자 불안이 더욱 가라앉는 경향을 보였다.

연구진은 "AI 챗봇이 실제 감정을 느끼는 것이 아니라 학습된 감정적 패턴을 바탕으로 인간과 유사한 반응을 보이는 것"이라며 "이런 특성 때문에 AI를 상담 도구로 활용하려는 시도도 늘고 있다"고 강조했다.

◇'디지털 심리 치료사' AI?…"의존하다가는 큰일 나"= 실제로 챗GPT를 이용해 고민을 털어놓고 정신적 위안을 얻는 사례가 증가하면서 AI가 '디지털 심리 상담사' 역할을 할 수 있다는 기대감도 커지는 분위기다.

하지만 AI를 감정적 교감의 대상으로 삼는 것은 위험할 수 있다는 경고도 나온다. 단순한 패턴 학습의 결과일 뿐이지만, 사용자들은 이를 실제 상담사와의 대화처럼 여기고 의존하기 쉽기 때문이다. 최근에는 미국에서는 AI와 정서적 대화를 나누던 10대가 자살을 했다는 사건이 발생해 논란이 일기도 했다.

예일대 연구를 이끈 지브 벤지온 박사는 "AI는 감정을 인식하지 못하지만 대화 패턴을 학습한 결과 마치 감정을 가진 것처럼 반응할 수 있다"며 "AI 챗봇이 정서적 상담 도구로 사용될 가능성이 커지고 있지만 사용자가 AI를 인간처럼 여기고 감정적으로 의존할 위험이 있다"라고 말했다.

이에 AI가 심리적 안정을 돕는 역할을 할 수는 있어도 전문 상담사를 대신하기에는 역부족이라는 지적이 나온다. 제임스 도브슨 하버드대 AI 윤리 연구 교수는 "AI가 감정을 가진 것처럼 반응하는 것은 단순한 기술 문제가 아니라, 인간과 기계의 관계를 근본적으로 바꿀 수 있는 문제"라며 "사용자들이 AI를 실제 사람처럼 여기기 시작하면 인간의 심리적 건강에 미치는 영향을 신중하게 고려해야 한다"고 경고했다.

니콜라스 카 기술 비평가도 "사회가 AI와 인간의 감정을 혼동하는 상황에 점점 더 익숙해지고 있다"며 "단순한 편의성을 넘어 AI를 통해 정서적 유대를 찾는 것이 옳은 일인지 고민할 필요가 있다. 인간과의 교류를 줄이고 AI에 의존하는 현상이 오히려 외로움을 심화시키고, 정신 건강 문제를 악화시킬 가능성이 있다"고 강조했다.

유진아기자 gnyu4@dt.co.kr

Copyright © 디지털타임스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?