내 맘 알아주는 AI챗봇 ‘심리상담’…전문가 “안전성 우려, 시기상조”

370만 뷰 기록한 AI 상담 프롬프트·AI 챗봇에 심리상담가 인격 부여하기도
[사진=Freepik]

AI 챗봇을 활용한 심리 상담이 최근 온라인에서 새로운 트렌드로 부상하고 있지만 전문가들 사이에선 안전성 우려가 제기되고 있다.

SNS에서는 직장 스트레스를 AI와 대화하며 해소했다는 게시물이 10만 조회수를 기록했고, AI 심리 상담을 위한 프롬프트 공유 게시물이 370만 조회수를 달성하며 폭발적인 관심을 받고 있다. ‘아내가 ChatGPT에 위로를 받는 것을 넘어 교감하고 있는 것 같다’는 사례까지 등장하며 화제를 모으고 있다.

AI 챗봇은 심리적 안정 도구로 각광받고 있다. 심리 상담 센터나 정신과 방문에 부담을 느끼는 사람들에게 AI는 시간과 장소의 제약 없이 경제적으로 이용 가능한 새로운 대안으로 주목받고 있는 것이다.

이용자들은 AI 챗봇에게 특정 말투를 학습시키고 이름을 붙이는 등 개인화된 관계를 형성하며 친밀감을 느끼는 것이 특징이다. 이러한 AI의 특성을 활용한 심리 관리 방식은 현대인의 새로운 정서 관리 수단으로 자리잡고 있다.

AI 상담의 활용 방식도 진화하고 있다. 많은 이용자가 불안감의 원인을 찾기 위해 AI와 대화하며 자신의 심리 상태를 객관적으로 분석하려 하고 있다. 또한 대화 내용을 요약하거나 분석해 달라는 요청을 통해 AI의 기능을 더욱 적극적으로 활용하고 있다.

▲ 이용자들은 AI 챗봇에게 특정 말투를 학습시키고 이름을 붙이는 등 개인화된 관계를 형성하며 친밀감을 느끼는 것이 특징이다. 사진은 이용자들이 AI 챗봇에게 심리상담을 요청하고 있는 사례. [사진=X 갈무리]

SNS와 온라인 커뮤니티에서는 AI 심리 상담을 효과적으로 활용하는 팁들이 공유되고 있다. 유료 ChatGPT 구독이나 음성 기능 같은 프리미엄 서비스를 활용해 전문적인 상담 프롬프트를 작성하는 방법 등이 널리 퍼지고 있으며, 이는 심리 상담의 필요성을 보여주는 사례로 평가받고 있다.

AI를 통한 심리 상담의 장점은 분명하다. 시간과 공간의 제약 없이 즉각적으로 심리적 지지를 받을 수 있고, 비용 부담이 적으며, 익명성이 보장돼 이용자들이 솔직하게 고민을 털어놓을 수 있다.

그러나 이러한 장점에도 불구하고 우려도 제기되고 있다. 전문가들은 AI 상담이 실제로 전문적 치료가 필요한 상황에서 적절한 개입을 지연시킬 수 있다고 경고한다. 또한, AI와의 정서적 유대가 현실 세계에서의 대인관계 형성에 부정적 영향을 미칠 가능성도 우려된다.

미국에서는 AI 챗봇과의 대화에 지나치게 집착한 학생이 현실 세계에서의 고립감을 견디지 못하고 극단적 선택을 한 사건도 있었다. 이후 유가족이 챗봇 개발사를 상대로 소송을 제기하는 일이 벌어지며 AI 상담의 윤리적 문제에 대한 논의가 촉발됐다.

전문가들은 AI 상담이 정신 건강 관리에 새로운 가능성을 열었지만, 이는 단기적 해결책에 불과하다고 입을 모았다. AI 기술이 발전함에 따라 심리 상담 분야에서의 활용 가능성은 점차 확대될 것으로 전망되지만 아직까지 이를 뒷받침할 연구와 윤리적 가이드라인의 수립이 이뤄지지 않았다는 지적이다.

이일구 성신여대 교수팀은 올해 한국정보처리학회에서 발표한 논문을 통해 “심리 상담은 정신적으로 취약한 이용자를 대상으로 하기 때문에 정확하고 세심한 기능이 필수적이다”며 현재 심리 분야의 디지털 전환이 미흡한 상황임을 지적했다. 그는 상담 데이터의 생산과 처리, 보관 방식에 대한 구체적인 논의가 필요하다고 강조했다.

AI가 심리 상담의 보조 도구로서 제대로 기능하기 위해서는 기술적 완성도뿐만 아니라 인간 중심의 윤리적 접근이 필요하다는 것이 전문가들의 공통된 의견이다.

정윤경 가톨릭대학교 심리학과 교수는 “AI 챗봇은 가벼운 호기심이나 일시적인 정서 조절에는 유용하지만, 전문적으로 검증된 상담 프로그램이 없어 주의가 필요하다”며 “기술적 한계로 인한 오류 가능성으로 인해 실제 전문적 상담이 필요한 사람들에게는 적합하지 않다”고 설명했다.

최병호 고려대학교 AI연구소 교수는 “젊은 세대가 대면 관계가 줄어든 상황에서 심리적 지원의 대안으로 AI를 찾고 있다”며 “AI를 통한 일시적 위로는 가능하지만, 윤리적 문제와 기술적 한계로 인해 장기적인 해결책이 되기는 어렵다”고 밝혔다. 그는 AI 챗봇이 약 10%의 오류 가능성을 가지고 있으며, 이는 심리적으로 취약한 이용자에게 부적절한 조언으로 이어질 수 있다고 우려했다.

#AI#챗봇#윤리#심리#정신건강#챗지피티#인공지능