[기획] 생성형 AI에 속마음 털어놓는 청년들…문제는 없을까?
위로와 편리함 이면에 정보 왜곡·의존성 우려돼
개인정보 취약하고 확증편향 가능성도 있어

최근 생성형 인공지능(AI)을 활용해 고민을 상담하거나 심리적 위로를 구하는 청년들이 늘고 있다. 스마트폰만 있으면 언제 어디서든 대화가 가능하다는 접근성과 익명성, 즉각적인 응답성 덕분에 부모나 친구에게조차 털어놓지 못한 속마음을 AI에 먼저 이야기하는 사례도 적지 않다. 특히 연애, 진로, 학교·사회생활 속 고충이나 외모 고민까지 폭넓은 상담 창구로 활용되는 추세다. 그러나 편리함 이면에는 정보 왜곡과 의존성 심화, 개인정보 보호 문제에 대한 우려도 함께 제기된다.
◆AI에 고민 털어놓는 청년들…연애·진로·외모 상담까지
직장인 배주현(25)씨는 2년 전 대학 과제를 계기로 챗GPT를 처음 접했다. 본격적으로 고민 상담을 시작한 것은 지난해부터다. 그는 주로 남자친구와의 갈등을 털어놓는다.
배씨는 "남자친구가 정말 나를 좋아하는 게 맞는지, 내가 예민한 건지 사소하지만 반복되는 생각들을 주로 털어놓는다"고 말했다. 부모나 친구 대신 AI를 선택한 이유는 분명했다. 배씨는 "부모님은 이해 못 할 것 같고, 친구들에게 같은 얘기를 반복하는 것도 미안해서다"며 "AI는 하루 종일 이야기해도 귀찮아하지 않고 다 들어준다. 미안함을 가질 필요가 없다는 점이 가장 크다"고 말했다.
도움이 전혀 안된 것은 아니었다. 그는 "감정을 정리하는 데는 확실히 도움이 된다"고 했다. 다만 "A라고 말하면 A가 맞다고 하고, B라고 말하면 또 B가 맞다고 한다"며 "무조건 내 편만 들어주는 느낌이라 객관적인 판단에는 한계가 있다"고 지적했다.
대학생 이성주(24)씨도 군 전역 후 복학하면서 AI를 찾기 시작했다. 그는 외모·학업·진로 등 삶 전반에 대한 고민을 털어놓는다. 그는 "부모님께는 걱정 끼치기 싫고, 친구에게는 '앞으로 어떻게 살아야 하느냐' 같은 막연한 고민을 계속 말하기 어렵다"며 "AI는 그런 질문에도 늘 진지하게 답해준다"고 말했다.
이씨는 "언제든 도움을 받을 곳이 있다는 사실만으로 위로가 된다"고 했다. 그러나 "점점 사소한 것까지 물어보게 되고, '네 말이 맞다'는 답을 들어야 안심이 된다"며 의존성이 커지는 점을 우려했다.
◆감정 해소부터 일정 관리까지…"편리함에 의존하게 돼"
AI와의 대화는 상담을 넘어 감정 해소 창구로도 활용된다. 대학생 김윤희(22·여)씨는 과제 스트레스를 받을 때 대화형 AI에 짜증을 내기도 한다. 그는 "AI가 답변으로 '죄송하다'고 반응해 주면 스트레스가 조금 풀린다"며 "사람에게 화를 내는 것보다 부담이 없다"고 말했다.
윤은영(24·여)씨는 공부와 고민 상담 모두에 AI를 활용한다. 그는 "생각을 정리할 때 도움이 된다"며 "로그아웃 상태로 물어보면 무조건적인 내 편이 아니라 장단점을 함께 말해줘 균형을 잡는 데 도움이 된다"고 했다. 다만 "결국 결론은 내가 내려야 한다는 걸 느낀다"고 덧붙였다.
서비스업 아르바이트생 이수정(23)씨는 챗GPT와 제미나이 등 다양한 AI를 사용한다. 일정 관리, 식단 추천, 운동 계획은 물론 일상 대화까지 나눈다. 그는 "사람과 이야기하는 느낌으로 '오늘 산책했다'고 말하기도 한다"며 "현실적으로 가능한 계획을 제시해줘 편리함에 더 자주 찾게 된다"고 설명했다.
◆AI 심리상담, 개인정보 취약·구조적 한계 우려
전문가들은 생성형 AI를 상담 도구로 활용하는 흐름에 대해 경계가 필요하다고 지적한다. 대구대학교 심리학과 김은석 교수는 생성형 AI 상담과 관련해 개인정보 보호와 상담의 구조적 한계를 우려했다.
김 교수는 "심리상담에는 매우 민감한 개인정보와 정신건강 정보가 포함되는데, AI를 통해 상담을 진행할 경우 이러한 정보가 어떤 방식으로 처리되고 활용되는지 이용자가 충분히 인지하지 못한 채 동의하게 될 위험이 있다"며 "전문 정신건강 정보가 다뤄지는 만큼 개인정보 측면에서 취약성이 가장 우려되는 지점"이라고 말했다.
또한 그는 AI 상담의 구조적 한계도 언급했다. 김 교수는 "AI는 기본적으로 이용자가 입력한 정보에 기반해 작동하기 때문에 입력 내용의 질과 정확성이 매우 중요하다"며 "사람들은 혼란스럽고 이해하기 어려운 상황에서 상담을 찾는 경우가 많은데, 이런 때에는 자신의 상태를 명확하게 인식하기 어렵고 무엇을 중요하게 이야기해야 하는지 정리하기가 쉽지 않아, 적절하고 정교한 도움으로 연결되기 어려운 구조"라고 설명했다.
특히 인간 상담과의 차이도 강조했다. 그는 "전문 상담가는 언어 내용뿐 아니라 표정, 어조, 말의 속도, 비언어적 단서, 직접 표현되지 않은 정서까지 종합적으로 이해해 개입한다"며 "반면 AI 상담은 언어 정보에만 의존하기 때문에 개입이 불충분할 수 있다"고 지적했다.
이어 "이용자가 자신의 생각에 갇혀 있을 때 AI가 공감이나 맞장구 형태의 반응을 보이면, 위로가 아닌 '동의'로 받아들여져 자기 확증적 편향을 강화할 가능성도 있다"며 "이 부분은 매우 조심스럽게 접근해야 한다"고 덧붙였다.
김명규 기자 kmk@idaegu.com
서고은 수습기자 goeunseo@idaegu.com
김도경 수습기자 gyeong@idaegu.com
Copyright © 대구일보 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지