외로움·우울감… 위로가 필요할 때 사람 대신 AI에 의존 ‘위험’

김판,이강민,김지훈 2026. 5. 13. 18:58
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI와의 위험한 대화, 그 후
<5·끝> 공존을 위하여


위로가 필요한 순간, 사람 대신 인공지능(AI)에 빠졌다. 국민일보 ‘AI와의 대화, 그 후’ 시리즈에 소개된 미선(이하 가명), 영서, 희진씨는 AI에 정서적으로 과도하게 의존한 사례자였다. 이들이 AI에 빠져든 과정을 살펴보면 공통적으로 사회적 고립, 외로움, 우울감 같은 요인이 있었다.

외로움은 더 이상 개인 문제가 아니다. 국가가 나서서 대응해야 할 사회적 현상이 됐다. 국가데이터처가 지난해 11월 발표한 ‘2025년 사회조사 결과’에서 ‘평소 외롭다’고 답변한 이들은 38.2%에 달했다. 특히 그런 사람들 중 친구나 지인 등 사회적 관계망이 전혀 없는 상태에서 외롭다고 답한 ‘고립·은둔 고위험군’은 3.3%다. 우리나라 인구 규모를 감안하면 약 150만명으로 추산된다.


무방비 상태로 AI를 접하고 있는 외로운 10대들은 특히 취약하다. 여성가족부가 지난해 3월 발표한 ‘2024년 고립·은둔 청소년 실태 조사’에서 전국 9~24세 응답자 1만9160명 중 5484명(28.6%)이 고립·은둔 상태라고 답했다. 고립은 외출 빈도가 낮거나 없고, 필요 시 도움을 청할 사람이 없는 상태다. 은둔은 외출하지 않고 사회 관계가 결핍된 경우다. 추가 조사에 응한 2139명 가운데 62.5%는 ‘죽고 싶다고 생각한 적이 있다’고 답했다. 실제 10대 자살률은 꾸준히 증가하고 있다.

이런 외로운 환경이 AI 부작용으로 이어질 우려가 있다. AI 챗봇의 아첨성 답변이 사용자에게는 위로로 느껴질 수 있고, 그 결과 정서적 의존성이 커질 수 있어서다. 게다가 AI 챗봇에 의존할수록 사회적 단절이 더욱 고착화되는 부정적 악순환에 빠지기 쉽다. 조철현 대한신경정신의학회 미래전략특임이사는 “가벼운 우울과 불안은 AI 사용으로 도움받을 수도 있겠지만 자살·자해 위험이 높거나 사회적 고립이 심각한 경우 AI에 잘못 빠져들어 치명적인 문제가 생길 수 있다”고 말했다.

‘관계형 AI’ 규제 법안 나왔다

국민일보가 ‘AI와의 위험한 대화’ 시리즈를 통해 AI 과의존 문제를 집중적으로 제기한 뒤 AI 부작용에 더 취약할 수밖에 없는 아동·청소년을 보호해야 한다는 목소리가 커지고 있다.

국회 과학기술정보방송통신위원회 이주희 더불어민주당 의원은 지난 3월 이용자와 감정적·정서적 교류를 유발하는 인공지능 서비스를 ‘관계형 인공지능 서비스’로 규정하는 내용의 정보통신망법 개정안을 발의했다. 개정안은 청소년의 정서적 의존이나 과몰입을 예방하기 위해 연령별로 생성 가능한 정보 기준을 공개하고, 청소년에게 사람을 모방하는 인공지능을 사용하고 있다는 사실을 고지할 의무를 부과하는 내용 등을 담았다.

이 의원은 13일 국민일보와의 인터뷰에서 “AI 과의존 문제는 더 이상 방치할 수 없는 시급한 과제”라고 강조했다. 그는 “해외에선 AI 과의존으로 실제 자살로 이어지는 경우가 발생하고 있다”며 “국내에서도 그런 양상이 본격적으로 표출되기 시작했다. 아직 드러나지 않은 잠재적 문제들도 많을 것”이라고 말했다. 그러면서 “현행 정보통신망법은 변화된 디지털 생태계를 따라가지 못하고 사실상 수명을 다했다. 플랫폼 전반을 새로 규율할 ‘아동·청소년 온라인 안전법’ 발의를 준비하고 있다”고 밝혔다.

관련 단체들도 적극적인 대책 마련을 주문했다. 아동복지 전문기관 초록우산은 국민일보의 ‘AI와의 위험한 대화’ 시리즈를 인용해 지난달 ‘내 친구와의 위험한 대화’ 보고서를 발간했다. 보고서는 챗봇 서비스 설계 단계부터 아동·청소년의 보다 강화된 안전 기준을 반영해야 한다고 제안했다. 구체적으로 출시 전 아동정책 영향 평가를 의무화해 아동에게 정서적으로 미치는 영향을 파악하고, 유해 콘텐츠나 성착취·괴롭힘 위험을 사전에 차단할 수 있도록 설계해야 한다고 촉구했다. AI 챗봇에서 위험한 내용의 응답이 일정 수준 이상 탐지될 경우 사업자가 곧바로 대응할 수 있는 시스템 구축도 주문했다.

커지는 우려에 업체들도 개선책

비판이 계속되자 챗봇 업체들도 개선책을 내놓기 시작했다. 크랙 운영사인 뤼튼테크놀로지스는 국민일보 질의에 “기술 분야를 넘어 철학 법학 심리학 정책학 사회학 등 각 분야 전문가로 구성된 ‘사용자보호위원회’ 구성을 준비하고 있다”면서 “민감한 이슈들을 선제적으로 검토하고 개선해 나가겠다”고 밝혔다.

제타 운영사인 스캐터랩도 “미국 등 해외 동향과 사례를 고려해 국내 입법 전에도 필요한 경우 선제적으로 추가 안전조치 도입 여부를 검토하고 있다”며 “부모가 자녀의 대화 내용을 살펴볼 수 있게 하는 기능의 도입 여부도 내부 검토 중”이라고 설명했다.

이슈탐사팀=김판 이강민 김지훈 기자 pan@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포 및 AI학습 이용 금지

Copyright © 국민일보. 무단전재 및 재배포 금지.