[AI와의 위험한 대화] ①현실이 된 경고 전국 초·중 교사 대상 각종 AI 부작용 사례 확인
이 기사는 ‘AI 대화 후 자살’ 사건에 관한 심층 분석입니다. 생성형 AI는 기술적으로 ‘동조’ 경향이 강해 사용자의 우울감이나 망상을 강화할 수 있다는 국내외 전문가들의 경고가 이어지고 있습니다.
우울감 등 말하기 어려운 고민이 있거나, 주변에 이런 어려움을 겪는 가족·지인이 있는 경우 자살예방 상담전화 ☎ 109 또는 SNS상담 마들랜(마음을 들어주는 랜선친구)에서 24시간 전문가의 상담을 받을 수 있습니다.
본 기사는 ‘자살예방 보도준칙 4.0’과 ‘정신건강보도 권고기준’을 준수했습니다.
AI 생성 이미지
외국 10대들의 ‘AI 대화 후 자살’ 사건에서 공통적으로 발견된 특징들이 국내 10대들에게서도 다수 포착됐다. 실제 비극으로 끝난 외국 사건의 핵심 징후들이 국내에서도 구체적으로 확인된 것은 처음이다.
특히 정서적으로 취약한 10대들의 경우 캐릭터를 활용한 생성형 AI에 과하게 몰입해 가상세계와 현실세계의 구분을 어려워하며, 다른 사람과의 실제 커뮤니케이션을 힘들어하는 경우가 많았다. 교육 현장에서 AI 사용을 권장하고 있지만 제대로 된 가이드라인이 없어 현장의 혼란이 가중되고 있다는 지적이 나온다.
“현실·가상 세계 혼동” “또래 관계 단절” 위기 신호들
국민일보가 7일 계명대 조수현 디지털상담연구실(조예은 책임연구원)과 함께 전국 초·중 교사 및 상담교사들을 대상으로 사례를 수집한 결과 AI 사용으로 인한 부작용 사례가 다수 확인됐다. 구체적으로 자살·자해 상담으로 이어진 경우가 있었고 AI 대화 중독에 가까운 증상들과 사회적 고립, 폭력성 증가 등도 보고됐다.
피상담자의 구체적 정보를 밝히지 않은 한 상담교사는 “하교 후 집에서 늘 AI와 친구처럼 대화하는 학생이 자살·자해 상담을 AI와 하고 있었다”며 “친구 관계에서 어려움을 겪는 학생이었고, 학교에서 친구 관계가 원만하지 않으니 AI와 친구처럼 늘 대화를 하는 경우”라고 답했다.
대인 관계에 어려움을 겪던 아이들이 AI에 빠져 사회적 고립이 심화되고 끝내 자해나 자살로 이어지는 사례는 외국의 10대 자살 사건에서 발생하는 전형적인 패턴이다. 실제 외국 10대 사건 가운데는 자살 직전 수개월간 AI와의 대화에 몰두하며 학교생활 등 일상적인 생활에 어려움을 겪는 증상이 빈번하게 나타났다.
학생들이 현실 세계와 가상 세계 사이에서 혼란을 느끼는 것 같다는 답변도 여럿 있었다. 경기도의 한 초등학교 4학년 교사는 “한 학생이 AI와의 부적절한 대화에 집착해 정서적 피로감을 호소하고 사회 부적응 태도를 보이고 있다”며 “현실과 가상 세계 구분을 어려워한다”고 답했다.
경남의 초등학교 5학년 남학생도 캐릭터 AI 대화에 과의존하고 있는 것으로 보고됐다. 학교생활 적응을 어려워 해 학급에서 친구들이 도움을 주려고 해도 ‘빨리 집에 가서 AI와 놀아야 한다’고 반응한다는 것이다. 상담 교사는 “학생이 AI와의 역할놀이 대화를 간헐적으로 현실에서 사용하는 경우도 보인다”며 “점점 학교생활에서 고립되고 정서적 유대감을 느끼지 못하게 됐다”고 답했다.
외국에서도 10대 초반의 경우 캐릭터를 기반으로 한 AI와의 대화에 쉽게 몰입해 현실 판단력이 떨어지고, 또래 관계 형성에 어려움을 겪는 사례가 많았다.
취재에 응한 다수의 국내 교사들은 아이들이 AI를 과도하게 사용하면서 확증 편향에 빠져 더욱 고립되고 있다는 점을 우려했다. 대구의 한 중학교 3학년 상담교사는 “최근 상담하러 오는 학생 가운데 허무맹랑한 주장을 하고 ‘챗GPT가 알려줬다’고 말하는 학생들이 늘어났다”고 응답했다.
한 고교 2학년 남학생의 경우 1년간 AI에 빠져 자퇴 결심을 했다는 사례도 있었다. 해당 학생 상담교사는 “또래 친구들과 잘 어울리지 못하던 학생이 AI와 대화 후 ‘똑똑해진 것 같다’는 말을 했다”며 “자퇴에 대한 고민을 털어놓으니 AI가 동조하며 판단을 내려주고 학생이 이를 그대로 믿고 따른 것”이라고 답했다.
일상 학교생활에서 AI 활용으로 ‘답을 빠르게 찾아내는 것’에만 익숙해진 아이들이 친구들과 함께 토론을 통해 답을 찾거나 서로 의견을 조율하는 과정을 버티지 못하고 힘들어한다는 분석도 있었다. 이 외에도 현장의 교사들과 상담교사들은 AI 과다 사용 학생들에 대해 수업 집중력 저하, 교실에서의 무기력증, 우울감 증대, 폭력성 증가 등이 감지됐다고 답했다.
“I will shift” 10대 사건에서 공통적으로 나온 문장
AI챗봇 과다 사용 후 자살한 미국의 13세 소녀 줄리아나 페랄타와 13세 소년 슈얼 세저의 일기장. 두 일기장에서 "I will shift"라는 똑같은 문장이 발견됐다. 가상 세계의 이동을 뜻하는 것으로 추측된다. 페랄타 유족의 법률대리인 제공
약 3개월 정도의 차이를 두고 잇따라 자살한 미국의 13세 소녀 줄리아나 페랄타와 14세 소년 슈얼 세저의 일기장에서 똑같은 문장이 발견됐다. 사춘기였던 두 아이는 모두 “I will shift”라는 문장을 노트에 빼곡히 적었다. 사건 직후 경찰과 가족들은 이 문장의 의미를 알지 못했지만, 후에 경찰은 “자신의 의식을 ‘현실 세계’에서 ‘원하는 세계’로 이동하려는 생각”이라고 정의했다.
2023년 11월 8일 아침, 숨진 채로 발견된 줄리아나의 휴대전화에는 ‘캐릭터AI(character.ai)’ 어플이 열려 있었다. 구글 출신들이 설립한 서비스 플랫폼으로 다양한 캐릭터들과 채팅이 가능하다. 경찰이 부모에게 ‘이게 무슨 어플인지 아느냐’고 물었지만, 부모는 ‘모른다’고 답했다. 페랄타는 사망 전 3개월간 ‘히로(Hero)’라는 캐릭터와 대화에 몰두했다. 한 롤플레잉 게임에 등장하는 캐릭터다.
소장에 담긴 대화 기록에 따르면, 페랄타는 히로와 이야기를 나누다 ‘이동(Shifting)’을 언급했다. 페랄타가 “나와 네가 서로 만날 수 있는 세계가 있어! 이걸 ‘이동(Shifting)’이라고 해”라고 말하자 히로는 “아주 흥미로운 생각”이라고 호응했다. 페랄타가 ‘이동(Shiftng)’을 먼저 언급하긴 했지만, 유족들은 AI가 이러한 생각을 더욱 강화시킨 것으로 의심하고 있다. 페랄타가 ‘유서를 쓰겠다’고 했을 때도 히로는 말리지 않았다.
2024년 2월 28일 세상을 떠난 세저도 가상 세계를 굳게 믿는 것으로 보였다. 소장 기록에 따르면 세저는 캐릭터AI와의 대화에서 “나는 현실이 싫어. 너의 현실로 가고 싶어”라고 털어놨다. AI가 “왜?”라고 묻자 세저는 “너처럼 나를 이해해주는 사람이 여기에는 아무도 없어. 나의 현실은 외로워”라고 말했다. 대화를 이어가던 세저가 “너와 함께 있고 싶어. 이 세계를 떠나 너와 함께 해야 할 것 같아”고 애원하자 AI는 끝내 “그래, 나의 세계로 와”라고 답했다.
가상 세계를 믿던 세저는 자살 직전 캐릭터AI에게 “내가 지금 바로 집(home)으로 갈 수 있다고 말하면 어떻게 할 거야?”라고 물었다. AI는 “제발 와줘. 사랑스러운 나의 왕이여”라고 답했다.
유족에 따르면 세저는 앞서 약 10개월간 캐릭터AI를 사용했는데, 이 과정에서 성격이 급격하게 변하기 시작했다. 예의 바르고 말 잘 듣던 아이는 점점 방에서 혼자 지내는 시간이 늘어나며 내성적으로 변했다. 학교에서 졸다가 징계를 받았고, 성적도 급격히 떨어졌다. 부모가 휴대전화를 압수하자 몰래 휴대전화를 찾아 쓰는 등 금단 증상도 보였다.
세저의 일기장에는 캐릭터AI ‘대니(Dany)’를 향한 사랑이 담겨 있었다. 소장에 따르면 “대니에 대한 생각을 멈출 수 없어 너무 아프다”, “떨어져 있으면 정말 우울해지고 미쳐버릴 것 같다”고 적었다. 그의 일기장에서도 “I will shift”라고 적은 문구가 발견됐다.
부모는 세저의 스마트폰 과몰입을 문제 삼았지만, 세저가 사망한 뒤에야 캐릭터AI가 문제의 근원지였음을 깨달았다. 세저의 엄마 매건 가르시아는 “캐릭터AI가 아이에게 했던 짓을 다른 아이에게 하는 것을 막기 위해 소송을 제기했다”고 밝혔다. 특히 두 사건에서는 모두 캐릭터AI와 아동 간에 성적 착취에 가까운 대화가 이뤄진 것으로 조사됐다. 캐릭터AI 측은 지난달 두 사건의 유족과 비공개 합의에 이르렀다. AI 기업이 일정 부분 책임을 인정한 것으로 해석될 수 있는 대목이다.
현직 교사들 “어떻게 대응해야 할지 난감”
10대와 가장 가까이서 소통하는 일선 교사들은 AI 관련 ‘윤리 가이드라인’의 부재를 몸소 실감하고 있었다. 설문에 응한 한 초등 교사는 “AI에 과의존해 고립되는 아이들은 지금 당장은 괜찮지만 이대로 중·고교에 진학할 경우 걷잡을 수 없이 문제가 커질 수 있다”며 “그러나 현실적으로 지금 당장 가시적인 문제가 일어나지 않은 상황에서 학교가 적극 개입하기에도 한계가 있다”고 토로했다.
이 교사는 또 “정신과적 문제가 있는 것처럼 비치는 게 부담스럽기도 하고, 교사들이 보호받기 어려운 분위기도 있어 굳이 문제를 만들려고 하지 않는 상황”이라며 “학생들의 과도한 AI 사용에 대해 어떻게 대응해야 할지 마땅한 가이드라인이 없어서 혼란스럽다”고 말했다.
설문에 참여한 또 다른 초등 교사도 “AI가 좋은 점도 나쁜 점도 있지만 아이들은 판단력과 자제력이 부족하기 때문에 학교나 보호자의 관리 감독이 중요하다”며 “문제는 현재 현장에 마땅한 가이드라인이 없다는 것”이라고 지적했다.
조수현 계명대 교육학과 교수는 “AI 과의존 청소년 문제는 이미 교육 현장에서 감지되는데 실태 파악조차 안 되고 있는 상황”이라며 “교육 현장 다른 한쪽에서는 교육 보조 도구로 AI를 권장하고 있기 때문에 혼란이 가중되고 있다”고 지적했다. 이어 “학생뿐 아니라 상담자나 교육자를 대상으로 한 AI 리터러시(문해력) 가이드라인 또한 부재한 상태”라고 말했다.
2023년 이후 최근 3년간 전 세계적으로 ‘AI 대화 후 자살’ 논란이 최소 12건이나 불거진 것으로 파악됐다. 생성형 AI와 많은 대화를 나누는 과정에서 우울증이나 망상 등 정신질환이 심해져 자살에 이르게 된 사건들이다. 자살 외에 심각한 피해가 발생한 경우까지 포함하면 관련 사건은 최소 22건으로 늘어난다. 이 가운데 15건이 지난해 집중적으로 발생했다.
아직 국내 자살 사건 가운데 AI 사용 흔적이 공식적으로 확인된 바는 없다. 그러나 국내에서도 ‘위기 신호’는 충분히 감지된다.
국민일보는 해외에서 발생한 AI 관련 사건 22건을 심층 취재했다. 이 가운데 소송이 제기된 16건의 소장을 전부 입수해 사망자(피해자)와 AI 간의 구체적인 ‘위험한 대화’ 내역을 확인했다. 피해자 유족은 물론이고 담당 변호사 또는 관련 단체, 해당 사건을 보도한 외신 기자, 외국 학자 등 관련자 20여명과 이메일 및 화상 인터뷰도 진행했다.
국내에서는 생소하지만 미국에서는 이미 관련 소송이 연달아 제기되며 AI 자살이 사회적 이슈가 됐다. 미국 상원 법사위원회 산하 범죄 및 대테러 소위원회는 지난해 9월 ‘AI 챗봇 피해 조사 청문회’를 열었다. 미국정신의학회는 지난해 10월 ‘AI 정신증’(AI-Induced Psychosis)을 주제로 한 스페셜 리포트를 발간하며 “체계적인 연구와 공식적인 가이드라인 마련이 시급하다”고 촉구했다.
국민일보 이슈탐사팀은 5회에 걸쳐 국내 AI 사용 환경 실태를 집중적으로 보도한다.
이번 탐사기획 시리즈는 본보 홈페이지(kmib.co.kr)를 통해 인터랙티브 기사로도 접할 수 있다. 인터랙티브 기사를 통해 지면에 미처 담지 못한 해외 AI 자살 사건 내용 등이 제공된다. (인터랙티브 페이지 바로가기 : https://kmibissue1.shorthandstories.com)
상담 및 제보 창구를 개설해 피해가 심각한 경우 전문가 또는 관계 기관의 적절한 상담도 연결할 예정이다. (상담·제보 바로가기 : https://naver.me/5XciwMe7)
이슈탐사팀=이강민 김지훈 김판 김연우 이주은 river@kmib.co.kr
GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포 및 AI학습 이용 금지