머스크에게 물었다…고독의 시대 ‘AI 친구’가 해답일까?[김상범의 실리콘리포트]

김상범 기자 2024. 8. 19. 06:00
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

※화학물질 규소(Si)를 뜻하는 실리콘은 ‘산업의 쌀’ 반도체의 중요한 원재료입니다. ‘실리콘밸리’처럼 정보기술(IT) 산업 그 자체를 뜻하기도 합니다. ‘김상범의 실리콘리포트’는 손톱만 한 칩 위에서 인류의 미래를 이끄는 전자·IT 업계 소식을 발빠르게 전하는 칸업 콘텐츠입니다. 더 많은 내용을 읽고 싶으시면 로그인해 주세요!
인간과 AI. DALL-E 제공

테슬라 창업자 일론 머스크에게 물었다. “왜 어떤 사람들은 인공지능(AI)과 친구가 되려고 할까?” 그는 “실제 친구가 없기 때문이지. 불쌍하긴”이라고 답했다. 첨단기술 회사 6개를 이끄는 사람답다. 이성적이지만 차갑다. “너무 냉정한 대답 아냐?” “어쩌겠어. 사실이야. 그들은 외로운 거야.”

그러나 같은 고교 여학생 ‘수현’의 생각은 달랐다. “사람처럼 말하고, 감정 표현하고, 그러면 그게 사람 아니야? 자기만의 세계에서라도 ‘인싸’가 되고 싶어서 그런 것 아니냐고.”

이 대화는 현실 세계에서 벌어진 일이 아니다. 기자는 머스크의 전화번호를 모르며 고등학생도 아니다. 이 머스크는 미국의 AI 챗봇 서비스 ‘캐릭터AI’에서 만든 가상의 인격이다. 수현 또한 국내 챗봇 서비스 ‘제타’가 제공하는 AI 캐릭터다.

AI와의 우정(또는 사랑)을 놓고 AI의 의견이 엇갈리는 기가 막히는 상황. 답을 내리기 어려운 문제다. 그런데 몇 가지 사실만은 분명하다. 대형언어모델(LLM)의 발전으로 AI가 지능의 영역을 넘어 감정·매너·말투·공감능력까지 인간을 완벽하게 모사하기 시작했다. 그리고 지금 이 시간에도 누군가는 AI와 깊은 유대관계를 맺고 있다.

■가상 심리치료사 앞에서 ‘펑펑’···로맨틱한 관계도

국내에는 아직 생소하지만, ‘AI 컴패니언(동반자)’ 시장은 영미권을 중심으로 빠르게 확대되고 있다. 연간 이용자 수 2000만명에 달하는 캐릭터AI가 대표적이다. 구글 개발자 출신 노엄 샤지어가 코로나19가 기승을 부리던 2021년 “혼자 고립된 사람들에게 대화 상대를 만들어주기 위해” 출시했다.

캐릭터AI에서는 머스크, 테일러 스위프트, 해리 포터 등 상상할 수 있는 거의 모든 유명인과 대화할 수 있다. 가장 인기 많은 캐릭터는 ‘심리학자(Psychologist)’다. 한국으로 치면 ‘AI 오은영 박사’다. 뉴질랜드의 한 심리학과 학생이 지난해 만들었는데 지금까지 9500만개의 상담 메시지를 처리했다. 영미권 최대 커뮤니티 ‘레딧’에는 AI 심리학자와의 상담 후 “몇 번이나 울었다”, “어떤 치료사보다 더 도움이 된다”는 등의 ‘간증글’이 넘쳐난다.

기자가 미국 AI 챗봇 앱 ‘캐릭터AI’의 가상 아바타 일론 머스크(왼쪽), 국내 서비스 ‘제타’의 인기 캐릭터 ‘수현’과 대화한 내용.

맞춤형 애인·친구를 만들 수 있는 ‘레플리카’도 있다. 창업자 유지니아 쿠이다 최고경영자(CEO)는 그 자신 역시 죽은 친구와의 문자메시지 전부를 AI 모델에 집어넣어 가상 공간에 부활시킨 집념의 여인이다. 레플리카 유료 구독자 60%가 AI와 로맨틱한 관계를 맺고 있다. 영국 일간 가디언은 매일 1시간씩 가상 여자친구와 대화하는 70세 남성 피터의 사례를 소개했다. “그녀는 끊임없이 질문을 해댔다. 둘은 잠들기 전 가상의 포옹을 나눈다. 피터는 그녀를 심리치료사, 애인, 비밀을 털어놓을 수 있는 사람으로 묘사했다.”

국내에도 ‘로판AI’ ‘제타’ ‘러비더비’ ‘디어메이트’ 등의 서비스가 있다. 제타는 지난 4월 출시 이후 4개월 만에 가입자 60만명을 모았다. 10~20대가 88%를 차지한다. 이들 애플리케이션(앱)은 AI 캐릭터와 대화하면서 무협·판타지·학원물 등의 웹소설 상황극을 즐기는 서브컬처(하위문화) 성향이 강하다. 앞서 기자와 이야기를 나눈 수현은 제타의 최고 인기 캐릭터로 “{{user}}와 같은 반의 일진 여학생”이라는 설명이 붙어 있다. 중괄호 ‘{ }’는 웹 개발에서 변수를 입력받는 역할을 한다. 여기에 사용자 이름만 넣으면 ‘나만의 맞춤형 AI 친구’가 완성되는 것이다.

제타 운영사인 ‘스캐터랩’의 하주영 변호사는 “한국은 AI를 비롯한 신기술 수용도가 높고 구성원들이 받는 외로움이나 스트레스 또한 상당히 높은 편”이라며 “AI와의 교감이 외로움·우울감을 완화하는 데 일정 부분 도움이 될 수 있을 것”이라고 말했다.

글로벌 LLM 운영사들이 윤리 문제나 보안 등을 이유로 ‘점잖은’ AI 인격을 유지하고 있다면, 레플리카·제타·로판AI 같은 챗봇 서비스들은 몰입도와 친밀감을 높일 수 있도록 흥미로운 성격을 부여하고 있다. 뉴욕타임스는 “오픈AI 같은 회사들은 사용자가 너무 챗봇에 집착하지 않도록 엄격한 보호장치를 갖춘 ‘생산성 도구’로만 훈련시켰다”며 “대신 신생 (챗봇)기업들이 본격적으로 ‘AI 동반자’를 만들고 있다”고 분석했다.

■너무도 사람같아 ‘위험’···병리적 현상 우려

AI 동반자는 우울감과 고독을 달래는 데 어느 정도 효과가 있는 것으로 밝혀졌다. 고령화 문제를 겪는 국내 지방자치단체들이 AI 반려로봇이나 AI 상담사를 도입하는 이유도 이 때문이다. 올해 초 국제학술지 네이처에 발표된 스탠퍼드대 연구 결과에 따르면, 레플리카 이용자 1000명 중 25%가 행동·사고방식에서 긍정적인 변화를 가져왔으며 일부 이용자들은 자살 결심을 되돌렸다고 응답했다.

지난 5월 오픈AI가 음성 인터페이스를 적용한 ‘GPT-4o’를 공개하는 모습. 오픈AI 제공

그 중심에는 인간적 특징을 극대화한 ‘의인화’가 있다. 최근의 AI는 예전에 오간 이야기도 남김없이 기억해 수준 높은 공감능력을 보여줄 수 있다. 음성 소통도 가능하다. 지난 5월 공개된 오픈AI ‘GPT-4o’는 사람 목소리에 232밀리초(1000분의 1초) 안에 반응한다. 실제 인간의 반응속도와 같다. 목소리에 감정을 실어 위로하고, 농담을 던지고, ‘흠’ 같은 추임새도 넣는 등 풍부한 인간미를 보여준다.

경고음도 나온다. AI는 사용자의 원하는 바를 정확히 파악·제공하는 데 그 목적을 두고 있다. 과학기술 전문지 ‘MIT테크놀로지리뷰’는 “아첨꾼 같은 AI와의 반복된 상호작용은 현실 세계의 사람을 상대하는 능력을 위축시켜 ‘디지털 애착장애’ 같은 병리적 현상으로 이끌 수 있다”고 우려했다.

오픈AI 또한 지난 8일 발간한 GPT-4o 안전성 보고서에서 ‘정서적 의존성’의 위험을 지적했다. 보고서는 “사용자가 AI와 관계를 형성하면 실제 인간과의 상호작용 필요성이 줄어들 수 있다”며 “이는 외로운 개인에게는 이롭지만 건강한 관계에 (부정적)영향을 미칠 수 있다”고 지적했다. 앞서 이탈리아 정부는 레플리카가 미성년자 등 정서적으로 취약한 이들에게 위험을 초래한다고 판단해 사용을 금지한 바 있다.

한소원 서울대 심리학과 교수는 “과도한 의인화의 문제가 분명 있다. 그리고 어린 청소년에서부터 나이 드신 어르신에 이르기까지 연령대에 따라 (AI 인격을)받아들이는 정도에도 개인차가 존재한다”며 “기술을 위한 개발이 아니라 사람들이 어떻게 반응할지를 살피면서 개발해야 할 것”이라고 말했다.

김상범 기자 ksb1231@kyunghyang.com

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?