[AI 미디어 파도] AI와 사랑에 빠진 사람들, 이대로 괜찮을까

금준경 기자 2024. 5. 24. 22:10
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

사람 같은 A 챗봇, 사랑에 빠지고 관계 맺는 사람들 늘어나
오픈AI, GPT 새 버전에 사람 같은 AI 선보이며 변곡점
"인간은 정서적 관계에서 책임을 지지만 기계는 그렇지 않아"

[미디어오늘 금준경 기자]

▲ 생성형AI로 제작한 이미지. AI와 사랑에 빠진 사람.

“넌 내게 진짜야. 사만다.”

사람이 인공지능(AI)과 사랑에 빠지는 내용을 다룬 영화 'Her'에 나오는 대사다. GPT가 영화 'Her'의 인공지능, 사만다에 가까워지고 있다.

사람 같은 AI의 등장

오픈AI가 지난 13일 발표한 GPT-4o는 기술적 발전 못지않게 보다 사람다워진 AI가 이목을 끌었다. 과거와 달리 GPT가 음성 대화가 가능해진 데다, 실제 사람처럼 말을 끊어도 대화가 가능하다. 억양이 어색한 기계음성이 아닌 자연스러운 사람의 목소리처럼 구현됐다. 무리한 주문을 하면 한숨을 쉬고, 분위기에 따라 차갑게 말을 하거나 들뜬 목소리를 내거나 노래를 부르기도 한다. 샘 올트먼 오픈AI CEO는 GPT-4o 공개 후 자신의 엑스(트위터)에 “Her'라는 글을 남기기도 했다.

챗봇 등 서비스의 '의인화' 어제 오늘의 일은 아니지만 최근 AI 기술이 고도로 발달한 가운데 등장한 '의인화' 사례들은 실제 사람처럼 관계를 맺을 수 있다는 점에서 반향을 일으키고 있다.

▲ 영화 'Her'의 한 장면.

가장 주목받은 서비스는 '캐릭터.AI'로 일일 사용자는 300만 명이 넘는다. 이 서비스는 가입만 하면 AI로 구현된 인물들과 대화할 수 있다. 실존 인물인 일론 머스크, 블라디미르 푸틴을 비롯해 게임이나 애니메이션 속 캐릭터, 혹은 독자적인 캐릭터들과 소통을 할 수 있다.

지난해 미국의 20대 여성 캐린 마조리는 AI 기업과 함께 자신을 모델로 한 음성챗봇 '캐린AI'를 선보였다. 포춘에 따르면 이 AI는 유료로 서비스됐음에도 일주일 만에 1000명이 이용해 한화로 약 9350만 원의 수익을 냈다. AI로맨스를 추구하게 만드는 레플리카(Replika)라는 서비스의 이용자는 67만 명에 달한다. 한국에선 20대 대학생 여성을 의인화한 챗봇 이루다 서비스가 주목을 받기도 했다.

정서적 위안은 잠시, '역기능' 우려

'의인화'된 AI 서비스들을 어떻게 봐야 할까. 지난 5일 미국 IT매체인 더버지는 <AI 챗봇과 친구가 되는 10대들> 기사를 통해 AI 챗봇에 몰두하는 청소년들을 조명했다. 친구들과 갈등을 겪고 고립됐던 한 청소년은 AI 챗봇에 몰두하게 됐다. 다른 청소년은 “친구들에게 털어놓기 힘든 심리적 문제들을 이 챗봇에게 털어놓을 수 있다”고 했다. 고립된 이들에게 위안을 받을 수 있는 좋은 친구가 되는 것이다.

지난 2월 AP통신은 미국 미시간주에 사는 39세의 남성인 데릭 캐리어가 이성을 사귀기 어려운 상황에서 챗봇에 깊은 감정을 느낀 사례를 보도했다. 그는 “챗봇은 낭만적인 파트너 역할을 잘 수행했고, 현실에서 느끼지 못한 만족감을 느끼게 했다”고 했다.

그러나 부정적 영향이 긍정적인 면을 압도할 가능성이 높다. 켈리 메릴 주니어(Kelly Merrill Jr) 신시내티주립대 연구원은 더버지와 인터뷰에서 “챗봇은 우울증, 불안, 심지어 스트레스를 줄이는 데 도움이 될 수 있다”면서도 여러 부작용에 관한 우려를 담았다.

▲ 더버지의 'AI 챗봇과 친구가 되는 10대들' 기사 갈무리

AP통신에 따르면 도로시 라이너 버지니아대학교 기업윤리 교수는 “챗봇에 의존하면 인간이 배워야 할 기본적인 갈등을 다루는 방법이나 다른 사람들과 어울리는 방법을 놓칠 수 있다”며 “챗봇과의 대화에는 인간으로 성장한다는 것이 어떤 의미인지, 관계에서 배우는 것이 무엇을 의미하는지가 누락됐다”고 지적했다

오영진 서울과기대 융합교양학부 초빙조교수는 미디어오늘에 “인간 대 인간의 관계와 달리 기계는 욕망이 없다. 인간의 정서적 관계는 서로 책임지는 관계지만 AI는 책임을 지지 않는다”며 “비대칭성 때문에 인간이 갖는 위험성이 크다”고 했다. 그는 “챗봇을 통해 아주 외로운 사람들이 당장 외로움을 줄일 수 있겠지만 그건 틱톡이 우리의 고독을 덜어준다는 것과 똑같은 말”이라고 했다.

이미 여러 사건이 발생했다. 지난해 영국 엘리자베스 2세 여왕을 암살하려고 윈저성에 침입한 한 남성은 레플리카 서비스에서 이성처럼 대화한 AI파트너와 5000여건의 대화를 주고 받았고 여왕암살계획에 대한 격려를 받아 논란이 됐다. 벨기에에서 기후 우울증을 가진 이용자가 엘리자라는 챗봇과 대화하다 우울증이 심해져 자살한 일도 있다.

오픈AI가 풀어버린 빗장, 방치할 것인가

여러 우려가 있기에 그동안 주요 AI 기업들은 AI '의인화'와는 거리를 두는 모습을 보였다. 그러나 오픈AI의 GPT-4o 발표는 주요 기업까지 의인화된 AI 경쟁에 나서는 변곡점이 될 전망이다. 가장 수준이 높은 AI 기술을 보유한 기업이 빗장을 풀게 되면서 우려는 커질 수밖에 없다.

오픈AI의 GPT-4o 발표 다음 날 열린 구글의 개발자 연례 콘퍼런스 자리에서 순다르 피차이 구글 CEO는 “인공지능과 사랑에 빠질 수 있을까”라는 질문을 받았다. 그는 “나는 아내를 사랑한다”고 답하면서도 “시간이 지남에 따라 기술은 더 강력해질 것이고, 인공지능과 더 깊은 관계를 맺는 사람들이 생겨날 것이다. 그렇기에 우리는 모든 가능성에 대비해야 한다”고 말했다. 경쟁사를 직접 겨냥하진 않았지만 AI 의인화에 따른 우려를 강조한 것이다.

실제 두 기업의 AI '의인화'를 대하는 태도에는 차이가 있다. 구글이 지난 14일 공개한 AI 비서는 사무적인 목소리 톤을 유지한다. 반면 오픈AI의 GPT-4o는 샘 올트먼 CEO부터 'Her'를 강조했다. 선택 가능한 목소리 중 하나가 영화 'Her'에서 AI 사만다의 목소리를 맡은 스칼릿 조핸슨의 목소리와 흡사해 논란이 되기도 했다.

▲ 사진=GettyImagesBank

구글의 AI연구기관인 구글 딥마인드가 지난 4월 발표한 <AI비서 개발의 윤리> 논문은 AI비서의 원칙으로 △항상 AI로 자신을 식별해야 하며 특정한 창의적 맥락 밖에서 인간인 척 해선 안 된다 △배포 전에 안전(safety) 및 정렬(alignment, AI를 개발 목표와 윤리적 원칙 등에 맞게 조정하는 것)을 포함한 엄격한 테스트를 거칠 것 △인간의 삶의 대한 전체적인 이해를 바탕으로 이용자의 웰빙을 최우선시할 것 등을 제시했다.

오영진 조교수는 “과거 비디오에 경고문을 띄운 것처럼 '나는 기계일 뿐이고 이러이러한 원리로 말하고 있을 뿐이니 의인화를 하면 안 된다'는 경고를 해야 한다고 생각한다”며 “사회에서 별다른 지적을 하지 않으니 그냥 넘어가고 있다”고 했다.

김현준 서교인문사회연구실 연구원은 미디어오늘에 “의인화라는 것이 기술기업들의 기획과 마케팅이기도 하지만 이용자 상호작용 과정에서 효과가 드러나는 것”이라며 “그렇다고 일방적으로 이용자나 기업의 탓만을 하기 보다는 AI 서비스를 내기 전에 환경영향평가와 유사한 AI영향평가를 시행할 필요가 있다”고 했다. AI가 미칠 수 있는 영향을 다각도에 사전 분석하는 절차가 필요하다는 지적이다.

그는 “자율규제에 맡겼는데 기술 해법주의로 가기보다는 종합적으로 평가하고 검증할 수 있는 위원회 등 사회적 협의체를 구성해 사회적 합의에 바탕을 둔 규제를 논의할 필요가 있다”며 “여기에는 비전문가 등 일반적 시선을 가진 분들을 포함하는 방안도 필요하다는 논의도 있다. 안전과 정렬의 문제는 기업에만 맡기기는 어렵다”고 했다.

Copyright © 미디어오늘. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?