[정신의학자 강웅구의 '마음의 길']
AI는 마음의 핵심인 “나”를 가질 수 없다.
반면 나는 “내 몸에 깃들어 있는 내 마음”을가지고 살아간다.
우리가 AI를 의인화해 진짜 마음을 가진 존재라 믿게 한 것뿐이다.
마음의 삼분법
마음은 무엇일까? 대답하기 어렵다면, 마음은 어떤 능력들로 구성되어 있을까? 이에 대한 대답은 오래된 지혜에서 찾을 수 있다.
플라톤은 마음을 이성(logos), 감정(thymos), 욕망(eros)으로 삼분하였다. 세가지 사이에 서열이 있어서, 이성이 인간에게 가장 중요한 능력이라 하였다. 선량한 사람에서 욕망은 이성에 의해 통제되어야 하는, 인간의 정신능력 중 서열이 낮은 것이었다. 이성의 우월성(인지주의)은 서양 세계의 발전에 중요한 역할을 하였다. 이성과 그 결과인 인지적 합리성은 서양이 과학기술력으로 세계를 지배하는 역사의 흐름을 만들어 낸 원천이었을 것이다. 이성의 승리는 확고하다.
감정 및 욕망은 19세기 낭만주의 시대에 일종의 아웃사이더였던 예술가들이 지켜낸 몫이었다. 학계에서는 정신의학자 프로이트가 사람이 행위하는 동기로 욕망(소위 “이드”)의 중요성을 논한 바 있었다. 그러나 현대 정신의학은 다시 이성의 우월성을 강조하고 있어서, 감정 및 욕망과 관련된 문제도 이성이라는 틀 안에서 보려 한다.
그래서 이성의 통제권을 강화하는 치료법인 인지행동치료(CBT)를 “불안”이라는 감정 증상이나 “음주 통제 불능”이라는 욕망 증상을 치료하기 위해 사용한다. 플라톤의 이상이 실현되는 세상 같다.
그렇지만 이성의 독점은 문명사에 재앙을 일으키기도 하였다. 서양이 지구촌을 정복한 결과는 식민지 수탈과 다른 문명의 파괴였는데, 이윤 추구라는 자본주의적 합리성 측면에서는 아무런 문제가 되지 않겠지만, 인류애와 존중이라는 또다른 가치의 측면에서는 문명의 커다란 퇴보였다. 사람다움(humanity)은 이성만으로 만들 수 없음이 분명하다.
동양에서는 마음이 갖춰야 할 덕목을 지-정-의(知-情-意)라 하였는데 각각 지성, 감성, 의지력이므로 플라톤 삼분법과 비슷하다. 그런데 지-정-의는 플라톤식 서열이 있는 것이 아니어서, 선량한 사람은 세 덕목을 균형 있게 갖추어야 한다는 함의가 있다.
인공지능은 만능일까
인공지능(AI)이 우리에게 성큼 다가왔다. 챗GPT는 무엇을 물어보든, 어느 나라 말로 물어보든, 전문가 수준까지는 아니더라도 제법 아는 사람 수준의 대답을 해준다. 생성형AI는 피카소 풍의 그림을 금방 그려낸다. 소설도 쓸 수 있고, 작곡도 할 수 있다. 그렇다면 AI는 만능인가? 사람이 할 수 있는 정신적 활동을 다 할 수 있을까?
필자의 생각으로는 그렇지 않다. AI에 대한 언론의 조명은 지나치게 화려하다. AI가 할 수 있는 것만 과장해서 보여줄 뿐, 할 수 없는 것에 대해서는 아무 이야기도 하지 않는다. AI만능설은 AI의 개발과 관계된 사람들의 이해관계를 반영한다고 합리적으로 추측할 수 있다. 투자자나 소비자에게 AI가 핫 아이템으로 뜨기 위해서는 상품성 있는 요소만 모아 다소 과장을 곁들여서 홍보해야 할 필요가 있다.
챗GPT에 “인공지능이 만능이라 생각하는 사람들은 어떤 사람들이니?”라 물어보니 “대개 기술적 혁신에 대한 열정이 높고 기술적인 해결책에 믿음을 가진 사람들입니다. 그들은 기술이 사회와 산업을 변혁할 수 있다고 믿으며, 인공지능의 능력을 과소평가하지 않습니다. 하지만 가끔은 기술적인 한계나 윤리적 고려사항을 간과할 수 있습니다”라는 대답이 돌아왔다. 다시 “인공지능이 만능이라 주장하는 사람들은 어떤 사람들이니?”라 질문했더니 거의 비슷한 대답에 “기술전문가, 연구자, 혹은 기술기업의 임원들”이 추가되었다.
주장하는 사람들의 목록에 “인공지능으로 대박 터뜨리려는 투기세력”은 등장하지 않았다. 학습데이터가 부족해서 일 수도 있지만, 질문에 담긴 미묘한 감정을 챗GPT가 파악하지 못해서일 수도 있다. 첫 질문과 두번째 질문은 내용은 비슷해 보이더라도 후자에는 “진짜 믿어서가 아니라 내 이익을 위해 거짓 주장할 수도 있다”는 감정이 묻어있는데, 언어의 내용(이성)을 적절하게 파악하는 AI지만 이런 미묘함은 구분하지 못하는 것 같다.
냉랭하게 보면, AI 만능설을 주장하는 사람의 동기는 금전이건 명예건 욕망이고, 욕망이 이성에게 명령하여 다소 정직하지 못한 AI 만능설을 만든 것이다. 그렇다면 플라톤은 그들이 선량하지 못하다고 할 것이다. 챗GPT의 대답에는 사족처럼 “기술적 한계”와 “윤리적 고려사항”이 있었는데, 전자는 합리성의 영역으로 인간의 지식이나 AI의 연산 능력과 관계된다. 그런데 후자는 AI 능력의 문제가 아니라 AI를 만들고, 팔고, 사용하는 사람의 마음과 관계된 것이다.
의인화의 함정
우리가 AI 만능설에 공감하는 이유는, 우리 마음이 동작하는 기본적 방식 중의 하나가 의인화(擬人化)이기 때문이다. 의인화 경향은 진화된 특성인 것 같다. 의인화는 인간이 아닌 상대도 직관적으로 이해하게 해준다. 우리가 반려동물을 얼마나 의인화하는지 생각해 보면 알 수 있다. 내가 상대방을 이해하는 기반은 나와 상대방의 공통점에 대한 믿음 또는 직관인데(현상학에서 이야기하는 상호주관성), 의인화는 공통점을 찾는 본능적 방법이다.
의인화를 더 쉽게 하기 위해 인공지능 로봇은 상자가 아닌 사람의 겉모양으로 만들어진다. 의인화 AI의 대표적인 예가 영화 “스타워즈”에 나오는 스리피오(3PO) 로봇이다. 이 로봇은 너무 의인화가 잘 되어 있어서 관객들은 거의 사람을 보는 것처럼 느끼고 감정이입까지 가능하다. 같은 인공지능 로봇인 알투디투(R2D2)와 비교해보면 차이를 금방 느낄 수 있다.
연산 알고리듬에 따라 입출력하는 시스템을 “질문을 듣고”, “생각하고”, “대답한다”라고 기술하는 것도 의인화 때문이다. 필자도 “챗GPT에 쿼리를 입력하였다”가 아니라 “챗GPT에게 물어보았다”라고 무심결에 글로 쓴다. 의인화는 AI도 진짜 생각한다고 믿도록 만들고, AI가 생각한다면 나처럼 감정과 욕망도 가진 존재, 진짜 마음을 가진 존재라고 믿게 만든다.

AI는 마음이 없다
그러나 AI는 마음을 가질 수 없다(챗GPT도 그렇게 대답한다). 마음의 몇 가지 능력이 문제가 아니라, AI는 마음의 핵심인 “나”를 가질 수 없다. AI가 대답할 때 “나”라 한다고 해도, 알고리듬이 의인화된 것에 불과하다. 반면 나는 “내 몸에 깃들어 있는 내 마음”을 가지고 살아간다. 내 몸은 내 감정과 욕망의 원천이다. 몸이 있기에 감정을 느끼고 욕망을 가질 수 있다.
화가 또는 한 어린이가 자신의 풍으로 그림을 그리는 것은 자신의 감정과 욕망에 기반한 직관을 펼치는 것이다. 그것은 나, 내 몸과 마음이 있기 때문에 가능하다. 그러나 AI가 피카소 풍의 그림을 그린다고 해서, 감정이나 욕망을 갖는 것은 아니다. 기존 회화들의 데이터를 분석해서 논리적 알고리듬을 만들고 그에 따라 점찍기 출력을 하는 것에 불과하다. 모작을 그리는 화가는 아무리 원 작가처럼 그리더라도 위대한 작가가 아니다. 모작에는 내가 없고 내 마음이 없기 때문이다. 모작은 작품이 아닌 공업 생산품이며, 공업 생산은 마음이 없는 기계가 담당해 왔다.
AI가 독특한 화풍을 만들어낸다고 해도 무작위성에 기반한 새로운 알고리듬 생성일 뿐, 감성을 뒤흔드는 영감을 얻어서 하는 것은 아니다. 겉보기로는 구분이 잘 안 될 수도 있지만, 그 밑에 있는 과정이 같은 것은 아니다. 인지적으로 구분할 수 없으므로 같다고 간주하는 것은 인지주의적 편견이다. 인간의 감정과 욕망이 만들어낸 것과 닮아 보이는 것을 기계가 만든다고 해서 기계가 감정과 욕망을 갖는 것은 아니다. 사람들이 모짜르트 음악을 듣고 감동을 느낀다는 사실은 AI가 학습할 수 있지만, 모짜르트 음악을 입력한다고 AI가 느낌을 갖는 것은 아니다.
왜 마음을 가질 수 없을까?
AI가 감정과 욕망을 가질 수 없는 이유는 무엇일까? 인공지능은 공학이 만들어낸(製造, manufactured) 것인데 비해 사람의 마음은 긴 진화의 과정에서 스스로 생겨난(創發, emerged) 것이기 때문이다. 인류 진화 과정에서 이성보다 훨씬 중요한 것은 감정과 욕망이다. 인류가 사자에게 멸종 당하지 않고 살아남은 것은 “사자가 뭐지?” 하는 생각과 판단이 아닌, 사자를 보면 두려움을 느끼고 도망가려는 본능 때문이었다. 감정과 욕망은 이성보다 훨씬 먼저 우리 마음에 뿌리내렸고, 절박한 환경에서 우리를 지켜주었다.
마음의 세 능력 중에서 이성으로 이해하기 가장 쉬운 것은, 가장 늦게 우리 마음에 추가된 이성이다. 이성이 판단한 결과는 나(내 몸)와 관계없는 객관적 데이터로, 컴퓨터 연산으로 환원하기도 쉽다. 공학자는 “표준적 인간의 이성이 어떤 대상에 대해 어떤 판단을 내리는지”에 대한 데이터를 많이 확보하고, 이를 컴퓨터에 이식해서 AI를 만들어 낸다. 물론 컴퓨터가 이성이나 이해력을 갖게 되는 것이 아니라, 이성의 작업 결과를 시뮬레이션 하는 알고리듬을 구현하는 것이다. AI를 사용한 추론의 문제점은 “결과는 얻되 기전에 대한 이해를 얻을 수 없다”는 점인데, AI는 이성을 시뮬레이션 하지만 실제 생각할 능력은 없기 때문에 그렇게 된다.
스탠리 큐브릭 감독은…
가장 쉬운 이성을 구현하는 수준이 그 정도이므로 감정이나 욕망은 더 어렵다. 우리 감정과 욕망은 학습된 것이 아닌 본능이다. 그냥 그렇게 느끼고 그렇게 하고싶은 것이다. 그런데 AI는 데이터로 학습하지 않은 것을 처리할 수 없다. 물론 감정에 대한 데이터도 얻을 수는 있다. 뇌 편도체의 혈류 증가는 MRI로 측정할 수 있고, 두려움 상태도 설문지나 피부 전기전도도 등으로 측정할 수 있다. 두가지 사이의 관계는 통계로 찾을 수 있다. 그 결과 “뇌 편도체 활성은 공포반응과 관계된다”는 지식이 알려진다. 챗 GPT의 학습자료로도 제공될 것이다. 그런데 그게 내 마음과 어떤 관계가 있을까? 나는 사자를 보고 본능적 두려움을 갖는 것이지 편도체 혈류 증가를 느낀 것이 아니다. 나를 두렵게 한 것은 편도체 혈류 증가가 아니라 사자를 본 체험이다.
AI는 사람의 감정을 다루기 위해, 감정과 연관된 행동에 대해 많은 데이터를 모으고, 지식 데이터와 알고리듬을 만들어 시뮬레이션하려 할 것이다. 이 데이터는 나의 몸이 체험한 것이 아닌, 사람들의 반응에 대한 통계적 데이터다. AI에 뇌혈류 증가라는 데이터는 입력할 수 있지만 내가 느끼는 두려움은 입력할 방법이 없다. 데이터와 느낌은 차원이 완전히 다르다. 느낌을 갖는 것은 사람을 포함해서, 살아있는 몸과 마음을 가지고 있는 동물 밖에 없다. 내 느낌은 통계적인 것이 아니라 내 몸안에서 구현되는 나만의 것이다.

스탠리 큐브릭 감독의 명작 “스페이스 오딧세이 2001”에는 인간이 AI 컴퓨터 할9000의 전원을 차단하는 장면이 나온다. 사람이라면 죽음을 당하는 순간이다. 그런데 할은 아무런 감정 없는 단조로운 말투로 “중단해라, 나는 내 마음이 사라지는 것을 느낀다’”라 반복하다가 리셋되고 만다. 큐브릭 감독은 AI 시대를 산 사람이 아니지만 AI가 마음을 가질 수 없음을 알고 있었던 것 같다.
강웅구는 1988년 서울의대를 졸업하고 정신건강의학과 수련을 받았으며 현재 서울대학교 의과대학 교수로 재직 중이다. 뇌의 유전자 발현 이상 보다는 “사람의 마음이 움직이는 방식”이라는 관점에서 정신질환을 이해하려 애쓰고 있다. 대표저서로 <정신병리학 – 정신병리의 개념적 접근>(서울대학교 출판문화원, 2021)이 있다.