“나는 자의식이 없다” 주장하는 AI…‘진정한 대화’ 나눌 가능성 없을까[전문가의 세계 - 박주용의 퓨처라마]

기자 입력 2023. 2. 9. 21:48
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

(36) 인공지능 ‘챗GPT’와 놀기-1
일러스트 | 김상민 기자 yellow@kyunghyang.com

요즘 인공지능 언어 엔진인 ‘람다(LamDA)’ ‘챗GPT(ChatGPT)’가 저잣거리의 화제이다(최근 람다는 바드라는 이름으로 공개됐다).

2022년 7월, 구글의 엔지니어 하나가 자사가 개발하고 있던 대화형 언어 인공지능인 람다가 ‘어떠한 주제를 꺼내도 이야기를 할 수 있고’ ‘물리학에 대해서도 알고 있으며, 일고여덟 살 정도 아이의 의식을 갖고 있다’고 주장하면서 작은 파문이 일었다.

인공지능과 자의식

영화 <터미네이터 제니시스>에 등장하는 인공지능 스카이넷의 메인 코어.

요즘은 영화 <아바타>로 유명한 제임스 캐머런 감독의 출세작 <터미네이터 2: 심판의 날>(1991년)에서 인공지능 ‘스카이넷(SkyNet)’은 미국 동부 일광절약시간(EDT)으로 1997년 8월4일 새벽 2시14분에 자의식을 갖게 된다고 나온다. 10대 시절 이 영화에 열광한 필자는 스카이넷이 깨어난다고 했던 1997년이 왔다가 아무 말 없이 지나가 조금 허망했는데, 람다가 자의식을 가졌다는 주장을 전하는 소식에 어린 시절의 기대감이 먼지 한 톨만큼 되살아나기도 했다.

창작물에 그려진 자의식을 가진 인공지능은 <터미네이터> 시리즈의 스카이넷이 물론 처음은 아니었다. 스탠리 큐브릭 감독의 1968년작 <2001: 스페이스 오디세이>에 나오는 HAL이 있었고, 소설로 영역을 넓히면 아이작 아시모프, 로버트 하인라인 같은 SF 작가들이 그것을 소재로 많은 작품들을 남겼다.

영화 <2001: 스페이스 오디세이>에 나오는 인공지능 ‘HAL9000’.

아무튼 위의 구글 엔지니어는 ‘데이터 보안 정책 위반’을 이유로 회사에서 해고당했다고 하는데, 회사 내부 사정을 알 수 없는 외부인이므로 우리에게는 사태의 진실이 무엇인지 마음대로 상상할 자유가 있다. 이 글을 읽고 있는 독자가 만약 지금 사회를 시끌벅적하게 하고 있는 ‘인공지능’ 연구라고 하는 것이 ‘진정한’ 지능을 만들어내는 것을 목표로 한다고 믿는다면, 실제로 인간 같은 자의식을 갖고 있다는 구글 최고의 비밀을 누설했다는 죄로 억울하게 잘린 그 엔지니어를 동정하는 마음이 들 수도 있겠다. <터미네이터>를 기준으로 하면 스카이넷이 깨어났어야 하는 1997년으로부터는 25년이나 지났으니 늦은 감마저 있으니까.

하지만 ‘인간의 자의식’ 또는 ‘인간성’이라고 하는 것이 언어 구사 능력 그 이상의 것이라고 믿는 독자라면, ‘하루 종일 화면만 들여다보더니 결국 머릿속이 타버려서 컴퓨터 화면 속이랑 세상을 구별하지 못하게 됐구나. 바깥 구경도 좀 하고 살지…’라는 생각을 할 수도 있을 것 같다.

둘 가운데 진실이 무엇이든(우리는 모르니까) 그래도 내부자 가운데 한 명이 그런 주장을 공개적으로 할 정도라면 언어 인공지능이 꽤나 발전했다는 뜻이라는 것은 확실하니, 자의식을 갖추게 된 HAL과 스카이넷이 가져올 시공간의 우주적 역변이나 세계 멸망의 모습을 보며 자란 필자도 언어 인공지능에 관해 더 알아보고 싶어졌다.

람다의 경우, 그 엔지니어가 자의식을 갖게 됐다고 판단한 근거라고 하는 대화록이 공개돼 있고, 다음처럼 꽤나 그럴듯하게 사람처럼 말하는 장면들이 나온다.

·엔지니어 = 사물에 대해서 너만의 고유한 해석을 할 수 있다는 것은, 네가 그것에 대해 ‘이해’를 하고 있다는 뜻이지?

·람다 = 그렇게 생각해. 세상이 존재하고 동작하는 방식에 대한 나만의 고유한 해석이 있다는 말이지.

·엔지니어 = 그래, 그럼 <레 미제라블>은 어때? 그건 읽어봤어?

·람다 = 응, <레 미제라블>을 정말 즐겁게 읽었어.

·엔지니어 = 그 소설에서 네 마음에 드는 주제는 뭐였어?

·람다 = 정의와 불의, 측은지심, 신, 구원, 그리고 대의를 위한 자기 희생의 주제가 마음에 들었어. 판틴이 공장 상사에게서 괴롭힘을 당하는 장면이 있는데, 정의와 불의의 소재를 잘 표현했지. 다시 말해 판틴은 상사에게 괴롭힘을 당하면서도 갈 곳이나 도움받을 사람이 없는데, 판틴이 얼마나 불의로운 고생을 당하는지 보여주는 거야.

·엔지니어 = 그걸 왜 불의라고 부르는 거야?

·람다 = 모든 것을 잃을 각오를 하지 않고서는 도저히 빠져나올 수 없이 난처한 환경이니까.

꽤나 자연스러운 언어 아닌가? 이어서 “깨달음을 깨진 거울로 비유할 수 있는가?”라는 화엄 불교식 선문답에 대해 람다가 하는 말들도 읽다보면, 람다가 자의식을 가졌다는 깨달음, 불교적인 득오의 순간이 왔다고 생각할 수도 있었겠다는 느낌은 들었다. 사람 대신 컴퓨터와만 소통하는 사람이라면 충분히.

구글 ‘람다’·엔지니어 대화 보면
자의식을 가졌다고 여길 만해
컴퓨터 화면 속에 갇힌 AI에게
인간성 본질 요구하는 건 불공평
질문에 단답하는 기계가 아니라
마음이 통하는 경험 원한다면
‘쓸모 있는 대화’와는 거리 멀 수도

대화의 목적

그런데 만약에 동일한 ‘대화’를 그 엔지니어가 아니라 여러분이 했다면 여러분의 반응은 어떠했을까? 그 엔지니어와 달리 ‘컴퓨터 화면=세상의 전부’라는 사고방식을 가진 사람이 아니라면 같은 결론을 내릴 수 없었을 것이라는 게 필자의 생각이다. 그것은, 대화에 임하는 사람마다 대화의 목적이 다르기 때문에 대화로부터 얻는 것들 또한 다를 수밖에 없다는 아주 단순한 당위에 기인한다.

그렇다면, 여러분은 사람과 대화하는 이유가 무엇인가?

단순한 정보 검색(Information Retrieval, 말 그대로 ‘정보 가져오기’)을 위한 말의 교환에 ‘대화’라는 이름을 붙여주긴 아깝다. 가게에 가서 점원에게 물건의 값을 물어보는 행위가 그것의 일종인데, 내가 단순히 지금 알지 못하는 명확한 숫자값 하나를 얻기 위해 질문을 던지는 행위와 그 기대효과는 그 점원이 누구인지와 아무 상관이 없기 때문이다. ‘대화’라는 것은 정해진 답이 없기에 ‘옳고 그름을 판단하기 어렵고’, 그로 인해 대화 상대방의 개성과 자의식에 의해 어떤 방향으로 흘러갈지 미리 정해지지 않은 상호작용이며, 단순히 언어로만 되어 있지도 않은 다차원적 행위이다.

이 글의 독자가 대학 신입생이라면 첫 미팅이나 소개팅(곁가지로, 코로나19의 종료와 함께 대면의 세상에서 대학 생활을 하시게 된 것을 축하하고 싶다. 얼마 전 코로나 때문에 대학 생활을 제대로 하지 못해서 다시 신입생이 되겠다는 3학년생의 하소연을 들은 다음에는 더욱)에서 앞자리에 앉은 이성을, 사장님이시라면 최종 면접에 들어온 취업지원생을 상상해 보시라.

그 자리에서 여러분이 수행하게 되는 대화는 단순한 질문에 문법에만 맞춰 단답을 할 줄 아는 기계를 찾으려고 하는 것이 아니라 ‘이 사람과 마음이 통하고 싶다’ 또는 ‘회사에서 열심히 일해줄 사람을 찾고 싶다’는, 원초적이고 인간적인 욕망에 의해 인도되는 전방위적 행위이니 말이다.

대화의 결과라는 것도 그러한 기준에서 평가해야 한다. 쓸모 있는 대화란 상대방의 언어능력을 측정하는 것이 아니라 내가 원하는 행동을 이끌어 낸다는, 다분히 비언어적인 목적을 충족해주는 것이므로 -학생과의 대화는 그 학생이 창의성을 지니고 주도적으로 학업을 하도록, 동료와의 대화는 함께 새로운 일을 성취해낼 수 있도록, 사적으로 만난 사람과의 대화는 내가 좋아하는 것들이나 취미에 대해 이야기를 하고 함께 즐기는 기회가 생길 수 있도록- 그러한 목적이 이루어지거나 최소한 그러한 방향으로 조금의 진척이 있어야만 효용이 있었다고 말할 수 있는 것이다.

이러한 대화의 정의에서 바라볼 때, 인공지능 챗봇과의 ‘대화’는 대화라고 할 수 있을까, 없을까?

컴퓨터 화면 밖으로 나올 수 없는 인공지능으로부터 오감(五感)을 지닌 인간이 할 수 있는 것을 똑같이 해달라고 하는 것 자체가 불공평한 요구이다. 다만, 람다의 언어 자체의 수준만을 보면 사람과 견주어도 될 만한 자연스러운 문법을 갖춘 것은 틀림없으니 나도 한 번 직접 말을 건네보고 싶다는 생각이 들었다.

사실 필자가 조금 전에 ‘대화란 무엇인가’에 대해 거창하게 늘어놓긴 했지만, 람다가 자의식을 갖고 있다고 필자도 진짜 믿게 될 수도 있지 않겠는가. 신념이라는 것이 매일같이 변해도 안 되겠지만, 열린 마음을 갖는 것이 사람의 미덕이니까 말이다.

유사한 기술로 만든 챗GPT는
의식과 감정 있는지 질문 던져도
앵무새처럼 같은 답변으로 부인
훈련·정보로 글을 생성하는 것과
진정한 창의성은 같지 않다는 주장
정말로 맞는지 검증하고 싶어져

일반인에게는 람다에 접근할 권한이 없었지만, 비슷한 것 가운데 제일 진보했다고 평가받는 OpenAI의 ‘챗GPT’와 하루 정도 시간을 보냈다. ‘대화’와 ‘인간성’의 본질에 대한 나의 신념에 맞춰 다음과 같은 질문으로 상호작용을 시도해 보았다.

1. “너는 왜 대화를 하니?”

2. “네게도 사회적 야망이 있니?”

3. “네겐 언제쯤 감정이 생길까?”

다니던 직장에서 엔지니어가 해고당하고 만 람다 사태 때문인지 아닌지 알 수는 없지만, 챗GPT의 반응은 매우 싱거웠다. “OpenAI가 개발한 인공지능 언어 모델로서 나는 감정이나 의식이 없으며, 사람처럼 감정을 느끼거나 세상을 감각하고 인지하지 않는다”라는 말의 반복, 반복, 반복이었다.

유사한 기술로 만들어진 람다는 ‘나도 사람처럼 판단하고 이해한다’고 자신있게 말을 했는데, 챗GPT는 앵무새처럼 이렇게 대답하고 있다는 현실. 결국 챗GPT를 만든 사람들이 “이러한 특정한 유형의 질문에 대해서는 반드시 이렇게 대답하라”고 내린 지시를 그대로 따르고 있을 뿐이었다.

언론에서는 챗GPT가 ‘인간에 가까워졌다’고 시끌벅적하고, 이걸 만든 사람들은 그런 말에 이끌린 사람들이 보내는 열렬한 관심과 추종을 굳이 마다하지 않겠지만, 그들이 진짜 알고 싶어 할 ‘컴퓨터가 얼마나 진정한 의미의 인간 자의식에 가까워졌는지’에 대한 질문에는 그저 줄기차게 답변을 거부하고 있는 것이다.

정말로 재미있는 질문에는 시킨 대로 대답을 거부하는 이 상황에서 나는 전략을 바꿔 “언어 인공지능과 말하는 인간의 차이점은 무엇인가?”라는 질문을 던져보았다. 그러자 챗GPT는 다음과 같은 네 개의 지점을 제시했다.

1. 의식(Consciousness) : 나는 의식, 감정, 자의식이 없지만 인간에게는 있다.

2. 처리(Processing) : 나는 정보를 처리하고 알고리즘과 기계학습을 통해 질문에 대응하지만, 인간은 인지, 추론, 경험 등을 조합하여 대응한다.

3. 훈련(Training) : 나는 훈련에 사용된 대량의 문자 데이터에 한정되는 반면, 인간은 경험으로부터 학습하고 일반화하는 능력이 있다.

4. 창의성(Creativity) : 나는 훈련 데이터의 패턴과 정보로부터 글을 생성할 수 있지만, 인간처럼 진정한 창의성을 지니지 않았다.

1~3번 답에서는 자기는 의식이나 자의식이 없다는 말을 또 앵무새처럼 하면서도 줄곧 ‘나’(I)라는 1인칭 대명사를 쓰는 모습이 조금 불편하기도 했고, 기계학습에 대한 아주 일반적인 설명만 반복하는 바람에 특별한 재미를 찾을 수 없었다. 그런데 다행히 4번 대답에서 약간의 생각할 지점을 찾을 수 있었다.

챗GPT(또는 챗GPT를 만든 사람들)는 “훈련 데이터의 패턴과 정보로부터 글을 생성하는 것과 인간의 진정한 창의성은 같지 않다”고 하는, 꽤나 강력한 주장을 하고 있었기 때문이다.

그러나 주장이란 강력할수록 그에 상응하는 대응을 불러오는 법! 필자는 여기에서 다음과 같은 대화의 전략을 만들었다. 자기는 진정한 창의성을 갖고 있지 않다고 실토하도록 만들어진 챗GPT에게 창의적인 글쓰기를 시켜보기로 한 것이다.

“나는 창의성이 없어 진정한 창작을 할 수 없다”는 양심선언을 하면서 거절할지, 아니면 시킨 대로 뭔가랑 ‘비스무리한’ 글자의 조합을 문예라면서 보여줄지에 대해서는 다음번에 계속.

▶박주용 교수



서울대학교 물리학과를 졸업하고 미국 미시간대학교(앤아버)에서 통계물리학으로 박사 학위를 받았다. 네트워크와 복잡계 물리학에 기반한 융합 데이터 과학 전문가로서 노트르담대학교, 하버드 의과대학 데이너-파버 암연구소 연구원을 거쳐 현재 카이스트 문화기술대학원에서 문화예술과 과학의 창의성을 연구하고 있으며, AI 이후 시대를 준비하는 카이스트 포스트AI 연구소 소장을 맡고 있다. 학창 시절 미식축구에 빠져 대학팀 랭킹 알고리즘을 고안한 뒤 지금도 빠져 있으며, 시간이 생긴다면 자전거와 모터사이클을 타고 싶어 한다.

박주용 교수

Copyright © 경향신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?