인공지능이 위험한 건 똑똑해서가 아니다

한겨레 2023. 4. 24. 10:05
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[주철현의 커넥션][주철현의 커넥션]
(5) 튜링 기계는 전자 꿈을 꾸는가?②
픽사베이

저번 칼럼에 이어 챗지피티(ChatGPT) 같은 인공지능이 자아를 가질 가능성을 본격적으로 생각해보자.

우선 용어부터 간단히 정리하자. 사람처럼 생각하는 경우에 강(strong), 자율주행처럼 특정 목적에만 국한된 경우를 약(weak) 인공지능이라 한다. 둘 사이 중간 단계에 범용 인공지능(AGI, Artificial General Intelligence)이 정의된다. 이는 약 인공지능이 가진 특정 업무 처리의 정확성과 사람이 내린 무작위 명령을 스스로 판단해 처리하는 범용성을 결합한 것이다. 여기서 조금만 생각해보면 애초에 강 인공지능은 만들 이유가 없다. 사람처럼 생각하게 만든다는 것은 감정과 자아를 부여한다는 것인데, 기분에 따라 동작하는 인공지능을 어디에 쓸 것인가?

따라서 인공지능이 자아를 가지는 것에 대한 고민은, 개발 단계에서 일부러 프로그래밍 할 것인가에 대한 것이 아니다. 범용 인공지능이 동작하다가 설계 의도와 다르게 저절로 자아가 생길 가능성에 대한 것이다. 챗지피티를 사용해 본 일부는 강 인공지능의 특이점(singularity, 어떤 대상이 폭발적으로 확장되고 발전되는 시작점)이 왔다고 주장한다. 하지만 이것은 호사가들의 이야기일 뿐, 챗지피티는 범용 인공지능에도 한참 못 미치는 수준이다. 이것은 챗지피티 개발자를 포함한 대부분 인공지능 전문가들이 동의하는 사실이다. 이는 컴퓨터라는 물건의 본질적 한계 때문이다.

독 사과를 먹고 자살한 앨런 튜링(Alan M, Turing, 1912~1954)은 컴퓨터의 부모나 다름없다. 양자 컴퓨터 같은 극히 일부를 제외하고, 우리가 접하는 계산기, 스마트폰, 자동차, 서버, PC 등에 들어 있는 컴퓨터라 불릴 수 있는 모든 것은 비운의 천재 수학자 튜링이 설계한 기계(Turing machine)에 뿌리를 두고 있다. 아무리 빠른 속도와 엄청난 용량을 가진 컴퓨터라도 튜링 머신의 한계를 뛰어넘을 수 없다.

정확한 계산의 대명사인 컴퓨터는 아이러니하게도 수학의 불완전성에 대한 증명에서 시작되었다. 20세기가 시작될 무렵 수학의 거장 힐베르트(1862~1943)는 모든 문제의 참과 거짓을 판별할 수 있는 완전한 수학 (논리) 체계를 상상했다. 하지만 이는 괴델의 불완전성 정리에 의해 말 그대로 꿈으로 끝나게 된다. 참과 거짓의 논리로 엄격히 전개되는 수학에서조차 모순이 존재한다는 것이 증명된 것이다. 하지만 이는 허무한 결말이 아닌 새로운 발전의 시초가 된다.

‘앨런 튜링’ 초상화가 그려진 영국 50파운드 지폐. 잉글랜드은행

튜링에서 시작된 현대 컴퓨터의 역사

천동설이 부정되면서 뉴턴의 고전 물리학이 발전했고, 고전 물리학이 부정되면서 상대성 이론과 양자 역학으로 확장되었다. 흔히 과학의 덕목으로 불변성을 꼽는다. 하지만 오히려 기존 법칙이 흔들리고 부정될 때 생각의 다양성이 증가하면서 과학은 폭발적으로 발전한다. 이를 다룬 토마스 쿤의 ‘과학 혁명의 구조’를 읽어보면 과학 발전과 생태계 진화 과정의 유사성을 알아차릴 수 있다. 불완전성 정리도 기존 수학의 견고한 패러다임을 붕괴시키면서 아이디어의 다양성을 증가시켰다는 점에서 생태계의 급격한 환경 변화와 유사하다.

수학의 격동기에 튜링은 불완전성의 증명을 위해 계산이라는 행위에 주목하였다. 그리고 참과 거짓, 즉 1과 0이라는 부호가 가득 적힌 긴 테이프를 읽어서 지시된 동작(AND, OR, NOT, XOR의 논리 연산)을 수행하는 기계를 상상했다. 그리고 괴델의 증명에 포함된 모든 문제가 기계가 푸는 문제로 전환 가능하며, 그 반대로도 전환이 가능함을 증명하였다. 그리고 이 기계가 풀 수 없는 모순을 제시하여 불완전성을 증명하였다. 여기서 구체적인 내용은 몰라도 기억해야 할 부분은 이 튜링 기계가 현대 컴퓨터의 작동 방식을 설명하고 있다는 점이다. 1과 0으로 이루어진 부호를 읽어 지시된 동작을 수행하는 부분은 중앙처리장치(CPU), 부호가 적힌 테이프는 기억장치(memory), 그리고 순차적으로 읽히는 명령은 소프트웨어를 의미한다.

1943년 영국 암호 해독가들이 튜링의 아이디어를 기반으로 개발한 컴퓨터 ‘콜로서스’. 위키미디어 코먼스

튜링의 머릿속에만 존재하던 기계는 전쟁이라는 생존 압력에 의해 실체로 구현된다. 당시 2차 세계대전이 한참이던 영국은 독일의 암호를 풀기 위해 필사적이었다. 암호를 풀어 원래 의미를 알아내기 위해서는 먼저 암호 규칙을 파악해야 한다. 독일은 자신들의 암호 체계가 절대 깨어지지 않을 것이라 자신하고 있었다. 이 암호 규칙을 파악하기 위해선 엄청난 계산이 필요했고, 그 규칙을 하루 단위로 계속 변경해 사용했기 때문이다. 며칠이 걸리는 복잡한 계산을 틀리지 않고 해내는 것은 수학자에게도 힘든 과정이다. 그래서 계산만 전문적으로 수행하는 꼼꼼한 사람들이 선발되었고, 이들은 ‘컴퓨터’라 불렸다.

하지만 독일 암호를 역으로 계산해내는 것은 사람 능력으로는 불가능했다. 이 상황에서 튜링이 영국군 암호 부서에 투입된다. 그는 ‘사람’ 컴퓨터를 압도하는 속도와 정확성을 가진 ‘기계’ 컴퓨터를 만들어 규칙을 역으로 계산하는데 성공한다. 이때부터 연합국은 독일의 모든 작전을 미리 알게 되었고, 이 정보들을 역이용하면서 승기를 잡게 된다. 암호 전쟁에서 컴퓨터의 강력한 힘을 체험한 영국은 본격적으로 튜링의 아이디어를 받아들여 콜로서스(Colossus)를 개발한다. 이것이 컴퓨터가 동작하는 물리적 실체인 하드웨어와 논리적 명령 집합인 소프트웨어가 분리되어 작동하는 최초의 컴퓨터이자 튜링 기계다.

이렇게 세계 대전의 흐름을 바꿀 정도로 큰 영향을 미쳤지만, 튜링의 업적은 오랫동안 숨겨진다. 전쟁을 판가름한 암호 관련 기술은 철저히 극비로 취급되었기 때문이다. 패전국 독일 역시 자기들의 철벽같던 암호가 깨어졌다는 사실을 오랫동안 알아차리지 못했다. 그리고 이후 정보를 공유한 미국에서 만든 에니악이 대중에 공개되면서 최초의 컴퓨터로 알려지게 된다. 현재 영국의 50파운드 지폐에는 튜링 초상화가 그려져 있다. 비참하게 삶을 마감하고 68년이나 지나서 업적을 인정받은 것이다. 그의 이야기는 ‘이미테이션 게임(Imitation Game)’이라는 영화로 재조명되기도 하였다. 그런데 왜 제목이 이미테이션 게임일까?

<그림1> 이미테이션 게임(튜링 테스트).

지능과 모방, 어떻게 다른가

독 사과를 먹기 4년 전, 튜링은 컴퓨터를 통해 인간 지능의 계산 가능성을 다룬 논문 한 편을 발표한다. 이 논문 서론의 제목이 바로 이미테이션 게임이다. 지능에 대해서는 수많은 철학적 과학적 정의가 존재한다. 튜링은 이 모호함을 피하기 위해 기능적 관점에 국한해 인공 지능을 정의하자고 주장하였다. 프로그램의 작동 원리(알고리즘)에 상관없이 사람을 감쪽같이 흉내(imitation)를 내면 지능이 구현되었다고 판정하자는 것이다.

<그림 1>에 그 방법이 묘사되어 있다. 오른쪽에는 사람과 컴퓨터가 대화를 하고 있다. 그리고 이 상황을 알지 못하는 왼쪽 사람(심판)이 벽을 통해 대화를 듣고 있다. 이 상황에서 심판이 컴퓨터를 찾아내는 게임(game)을 한다. 만약 컴퓨터를 알아차리지 못하면 인공 지능, 즉 지능 모방에 성공한 것으로 판정한다. 이것이 그 유명한 튜링 테스트(Turing test)이다.

지능이 아니라 모방 기능을 평가한다는 개념은 챗지피티에 대한 과학적 관점으로 연결된다. 평소 인공지능에 관심이 많았다면 챗지피티 열풍이 불기 몇달 전, 튜링 테스트 통과 소식을 먼저 접했을 것이다. 즉 챗지피티는 인간을 아주 잘 흉내내는 프로그램이라는 것이다. 기능적 관점에서 지능과 모방은 구분되지 않는다. 버스를 타든, 기차를 타든 서울만 가면 된다고, 인공지능을 이용하는 측면에서 지능과 모방의 구분은 중요하지 않기 때문이다.

하지만 처음 질문으로 돌아가 자아가 저절로 생길 것인지 생각하려면, 지능과 모방을 구분해야 한다. 이 논의를 구체화한 것이 <그림 2>의 중국어 방(Chinese Room)이라는 설정이다. 이런 이름이 붙은 것은 서구 문명권에서 배우기 가장 어려운 언어가 중국어이기 때문이지 별다른 의미는 없다.

내부가 보이지 않는 방이 있고, 안에는 하늘 천도 모르는 서양 사람이 있다. 벽에는 쪽지를 전하는 구멍이 있고, 외부의 중국 사람들이 한문으로 적은 쪽지를 통해 방안의 사람과 대화한다. 한문을 전혀 모르는 서양 사람은 한자의 모양새를 보고 정해진 규칙에 따라 미리 대답이 적혀 있는 쪽지를 골라 밖으로 전달한다.

<그림 2> 중국어 방. 위키미디어 코먼스

챗지피티는 일반 지능일까 아닐까

이 상황에서 방 안의 사람이 한자가 만드는 모든 문장 조합에 대한 대답이 적힌 쪽지를 전부 가지고 있고, 또한 한자 모양만으로 전달할 쪽지를 순식간에 찾을 수 있는 규칙과 방법도 가지고 있다고 가정하자. 그럼 밖의 중국인들은 안에 있는 사람이 중국어를 완벽히 이해하고 있다고 생각할 것이다. 즉 튜링 테스트를 가볍게 통과하는 상황인 것이다. 여기서 중요한 질문이 등장한다. 방 안의 사람은 중국어를 이해하고 있는 것일까?

챗지피티의 근본적인 동작 원리는 중국어 방과 동일하다. 구글이나 네이버에서 검색을 할 때 단어를 입력하면 연관 검색어가 자동으로 따라 나온다. 이것이 가장 단순한 구조의 챗지피티라고 생각하면 된다. 차이점은 어마어마한 양의 대화를 미리 학습시킨 대규모의 심층신경망을 통해 복잡한 질문에 대한 가장 그럴듯한 대답을 순식간에 찾는다는 것이다. 지피티(GPT)라는 단어 자체가 미리 훈련(Pre-trained)된 대답을 생성(Generative)하는 변환기(Transformer)라는 뜻이다. 즉 중국어 방에 들어있는 사람과 동일한 역할을 하는 것이다. 챗지피티가 튜링 테스트를 통과한 인공 지능이라는 것에는 이견이 없다. 하지만 사람의 질문을 이해하고 대답한다고 할 수 있을까? 이런 일반 지능에 대한 판단은 간단하지 않다. 앞서 언급한 것처럼 평가의 대상인 지능이 무엇인지 정확히 모르기 때문이다.

어떤 사람들은 중국어 방의 서양인처럼 문장의 의미를 이해하지 못하는 심층신경망은 일반 지능으로 판단할 수 없다고 주장한다. 반면 어떤 사람들은 퍼셉트론이 연결된 심층신경망도 우리가 개념을 이해하는 방식으로 작동할 가능성을 배제할 수 없기 때문에, 일반 지능을 가진 것으로 판단해야 한다고 주장한다. 그런데 서로 대립되는 것처럼 보이는 이 주장들은 동일 선상에 놓여있지 않다. 후자는 미지(unknown)에 대한 희박한 가능성을 타진하는 귀납적 논리다. 우리 두뇌의 작동 방식을 모른다는 것이 근거다. 하지만 챗지피티가 일반 지능으로 평가될 수 없다는 주장은, 결정 논리로 동작하는 기계(deterministic machine)라는 튜링 기계의 한계에서 출발한 연역적 논리다. 이런 비교에서 답을 주는 것은 확률이다.

2차 세계대전 중 앨런 튜링이 독일군의 암호를 해독하는 기계를 개발하는 과정을 그린 영화 ‘이미테이션 게임’의 한 장면. 넷플릭스 화면 갈무리

챗지피티의 오류는 거짓말 아닌 환각

수학도 불완전한 마당에 다른 과학 영역의 논리가 절대 참이라 말할 수는 없다. 하지만 이것을 생각지도 못한 일이 발생한다는 것으로 혼동하면 안 된다. 과학의 불완전성이라는 것은 참과 거짓을 100% 판단할 수 없는 명제가 존재할 수 있다는 것이지, 그 명제가 얼마나 참에 가까운지 모른다는 이야기가 아니다. 과학적 사실이라는 말에는 ‘99.999...% 참’이라는 확률이 숨어 있다. 이것이 틀렸다고 주장하려면 0.000...1%의 희박한 확률을 증명해야 한다.

이런 과학 명제의 확률적 특성을 제대로 이해하지 못하면 음모론에 빠지기 쉽다. 외계에서 날아온 비행접시나 깊은 바다 속의 아틀란티스가 실존한다는 주장은 미지의 가능성에 기대고 있기 때문에 존재 확률이 희박하지만 완전 0은 될 수가 없다. 음모론에 빠진 사람들은 이런 0에 수렴하는 희박한 가능성을 믿는 것에 배팅을 한다. 이는 좋은 꿈을 꿔서 산 로또 한 장이 일등에 당첨된다고 확신하고 부동산을 미리 계약하는 것이나 마찬가지 상황이다. 사실 우리가 과학 철학 영역으로 넘어가는 내용까지 자세히 알 필요는 없다. 챗지피티에서 일반 지능 혹은 나아가 자아가 창발(emerge)될 가능성은 0에 수렴한다는 것만 알면 된다. 튜링 머신은 전자 꿈을 꾸지 않는다.

최근 세계적인 유명 인사들이 챗지피티의 위험성 때문에 개발을 멈추자는 서명 운동을 진행했다. 그런데 여기서 말하는 위험은 인공 지능이 너무 똑똑해서가 아니라, 반대로 너무 어설퍼서 생기는 위험을 말한 것이다. 기술의 한계에서 발생하는 정보 오류, 개인이나 기업의 정보 유출, 학습 데이터 편향으로 발생되는 차별과 혐오의 확산과 같은 여러 문제의 위험성을 경고하고, 개발이 더 진행되기 전 사회적 합의와 가이드라인을 만들자는 것이었다.

이미 경험해본 사람도 있겠지만, 챗지피티는 거짓말도 기가 막히게 한다. 정확한 사실 확인을 못하는 경우라면 깜빡 속기 십상이다. 그런데 사실 피노키오처럼 일부러 거짓말을 하는 것은 아니다. 고의라는 것은 자아를 가지고 있다는 것을 전제로 하기 때문이다. 그래서 전문가들은 이런 현상을 거짓말이 아니라 환각(hallucination)이라는 용어로 부른다. 용어는 거창하지만 간단히 말하면 학습시킨 심층신경망이 그냥 그렇게 작동한다는 의미다. 애초에 사실 검증을 위해 설계된 것이 아니라, 사람의 대화를 완벽하게 흉내(imitation)는 목적으로 만들어진 약 인공지능이기 때문에 발생하는 자연스러운 현상이다.

챗지피티가 더 유용한 도구가 되려면 사실 검증이나 사회적 가치 판단 능력을 할 수 있게 만들어야 한다. 그런데 현재는 환각 현상을 완벽하게 막을 수 없다. 이전에 언급한 대로 블랙박스인 심층신경망 속에서 발생하는 일이기 때문이다. 백억 단위를 넘나드는 복잡한 퍼셉트론 연결의 어느 부분을 손대야 할지 파악조차 어렵다. 이를 해결하는 방법을 찾기 위한 것이 다음 단계인 범용 인공지능(AGI) 영역이다.

다음 시간에는 인공 지능과 두뇌의 장단점을 생물학적 관점에서 비교하고, 이를 통해 지능에서 꿈(미래의 꿈이 아니라 자면서 꾸는 꿈)이 차지하는 특별함을 알아볼 것이다.

주철현/울산의대 미생물학 교수·의학교육센터장

Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지

이 기사에 대해 어떻게 생각하시나요?