[박권의 미래를 묻다] 인공지능은 정말 인간처럼 생각할 수 있을까
1982년에 개봉한 리들리 스콧 감독의 영화 ‘블레이드 러너’는 SF 영화 사상 최고 걸작 중의 하나로 손꼽힌다. 영화는 ‘레플리컨트’라고 불리는 한 무리의 안드로이드(인조인간)가 4년으로 제한된 삶을 연장하기 위해 그들을 만든 기업의 회장이자 자신들의 창조주에 해당하는 과학자를 찾아 지구로 탈주하면서 시작된다. 영화의 제목인 ‘블레이드 러너’는 이렇게 탈주한 안드로이드를 잡아 퇴직, 즉 처형시키는 특수 경찰의 이름이다. 영화에서 안드로이드는 인간과 구분이 불가능할 정도로 매우 정교하다. 이에 블레이드 러너는 용의자가 안드로이드인지 판단하기 위해 ‘보이트-캄프 테스트(Voight-Kampff test)’라는 특별한 시험을 수행한다. 보이트-캄프 테스트는 인공지능(AI)과 인간을 구분하는 일종의 튜링 테스트인 셈이다.
여기서 질문이 든다. 영화에서는 불가능했지만 혹시 인공지능이 튜링 테스트를 통과할 수 있을까. 다시 말해, 인공지능은 정말 인간처럼 생각할 수 있을까. 이 질문에 답하기 위해 우리는 인공지능이 작동하는 원리와 정말 인간처럼 생각한다는 것이 무엇인지 알아야 한다.
■
「 신경망의 수학적 모형화가 AI
강인공지능, 아직까진 안 나와
AI, 자신이 답하는지 인식 못해
생각이 무엇인지부터 정의해야
」
자연을 흉내 내 만든 인류 문명
인류 문명의 많은 것들은 자연을 흉내 내어 만들어졌다. 현재 가장 널리 쓰이는 인공지능의 작동 원리도 자연에서 발생하는 지능, 즉 두뇌로부터 영감을 받아 만들어졌다. 두뇌는 어떻게 작동할까. 거칠게 말해, 두뇌는 ‘뉴런’이라고 불리는 신경 세포의 기본 단위들이 서로 복잡하게 연결된 네트워크, 즉 신경망이다.
그렇다면 뉴런은 무엇인가. 뉴런은 자극을 받았을 때 전기를 발생시켜 다른 뉴런에 신호를 전달하는 신경 세포다. 구체적으로, 뉴런은 핵을 품고 있는 세포체, 자극을 받아들이는 가지돌기, 다른 뉴런에 신호를 전달하는 축삭이라는 세 부분으로 구성된다. 인공지능은 뉴런을 수학적으로 모형화함으로써 인공 신경망을 구성한다.
뉴런을 최대한 간단하게 수학적으로 모형화하면 다음과 같다. 여러 다른 가지돌기로 들어오는 자극의 세기를 입력값이라고 하자. 뉴런이 하는 일은 이러한 입력값들에 모종의 가중치를 곱해 다 더한 값이 어떤 최소값, 즉 역치(閾値)보다 크면 축삭을 통해 다른 뉴런에 신호를 전달하는 것이다. 수학적으로 보면, 뉴런은 가중치 작업을 통해 자극이라는 입력값을 신호라는 출력값으로 변환하는 함수다. 이렇게 모형화된 뉴런을 ‘퍼셉트론’이라고 부른다.
다만, 입력값으로부터 곧바로 출력값을 얻는, 이른바 단층 퍼셉트론만으로는 온전한 논리연산을 수행할 수 없다. 그래서 퍼셉트론을 여러 층으로 쌓아 올리는 방법이 개발되었는데, 이 방법의 이름이 다름 아니라 바로 ‘딥러닝’이다. 정리하면, 인공지능의 작동 원리는 여러 층으로 쌓인 수많은 퍼셉트론들 사이에 오고 가는 신호의 가중치를 적절히 잘 조정해, 주어진 입력값으로부터 해결하고자 하는 문제를 푸는 최선의 출력값을 얻는 것이다.
인간처럼 생각하는 게 강인공지능
자, 앞서 설명한 인공지능의 작동 원리 중 정확히 어느 부분에서 ‘생각’이 발생하는 것일까. 모른다. 최근 인공지능의 눈부신 발전은 인공지능의 작동 원리에 대한 우리의 이해가 높아졌기 때문이 아니라, 그래픽 처리장치 GPU의 발전으로 엄청난 계산량이 필요한 딥러닝을 실제로 수행할 수 있게 되었기 때문이다. 그럼, 다시 한 번, 인공지능은 정말 인간처럼 생각할 수 있을까.
정말 인간처럼 생각할 수 있는 인공지능을 ‘강(强)인공지능’이라고 부른다. 결론부터 말하면, 현재까지 강인공지능은 존재하지 않는다. 미래에 강인공지능이 존재할 수 있을지 없을지에 대해서는 의견이 분분하다. 필자도 그 답을 알지 못 하지만 적어도 해결의 실마리는 정말 인간처럼 생각한다는 것이 무엇인지에 달려있다고 생각한다.
필자가 생각하기에, 인간이 정말 인간처럼 생각할 수 있는 이유는, 우리가 우리 자신이 생각한다는 사실을 지각할 수 있기 때문이다. 다시 말해, 우리는 의식을 갖고 있다. 반면, 알파고는 바둑의 명인을 이길 수 있지만 정작 자신이 바둑을 두고 있다는 사실을 지각하지 못 한다. 비슷하게, 챗GPT는 복잡한 질문에 그럴싸한 답을 내놓을 수 있지만 정작 자신이 질문에 답을 하고 있다는 사실을 지각하지 못 한다.
인공지능의 한계와 모순
그렇다면 인공지능은 현재 왜 의식을 갖지 못 할까. 간단한 답은, 적어도 현재까지 인공지능에게 의식이 필요 없기 때문이다. 아니, 더 중요하게, 의식은 근본적으로 인공지능과 상충할 가능성이 크다. 이 가능성은 괴델과 튜링이 발견한 수학의 근본적인 문제점과 맞닿아 있다.
괴델의 불완전성 정리에 따르면, 모순이 없는 수학 이론은 그 안에 참이면서 증명할 수 없는 명제가 반드시 존재하며, 스스로 자신이 모순이 없다는 것을 증명할 수 없다. 튜링의 ‘정지 문제’(Halting Problem)에 따르면, 수학에는 근본적으로 풀 수 있는지 없는지 판정할 수 없는 문제가 반드시 존재한다.
괴델과 튜링이 발견한 이러한 수학의 근본적인 문제점은 수학 체계가 그 안에 자기 자신을 포함할 때 발생하는 모순에 기인한다. 비슷하게, 인공지능도 자기 자신이 생각한다는 사실을 지각하게 되면 모순이 발생한다. 아마 인공지능은 이 모순을 피하려 할 것이다. 반면, 인간은 원래 모순을 부둥켜안고 같이 살아갈 수밖에 없는 존재다. 어쩌면 이 차이가 인공지능은 정말 인간처럼 생각할 수 없다는 것을 뜻하는지 모른다.
박권 고등과학원 물리학부 교수
Copyright © 중앙일보. 무단전재 및 재배포 금지.
- 불륜녀 끼고 항암까지 다녔다…남편 욕창 걸리자 아내의 선택 [김은혜의 살아내다] | 중앙일보
- 김부선 "이재명, 내 집에서 술먹고 대리 불러"…느닷없이 왜 | 중앙일보
- 피 토하면서도 “아빤 잘 있어”…자식이 크자 삶을 접었다 | 중앙일보
- 2억 묻어두면 이자 1.6억…주식개미 눈 돌릴 '6월 신상품' | 중앙일보
- 20시간짜리 미국 당일 투어, 교민들 쌍수 들고 말리는 이유 | 중앙일보
- 추성훈, 3주 전에 경기 제안 받았다…2년만의 복귀전 비하인드 | 중앙일보
- 윤희숙 "임종석 나오면 땡큐"…국힘 '86운동권 맞불' 구상 | 중앙일보
- "연봉 245억" 中제안 뿌리친 페이커, 알고보니 "장기계약이었다" | 중앙일보
- [단독] '모임통장' 만들었을 뿐인데…며칠뒤 사기범 된 사연 | 중앙일보
- 배현진 습격한 중학생…교실서 이상행동 해도 별 방법 없다 | 중앙일보