2024 노벨상 봤지? 인공지능 근간에 물리학 있다 [물리학자 김상욱의 ‘격물치지’]
인공지능이 2024년 노벨상을 점령했다. 인공신경망의 기초를 확립한 공로로 존 홉필드와 제프리 힌턴이 노벨물리학상을 받았다. 단백질 구조 계산법을 고안한 공로로 데이비드 베이커, 데미스 허사비스, 존 점퍼에겐 노벨화학상이 수여되었다. 데미스 허사비스는 인공지능 알파고를 만들어 세상을 놀라게 했던 구글의 과학자다. 인공지능이 현재 가장 핫한 기술인 것은 맞지만 이렇게 한 해 노벨물리학상과 노벨화학상을 한 분야에 주는 게 적절한지, 인공지능이 물리학인지, 화학자도 아닌 인공지능 전문가에게 노벨화학상을 수여하는 것이 옳은지, 일부 논란이 있기는 하다.
결론부터 말하자면 인공지능의 기반에는 물리학이 있다. 인공지능 연구의 시작은 1940년대까지 거슬러 올라간다. 당시는 컴퓨터가 막 탄생하고 있을 때였다. 제2차 세계대전 중 나치 독일은 ‘에니그마’라는 기계를 이용해 암호를 만들었다. 암호문 생성 방법이 너무나 복잡했기 때문에 절대로 깨지지 않을 것이라 믿었던 암호다. 하지만 영국은 기계가 만든 암호를 기계로 깨는 방법을 고안했다. 최초의 암호 해독 기계인 ‘봄브’가 에니그마를 깨기 위해 특화된 것이었다면, 두 번째 기계인 ‘콜로서스’는 프로그래밍이 가능한 범용 계산기였다. 콜로서스를 컴퓨터의 시초로 볼 수도 있다.
당시의 컴퓨터는 단순한 계산을 엄청난 속도로 수행할 수 있었지만, 인간이나 동물이 쉽게 하는 일은 잘하지 못했다. 대표적인 예가 바로 패턴 인식이다. 우리는 사진을 보고 개와 고양이를 쉽게 구분할 수 있다. 하지만 컴퓨터는 이런 일에 서툴렀다. 아마도 컴퓨터가 작동하는 방식이 인간이나 동물과 다르기 때문일 것이다. 그렇다면 인간의 뇌가 어떻게 작동하는지부터 알아야 한다. 뇌는 뉴런이라 불리는 세포들의 집합이다. 뉴런이 모여 어떻게 의식과 생각을 만들어내는지 당시 알지 못했지만, 일단 뇌와 비슷하게라도 만들어야 뇌가 하는 일을 따라 할 수 있을 테다.
우선 하나의 뉴런부터 이해해야 한다. 개별 뉴런의 작동 방식은 단순하다. 뉴런은 수많은 가지를 갖고 있는데, 이들 가지로부터 전기 입력신호를 받는다. 개별 가지로부터 신호가 도착할 때마다 뉴런의 전위(電位)가 높아진다. 누적된 전위가 임계값을 넘는 순간 뉴런은 발화하여 외부로 전기신호를 내보낸다. 수많은 고무호스가 매달려 있는 커다란 물탱크를 상상해보자. 각 호스를 통해 물이 들어오면 물탱크의 수위가 높아질 것이다. 수위가 어느 이상 되면 물이 넘치는데, 이때 외부로 전기신호를 보내는 것과 비슷하다. 뉴런의 수학적 모형을 퍼셉트론(perceptron)이라 부른다. ‘인식하다’는 뜻을 가진 ‘perceive’에 ‘입자’라는 뜻의 ‘-on’을 붙인 것이다. 인식의 입자, 혹은 기본단위라고 할 수 있다. 앞으로는 간단히 ‘노드(node)’라고 부르겠다.
또 하나 중요한 뇌과학의 원리는 ‘헤브의 규칙’이다. 1949년 심리학자 도널드 헤브는 뇌가 학습하고 기억을 저장하는 원리를 제시했다. 뉴런과 뉴런은 시냅스라는 부위로 연결되어 있는데, 시냅스를 통해 신호가 자주 이동할수록 시냅스의 연결이 강해진다. 학습은 시냅스의 연결 크기를 변화시키는 것이고, 시냅스 연결 크기들의 집합이 바로 ‘기억’이라는 원리다. 뇌과학의 혁명적 아이디어라 할 만하다. 따라서 공부를 잘하려면 시냅스를 자주 사용해야 한다. 쉽게 말해서 예습, 복습 철저히 반복해서 꾸준히···. 암튼 이를 수학적으로 구현하는 것은 어렵지 않다. 노드 사이의 연결 크기를 변화시켜주면 되기 때문이다. 드디어 뇌를 모방한 인공신경망의 기본 형태가 모습을 드러냈다.
물리학의 스핀, 뉴런과 비슷해
1950년대에는 인공신경망을 이용하여 패턴 인식 문제를 푸는 여러 시도가 이어졌고, 곧 인간과 같이 생각하는 기계가 나올지 모른다는 낙관적인 전망도 있었다. 하지만 사람들은 이것이 생각보다 쉬운 문제가 아님을 깨닫게 된다. 1969년 마빈 민스키는 인공신경망으로 논리회로 구축에 꼭 필요한 기본 요소를 만들 수 없음을 증명한다. 인공신경망 아이디어의 종말이라 할 만하다. 이후 10년 넘게 인공지능 연구의 암흑기가 찾아온다. 올해의 노벨물리학상 수상자들이 등장한 때는 암흑기가 지속되던 1980년대부터다.
당시 물리학자들은 스핀이 여러 개 모여 있는 ‘스핀계(spin system)’라는 것을 연구했다. 이는 통계물리학이라 불리는 분야에서 다룬다. 스핀이란 기본입자가 가지는 ‘양자역학적 특성’으로(어려우니 자세히 설명하지 않겠다는 뜻이다), 하나의 스핀은 0과 1 두 가지 상태만 가질 수 있다. 스핀과 뉴런은 비슷한 점이 있다. 뉴런의 전위가 임계값을 넘은 상태를 1이라 하고, 그 이전을 0이라 하면 뉴런을 스핀으로 기술할 수 있다.
뇌에서는 엄청나게 많은 뉴런이 상호작용한다. 여러 개 스핀이 상호작용하는 상황은 물리학에서 이미 잘 알려져 있었다. 외부 조건(스핀 사이의 상호작용 크기)에 따라 스핀 값들은 공간적으로 특정한 패턴을 보인다. 스핀 10개로 구성된 스핀계라면 ‘0010100010’과 같은 패턴이 한 예다. 좀 더 정확히 말하면 특정한 패턴일 때 에너지가 가장 낮은데 ‘스핀계’는 가장 낮은 에너지 상태에 있으려 한다. 초기에 스핀 패턴을 제멋대로 주면 특정 패턴일 때보다 에너지가 높다. 각 스핀의 상태를 0에서 1, 혹은 1에서 0으로 바꾸다 보면 정확히 특정 패턴이 될 때 에너지가 가장 낮아진다. 즉, 임의의 패턴에서 시작하여 패턴을 바꾸어가며 에너지가 낮아지도록 하면 원하는 특정 패턴에 도달한다는 뜻이다. 만약 높이를 에너지라고 한다면 계단에서 놓은 공이 스스로 굴러서 가장 낮은 지점에 도착하는 과정과 비슷하다.
올해 노벨물리학상 수상자인 존 홉필드는 뉴런, 혹은 노드를 스핀이라고 생각하고 노드들의 집단, 즉 인공신경망에 스핀의 물리학을 적용한다. 스핀과 마찬가지로 노드 사이의 연결 크기들이 주어지면 노드들의 특정한(에너지가 가장 낮은) 패턴이 정해진다. 만약 그 특정한 패턴이 두 개 이상 존재한다면 초기 조건에 따라 둘 중 하나로 수렴할 것이다. 계단에서 공을 굴리는 비유로 설명하면, 바닥에 구멍이 두 개 있는 상황이라 할 수 있다. 계단의 시작점에 따라 어떤 경우는 1번 홀, 어떤 경우는 2번 홀에 도착할 것이다. ‘1번 홀’을 ‘고양이’라고 하고, ‘2번 홀’을 ‘개’라고 하면 입력에 따라 고양이나 개로 가는 상황을 만들 수 있다는 뜻이다. 이제 남은 일은 고양이와 개를 제대로 구분하도록 노드 사이의 연결 크기를 적절히 정해주는 것이다. 연결 크기를 최적화(개를 개로, 고양이를 고양이로 인식하도록)하는 과정을 ‘학습(learning)’이라고 한다. 이것이 ‘홉필드 네트워크’다.
힌턴과 ‘역전파 알고리즘’
어려운 내용일 수도 있지만 인공지능에 대해 조금이라도 들어본 사람이라면 익숙한 이야기다. 즉, 인공지능의 가장 근간이 되는 아이디어를 존 홉필드가 제안했다는 뜻이다. 인공지능은 스핀이라는 물리적인 개념에서 탄생했다. 이후 ‘홉필드 네트워크’는 여러 차례 개량을 거쳐 오늘날 우리가 사용하는 인공지능이 된다. 제프리 힌턴은 개량된 인공신경망에 ‘역전파 알고리즘’이라는 것을 적용하는데, 이 때문에 전보다 빠른 학습이 가능해진다. 물론 학습에 여전히 엄청난 계산량이 필요해서 제안되었을 당시(1986년)에는 ‘역전파 알고리즘’을 제대로 구현하기 힘들었다.
개량된 인공신경망의 중요한 특징은 노드들이 실제의 뇌와 같이 계층 구조를 이룬다는 것이다. 비유하자면 1층에 노드 1000개, 2층에 노드 1000개, 3층에 노드 1000개가 있는 식이다. 각층의 노드 모두가 서로 연결되어 있진 않고 이웃한 층끼리만 연결되어 있다(1층과 2층 혹은 2층과 3층). 특히, 홉필드 네트워크는 모든 노드를 고려했지만, 이제는 보이는 노드들의 층(1층과 3층)과 숨은 노드들의 층(2층)으로 분리하여 다룬다. 숨은 노드들의 층을 ‘은닉층’이라고 한다. 은닉층이 많은 경우를 다층 인공신경망이라 한다. 힌턴은 다층 인공신경망으로 수행하는 학습을 ‘딥러닝’이라고 불렀다.
2000년대 들어 딥러닝 기술이 발전하고, 학습에 필요한 방대한 데이터가 확보되고, 인공지능 계산에 적합한 GPU 프로세서가 사용되며 인공신경망은 폭발적으로 성장했다. GPU 프로세서를 만드는 기업이 미국의 ‘엔비디아’인데, 덕분에 떼돈을 벌었다. 2010년대 초반이 되자 인공신경망이 유튜브 영상에서 개와 고양이를 구분하게 되었고, 2016년 인공지능 알파고는 세계적인 바둑 프로기사 이세돌을 꺾었다. 2017년에는 진행형 GANs(생성적 적대 신경망)가 사람 얼굴의 정교한 이미지를 생성하기 시작했다. 이 기술이 공개되자 스스로 ‘딥페이크’라고 칭하는 누군가가 유명인의 얼굴을 포르노 비디오에 합성해 인터넷에 게시했다. 최근 우리나라에서 문제가 된 지인 딥페이크 범죄의 기술이 이때 개발된 것이다. 2023년 오픈AI는 힌턴이 고안했던 ‘볼츠만 머신’이라는 생성 모형을 발전시켜 정교한 챗봇 GPT-4를 개발했다. 스핀계를 통계적으로 다루는 볼츠만 머신도 통계물리학에서 온 개념이다. 볼츠만은 ‘엔트로피’를 정의한 19세기 물리학자다.
올해 노벨화학상 수상자인 구글의 허사비스와 점퍼가 2020년에 만든 ‘알파폴드 2’는 인간 과학자보다 단백질 구조를 더 정확히 예측했다. 2021년 구글은 알파폴드 2에 대한 논문을 학술지 〈네이처〉에 게재하고 누구나 수정하여 사용할 수 있도록 소스코드를 공개했다. 2022년에는 독일 막스플랑크 생물물리학연구소가 알파폴드 2를 이용해 난제였던 ‘핵공 복합체 구조’ 연구에 돌파구를 만들고 〈사이언스〉에 논문을 싣기도 했다. 이제 이 분야 과학자들에게 알파폴드 2는 연구의 필수품이 되었다. 노벨화학상 수상위원회는 이런 점을 충분히 고려했을 것이다. 지금이 인공지능 시대라는 것은 모두 안다. 인공지능의 근간에는 물리학이 있다.
김상욱 (경희대 물리학과 교수) editor@sisain.co.kr
▶좋은 뉴스는 독자가 만듭니다 [시사IN 후원]
©시사IN, 무단전재 및 재배포 금지
Copyright © 시사IN. 무단전재 및 재배포 금지.