인공지능 ‘봄날’ 떠받친 사회적 함수
아날로그의 디지털 전환이라는 산업구조 변화가 토대 이뤄
‘아마존 메커니컬 터크’(Amazon Mechanica l Turk)는 아마존에 있는 하나의 부서가 아니다. 마치 작은 업무를 담당하는 하나의 부서인 것처럼 이름을 달고 있지만, 사실상 아마존 전체의 빅데이터를 관리하는 핵심 조직이다. 아마존이 이 조직의 이름을 ‘메커니컬 터크’라고 명명한 것은 기묘한 느낌을 자아낸다. 왜냐하면 메커니컬 터크란 실제 존재했던 가짜 자동기계장치를 지칭하는 명칭이기 때문이다. 발터 베냐민이란 철학자를 안다면, <역사의 개념에 대하여>라는 글의 첫머리에 등장하는 튀르키예식 옷차림을 한 체스 두는 자동인형을 모를 수가 없을 것이다.
체스 달인 숨어 있던 ‘가짜 자동인형’
베냐민의 글에서 메커니컬 터크는 역사적 유물론의 진보주의를 비판하기 위한 비유로 등장한다. 지략가 나폴레옹과 당대의 발명가 벤저민 프랭클린은 물론, 컴퓨터의 초기 모델을 고안한 수학자 찰스 배비지마저 격파하면서 유명해진 이 체스 기계는 18세기에 볼프강 폰 켐펠렌이 오스트리아의 마리아 테레지아 여제의 환심을 사기 위해 만든 것인데, 대대적으로 홍보한 것과 달리 실제 그 안에 체스의 달인이 숨어서 작동시켰음이 폭로되면서 세간을 떠들썩하게 했다. 마치 아마존 고의 ‘저스트 워크 아웃’(Just walk out)을 둘러싼 해프닝과 같은 일이 이미 일어났던 셈이다.
흥미로운 사실은 메커니컬 터크가 가짜임이 밝혀지면서 이 기계장치에 대한 관심은 더욱 폭증해서 갑론을박을 초래했고 유사품이 범람하게 됐다는 것이다. 이처럼 대중에게 친숙한 게임을 홍보 수단으로 삼아서 이목을 집중시키는 방식은 요즘도 크게 다르지 않다. 인공신경망 방식의 딥러닝에 한 획을 그었다고 평가받는 딥마인드의 인공지능 기술 역시 알파고라는 바둑 두는 프로그램을 통해 널리 알려지면서 인공지능 열풍을 주도하지 않았던가. 물론 단순 비교하기엔 메커니컬 터크와 알파고 사이에 비교 불가능한 기술적 격차가 있지만, 그럼에도 자동화를 완성하기 위해 필수적인 것이 인간의 노동이라는 기본 원리는 동일하다. 아마존이 자신의 핵심 조직 이름을 메커니컬 터크라고 붙인 것은 이런 의미에서 증상적인 자기 해명이다.
아마존은 은연중에 자신들의 빅데이터 작업과 켐펠렌의 가짜 자동기계장치가 동일한 원리에서 작동한다는 사실을 자인하는 것 같다. 물론 여기에서 중요한 것은 이런 자동기계장치가 가짜라는 사실이 아니라, 그것이 명백하게 가짜임에도 오히려 효과적으로 작동한다는 역설일 것이다. 메커니컬 터크의 사례가 잘 보여주듯이 자동화는 인간의 간섭 없이 기계 홀로 작동하는 것이 아니라 항상 인간의 노동을 필요로 한다. 그러나 이때 기계와 인간의 관계는 서로 뒤바뀐다. 체스를 두기 위해 인간이 기계 뒤로 숨어야 하는 것처럼 자동화 역시 기계의 작동을 위해 인간의 노동은 보이지 않아야 한다. 이렇듯 인공지능 역시 노동분업의 산물이라는 점에서 사회적인 것이고 당대에 구성된 노동분업 구조의 구현물이다.
‘아마존’의 인간 행동 빅데이터화
이 추상노동의 기계화라고 할 수 있는 자본주의와 인공지능의 문제에 대한 이야기는 뒤로 미루고 아마존 메커니컬 터크에 집중해보자. 인공지능은 연결주의 이론 등장 이후 인공신경망 모델이 주도적인 흐름으로 자리잡는다. 인공신경망은 인공 뉴런(노드)들이 시냅스 결합을 통해 네트워크를 형성한 구조로서, 이들 노드는 학습 과정에서 시냅스 결합의 강도를 조정해 문제 해결 능력을 갖춘다. 인공신경망 모델이란 이런 인공 뉴런들의 네트워크 전체를 가리키는 용어다. 사이버네틱스가 자기생성론에 근거한 환경 진화론적 이론에 가까웠다면 인공신경망은 단순한 계산 기계의 차원을 넘어 인간의 두뇌 작용을 능가하는 독자적인 지능 기계의 완성을 추구했다. 앞의 이론이 개체와 세계의 의사소통을 중심에 놓았다면, 뒤의 이론은 자동으로 작동하는 기계의 지능을 중심에 놓았다.
이미 이야기했듯이, 사이버네틱스의 한계를 뛰어넘는 것처럼 보였던 인공신경망은 마빈 민스키가 제기한 문제, 다시 말해서 ‘퍼셉트론에 근거한 단층 신경망은 배타적 논리합 회로를 처리하지 못한다’는 난관에 부딪혀 거의 침체기로 접어든다. 그러나 이 문제는 컴퓨터의 비약적 발전과 인터넷의 등장, 그리고 글로벌라이제이션에 따른 세계적인 노동분업 구조 덕분에 새로운 국면을 맞이했다고 앞서 지적했다. 여기에서 또한 빠트릴 수 없는 것이 바로 아마존과 같은 빅테크 회사가 구축한 인간 행동 정보의 빅데이터화다. 이런 새로운 토대를 통해 비로소 구체화한 오늘날 우리가 마주한 인공지능은 민스키 같은 전문가의 예측을 넘어선 결과물이다. 물론 물적 토대가 갖춰진다고 해서 기술발전이 자연스럽게 이루어지는 것은 아니다. 바로 이런 물적 토대를 인공지능의 봄날을 기약하는 조건으로 만드는 계기가 있었다. 아마존 메커니컬 터크는 이 누구도 예측 못했던 전환에 자기도 모르게 결정적인 역할을 담당하게 된다. 흥미롭게도 이런 기여는 아마존과 아무런 관련이 없다. 다시 말해서 아마존은 분명 이 도약의 토대이긴 했지만 이 인공지능의 발전에 결정적인 역할을 한 것은 아니다.
구니히코, AI 자동학습원리 최초 제시
여기에서 예상하지 못했던 한 인물이 등장한다. 프랑스의 컴퓨터 과학자 얀 르쿤이다. 그는 기존의 인공지능이론을 갱신한 합성곱신경망(CNN)을 창시함으로써 21세기 인공지능의 대부로 불리게 됐다. 인공지능의 역사를 이야기할 때 우리는 노버트 위너나 클로드 섀넌, 또는 프랭크 로젠블랫이나 존 폰 노이만, 그리고 마빈 민스키 같은 쟁쟁한 이름을 떠올린다. 이들이 분명 인공지능의 기초 개념을 정립하고 메커니컬 터크와 같은 고전적인 자동인형에 대한 초보적인 상상을 현대적인 관점에서 발전시킨 것은 부정할 수 없는 사실이다. 이런 역사를 거슬러 올라가면 컴퓨터 이진법을 정립한 라이프니츠가 있고 최초의 컴퓨터를 만든 배비지와 그 이론을 바탕으로 자동화의 프로그래밍 원리를 최초로 밝힌 에이다 러블레이스가 있을 것이다. 그러나 어떤 역사도 이렇게 연대기적인 방식으로 이루어지지 않는다.
이렇게 지난 시절의 인물을 열거하는 것은 과거를 이해하고 정리하는 방식일 뿐이고, 실제로 역사는 비가시적이고 예측 불가능했던 우연성의 결과물이다. 우연이 만들어낸 단절의 사건을 이해할 수 있게 번역해놓은 것이 오늘날 우리가 받아들이고 있는 역사일 뿐이다. 인공지능의 역사도 마찬가지다. 얼핏 내재적인 기술의 발전처럼 보이는 이 전개 양상은 사실상 사회적인 차원과 밀접하게 관련을 맺고 있다. 민스키가 제기한 연결주의 인공지능의 한계를 넘어서기 위한 시도는 인공지능의 겨울에 접어든 1980년대에도 꾸준히 이어졌다. 대표적인 것이 바로 1979년에 등장한 일본 학자 후쿠시마 구니히코의 네오코그니트론 개념이다. 네오코그니트론 개념은 로젠블랫의 퍼셉트론 개념에 근거한 머신러닝 방식을 좀더 복잡한 멀티 레이어 구조로 만들려는 시도라 볼 수 있다. 결과적으로 이 개념은 오늘날 머신러닝과 딥러닝으로 불리는 인공지능의 자동학습원리를 최초로 제시했다.
기존의 인공지능 모델은 입력된 대상을 인식하는 수준에 머물렀기 때문에 같은 사물이라도 조금만 특징이 달라지면 분별하지 못했다. 예를 들어 같은 문자임에도 타자기가 아닌 손으로 흘려 쓴 글은 인식하지 못하는 문제가 있었다. 우리 뇌는 이와 달리 같은 문자라면 아무리 그 모양새가 달라도 금방 인식할 수 있고, 심지어 한 문장 안에 틀린 단어가 있어도 문장 전체 의미를 이해할 수 있다. 복잡한 패턴 인식이 단숨에 가능하기 때문이다. 이런 시각과 관련한 뇌의 정보처리 과정에 주목한 후쿠시마는 네오코그니트론이란 방식을 고안해낸다. 이 원리는 인간 두뇌의 시각 정보 과정을 단순하게 모방해서 시각적 입력패턴의 특징을 추출하는 S-셀 레이어와 그 추출된 특징의 변형을 허용하거나 흡수하는 복잡한 C-셀 레이어를 번갈아 배치함으로써 컴퓨터 비전의 인식방식을 정교하게 만드는 것이다.
좀더 간단히 설명하자면, 네오코그니트론은 컴퓨터 비전을 통해 이미지의 특징을 뽑아내고, 그 특징의 오차 가능성을 모두 계산한 다음, 그 오차범위 내에서 원래 이미지를 유추하게 하는 원리다. 그러나 앞서 반복해서 지적했듯이, 이런 후쿠시마의 구상은 당시 컴퓨터의 연산처리능력을 고려한다면 실현 불가능한 이론이었다. 1990년대에 이르러 먼지 속에 묻혀 있던 이 개념을 다시 발굴한 당사자가 바로 르쿤이었다. 르쿤의 업적은 네오코그니트론 개념을 훨씬 발전한 컴퓨터 하드웨어 기술과 접목해 인공지능의 새로운 차원을 열어낸 것이다. 그러나 세간의 평가와 달리, 이런 성취를 순수한 과학적 관심의 결과라고 보긴 어렵다. 이른바 “디지털 혁명”이라고 불렸던 당시의 정보 기술화는 아날로그 정보를 디지털 정보로 전환하는 대대적인 작업을 요청했는데, 르쿤의 성공은 이런 산업구조 변화와 무관하지 않았다.
자본주의 기술 혁신이 불러온 AI의 귀환
르쿤은 손글씨를 컴퓨터 스캔으로 인식하는 기술 개발에 관심을 가졌고, 그 결과 미국의 우편국이 그 기술을 채택함으로써 엄청난 상업적 성공을 거둔다. 정보기술 혁명이라고 불렸던 당시 자본주의의 기술혁신이 실패했던 인공지능 이론을 귀환하게 한 것이다. 로젠블랫이 해결하지 못했던 역전파(또는 백프로퍼게이션) 문제를 르쿤은 르넷(LeNet)의 구축으로 해결했다. 역전파란 인공지능의 머신러닝과 딥러닝을 정교하게 만드는 정보업데이트 방식이다. LeNet은 합성곱신경망 원리를 원용한 신경망 구조로서 지금의 콘브넷(ConvNet·CNN)의 초기 모델이다. 머신러닝이나 딥러닝은 최적의 매개변수를 찾는 방식이다.
최적의 매개변수란 손실 함수가 최소 값이 될 때 구할 수 있는 매개변수의 값이다. 이 값을 얻어내려면 매개변수의 기울기를 통해 함수의 값이 가장 작아지는 방향으로 이동하면서 최적의 값을 찾아내는 반복과정을 거쳐야 하는데, 이런 수학적 계산 방식을 경사하강법이라고 부른다. 인공지능이란 바로 이 과정에서 인간의 능력으로 계산 불가능한 인공신경망의 가중치 계산을 컴퓨터로 처리하는 프로그램이다. 여기에서 중요한 문제는 이런 기술적 은어로 인공지능의 원리를 이해한다고 최근 목도하는 인공지능의 도약이 설명되는 것은 아니라는 사실이다. 이 기술의 발전은 언제나 사회적이었다. 이 사실을 간과한다면, 자본주의와 인공지능이라는 우리에게 던져진 가장 근본적인 문제를 놓치게 될 것이다.
이택광 문화비평가·경희대 글로벌커뮤니케이션학부 영미문화전공 교수
Copyright © 한겨레21. All rights reserved. 무단 전재, 재배포 및 크롤링 금지.