AI 빅뱅 온다, 인간 개입 없이 자가학습으로 비약적 진화
━
이준기의 빅데이터
요즘 기사를 보면 인공지능(AI) 전쟁이란 말이 실감이 난다. 빅테크 기업들의 베팅하는 규모는 이제 수백억 원 단위는 푼돈으로 보이고 수백조 원 단위를 훌쩍 넘어가고 있다. 우리나라 기업들도 저마다 인공지능 주권 등을 외치며 대규모 거대언어모델(LLM) 인공지능에 투자하고 있지만, 미국이나 중국의 대규모 물량 공세에 밀리는 모습이다. 지금 우리에게 맞는 인공지능 전략은 무엇이 돼야 할까.
지금 인공지능의 기초가 되는 딥러닝 기술의 대부라 할 수 있는 제프리 힌튼 교수는 원래 영국 출신으로 1990년대부터 2000년대 초까지 미국과 영국, 캐나다의 대학들을 오가고 있었다. 인공지능의 역사를 보면 1990년대 말부터 2010년까지는 인공지능의 암흑기에 해당된다. 당시는 인공지능에 대한 관심이 적어 정부 지원도 대부분 끊겼고, 거의 모든 기업이 인공지능에 투자할 생각을 하지 않았다. 이것은 연구자들에게는 연구비의 고갈을 의미한다.
당시 힘든 연구를 버텨가던 힌튼 교수에게 다가온 손길은 캐나다의 고등연구소 CIFAR(Canadian Institute For Advanced Research)였다. 캐나다 정부에서 과학기술의 발전을 위하여 세운 이 기관은 매년 과학기술 분야에 대해 10년 이상 지원을 해주는 프로그램을 갖고 있었다. 당시 인공지능은 단기적으로 큰 장래성을 보이지 않는 분야였지만 CIFAR는 기초연구를 위하여 기꺼이 힌튼 교수에게 지원을 약속했다.
2004년 지원된 이 자금은 캐나다가 초기 인공지능 메카로 떠오르게 된 결정적 역할을 한다. 당시 토론토 대학의 교수였던 힌튼 교수는 이 연구비를 중심으로 결국 딥러닝 알고리즘을 완성하게 되며 2012년 이후 인공지능의 새로운 세상을 만들게 된다.
기술의 진보와 확산을 보면 어느 순간 기술의 확산이 가속화되는 순간이 생긴다. 대부분의 이런 가속 구간은 확장성(scalability)의 극복으로 이루어진다. 확장성의 극복이란 N=1을 만드는 것에 대한 속도를 늘리는 것이 아닌, 순식간에 N=n의 시스템을 구현하는 방식으로 작동이 된다. 전기 기술은 장인이 하나의 상품을 빨리 만드는 것을 도와주는 시스템에서 컨베이어 시스템을 통하여 분업에 의한 대량 생산의 시스템을 만듦으로써 확장성의 극복을 이룬다. 인터넷은 팀 버너스리 박사의 월드와이드웹(WWW)의 발명 후 쉽게 웹사이트를 만들어 올리는 플랫폼 형태로의 진화 후 급속도로 발전했다.
그렇다면 앞으로 인공지능 기술의 확장성 가속화는 어느 부분에서 일어날까. 가장 큰 변화는 인공지능의 자가학습(self-learning)과 인공신경망의 자기 구조화(self-organizing)의 변화에서 올 것으로 예상된다. 지금처럼 천 억 단위의 돈을 써가며 하나의 인공지능을 구현하는 방식은 비효율적이다. 하지만 생물학적 시스템을 보면 각 개체는 다른 개체로부터 정보를 주고받으며 스스로 진화하여 나가는 것이 자주 목격된다. 인공지능의 자가 학습이란 인간이 데이터를 넣어주고 학습하는 형태가 아닌, 인공지능이 스스로 또는 다른 인공지능의 도움으로 학습을 하는 형태이다.
인간은 서로의 지식을 교류하고 축적하며 문명을 만들어 왔다. 인공지능 시스템도 만약 인공지능 시스템이 다른 인공지능 시스템의 학습을 도와준다면 완전히 다른 영역으로 넘어갈 수 있다. 바둑과 같은 도메인과 규칙이 정해져 있는 분야에서는 이 기술이 이미 응용되었다. 기존의 기보를 활용해 인간이 학습시킨 ‘알파고’는 인간 최고수를 압도적으로 이겼다. 반면 ‘알파고 제로’는 다른 인공지능과의 수많은 대결을 통해 어떤 것이 좋은 수인지를 판단하는 정책과 가치를 스스로 학습하였다. 알파고 제로는 인간을 이긴 알파고에 100:0 완승을 거두었다. 하지만 순서도 규칙도 정하여 있지 않은 일반 문제에 이 방식을 적용하기는 장벽이 높았다.
최근 LLM의 발달은 인간이 이 문제에 다시 도전하게끔 만들어 주고 있다. LLM이 언어에 대한 지능을 얻으면서 이 언어 지식체를 이용한 다른 인공지능을 학습하는 여러 시도가 성공리에 보고되고 있다. LLM은 자체로 코드를 만들 수도 있고 데이터 분석을 행하고 결과를 해석할 수 있다. 더 중요한 것은 어떠한 문제에 대하여 가설을 만들 수도 있다. 이 모든 것을 조합하면 인공지능은 자가 학습이 가능해진다.
최근 발표된 Open AI의 다른 인공지능의 잘못을 알려주는 criticGPT도 그런 시도 중의 하나이다. 현재는 이 시스템은 코딩의 잘못을 찾는데 특화되어 있다. 하지만 앞으로 이것이 발전하여 다른 분야에 대해서도 자가 학습이 가능한 수준에 이르면 우리는 인공지능 발전의 또 다른 대폭발을 경험할 것이다.
지금의 인공지능의 확장성을 다른 차원으로 이끌 또 다른 단서는 현재의 인공신경망의 구조 변화에서 일어날 것이다. 인공신경망이 흉내 낸 인간의 두뇌는 뉴런과 시냅스로 이루어졌다. 현재 인간이 갖고 있는 시냅스의 수는 약 100조 개에 이른다. 이것은 현 최고수준 인공지능의 파라미터의 수가 3000~5000억 개인 것과 비교된다. 현재 비약적으로 발전하는 칩과 컴퓨팅 발전은 20년 내 이 숫자가 인간이 갖고 있는 시냅스 수를 넘어갈 것으로 예상한다.
인공신경망은 아직 인간 뇌와 큰 차이
하지만 이렇게 숫자를 단순 비교하기 보다 현재 인간의 뇌가 작동하는 방식과 인공지능 방식의 차이를 보면 사뭇 다른 생각을 할 수 있을 것이다. 가장 중요한 차이는 현재의 딥러닝 방식의 인공신경망은 하나의 구조로 정해져 있다는 것이다. 인공지능의 학습이란 이런 정해진 구조에 가중치를 구하는 문제이다. 하지만 인간의 뇌는 자기 구조적 성격을 갖는다. 인간의 뇌는 학습에 따라 연결 제거, 양방향 연결 등 구조 자체의 변화가 일어난다.
이런 차이에 의하여 인간의 뇌는 훨씬 더 놀라운 결과를 보인다. 먼저 효율적 측면을 보자. 인공지능의 에너지 사용량은 앞으로 세계 전기 사용량 전체의 4~5%를 차지할 것으로 예상된다. 하지만 인간의 뇌는 놀랍게도 우리의 음식섭취에서 만들어지는 에너지에 의하여 작동한다. 둘째 유연성 측면을 보자. 인공지능은 한번 학습이 되면 학습한 대로만 움직이며 GPT에서 보는 바와 같이 ver3.5, 4, 5를 계속 내놓을 때마다 완전히 새로운 학습을 필요로 한다. 하지만 인간의 뇌는 언제든지 기존에 알고 있던 것을 대체하고, 보완하며 학습이 이루어진다. 세 번째 강건성 측면에서 인간의 뇌는 한쪽이 손상되어도 신경가소성에 의하여 적응을 하며 새로운 뇌의 부분에서 필요한 기능을 할 수 있다. 이것은 현재의 인공지능이 중앙집권적 성격을 갖고 있어 일부가 변형될 경우 전체 시스템이 작동하지 않게 되는 것과 비교된다.
최근 인공신경망에도 네트워크 구조를 학습에 따라 변화시키는 동적 구조 최적화, 유전 알고리즘을 응용한 메타 학습, 또는 전이 학습에 대한 자기 조직화 연구들이 시작되고 있다. 하지만 아직은 초기 단계에 불과하다.
지난달 AI 연구 최고 학자의 한 명인 메타의 얀 르쿤 박사는 X(트위터)에서 학생들에게 LLM을 공부하지 말라고 당부하여 큰 토론을 촉발했다. 모두 인공지능이 끝났다고 생각하였을 때 힌튼 교수가 새로운 장을 열었듯 우리도 현 상황을 따라가는 것보다 새로운 방향을 제시하고 개척을 하여 나가는 자세가 필요해 보인다.
Copyright © 중앙SUNDAY. 무단전재 및 재배포 금지.