“3년 내 인간 수준 AI 온다… 억제 않으면 재앙”

김남중 2024. 1. 18. 21:47
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

더 커밍 웨이브
무스타파 술레이만 지음, 이정미 옮김
한스미디어, 512쪽, 2만5000원
딥마인드 창업자인 무스타파 술레이만(아래 사진)은 AI 시대 인류의 가장 중요한 과제는 “기술을 어떻게 하면 억제할 수 있을지 알아내는 것”이라며 새 책 ‘더 커밍 웨이브’에서 기술 억제를 위한 초안을 제시한다. 한스미디어 제공·게티이미지뱅크


‘더 커밍 웨이브’는 쏟아지는 인공지능(AI) 책들 속에서 단연 주목된다. 세계에서 가장 유명한 AI 회사라고 할 수 있는 딥마인드 창립자가 썼기 때문이다. 저자 무스타파 술레이만은 2010년 설립돼 구글에 인수된 딥마인드의 공동 창업자 3명 중 한 명이며, 현재 인터랙션AI의 최고경영자(CEO)다. 그는 전 세계를 놀라게 한 바둑 프로그램 ‘알파고’와 구글의 대화형 AI ‘람다’를 개발했다. 에릭 슈밋 전 구글 CEO는 “현재 진행 중인 AI 혁명에 술레이만보다 더 가까이 다가가 있는 사람은 없다”고 말했다.

술레이만은 이 책에서 “지난 십 년 반 동안 전개되고 있는 이 혁명을 가까이서 지켜본 나는 우리가 생애에서 가장 중요한 변화의 정점에 서 있다고 확신한다”고 썼다. 또 “AI는 앞으로 3년 이내에 매우 광범위한 작업에서 인간 수준의 성능에 도달할 것으로 보인다”고 전망했다.


술레이만은 AI를 중심으로 이야기를 전개하지만 합성 생물학, 로봇 공학 등 현대의 핵심 기술들을 포괄하면서 기술의 공학과 역사를 짚어가는 한편 기술이 경제와 정치에 미치는 영향력을 분석한다. 특히 인간의 지능을 복제하는 AI, 유전자를 조작하고 합성하는 합성 생물학, AI를 물리적으로 구현하는 로봇 공학, 인간의 뇌를 컴퓨터 시스템에 연결하는 BCI(뇌-컴퓨터 인터페이스) 등이 결합하면서 만들어내는 흐름을 ‘다가오는 물결’로 명명하고, 이런 기술들이 자기 개선을 거듭하면서 스스로를 향상시킬 수 있다는 점에서, 그 한계가 어디인지 모른다는 점에서, 인류를 근본적으로 바꿔놓을 수 있다는 점에서 역사상 최고의 기술이자 최악의 기술이 될 수 있다고 얘기한다.

“역사를 통틀어 보면 기술은 ‘단지’ 도구에 불과했다. 그런데 그 도구가 살아 움직인다면 어떻게 될까?”

더구나 이런 기술들은 빠르게 범용화되고 간소화되면서 누구나 접근이 가능해진다. “접근의 민주화는 곧 위험의 민주화를 의미한다.” 그래서 AI가 인간을 지배하는 시대가 올 수도 있다는 것인가? 술레이만의 대답은 매우 간단하다. “인간은 지능을 바탕으로 환경을 지배한다. 그렇다면 더 지능적인 존재가 우리를 지배할 수도 있다.”

술레이만은 이 책에서 AI 억제론을 본격적으로 펼친다. 억제는 그동안 AI 논의에서 제대로 다뤄지지 않은 주제라고 할 수 있다. 그가 보기에 AI의 가장 위험한 점은 인간의 억제가 어렵다는 데 있다. 그는 지난 15년간 AI 억제를 연구해 왔다며 “억제가 가능해야 한다”를 AI 시대의 대원칙으로 제시한다.

술레이만은 먼저 누가 억제할 수 있는지, 즉 억제의 주체가 있을까 탐구한다. 혹시 국가라면 가능할까? “발전 속도가 빠르고, 너무 광범위하고, 전략적으로 매우 중요하고, 수십 억명이 의존하고 있는 현대 기술은 그 자체로 국민 국가가 관리하기 어려운 엄청남 힘을 가진 주요 요인이다.”

국가가 이러한 변화의 물결을 조율할 수 없고, 국민에게 실질적인 이익이 될 수 있도록 보장할 수 없다면 중장기적으로 인류는 어떤 선택지를 갖게 될까? 이것은 AI 시대가 던지는 또 하나의 거대 질문이다.

AI 억제 문제는 기후변화 대응보다 더 어렵다. 기후변화와 마찬가지로 AI 위험에 대처하려면 전 지구적 차원에서 논의가 이뤄져야 하는데, AI 기술의 위험도를 헤아리기 위한 측정 기준도 없고, 객관적인 위협 단위도 없기 때문이다.

그는 마지막 장 ‘억제를 위한 10가지 방법’을 통해 억제 매뉴얼의 초안을 제출한다. 1번은 “AI 안전을 다루는 분야에서 더 많은 연구를 장려하고, 인센티브를 제공하고, 더 적극적으로 자금을 지원해야 한다”로 돼있다. 지극히 당연한 얘기지만 이런 식으로 시작할 수 있다는 것이다.


그는 또 “합성 생물학, 로봇 공학, AI 등 모든 분야에서 가장 중요한 과제는 통제 불능 상태에 빠질 위험이 있는 기술을 완벽하게 차단하는 전원 스위치의 구축”이라고 말한다. 또 “우리는 시스템의 안정성, 무결성, 손상되지 않는 특성을 모든 수준에서 검증할 수 있어야 한다”면서 “외부 감사는 필수적”이라고 주장한다.

정부나 국제사회 차원의 규제도 당연히 필요하다. 그는 “엄격한 감독 없이는 그 어떤 기업도 원자로를 건설하거나 운영할 수 없다”면서 “앞으로 최첨단 AI를 출시하려면 이와 비슷한 규제 절차를 밟도록 해야 한다”고 얘기한다.

술레이만은 “모든 실험과 발전에 완전히 개방적인 태도를 취하는 것은 재앙으로 가는 지름길이 될 수 있다”고 경고한다. “전 세계 모든 사람이 핵폭탄을 갖고 놀 수 있다면 언젠가 핵전쟁이 일어날 수도 있다”는 것이다.

딥 러닝이라는 혁신 기술을 주도해온 술레이만은 이제 억제야말로 AI 분야에서 가장 중요한 기술이라고 주장한다. “21세기 인류의 핵심 과제는 억제할 수 없을 것 같은 기술을 어떻게 하면 억제할 수 있을지 알아내는 것이다.”

김남중 선임기자 njkim@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지

Copyright © 국민일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?