[국민논단] 오펜하이머와 힌턴의 후회

2023. 5. 22. 04:07
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

박선숙 전 국회의원

힌턴 '킬러로봇 현실화 두려워'
추적 가능한 핵무기와는 달리
AI 규제 도입돼도 기업·국가들
비밀리에 연구 지속할 가능성

얼마나 위험한 상황을 겪어야
AI 무기 통제 합의할 수 있을까
경쟁적 핵 개발 시절처럼
'내가 안 쓰면 적들이 쓴다'는
공포가 지배하고 있어

지난달 인공지능(AI)의 대부로 불리는 제프리 힌턴 박사가 구글에 사표를 냈다. 그는 10년 만에 구글과 결별한 이유에 대해 “AI의 위험성을 경고하기 위해서”라고 했다. 그는 AI 개발 경쟁이 격화되는 상황에서 국제적인 규제가 도입돼야 한다며 “추적이 가능한 핵무기와는 달리 AI는 규제가 도입돼도 기업이나 국가 차원에서 비밀리에 연구를 지속할 가능성이 있어 연구자들 스스로 목소리를 내고 자율규제를 하는 것이 중요하다”고 주장했다. 1970년대 초부터 50여년간 AI 연구에 몰두해온 그는 인공신경망을 현실화해냄으로써 챗GPT 탄생에 공헌했다. 그런 그가 지금 자신이 평생에 걸쳐 이룬 성과를 후회한다고, 특히 AI 기술이 적용된 ‘킬러로봇’이 현실화하는 날이 두렵다고 말한다. “내가 연구하지 않았더라도 다른 사람이 연구했을 것이라고 스스로를 위로한다”면서.

최초의 핵무기 개발계획인 ‘맨해튼 프로젝트’를 주도한 줄리어스 로버트 오펜하이머는 핵무기의 실전 투입을 목도하고 깊은 죄책감에 시달렸다. 그 역시 “내가 하지 않았더라도 누군가는 했을 것”이라며 수없이 자신을 위로하지 않았을까. 그는 미·소 냉전이 격화되고 매카시즘 광풍이 몰아치는 속에 수소폭탄 개발에 반대하다 소련 스파이로 몰려 모든 공직에서 쫓겨났고 1967년 암으로 사망했다. 오펜하이머는 사망한 지 55년이 지난 작년 말에야 모든 혐의를 벗고 복권될 수 있었다.

오펜하이머나 힌턴이 없었더라도 핵무기와 AI는 개발됐을 것이다. 그러나 시간이 걸리고 많은 실패를 거듭했을 가능성도 있다. 지구상엔 여전히 가장 위협적인 살상무기 핵무기가 존재하지만, 그 가공할 위력으로 상호확증파괴(MAD)라는 ‘공포의 균형’을 유지하고 있다. 핵전쟁 직전까지 다가갔던 쿠바 핵 위기를 겪은 뒤 국제사회는 핵무기 통제체제인 핵확산금지조약(NPT)을 만들었고, 국제원자력기구(IAEA)의 감시체계를 작동시켰다. 공멸 대신 공존을 선택한 것이다. 물론 그 통제는 완전하지 않고 곳곳에선 균열을 내려는 비밀 시도도 거듭되고 있지만.

AI 무기는 어디까지 진화할까. 그리고 얼마나 위험한 상황을 겪어야 통제에 대한 합의가 이뤄질 수 있을까. 많은 이들이 AI에 대한 국제적 규제가 시급하다고 말하지만, 저변에는 과거 경쟁적 핵 개발 시절처럼 “내가 안 쓰면 적들이 쓴다”는 공포가 지배하고 있다.

더욱이 힌턴도 지적했듯 규제가 도입되더라도 비밀리에 진행될 연구개발을 추적하고 막기는 쉽지 않다. 핵무기는 국가적 차원에서 개발되고 관리되지만, AI 무기는 기업이나 개인도 개발할 수 있어 일관된 통제체제를 만들기 어렵다. 힌턴이 연구자들의 양심과 결단을 촉구한 이유다. 단 한 차례 외엔 사용되지 않은 핵무기의 가공할 위협보다 9·11 같은 광기 어린 집단의 테러가 현실적 위험이 됐던 것처럼 통제되지 않는 AI 무기의 위험성은 훨씬 심각할 수 있다. 헨리 키신저 같은 석학들도 AI 무기에 대한 억지력을 시급히 구축해야 한다고 경고하고 있다.

최근 우크라이나 전쟁은 AI 군사기술의 실전 투입 계기가 됐다. 우크라이나 측은 군사 강국 러시아의 공세를 막는 데 구글 등 미국 기업의 도움이 컸다며 특히 러시아군을 정밀 타격하는 데는 팔란티어의 AI 시스템이 큰 역할을 했다고 밝혔다. 팔란티어 측은 이제 자신들의 운영체계를 장착하지 않으면 무기 시장에서 외면당할 것이라며 자신감을 보인다.

한국도 AI 무기 개발에선 예외가 아니다. 당장 러시아와 전쟁 중인 우크라이나가 AI 군사기술의 실험장이 된 것처럼 북한과 군사적으로 첨예하게 대치하는 한국에는 첨단 군사기술이 적용돼 왔다. 휴전선 비무장지대(DMZ)에는 오래전부터 케이블로 통제되는 반자동무기 ‘센트리 건’이 배치돼 있다(폴 샤레의 ‘새로운 전쟁’). 군과 카이스트 등 국책연구기관은 기업과 협업을 통해 수년간 군사 분야 AI 개발을 진행해 왔다. 방어기술 개발에 국한된 것이라고는 하지만 살상무기와 비살상무기에 필요한 기술은 거의 같아서 그 경계선은 언제든 넘나들 수 있다.

자동화는 자동 브레이크 같은 안전성을 제공할 수도 있지만 오작동의 가능성도 내포하고 있으며, 더욱이 인간의 판단을 대체하는 자동화가 군사 분야에 진행되면 오인과 확전의 가능성도 커진다. AI 무기 개발에 뒤처져선 안 된다는 강박감에 앞서 위험성에 대비하고 그 통제를 위한 공론화가 필요한 시점이다.

박선숙 전 국회의원

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지

Copyright © 국민일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?