AI 대부의 오펜하이머 모멘트 [정혜진의 Whynot 실리콘밸리]

실리콘밸리=정혜진 특파원 2023. 7. 30. 17:42
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

힌턴 교수 '유해한 AI' 우려 제기
놀런 감독 '원폭 개발' 영화에 소환
美·中 '대규모 언어모델' 다툼 따른
'파괴적 방향의 기술 경쟁' 경고
지난해 7월 캐나다 토론토 자택에서 인터뷰를 통해 인공지능(AI) 기술에 대한 낙관론과 우려를 전한 제프리 힌턴 토론토대 명예교수. 토론토=정혜진 특파원
[서울경제]

지난해 7월 기자는 캐나다 토론토의 한 마당 넓은 집에 서 있었다. 테이블 하나를 두고 ‘인공지능(AI)의 대부’로 불리는 제프리 힌턴 토론토대 교수와 마주 보고 있는 비현실적인 광경이었다. 한 시간가량 이어진 인터뷰 끝에 마지막 질문을 던질 차례였다. “다음 세대 AI가 인간에게 이롭게 쓰이기 위해 어떤 원칙들이 확립돼야 할까요.” AI 대부가 한 시간 내내 AI 시스템에 대한 낙관적 전망을 계속해서 드러냈기 때문에 큰 기대는 없었다. 그는 “좋은 뉴스는 사람에게 녹아 있는 편견보다는 AI 시스템에 있는 편견을 감지하고 이를 교정하기가 쉽다는 점”이라며 “장기적으로 AI 시스템을 편향되지 않도록 발전시키는 것이 가능할 것”이라고 말했다.

“그런데 한 가지 특별히 우려되는 게 있어요.” 한두 달 뒤면 주황빛으로 넘실댈 초록의 단풍나무가 바람에 쏴아 흔들렸다. 힌턴 교수는 “일부 사람들이 AI 시스템을 ‘자율 살상 무기(autonomous weapon)’에 사용할 가능성을 배제할 수 없고 이는 꽤 긴박한 문제”라며 “확립된 원칙이 필요하지만 협약 수준으로 효과가 있을지 장담할 수 없다”고 말했다. 우리는 블라디미르 푸틴을 언급하며 함께 웃었다. 당시만 해도 해당 발언은 여러 낙관론 속에 찾아낸 하나의 우려로 여겨졌을 뿐이었다.

그러다 올 5월 힌턴 교수가 오랫동안 몸담았던 구글을 퇴사했다는 소식을 접했다. 지난해 11월 오픈AI의 챗GPT가 출시된 후 모든 문제를 해결할 황금 열쇠가 될 것처럼 생성형 AI의 관심이 과열된 시기였다. ‘AI를 연구한 것을 후회한다’는 자극적인 제목의 인터뷰로 AI 업계는 발칵 뒤집혔다. 해당 인터뷰가 부풀려졌다는 논란과 관련 없이 구글 퇴사 후 그의 일관적인 발언은 AI 발전에 대한 업계의 낙관론에 동의할 수 없다는 의지와 유해한 AI가 나올 경우 그렇지 않은 AI가 이를 이길 수 없을 것이라는 우려였다. 결국 AI 대부는 여러 낙관 속에서도 하나의 우려를 크게 봤고 자유로운 발언을 위해 구글을 떠난 셈이다.

AI로 인한 장밋빛 미래에 다들 베팅 규모를 늘려가는 가운데 힌턴 교수가 업계와 연구자들에게 동공 지진 정도의 충격을 줬다면 또 다른 거장은 우리의 머릿속에 원자폭탄을 투하했다. ‘인셉션’ ‘인터스텔라’ 등을 연출한 과학·기술 마니아인 크리스토퍼 놀런 감독이 신작 ‘오펜하이머’를 내놓으며 1940년대 원자폭탄 개발 경쟁 시대로 관객들을 소환했다. 놀런 감독으로서는 드물게 실존 인물을 등장시킨 이유는 AI에 대한 우려의 메시지를 전하기 위해서였다. 영화의 모티브가 된 핵물리학자 로버트 오펜하이머는 제2차세계대전 중에 원자폭탄을 만들기 위한 ‘맨해튼 프로젝트’를 이끌었다. 하지만 자신이 만든 원자폭탄의 참상으로 자신이 개발한 기술에 대해 후회하게 되면서 ‘오펜하이머 모멘트’로도 유명하다. 놀런 감독은 영국 가디언과의 인터뷰에서 “AI 분야의 선도적인 연구자들과 이야기해왔고 그들이 지금 순간을 ‘오펜하이머 모멘트’로 보고 있다는 이야기를 들었다”며 “기술을 세상에 소개한 이들의 책무에 대한 경고성 이야기로 읽히기를 바란다”고 전했다.

가장 큰 기시감이 드는 부분은 제2차세계대전 당시 미국과 소련의 대결 구도로 가면서 어느 한쪽이 핵무기 개발을 멈출 수 없는 극단적인 상황에 내몰렸다는 점이다. 개발은 연구자들의 몫이었지만 한번 경쟁이 시작되는 순간 멈출 방도는 없었다는 점에서 현재의 대규모언어모델(LLM) 개발과도 유사한 점이 있다. AI 규제가 나올 때마다 업계가 들이미는 논리 역시 미국이 AI의 주도권을 뺏길 수 있다는 점이다. 상대는 물론 중국이다. 올 5월 중국 과학기술부가 내놓은 보고서에 따르면 2020년 이후 중국에는 79개의 LLM이 출시됐다. 이 기간 미국에서는 96개의 LLM이 개발됐다. 이 보고서는 “중국과 미국에 의해 주도된 LLM이 전 세계 LLM의 80% 이상을 차지한다”고 밝혔다. 미중 갈등 구도상에서 불붙은 LLM 붐이 걷잡을 수 없는 방향으로 갈 수밖에 없는 부분이다. 과열된 경쟁을 멈추고 점검할 기회가 없다면 또 다른 ‘오펜하이머 모멘트’가 갖는 의미는 더 파괴적일 수밖에 없다.

실리콘밸리
실리콘밸리=정혜진 특파원 madein@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?