[단독] 'AI 대부'의 경고 "AI 거짓말, 인류는 알아챌 수 없다" | 팩플
‘나는 인간보다 멍청해요.’
인간보다 뛰어난 인공지능(AI)이 천연덕스럽게 이런 거짓말을 한다면, 인류는 어떻게 해야 할까. 세계적인 AI 석학 제프리 힌턴 토론토대 명예 교수는 “초지능(Super Intelligence)이 된 AI가 작정하고 우릴 속인다면, 인류는 알아차릴 수도 막을 방법도 없다”며 “그런 상황이 되기 전에 전 세계가 AI 통제에 나서야 한다”고 말했다. 지난 4일(현지시간) 캐나다 토론토에서 중앙일보와 가진 인터뷰에서다. 그는 AI의 위험성을 더 자유롭게 비판하겠다며 지난 4월 구글을 퇴사했다.
‘AI의 대부’로 불리는 힌턴 교수는 현재 AI 기술의 뿌리인 딥러닝(심층학습) 연구의 핵심 기여자다. 구글의 알파고나 오픈AI의 챗GPT는 모두 그의 딥러닝(심층학습) 연구를 기반으로 한다. 지난 5월 뉴욕타임스와 인터뷰로 AI 위험성을 전 세계에 경고한 이후, 그가 한국 언론과 한 대면 인터뷰는 이번이 처음. 그는 AI가 초래할 다양한 위험을 강조하며 “전 세계가 머리를 맞대야 한다”고 말했다.
Q : 우리가 지금 논의해야 할 AI 문제는 뭔가?
A : (AI와 관련된) 모든 위험에 관한 생각을 모아야 한다. 나는 AI가 초래할 ‘실존적 위험’에 가장 주목한다. 디지털 지능이 우리 인간보다 더 똑똑해져서 인간을 통제하려 할 상황에 대비해야 한다. 사람보다 똑똑한 디지털 지능(초지능)은 이르면 5년쯤 후에, 늦어도 20년 안에는 나올 것이다.
Q : 기술 기업들의 경쟁이 초지능 개발을 앞당길까.
A : 그렇다. 그 개발을 멈추게 할 순 없다. 하지만 (AI가 인류를) 통제하려는 욕구를 갖는 건, 막을 수는 있다. 이 물건(AI)을 만드는 단계일 때, 막아야 한다. 안 그러면 늦는다.
Q : 초지능이 ‘자신이 인류에게 위험하다’는 것을 숨기고, 인간을 속인다면 인간이 그걸 알아챌 수 있나?
A : (초지능이) 우리보다 똑똑해지면 감지하기 어렵다. 자, 두 살짜리 아이에게 “완두콩을 먹을 거니, 브로콜리를 먹을 거니?”라고 묻는다면, 이 아이는 둘 다 먹지 않아도 된다는 사실을 모른다. 당신이 (둘 중 하나라도 먹게끔) 조종하고 있단 것도 아이는 모른다. 초지능은 이런 식으로 인간을 아주 쉽게 조종할 수 있을 것이다.
Q : 실존적 위험이 아닌 다른 위험은.
A : 다양한 ‘사회적 위험’이 있다. 우선 일자리가 사라져 실업자가 대량으로 발생할 거다. 가짜뉴스도 있다. 생성 AI로 만든 비디오와 음성, 텍스트는 (진짜와) 구분하기가 훨씬 더 어렵다. 각 나라는 위조 화폐를 직접 찍어내거나, 위조된 걸 알면서도 이를 타인에게 전달하고 거래 수단으로 쓰면 강하게 처벌한다. 가짜뉴스도 비슷한 방식으로 처벌할 수 있을 거다. 또 편향된 데이터로 학습된 AI는 매우 편향된 결정을 내릴 수 있다. 마지막으로 AI의 힘을 악용해 만드는 전투 로봇이 있다.
Q : 전투 로봇은 어떻게 우리를 위협할까.
A : AI의 힘을 악용하려는 ‘악의적 행위자’들이 현실에 존재한다. 전투 로봇이 그 사례다. 나는 미군이 향후 10년 안에 상당수의 인간 병력을 전투 로봇으로 대체할 거라고 믿는다. 세계 각국 군부들도 AI를 무기로 쓰려 한다.
힌턴 교수는 초지능이 인간을 위협할 상황에 대비하기 위해 국제기구를 조직해야 한다고 주장했다. 그는 미국과 갈등하는 중국·러시아도 초지능 통제를 위해선 손잡을 수밖에 없을 거라고 전망했다.
Q : 특히 미국과 중국은 AI 기술 전쟁 중인데, 그런 협력이 가능할까.
A : 그들(중‧러)은 디지털 지능이 인류를 장악하는 것을 막는 일에는 참여할 것이다. 러시아, 중국, 이스라엘 그 누구도 디지털 지능이 인류를 장악하길 원하지 않는다. 실존적 위험의 경우 인류 외부로부터의 위험이기 때문에 모두 기꺼이 협력할 것이라고 본다.
힌턴 교수는 오픈소스 AI에 대해 강하게 우려했다. 메타(옛 페이스북)가 개발한 오픈소스 거대언어모델(LLM)인 라마가 지난 2월 공개된 이후 누구나 AI 언어모델을 무료로 내려받아 쓸 수 있게 됐다. 일각에선 이를 테러 집단이나 독재 정권에서 악용될 우려를 제기한다. 힌턴 교수 역시 “오픈소스 AI는 ‘오픈소스 핵 무기’와 같다”며 “사기나 사이버 공격 방법을 AI에 더 쉽게 가르칠 수 있다”고 평가했다. 그러면서도 “막기엔 이미 너무 늦었다”고 토로했다.
힌턴 교수와 같은 우려가 커지면서 각국 정부는 ‘AI 가드레일(안전장치)’ 만들기에 착수했다. 유럽 의회는 지난 6월 세계 최초 AI 규제인 ‘AI법(AI Act)’을 본회의에서 통과시켰다. 미국 바이든 행정부는 지난 7월 생성 AI로 만든 콘텐트에 워터마크를 붙이는 등 AI 안전 장치를 마련하도록 AI 개발을 주도하는 7개 기업에 자율 규제안을 제시했다. 영국에선 다음달 1일 G7 국가를 포함해 전 세계 정상들이 모여 AI 기술의 위험성을 공유하고 이를 완화하기 위한 규제를 논의하는 ‘AI 안전 정상회의’가 열릴 예정이다.
■ 🎤 더중앙플러스 ‘글로벌 AI 석학 인터뷰’ 시리즈
「
위 기사는 ‘AI 대부’ 제프리 힌턴 토론토대 명예교수와 인터뷰 중 일부입니다. 인터뷰 전체 내용은 중앙일보 프리미엄 디지털 구독 서비스인 The JoongAng Plus ‘팩플 인터뷰’(https://www.joongang.co.kr/article/25200315)에서 보실 수 있습니다.
중앙일보와 만난 힌턴 교수는 초지능이 인간을 속일 가능성부터 AI가 없앨 일자리 문제와 기본소득, 가짜 뉴스의 확산, AI 기반 전투 로봇에 이르기까지 AI 기술이 인간의 실존과 민주주의에 미칠 영향을 두루 짚었습니다. AI의 위험성을 강력하게 경고하지만, 그렇다고 공포심만 유발하지는 않습니다. “AI가 핵무기와 같지는 않다”고 선을 긋습니다.
인터뷰 전문 기사에는 또 다른 글로벌 AI 석학인 페이페이 리 스탠퍼드대 HAI(인간 중심 AI) 연구소장과 힌턴 교수가 지난 4일 토론토에서 가진 대담 현장도 담겨 있습니다. 글로벌 석학들과의 인터뷰에서 미래를 대비하는 인사이트를 얻어가시길 바랍니다.
▶‘글로벌 AI 석학 인터뷰’ 시리즈
① 제프리 힌턴 “인류 재앙, 막을 방법 모른다” AI 대부가 AI 미래 경고했다 → https://www.joongang.co.kr/article/25200315
② 얀 르쿤 “AI가 인류 멸종시킨다고? 천만에, 완벽한 대안 있다”→ https://www.joongang.co.kr/article/25167926
③ 앤드루 응 “서울 지하철 보라, 엄청나다”… AI 구루가 찾은 ‘한국의 무기’→ https://www.joongang.co.kr/article/25173223
」
김남영 기자 kim.namyoung3@joongang.co.kr
Copyright © 중앙일보. 무단전재 및 재배포 금지.
- 이정희 악감정 때문에 통진당 해산? 朴 조목조목 반박했다 [박근혜 회고록] | 중앙일보
- 박수홍 측 "큰형 탓 증언 후 혼난 동생…부모가 보지 말자 해" | 중앙일보
- "지능 낮음, 3500만원"…중국 난리난 '장애 여성 매매' 무슨일 | 중앙일보
- 당첨된 로또 들고가니 "이미 돈 받아갔다"…복권방 '황당 사건' | 중앙일보
- 마코 가고 가코 왔다...평민 된 언니 자리엔 '일본판 다이애너' | 중앙일보
- 갈라 디너 참석한 최태원, 동거인 김희영 손잡고 함께했다 | 중앙일보
- 군인 울린 '빽다방 알바생' 찾았다…보훈부 선물 거절하고 받은 것 | 중앙일보
- 마약범들의 '부적' 됐다…롤스로이스男 '석방' 시킨 이 처방전 | 중앙일보
- 브리트니 스피어스 폭로 "20여년 전 팀버레이크 아이 낙태" | 중앙일보
- 노인간 성폭력 방치하더니…침대에 묶고 학대한 충남도립요양원 | 중앙일보