"인간보다 우월한 AI…4년 안에 온다" [친절한 경제]

권애리 기자 2024. 3. 14. 09:36
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

<앵커>

친절한 경제 목요일도 권애리 기자와 함께합니다. 권 기자, 인공지능이 인류를 멸종시키는 수준의 위협이 될 수 있다. 미국 정부 보고서가 충격적인 내용을 담고 있어서 화제죠. 정확히 어떤 점이 우려된다는 건지 좀 자세히 전해 주시죠.

<기자>

이번 보고서는 미국 정부가 AI의 생산성과 위험성을 분석하기 위해서 처음으로 실시했던 연구용역의 결과물이었습니다.

세상을 놀라게 했던 오픈 AI의 챗GPT3.5가 배포되기 한 달 전이었던 2022년 10월에 연구가 시작됐고요.

AI 관계자 200명 이상과의 인터뷰를 거쳐서 작성한 결과가 17개월 만에 나온 겁니다.

이 보고서의 핵심 주장은 지금의 AI 경쟁을 통제 없이 내버려 뒀다간, 인류가 멸종 수준의 위험을 겪을 가능성이 있다는 겁니다.

지금 선두에 서 있는 AI 연구소들끼리의 경쟁 역학 때문에 그들 자신도 지금 같은 AI 개발에는 위험이 도사리고 있다는 걸 알면서도 멈추지 못하고 인류를 위험에 몰아넣는 지경까지 도달할 수 있다고 분석했습니다.

핵무기의 발전 경로와 놀랄 정도로 닮은 진단입니다.

그런 최전선의 연구소들 어디냐, 이미 맞히고 있는 분들도 있겠지만 앞서 말씀드린 오픈 AI 알파고로 우리에게 유명한 구글의 딥마인드, 그리고 오픈 AI의 라이벌로 꼽히는 앤스로픽 같은 곳들을 명시했습니다.

이들의 공통점은 AI에서 한 발 더 나아간 개념인 이른바 AGI 개발 경쟁에 이미 나섰다는 겁니다.

AGI는 우리말로 범용 인공지능 이 보고서에서도 정의하는 지금 개념으로서는 한 마디로 인간보다 우월한 존재입니다.

모든 경제적이고 전략적인 측면에서 인간보다 더 우월한 성과를 낼 수 있는 존재, 그런 존재가 대량살상무기 규모의 치명적인 사고를 칠 수 있다는 걱정입니다.

<앵커>

이게 얼마나 현실성이 있냐, 이게 중요하겠죠. 지금의 인공지능 기술이 이런 얘기까지 나올 정도로 개발이 돼 있는 수준일까요?

<기자>

이건 AI 개발 최전선에 있는 사람들도 확신을 갖고 판단하지는 못하고 있는 것으로 보입니다.

다만 "아무래도 우리가 적어도 범용 인공지능의 근처까진 와 있는 것 같다"는 얘기가 조금씩 나오고 있습니다.

[제프리 힌튼/토론토대학 컴퓨터학과 교수 : (인공지능은) 인간에게 도움이 되는 일을 좀 더 잘 해내기 위해서 점점 더 많은 권력을 가지려고 할 거예요. 그리고 사람을 조종할 줄 알게 되면서 권력을 더 쉽게 가지게 되겠죠. 이를테면 트럼프 전 대통령이 워싱턴 D.C.에 직접 가지도 않고 수도를 공격하는 것도 가능할 겁니다. 말만 하면 공격할 수 있는 거예요. 그리고 이 초지능들이 서로 경쟁까지 시작하면 어쩌죠? 그전 2년간 (구글에서) 제가 참여했던 일들을 생각할 때, 이미 우리가 개발한 디지털 모델들이 뇌만큼 우수하거나 곧 뇌보다 우수해질 거라는 생각이 들기 시작했어요.]

이 사람은 AI의 아버지로 불리는 제프리 힌튼 전 구글 부사장입니다.

2012년에 사람의 뇌를 닮은 방식으로 학습하는 AI, 이른바 딥러닝을 고안해 낸 사람인데요. 지난해 봄에 구글을 떠났습니다.

AI의 위험성에 대해서 자유롭게 경고하고 싶다는 이유입니다.

AI가 그야말로 살인기계가 될 수도 있고, 그 시점이 멀지 않았다는 얘기를 하고 싶다는 겁니다.

그리고 지난해 11월에 오픈 AI CEO 샘 올트먼이 닷새간 해임됐던 사건이 있었죠.

그때 샘 올트먼의 해임을 잠시지만 주도했던 사람이 제프리 힌튼과 함께 지금의 AI를 만든 일리야 수츠케버입니다.

그도 AI 발전 속도에 대해서 올트먼과 견해차를 빚었던 걸로 전해졌습니다.

AI의 아버지들이 앞장서서 AI가 더 발전하기 전에 대응책을 마련하면서 가야 한다고 경고하고 있는 겁니다.

지금 미국의 AI 기업들은 대체로 2028년까지는 범용 인공지능이 나올 걸로 보고 있습니다.

<앵커>

인류에게 해를 끼치지 않을 인공지능을 만드는 게 중요할 텐데, 어떤 방법들이 있을까요?

<기자>

이번 보고서가 제안한 건 일단 AI 관련 수출을 통제하고, 먼저 미국 내 AI 규제 기구를 만들자, 그리고 이걸 점차 전 세계로 확대하자는 겁니다.

또 AI 개발에 이용하는 컴퓨터의 성능을 제한하고 모든 핵심 기술을 자유롭게 공유하는 이른바 오픈소스 개방형 AI를 제한해야 한다는 내용도 담겨 있습니다.

그런데 지금 우리나라의 많은 AI 연구개발사들이 개방형 AI에 대부분 기대고 있습니다.

AI 개발에는 워낙 막대한 투자가 필요하기 때문에 미리 발전한 미국 거대 기술기업의 개방형 AI를 바탕으로 연구하고 있는데, 만약에 이번 보고서의 주장대로 진행된다면 이런 영역이 좁아질 수도 있는 겁니다.

이번 보고서는 철저하게 미국의 관점에서 AI 안전을 바라봅니다.

정확히는 인류라기보다는 미국의 국익에 AI가 끼칠 영향을 분석한 보고서입니다.

미국의 우방이고, 특히 안보 위험이 늘 도사리고 있는 우리로서는 특히 이 보고서가 제기하는 위험 문제가 더 심각하게 다가오는 점도 있지만요.

다른 한편으로는 이를테면 앞으로 개방형 AI 제한 같은 조치들이 실제로 검토되는 분위기가 생긴다면 그에 대한 대응 같은 것도 생각해 둬야 할 겁니다.

권애리 기자 ailee17@sbs.co.kr

Copyright © Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?