스탠퍼드 하버드 MIT….美 명문대에 부는 '착한 AI' 운동

이강우 인턴 기자 2023. 7. 6. 18:05
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

기후변화 , 핵 연구하던 학자들 "AI가 더 위험" 경고
'불량 AI'와의 전쟁…대학연구소, 비영리조직 등장
인간 중시 'AI안전' 운동 확산…일부선 "연구 아닌 종교"
[캘리포니아=AP/뉴시스] 미국에서 미래에는 팬데믹이나 기후변화와 같은 문제점보다 인공지능(AI)으로부터 오는 문제점들이 더 커질 것이라고 예측되면서 미국의 명문대들이 연구에 착수했다고 지난 6일(현지 시각) 미국 워싱턴포스트는 보도했다. 사진은 상하이에서 열리는 세계 인공지능 대회에 참여한 슈곤(Sugon)의 부스에 관계자가 디스플레이를 설치하는 모습. 2023.07.06.


[서울=뉴시스]이강우 인턴 기자 = 앞으로 세계적인 팬데믹, 극심한 기후 변화와 같은 문제점보다 인공지능(AI)으로 인한 문제점들이 더 큰 문제를 불러일으킬 수 있다는 주장이 제기돼 세계적인 명문대들이 연구에 나섰다.

6일(현지 시각) 미국 워싱턴포스트에 따르면 수십 년 동안 핵전쟁과 기후변화 등 실존하는 문제점들을 연구하던 학자들은 앞으로의 새로운 위협은 “첨단 AI가 인간만큼 똑똑해져 인류를 멸망시킬 수 있는 ‘순전한 가상의 위험’(Purely hypothetical risk)이다”고 경고하고 있다.

이에 맞춰 스탠퍼드대 등 미국의 명문대 학자들이 AI가 잘못된 길로 빠지지 않게 하기 위해 어떻게 해야 할 지를 연구하기 시작했다고 이 매체는 전했다. 영화 터미네이터의 스카이넷과 같은 이른바 '불량 AI'가 아닌 '착한 AI'를 만들기 위한 노력이다.

이론이긴 하지만 대재앙의 결과를 막기 위해 딥마인드, 오픈AI, 엔트로픽과 같은 연구소들은 거짓말을 하거나 인간을 속이거나 죽이지 않도록 프로그래밍된 종류의 AI를 만들기 위해 경쟁해왔다.

'AI 안전'을 중요시 하는 단체의 등장

최근에는 부유한 ‘기술박애주의자들’(Tech-Philanthropists)이 다른 위협보다 악성 AI와의 싸움에 우선순위를 두기 위해 엘리트 대학생들을 모집하기 시작했다. 가장 활발하게 연구 자금을 지원하는 단체는 비영리 조직인 오픈필란트로피(Open Philanthropy)이다

미국 스팬퍼드대에서는 AI 안전, AI 조정 분야를 연구하는 학생들을 지원하기 위한 스탠퍼드실존위험프로젝트(Stanford Existential Risk Initiative) 연구소를 출범시켰다.

최근 하버드대, 조지아공과대, MIT, 컬럼비아대, 뉴욕대 등 미국과 유럽의 약 20개 캠퍼스에 AI 안전 그룹과 연구소들이 생겨났으며, 이 중 상당수는 오픈필란트로피의 지원을 받은 학생들이 주도하고 있다.

지원받는 학생 중 다수는 악성 AI를 인류의 생명을 위협할 수 있는 기후 변화에 버금가는 위협으로 보고 있다.

그 중 한 명은 스탠퍼드를 졸업하고 컴퓨터 공학 석사과정에 진학하는 가브리엘 무코비(23)다. 무코비는 AI가 인류를 멸종시킬 수 있다는 이론을 처음엔 믿기 어려워했다. 당시 무코비는 팬데믹 기간 동물 복지에 관심을 갖고 대체육을 홍보하고 축산업을 없애는 데 힘쓰고 있었다.

그러던 중 무코비는 폭주하는 AI로부터 미래를 보호하는 등 자선 행위의 기대 가치를 계산하여 최대의 선을 행하자는 철학적 운동인 ‘효율적이타주의’(Effective altruism:EA)를 위한 스탠퍼드의 클럽에 가입했다. 그리고 2022년에 AI의 역량이 눈부시게 발전하면서 그가 들었던 경고는 예견된 것처럼 보였다.

AI의 위험도 증가…인간의 멸종, 영구적 무력화 가능성도

지난해 11월 챗GPT(ChatGPT)가 출시된 이후 AI 안전에 대한 논의는 폭발적으로 증가했다. 기업 연구소들은 AI를 더는 피할 수 없는 것으로 여긴다. 얻을 수 있는 혜택이 위험보다 더 크기를 바란다. ‘AI 안전’이 최악의 결과에 대한 ‘해독제’로서 작용할 것이라 선전하고 있다.

무코비는 이러한 관심을 활용하려고 노력하고 있다.

딥러닝 연구의 '대부' 중 한 명인 요슈아 벤지오가 지난 3월 AI 산업에 ‘일시 정지’를 촉구하는 공개서한에 서명한 후, 무코비는 스탠퍼드 학생들에게 AI의 급속한 발전이 안전이라는 요소를 가리고 있다고 경고하는 이메일을 보냈다.

무코비는 “미래 AI 시스템을 인간의 가치를 공유하도록 프로그래밍하면 질병, 빈곤, 고통이 없는 놀라운 세상이 될 수 있지만, 실패하면 인간 멸종 또는 영구적인 무력화를 초래할 수 있다”고 언급했다.

반면 비평가들은 AI 안전 운동이 비과학적이라고 말한다. 그들은 “실존적 위험에 대한 주장이 연구라기보다는 종교에 가깝게 들릴 수 있다”고 말했다. 이어 비평가들은 “공상과학 소설은 AI의 폭주에 대한 대중의 두려움에 공감을 불러일으키지만, 비평가들은 한 가지 종류의 재앙에 집착해 다른 많은 재앙을 보지 못하고 있다”고 전했다.

☞공감언론 뉴시스 rainfall@newsis.com

Copyright © 뉴시스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?