미·중 과학자 “AI 위험, 냉전 시대 핵처럼 다뤄야”

김경미 기자 2024. 3. 19. 10:10
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

서방과 중국의 주요 인공지능(AI) 과학자들이 AI와 관련된 위험에 대처하기 위해서는 냉전 시대 핵 충돌 방지에 기울였던 노력과 유사한 글로벌 협력이 필요하다고 경고했다.

18일(현지시간) 파이낸셜타임스(FT)에 따르면 이들 과학자들은 지난주 중국 베이징에서 만나 생물무기 제조와 사이버 공격 등 AI 개발에 대한 '레드라인(금지선)'을 확인했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

생물무기와 사이버공격 등에 대한 '레드라인' 설정
"전례없는 인류 재앙 피하기 위해 모두가 협력해야"
로이터연합뉴스
[서울경제]

서방과 중국의 주요 인공지능(AI) 과학자들이 AI와 관련된 위험에 대처하기 위해서는 냉전 시대 핵 충돌 방지에 기울였던 노력과 유사한 글로벌 협력이 필요하다고 경고했다.

18일(현지시간) 파이낸셜타임스(FT)에 따르면 이들 과학자들은 지난주 중국 베이징에서 만나 생물무기 제조와 사이버 공격 등 AI 개발에 대한 ‘레드라인(금지선)’을 확인했다. 이후 성명을 내고 “인류에 치명적이거나 실존적인 위험”을 막기 위해 AI 안전에 대한 공동의 접근 방식이 필요하다고 경고했다. 이들은 성명에서 “냉전이 한창이던 시절 국제 과학계와 정부의 공조로 열핵 재앙을 피할 수 있었다”며 “인류는 전례 없는 기술로 인해 발생할 수 있는 재앙을 피하기 위해 다시 한번 협력해야 한다”고 밝혔다.

성명에는 딥러닝 분야에서 저명한 발자취를 남긴 컴퓨터 과학자 제프리 힌튼과 요슈아 벤지오, 세계적인 AI 석학 스튜어트 러셀과 ‘튜링상’을 수상한 중국의 과학자 앤드류 야오 등이 이름을 올렸다. 회의에서는 특히 인간과 동등하거나 우월한 인공지능 시스템을 의미하는 일반인공지능(AGI) 개발에 대한 논의가 주를 이룬 것으로 알려졌다. 요시오 벤지오는 FT에 “토론의 핵심은 강력한 AI 시스템이 넘지 말아야 할 레드라인과 전 세계 정부가 AI 개발 및 배포에 있어 설정해야 할 레드라인이었다”고 말했다. 레드라인에는 AI 시스템이 인간의 명시적인 승인 없이 스스로를 모방하거나 개선하는 등의 자율적인 시스템에 관한 것이 포함된 것으로 알려졌다. 과학자들은 “어떤 시스템도 대량 살상 무기를 설계하거나 생화학 무기 협약을 위반하는 행위자의 능력을 실질적으로 증가시키는 등 심각한 피해를 초래하는 사이버 공격을 자율적으로 실행할 수 있어서는 안 된다”고 덧붙였다.

한편 성명은 세계 양대 기술 강국인 미국과 중국이 모여 기술·기업·정부를 아우르는 협력을 해야 한다는 학계의 목소리를 반영하고 있다. 앞서 조 바이든 미국 대통령과 시진핑 중국 국가주석은 지난해 11월에 만나 이 문제에 대해 대화를 시작하기로 합의한 바 있다. AI 산업을 주도하고 있는 주요 기업들도 최근 몇 달 동안 비공개로 중국 AI 전문가들을 만난 것으로 전해졌다.

김경미 기자 kmkim@sedaily.com

Copyright © 서울경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?