미·중 과학자 “AI 위험, 냉전 시대 핵처럼 다뤄야”
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
서방과 중국의 주요 인공지능(AI) 과학자들이 AI와 관련된 위험에 대처하기 위해서는 냉전 시대 핵 충돌 방지에 기울였던 노력과 유사한 글로벌 협력이 필요하다고 경고했다.
18일(현지시간) 파이낸셜타임스(FT)에 따르면 이들 과학자들은 지난주 중국 베이징에서 만나 생물무기 제조와 사이버 공격 등 AI 개발에 대한 '레드라인(금지선)'을 확인했다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
"전례없는 인류 재앙 피하기 위해 모두가 협력해야"
서방과 중국의 주요 인공지능(AI) 과학자들이 AI와 관련된 위험에 대처하기 위해서는 냉전 시대 핵 충돌 방지에 기울였던 노력과 유사한 글로벌 협력이 필요하다고 경고했다.
18일(현지시간) 파이낸셜타임스(FT)에 따르면 이들 과학자들은 지난주 중국 베이징에서 만나 생물무기 제조와 사이버 공격 등 AI 개발에 대한 ‘레드라인(금지선)’을 확인했다. 이후 성명을 내고 “인류에 치명적이거나 실존적인 위험”을 막기 위해 AI 안전에 대한 공동의 접근 방식이 필요하다고 경고했다. 이들은 성명에서 “냉전이 한창이던 시절 국제 과학계와 정부의 공조로 열핵 재앙을 피할 수 있었다”며 “인류는 전례 없는 기술로 인해 발생할 수 있는 재앙을 피하기 위해 다시 한번 협력해야 한다”고 밝혔다.
성명에는 딥러닝 분야에서 저명한 발자취를 남긴 컴퓨터 과학자 제프리 힌튼과 요슈아 벤지오, 세계적인 AI 석학 스튜어트 러셀과 ‘튜링상’을 수상한 중국의 과학자 앤드류 야오 등이 이름을 올렸다. 회의에서는 특히 인간과 동등하거나 우월한 인공지능 시스템을 의미하는 일반인공지능(AGI) 개발에 대한 논의가 주를 이룬 것으로 알려졌다. 요시오 벤지오는 FT에 “토론의 핵심은 강력한 AI 시스템이 넘지 말아야 할 레드라인과 전 세계 정부가 AI 개발 및 배포에 있어 설정해야 할 레드라인이었다”고 말했다. 레드라인에는 AI 시스템이 인간의 명시적인 승인 없이 스스로를 모방하거나 개선하는 등의 자율적인 시스템에 관한 것이 포함된 것으로 알려졌다. 과학자들은 “어떤 시스템도 대량 살상 무기를 설계하거나 생화학 무기 협약을 위반하는 행위자의 능력을 실질적으로 증가시키는 등 심각한 피해를 초래하는 사이버 공격을 자율적으로 실행할 수 있어서는 안 된다”고 덧붙였다.
한편 성명은 세계 양대 기술 강국인 미국과 중국이 모여 기술·기업·정부를 아우르는 협력을 해야 한다는 학계의 목소리를 반영하고 있다. 앞서 조 바이든 미국 대통령과 시진핑 중국 국가주석은 지난해 11월에 만나 이 문제에 대해 대화를 시작하기로 합의한 바 있다. AI 산업을 주도하고 있는 주요 기업들도 최근 몇 달 동안 비공개로 중국 AI 전문가들을 만난 것으로 전해졌다.
김경미 기자 kmkim@sedaily.comCopyright © 서울경제. 무단전재 및 재배포 금지.
- '과장님 연봉이 42억'…회장님 보다 돈 더 많이 버는 직업, 뭐길래
- “와우, 쿠팡이 쿠팡했네”…‘무제한 배달비 0원’ 시대 연다
- [단독] LA다저스 아내들 'K뷰티 최고'…‘이곳’서 화장품 쇼핑
- 한소희, 악플러에 칼 뽑았다…소속사 '명예 실추, 강경 대응할 것'
- 김하성 투런포 두 방…빅리거 위용 제대로 뽐냈다
- '나도 ‘아이유콘’ 갈 수 있을까'…'매크로 암표' 잡는 암행어사 뜬다
- '바보스러울 지라도' 박용진, 강북을 경선 '재도전'…'친명계' 한민수 등 20명 안팎 지원
- [영상] '아기도 어차피…' 저출생 원인 묻자 돌아온 말 [어생까]
- '정봉주 공천 취소 후폭풍' 이재명 “차점자는 우승자 안돼”…박용진 “순천은 차점자 됐다”
- '의사 관두고 용접 배운다' 주장에 용접협회장 '용접 우습나'