미·중 과학자들 "AI 개발, 냉전시대 핵처럼 관리 필요"
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.
이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.
서방과 중국의 주요 인공지능(AI) 과학자들이 "AI라는 강력한 기술을 둘러싼 위험에 대처하기 위해서는 핵 충돌을 피하기 위한 냉전 시대의 노력과 유사한 국제적 협력이 필요하다"고 경고했다.
이번 만남은 기술 강국인 미국과 중국이 함께 AI 안전에 대해 기술 및 정부 차원의 협력을 해야 한다는 움직임의 일환이다.
이 글자크기로 변경됩니다.
(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.
서방과 중국의 주요 인공지능(AI) 과학자들이 "AI라는 강력한 기술을 둘러싼 위험에 대처하기 위해서는 핵 충돌을 피하기 위한 냉전 시대의 노력과 유사한 국제적 협력이 필요하다"고 경고했다.
파이낸셜타임스(FT)는 18일(현지시간) "저명한 AI 전문가 그룹이 지난주 베이징에서 만나 생물무기 제조와 사이버 공격 등 AI 개발에 대한 '레드 라인'을 확인했다"고 보도했다. 이들은 회의 후 FT에 발표한 성명에서 "우리 생애에서 인류에게 치명적이거나 실존적인 위험을 막기 위해 AI 안전에 대한 공동의 접근 방식이 필요하다"고 밝혔다.
이어 "냉전이 한창이던 시절 국제 과학계와 정부의 공조로 핵 재앙을 피할 수 있었다"며 "인류는 전례 없는 기술로 인해 발생할 수 있는 재앙을 피하기 위해 다시 한 번 협력해야 한다"고 강조했다. 이날 성명은 지난주 베이징에서 열린 AI 안전에 관한 국제 대화에 이어 발표된 것이다. 해당 포럼에서는 인간과 동등하거나 인간보다 더 뛰어난 AI 시스템 개발과 관련된 위협에 대한 논의가 주를 이뤘다.
성명에 참여한 요슈아 벤지오는 "논의의 핵심은 강력한 AI 시스템이 넘지 말아야 할 레드 라인에 관한 것"이라며 "그 선은 자율 시스템과 관련이 있다"고 설명했다. 성명서에는 "어떤 AI 시스템도 인간의 명시적인 승인과 도움 없이 스스로를 모방하거나 개선할 수 없어야 하며 자신의 힘과 영향력을 부당하게 증가시키기 위한 조치를 취해서는 안 된다"는 내용도 담겼다.
성명서에는 신경망 연구로 튜링상을 수상하고 AI 분야를 개척한 '대부'로 불리는 제프리 힌튼이 이름을 올렸다. 미 캘리포니아 버클리대학의 컴퓨터 과학 교수인 스튜어트 러셀, 중국의 저명한 컴퓨터 과학자 앤드류 야오 등도 참여했다. 중국 정부 관계자들도 포럼 및 성명에 대한 지지 차원에서 참석했다고 FT는 전했다.
이번 만남은 기술 강국인 미국과 중국이 함께 AI 안전에 대해 기술 및 정부 차원의 협력을 해야 한다는 움직임의 일환이다. 조 바이든 미국 대통령과 시진핑 중국 국가주석은 자견 11월에 만나 AI 안전에 대해 논의하고 대화를 시작하기로 합의했다. 최근 글로벌 AI 대기업들도 중국의 AI 전문가들을 비공개로 만난 것으로 전해졌다.
김리안 기자 knra@hankyung.com
Copyright © 한국경제. 무단전재 및 재배포 금지.
- "10억인데 누가 사냐" 욕먹던 수원 아파트…'뜻밖의 대반전' [돈앤톡]
- 하루 900원에 '등하원 도우미' 쓴다고?…日 '파격 정책' 비밀 [정영효의 인사이드 재팬]
- 고물가에 다이소 '5천원 이하' 화장품 인기…"매출 85% 늘어"
- "20만원짜리 2만원에 산다"…새옷 초특가 할인에 '우르르'
- "여기 아니면 갈 곳도 없어요"…7080 수백명 몰렸다 [현장+]
- '인형 미모' 유아, '숏팬츠+하이힐로 각선미 과시'
- 한소희, 류준열 이어 입국…밝은 미소·왼손 약지엔 반지
- 박수홍♥김다예, 시험관 1차만에 성공…임신 3개월차
- 안경 쓰고 뉴스하던 아나운서, 이번엔 5개월 딸 안고 생방송
- '조직 쇄신' 외부 영입됐던 김정호…결국 카카오서 해고