미·중 과학자들 "AI 개발, 냉전시대 핵처럼 관리 필요"

김리안 2024. 3. 19. 07:34
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.

서방과 중국의 주요 인공지능(AI) 과학자들이 "AI라는 강력한 기술을 둘러싼 위험에 대처하기 위해서는 핵 충돌을 피하기 위한 냉전 시대의 노력과 유사한 국제적 협력이 필요하다"고 경고했다.

이번 만남은 기술 강국인 미국과 중국이 함께 AI 안전에 대해 기술 및 정부 차원의 협력을 해야 한다는 움직임의 일환이다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.
사진=게티이미지


서방과 중국의 주요 인공지능(AI) 과학자들이 "AI라는 강력한 기술을 둘러싼 위험에 대처하기 위해서는 핵 충돌을 피하기 위한 냉전 시대의 노력과 유사한 국제적 협력이 필요하다"고 경고했다.

파이낸셜타임스(FT)는 18일(현지시간) "저명한 AI 전문가 그룹이 지난주 베이징에서 만나 생물무기 제조와 사이버 공격 등 AI 개발에 대한 '레드 라인'을 확인했다"고 보도했다. 이들은 회의 후 FT에 발표한 성명에서 "우리 생애에서 인류에게 치명적이거나 실존적인 위험을 막기 위해 AI 안전에 대한 공동의 접근 방식이 필요하다"고 밝혔다.

이어 "냉전이 한창이던 시절 국제 과학계와 정부의 공조로 핵 재앙을 피할 수 있었다"며 "인류는 전례 없는 기술로 인해 발생할 수 있는 재앙을 피하기 위해 다시 한 번 협력해야 한다"고 강조했다. 이날 성명은 지난주 베이징에서 열린 AI 안전에 관한 국제 대화에 이어 발표된 것이다. 해당 포럼에서는 인간과 동등하거나 인간보다 더 뛰어난 AI 시스템 개발과 관련된 위협에 대한 논의가 주를 이뤘다.

성명에 참여한 요슈아 벤지오는 "논의의 핵심은 강력한 AI 시스템이 넘지 말아야 할 레드 라인에 관한 것"이라며 "그 선은 자율 시스템과 관련이 있다"고 설명했다. 성명서에는 "어떤 AI 시스템도 인간의 명시적인 승인과 도움 없이 스스로를 모방하거나 개선할 수 없어야 하며 자신의 힘과 영향력을 부당하게 증가시키기 위한 조치를 취해서는 안 된다"는 내용도 담겼다.

성명서에는 신경망 연구로 튜링상을 수상하고 AI 분야를 개척한 '대부'로 불리는 제프리 힌튼이 이름을 올렸다. 미 캘리포니아 버클리대학의 컴퓨터 과학 교수인 스튜어트 러셀, 중국의 저명한 컴퓨터 과학자 앤드류 야오 등도 참여했다. 중국 정부 관계자들도 포럼 및 성명에 대한 지지 차원에서 참석했다고 FT는 전했다.

이번 만남은 기술 강국인 미국과 중국이 함께 AI 안전에 대해 기술 및 정부 차원의 협력을 해야 한다는 움직임의 일환이다. 조 바이든 미국 대통령과 시진핑 중국 국가주석은 자견 11월에 만나 AI 안전에 대해 논의하고 대화를 시작하기로 합의했다. 최근 글로벌 AI 대기업들도 중국의 AI 전문가들을 비공개로 만난 것으로 전해졌다.

김리안 기자 knra@hankyung.com
 

Copyright © 한국경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?