“AI아마겟돈 우려 레드라인 넘어...안전장치 마련 필수”

진영태 기자(zin@mk.co.kr) 2024. 3. 19. 11:00
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

세계적인 과학자들이 AI(인공지능) 아마겟돈을 피하기 위해 과거 냉정 시대과 같은 고강도 안전장치가 필요하다고 경고했다.

18일(현지시간) 영국 파이낸셜타임스(FT)는 서방과 중국 주요 AI과학자들이 강력한 기술 위험에 대처하기 위해 과거 핵충돌 방지를 위한 냉전 시대 국제협약과 같은 장치가 필요하다는 경고를 내놓았다고 보도했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 세계 석학들 중국 베이징에서 만나
“고성능 AI 개발에 넘지 말아야 할 선 있어
냉전시대 핵충돌 방지협약 수준 장치 필요”
세계적인 과학자들이 AI(인공지능) 아마겟돈을 피하기 위해 과거 냉정 시대과 같은 고강도 안전장치가 필요하다고 경고했다.

18일(현지시간) 영국 파이낸셜타임스(FT)는 서방과 중국 주요 AI과학자들이 강력한 기술 위험에 대처하기 위해 과거 핵충돌 방지를 위한 냉전 시대 국제협약과 같은 장치가 필요하다는 경고를 내놓았다고 보도했다.

FT는 AI관련 전문가그룹이 최근 중국 베이징에서 회의를 열고 생물무기와 사이버 공격 등 AI개발에 대한 ‘레드라인’을 확인했다며 전문가들인 회의 이후 경고성 성명문을 발표했다고 설명했다.

학자들은 성명에서 “인류에게 치명적이거나 실존적인 위험을 막기 위해 AI 안전에 대한 공동의 접근 방식이 필요하다”며 “냉전이 한창이던 시절 국제 과학계와 정부의 공조로 핵 재앙을 피할 수 있었다. 인류는 전례 없는 기술로 인해 발생할 수 있는 재앙을 피하기 위해 다시 한번 협력해야 한다”고 강조했다. 성명서에는 특히 “어떤 AI 시스템도 인간의 명시적인 승인과 도움 없이 스스로를 모방하거나 개선할 수 없어야 하며 자신의 힘과 영향력을 부당하게 증가시키기 위한 조치를 취해서는 안 된다”고 밝혔다.

이번 성명에는 신경망 연구로 튜링상을 수상하고 AI 분야를 개척한 ‘대부’로 불리는 제프리 힌튼 캐나다 토론토대 교수와 요수아 벤지오 캐나다 몬트리올대 교수를 비롯해 스튜어트 러셀 미 캘리포니아 버클리대 교수, 중국의 저명한 컴퓨터 과학자 앤드류 야오 등이 참여했다.

벤지오 교수는 “논의의 핵심은 강력한 AI 시스템이 넘지 말아야 할 레드라인에 관한 것”이라며 “그 선은 자율 시스템과 관련이 있다”고 설명했다.

.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?