AI 대부·챗GPT 개발자도 AI 경계론… “인류에 실존적 위협”

유태영 2023. 5. 31. 22:03
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

'인공지능(AI)의 대부' 격인 제프리 힌턴 토론토대 교수, 생성형 AI 챗GPT 개발사인 오픈AI의 샘 올트먼 최고경영자(CEO) 등 학자와 정보기술(IT)기업 경영자들이 AI 기술을 핵무기에 비견하며 언젠가 인류에게 실존적 위협이 될 수 있다고 경고했다.

비영리단체 'AI안전센터'(CAIS)는 5월30일(현지시간) "AI로 인한 (인류)절멸 위험을 완화하는 것은 팬데믹(전염병의 세계적 대유행), 핵전쟁 같은 다른 사회적 규모의 위험과 함께 전 세계적인 우선순위가 돼야 한다"는 내용의 성명을 발표했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

CAIS ‘종말론적 경고’ 성명
진화하는 AI 기술 핵무기에 비견
“위험 완화, 세계적 우선순위 돼야”
대권 도전 선언 디샌티스 지지하는
힐러리의 딥페이크 영상 나돌아
‘트랜스젠더 폭언’ 바이든 영상도

‘인공지능(AI)의 대부’ 격인 제프리 힌턴 토론토대 교수, 생성형 AI 챗GPT 개발사인 오픈AI의 샘 올트먼 최고경영자(CEO) 등 학자와 정보기술(IT)기업 경영자들이 AI 기술을 핵무기에 비견하며 언젠가 인류에게 실존적 위협이 될 수 있다고 경고했다.

비영리단체 ‘AI안전센터’(CAIS)는 5월30일(현지시간) “AI로 인한 (인류)절멸 위험을 완화하는 것은 팬데믹(전염병의 세계적 대유행), 핵전쟁 같은 다른 사회적 규모의 위험과 함께 전 세계적인 우선순위가 돼야 한다”는 내용의 성명을 발표했다.
힐러리 클린턴 전 미국 국무장관(민주당)이 공화당 소속 론 디샌티스 플로리다 주지사를 지지한다고 밝히는 뉴스 인터뷰 영상이 최근 트위터 등에서 화제가 됐다. 사진은 영상을 캡처한 것으로 영상은 과거 클린턴 전 장관의 실제 인터뷰를 토대로 가짜 자막과 함께 인공지능(AI)을 활용해 목소리와 입모양 등을 조작한 것으로 밝혀졌다. 트위터 캡처
22단어 한 문장으로 이뤄진 짧은 성명에 현재까지 약 400명의 IT기업 임원, 연구자, 기술자가 이름을 올렸다. 올트먼 외에 구글 딥마인드의 데미스 하사비스, 앤트로픽의 다리오 아모데이 등 주요 AI기업 세 곳의 CEO가 서명했다. AI의 위험성에 대해 자유롭게 발언하기 위해 최근 구글을 떠난 힌턴 교수, 그와 함께 한 인공신경망 연구로 2018년 컴퓨터 과학 분야 노벨상으로 통하는 튜링상을 공동 수상한 요슈아 벤지오 몬트리올대 교수도 동참했다. 한국에서는 신진우 카이스트 AI대학원 석좌교수, 김대식 카이스트 전기 및 전자공학부 교수 등이 참여했다.

이번 성명은 AI가 수백만 개의 인간 일자리를 없애거나 가짜뉴스 전파에 사용될 수 있다는 우려가 제기되는 가운데 나왔다. 특히 미국에서는 내년 대선을 앞두고 진짜와 가짜의 경계를 무너뜨리는 AI 기술에 대한 경고의 목소리가 높아지고 있다.

로이터통신 등에 따르면 공화당 소속 론 디샌티스 플로리다 주지사가 출마를 선언한 5월24일을 전후로 소셜미디어에는 민주당적의 힐러리 클린턴 전 국무장관이 “저는 사실 디샌티스를 좋아한다. 그는 이 나라에 꼭 필요한 사람이라고 말하고 싶다. 진심이다”라고 말하는 모습이 담긴 딥페이크(AI를 활용한 영상 합성 기술) 영상이 나돌았다. 조 바이든 대통령이 트랜스젠더에게 “당신은 결코 진짜 여성이 될 수 없다”고 폭언을 퍼붓는 딥페이크 영상도 등장했다. 딥 페이크 영상 감지 도구 개발 업체 딥미디어에 따르면 올해 온라인에 게시된 딥페이크 영상은 전년 동기 대비 3배 늘었고, 딥페이크 음성은 8배 증가했다.

뉴욕타임스는 “일부 사람들은 AI의 진화 속도를 늦추려는 조치를 위하지 않으면 몇 년 안에 사회적 혼란을 일으킬 수 있을 만큼 충분히 강력해질 것이라고 믿는다”며 “수많은 업계 리더들이 이러한 두려움을 공유하고 있으며, 자신들이 경쟁적으로 개발 중인 기술을 더 엄격하게 규제해야 한다고 주장하는 특이한 위치에 놓이게 만들었다”고 짚었다.

앞서 CAIS는 △약물 발견 도구의 화학무기 제조 활용 △가짜뉴스 생성에 따른 집단적 의사결정 약화 △AI 권력의 집중으로 인한 정권의 감시·검열 강화 △인간의 과도한 AI 의존 등을 미래 재난 시나리오로 제시한 바 있다.
AI가 인류를 멸망시킬 것이라는 우려가 비현실적이라는 반론도 나왔다. 힌턴, 벤지오 교수와 함께 튜링상을 받은 ‘AI 대부’ 3인방 중 한 명인 얀 르쾽 뉴욕대 교수 겸 메타 AI 수석과학자는 종말론적 경고는 과장됐다며 서명에 불참했다.

성명을 주도한 댄 헨드릭스 CAIS 이사는 외신 인터뷰에서 “이번 성명은 1930년대 핵과학자들이 아직 핵폭탄을 개발하지 못했지만 조심하라고 경고한 것과 비슷하며, AI 기술에 대해 우려한다는 사실을 ‘커밍아웃’하는 장을 만들기 위한 것”이라고 설명했다.

유태영 기자, 워싱턴=박영준 특파원

Copyright © 세계일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?