‘인공지능 대부’ 힌턴·‘사피엔스‘ 유발 하라리, AI 정상회의 앞두고 “규제 노력 충분하지 않다”

홍주형 2024. 5. 21. 15:10
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 대부로 불리는 제프리 힌턴 토론토대 컴퓨터과학 교수, 딥러닝의 창시자 요슈아 벤지오 몬트리올대 컴퓨터과학 교수 등 AI 연구의 권위자들을 포함해 전문가 25명이 "세계는 AI에 충분히 준비돼있지 않다"며 철저한 제도적 준비가 필요하다고 요구했다.

21일부터 서울에서 열리는 AI 안전 정상회의를 앞두고 AI의 잠재적 위험성을 누구보다 잘 이해하고 있는 전문가들이 각국 정부에 규제 노력을 촉구한 것으로 풀이된다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능(AI) 대부로 불리는 제프리 힌턴 토론토대 컴퓨터과학 교수, 딥러닝의 창시자 요슈아 벤지오 몬트리올대 컴퓨터과학 교수 등 AI 연구의 권위자들을 포함해 전문가 25명이 “세계는 AI에 충분히 준비돼있지 않다”며 철저한 제도적 준비가 필요하다고 요구했다. 21일부터 서울에서 열리는 AI 안전 정상회의를 앞두고 AI의 잠재적 위험성을 누구보다 잘 이해하고 있는 전문가들이 각국 정부에 규제 노력을 촉구한 것으로 풀이된다.

제프리 힌턴 토론토대 컴퓨터과학 교수. AP연합뉴스
20일(현지시간) 영국 일간 가디언에 따르면 이들은 같은 날 과학전문지 사이언스에 ‘급격한 진보 속 AI의 극단적 위험 관리’라는 제목의 공동 명의 논문을 기고하고 이같이 권고했다. 베스트셀러 ‘사피엔스’의 저자 유발 하라리, 노벨경제학상 수상자 대니얼 카너먼 프린스턴대 교수, 쉴라 매킬레이스 토론토대 컴퓨터과학 교수 등도 참여했다.

이들은 논문에서 AI 기술이 빠르게 발전하는 만큼 더 엄격한 규제를 도입한 정부 안전 프레임워크를 만들어야 하며, AI 안전 기관에 대한 자금 지원을 늘리고, 빅테크 기업이 보다 엄격한 위험 점검을 수행하도록 강제해야 한다고 제안했다. 이들은 또 논문에서 “AI 안전 연구는 뒤처지고 있다”며 ”현재의 거버넌스는 AI의 오용과 무분별한 활용을 방지할 수 있는 체계나 제도가 부족하고, (AI와 필연적인) 자율적인 시스템을 거의 다루지 못하고 있다”고 지적했다. AI가 자동화된 전쟁이나 사회 안정성 약화 등의 우려도 가져오지만, 더 근본적으로 AI의 자율성 증가는 돌이키기 어려운 인간의 조율 능력 상실을 가져올 것이라는 우려다. 이번 논문은 지난해 제1회 AI 정상회의 전 브레츨리 선언의 초안에 대한 검토를 거쳐 만들어졌다. 1회 정상회의에서 논의된 내용이 충분하지 않고, 더 강력한 규제가 필요하다는 뜻으로 풀이된다. 영국 정부 대변인은 이와 관련 “우리는 (전문가들의) 이 평가에 동의하지 않는다”며 “서울에서 열리는 AI 안전 정상회의는 지난해 제1회 정상회의에서 만들어진 브레츨리 선언의 유산을 진전시키는데 중요한 역할을 할 것”이라고 말했다고 가디언은 전했다.

홍주형 기자 jhh@segye.com

Copyright © 세계일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?