“인공지능 위험, 핵전쟁 수준”…AI업계 리더들의 경고

이시내 2023. 6. 1. 10:25
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 업계 리더들이 "AI로 인해 인간이 멸종할 수 있다"며 공동성명을 발표했다.

벤지오 몬트리올대 교수도 영국 BBC와의 인터뷰에서 "AI의 발전속도는 이 업계에 종사하는 많은 사람들에게 큰 도전"이라며  "이제라도 AI의 위험을 관리하기 위해 정부가 AI 관련 산업군에 있는 회사를 법적으로 등록해 그들이 무엇을 하는지 추적하고 감시할 수 있어야 한다"고 말했다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

샘 올트먼 오픈AI 대표, 제프리 힌턴 교수 등
업계 리더 350여명 공동성명...국내도 2명 참여
인공지능(AI) 업계 리더 350여명이 "AI로 인해 인간이 멸종할 수 있다"며 공동성명을 발표했다. 이미지투데이

인공지능(AI) 업계 리더들이 "AI로 인해 인간이 멸종할 수 있다"며 공동성명을 발표했다. AI 개발 경쟁이 치열해지는 가운데 그 최전선에 있는 이들이 되레 규제의 필요성을 강조하고 있는 것이다.

30일(현지시간) 미국 CNN에 따르면 비영리단체인 ‘AI안전센터’가 “AI로 인한 멸종 위험을 해소하려면, 전염병이나 핵전쟁을 다루는 듯한 수준의 우선순위를 두고 AI를 취급해야 한다”고 경고했다.

성명엔 샘 올트먼 오픈AI 대표, 제프리 힌턴 토론토대 명예교수, 데미스 허사비스 구글 딥마인드 대표, 조슈아 벤지오 캐나다 몬트리올대 교수 등 주요 인사 350여명이 참여했다. 국내엔 한국과학기술원(KAIST)의 신진우 석좌교수, 김대식 교수 등 2명이 이름을 올렸다. 

이번 공동성명에 참여한 힌턴 교수는 딥러닝(Deep Learning) 분야의 선구자로 꼽힌다. 그는 구글 딥마인드 소속 연구원으로 활동하던 중 5월 AI의 위험성을 강조하며 사표를 제출했다. 힌턴 교수는 “AI가 우리보다 더 똑똑해지고 있다는 사실을 깨닫고 내부고발자가 되기로 결심했다”고 말했다. 이어 생성형 AI가 사진이나 영상자료를 조작하는 등 ‘진짜 같은 가짜’를 전파하는 도구로 악용될 수 있다며 “더 이상 무엇이 진실인지 알 수 없는 세상을 만들 수 있다”고 지적했다.

벤지오 몬트리올대 교수도 영국 BBC와의 인터뷰에서 “AI의 발전속도는 이 업계에 종사하는 많은 사람들에게 큰 도전"이라며  “이제라도 AI의 위험을 관리하기 위해 정부가 AI 관련 산업군에 있는 회사를 법적으로 등록해 그들이 무엇을 하는지 추적하고 감시할 수 있어야 한다”고 말했다. 

업계 전문가들이 AI의 위험성에 대해 한 목소리로 경고한 것은 이번이 처음이 아니다. 3월 비영리단체인 ‘삶의 미래 연구소(FLI)’는 AI 개발 속도전을 경계하며 “시스템 개발을 6개월간 중단해야 한다”는 내용의 서한을 공개했다. 이 서한에 스티브 워즈니악 애플 공동창업자 등 IT업계 전문가 1000여명이 찬성 의사를 표시했다.

이시내 cine@nongmin.com

Copyright © 농민신문. 무단전재 및 재배포 금지.