“인류 멸종시킬 수도”... 美 보고서가 경고한 AI 핵심 위험 요소 2가지

실리콘밸리/오로라 특파원 2024. 3. 14. 07:34
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

지난해 6월 중국 상하이에서 열린 WAIC 행사의 AI로고./로이터

미국에서 인공지능(AI)이 인류를 멸종시킬 가능성이 있으며, 이를 방지하기 위해 미국 정부가 빠르게 개입해야한다는 내용의 보고서가 나왔다.

12일(현지 시각) 미 CNN방송 등 외신에 따르면 AI정책 조언을 제공하는 민간 업체 ‘글래드스톤AI’는 전날 홈페이지에 ‘첨단AI의 안전성과 보안성을 높이기 위한 방안’이라는 보고서를 발표했다. 해당 보고서는 미 국무부의 의뢰로 작성됐으며, 총 247쪽에 달한다.

해당 보고서는 지난해 생성형AI 붐이 일어난 후 커진 ‘AI종말론’과 비슷한 주장을 이어가고 있다. 최첨단AI와 인간을 능가하는 지능을 갖춘 일반인공지능(AGI)의 등장을 핵무기에 비교하며, 통제를 하지 않으면 인간을 멸종시킬 수도 있다는 것이다. 이 보고서는 특히 고도로 발전한 AI의 위험 요소로 ‘무기화’와 ‘통제력 상실’을 꼽았다. AI를 좋은 곳에 사용하면 인류에 큰 편리함을 가져줄 수 있지만, 반대의 경우엔 생화학·사이버 전쟁 등에 활용될 수 도 있다는 것이다.

보고서는 특히 AGI의 진화 속도가 매우 빠르며, 5년 내에 AGI가 실제로 나타날 것으로 내다봤다. 실제로 오픈AI, 구글 딥마인드, 엔비디아 등은 모두 2028년쯤 AGI에 도달할 수 있을 것으로 보고 있다.

이 때문에 보고서는 위협에 대응하기 위해 미 정부가 AI개발에 빠르게 개입해야한다고 주장한다. 긴급 규제 안전장치와 AI감독 기관을 만들고, AI모델 훈련에 사용할 수 있는 컴퓨터 성능을 제한해 AGI의 출현 속도를 늦춰야한다는 것이다. 이와 함께 AI반도체 제조와 수출에 대한 통제도 강화해야한다고 제언했다.

다만 보고서는 이런 위험성 때문에 AI 연구를 아예 그만두게 하는 것은 바람직하지 않다고 했다. 글래드스톤AI 공동 창립자이자 최고경영자(CEO)인 제러미 해리스는 CNN에 “최악의 시나리오 중 하나는 모든 사람의 AI 연구를 완전히 중단시켜 이 기술의 놀라운 이점을 누리지 못하는 것”이라고 했다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?