AI가 인류 위협 못하도록...28개국 ‘블레츨리 선언’ 서명

문세영 기자 2023. 11. 5. 10:46
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

지난 2일 영국 블레츨리 파크에서 ‘AI 안전 정상회의’가 열리고 있다. 연합뉴스 제공.

인공지능(AI) 시대에 접어들면서 AI를 활용한 연구가 활성화될 수 있도록 사용자의 AI 자원 접근성을 높이려는 움직임이 일어나고 있다. 동시에 AI의 잠재적 위험성을 우려하는 목소리들도 커지고 있다. 미국과 영국이 주도적으로 안전성 관리·규제에 나섰다. 

조 바이든 미국 대통령은 지난달 30일 각 연방기관이 AI 사용을 지도하고 기술에 대한 보호책을 마련할 것을 지시하는 내용을 담은 ‘AI 행정명령’을 내렸다. 입법 절차를 거쳐 법으로 통과된 것은 아니기 때문에 아직은 연방기관에 업무 지시를 하는 수준에 머물 것으로 보여진다. 하지만 미국 정부가 AI의 영향력과 부작용 등을 진지하게 받아들이고 있다는 점에서 이번 행정명령을 긍정적으로 평가하는 목소리들이 나온다. 

지난 2일에는 리시 수낵 영국 총리가 ‘AI 안전 정상회의’를 열었다. 28개국 대표와 마이크로소프트, 메타 등 기업이 참석한 이 회의에서는 AI 위험성을 평가하고 관리하기로 합의한 ‘블레츨리 선언’이 발표됐다. AI가 생화학 무기처럼 위험한 기술을 개발하는 데 쓰일 수 있다는 점에서 안전성 관리가 중요하다는 점에 의견이 모아졌다. 

이날 회의에서 요슈아 벤지오 캐나다 퀘벡 AI연구소장은 “우리는 아직 존재하지 않는 AI에 대해 얘기하고 있지만 내년에는 실현화될 수 있는 기술들”이라고 말했다. AI의 편향성, 생성형 AI가 만든 가짜 이미지나 영상 등이 이미 사회적 문제가 되고 있는 가운데, 인간을 물리적으로 공격할 수 있는 무기 개발 등의 파괴적인 상황 또한 머지않아 벌어질 수 있는 일이라는 점에서 대비가 필요하다는 것이다. 

영국, 미국 두 국가는 AI가 공익적으로 쓰일 수 있도록 ‘국가 AI 연구 자원’을 개발할 예정이다. 이를 통해 AI 연구자들이 고용량 데이터 처리 연산이 가능한 시스템에 접근할 수 있도록 클라우드를 공유할 계획이다. 헬렌 토너 미국 조지타운대 보안·신흥기술센터 정책연구원은 3일 네이처를 통해 “값비싼 컴퓨팅 인프라에 크게 의존하는 과학 분야에 의미가 있다”고 말했다. 

벤지오 소장도 “AI 시스템을 훈련시키려면 몇 달이 걸리고, 수천 만에서 수 억 달러의 비용이 들어 학계에서는 불가능하다”며 현재 일부 기업들이 AI 역량을 쥐고 있는 가운데, 학자들이 연구 자원으로 활용할 수 있도록 하는 것은 매우 유의미한 작업이라고 보았다. 

미국은 이번 행정명령을 통해 AI 전문지식을 갖춘 이민자들이 미국에서 공부하고 일할 수 있도록 연방기관들이 지원할 것도 권장했다. 미국 국립과학재단(NSF)의 자금 지원을 받는 국가 AI 연구소 25곳 외에 4곳을 향후 1.5년 내에 추가 설립할 것도 명령했다. NSF의 클라우드를 통해 AI 연산 가능 시스템에 접근할 수 있도록 하는 ‘국가 AI 연구 자원(NAIRR)’ 파일럿은 90일 이내 시작할 것을 요청했다. 

영국도 AI 연구자들에게 슈퍼컴퓨터 수준의 컴퓨팅 능력을 제공하기 위한 ‘AI 연구 자원(AIR)’을 계획하고 있다. 이번 정상회의에서 영국 정부는 AIR 자금을 1억 파운드(약 1624억 원)에서 3억 파운드(4871억 원)로 3배 늘리겠다고 밝혔다. 이는 인구수 및 국내총생산 등을 고려할 때 미국보다 더욱 강력한 투자다. 

AI 시스템에 대한 접근성을 높이는 만큼 안전성 문제도 더욱 신경 써야 하는 상황이다. 이를 위해서는 AI에 대한 ‘표준’과 ‘정의’가 필요하다는 전문가 의견이 제기되고 있다. 가령 생명과학 연구 분야에 자금을 지원하는 기관은 AI를 이용한 위험한 생물학적 물질이 개발되지 않도록 기준을 수립하고 지시해야 한다는 설명이다. 

영국은 블레츨리 선언을 통해 AI 위험성을 주시하기로 했으나, 실질적인 관련 입법이 마련돼야 한다는 의견도 제기되고 있다. AI는 점점 영리해지고 있으며 통제하기 어려워질 수도 있는 만큼 잠재적 위험성을 막을 수 있는 안정장치가 적극적으로 마련돼야 하는 상황이다. 

[문세영 기자 moon09@donga.com]

Copyright © 동아사이언스. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?