[특파원 시선] AI, '냉전'과 '열전' 사이

권영전 2026. 5. 3. 07:08
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

안두릴의 무인 전투기 '퓨리' 안두릴이 개발한 무인 전투기 '퓨리'(Fury)가 지난달 31일(현지시간) 미국 캘리포니아주 남부에서 시험 비행을 하고 있다. [로이터=연합뉴스 자료사진. 제3자 제공사진. 재판매 및 DB 금지]

(샌프란시스코=연합뉴스) 권영전 특파원 = "우리는 카이스트의 어느 부서와도 협력을 거부할 것임을 공개적으로 선언한다. 우리는 카이스트를 방문하지 않을 것이고 카이스트에서 온 방문객을 맞이하지 않을 것이며 카이스트가 참여하는 어떠한 연구 프로젝트에도 기여하지 않을 것이다."

지난 2018년 3월 세계 30개국 인공지능(AI) 연구자 50여 명이 한국과학기술원(카이스트)을 상대로 발송한 공개 보이콧 서한은 자못 엄중했다.

'AI 대부'로 불리는 제프리 힌턴 토론토대 교수와 요슈아 벤지오 몬트리올대 교수도 동참한 만큼 무게감도 있었다.

이들이 카이스트에 이러한 경고장을 보낸 것은 카이스트가 방위산업 기업인 한화시스템과 '국방인공지능융합연구센터'를 공동 설립하는 등 AI 관련 협력을 발표했기 때문이다.

AI 연구자들은 서한에서 "자율무기가 개발되면 전쟁의 세 번째 혁명이 될 것"이라며 "판도라의 상자는 한 번 열리면 닫기 어렵다"고 경고했다.

이어 AI의 도움을 받은 자율무기는 "전쟁을 어느 때보다 빠르고 큰 규모로 치를 수 있게 할 것이고, 독재자와 테러리스트들은 윤리적 제약을 무시하고 무고한 시민을 상대로 이를 사용할 수 있다"고 지적했다.

카이스트가 자율·살상 무기를 개발하려던 것은 아니었지만, 이 같은 비판에 직면한 신성철 당시 총장은 결국 "인간 존엄에 반하는 어떤 연구도 수행하지 않을 것이며 의미 있는 인간의 통제가 없는 자율 무기 연구는 하지 않겠다"고 공개 발표해야 했다.

비슷한 시기 구글은 알고리즘을 활용해 영상에서 사물과 인물을 탐지·분류하는 미국 국방부의 '프로젝트 메이븐' 사업 참여를 놓고 내부 반발에 직면했다.

"우리는 구글이 전쟁 사업에 관여해선 안 된다고 믿는다"는 문장으로 시작하는 내부 성명에는 직원 4천여 명이 연명했다. 세계 최고의 직장으로 꼽히는 구글에서 사직하는 구성원들도 속출했다.

결국 물러선 것은 구글 경영진들이었다. 다이앤 그린 당시 구글 클라우드 최고경영자(CEO)는 두 달여 만에 직원들의 뜻을 받아들여 해당 사업의 계약이 만료되면 이를 갱신하지 않겠다고 약속했다.

순다르 피차이 구글 CEO도 그해 6월 회사 공식 블로그에 'AI 원칙'을 게시하면서 '피해를 일으킬 수 있는 기술', '무기', '국제 규범을 위반하는 감시·정보수집', '국제법·인권 원칙에 어긋나는 기술'은 추구하지 않겠다고 선언했다.

알렉스 카프 팔란티어 CEO [AFP/게티이미지=연합뉴스 자료사진]

현재 2026년의 눈으로 보면 의외로 생경한 모습이다. AI 기술은 시나브로 전장에 적용돼 8년이 지난 지금은 이미 본격적으로 실전 배치가 진행되고 있기 때문이다.

2022년 발발해 4년 넘게 진행 중인 러시아-우크라이나 전쟁에서는 AI 드론이 본격 데뷔해 현대전의 개념을 바꿨다.

AI 방산 스타트업 안두릴은 기업가치 600억 달러(약 88조원)를 목표로 투자 협상을 벌이고 있고, 이 회사가 개발한 자율운행 전투기 '퓨리'(Fury)는 지난 3월 오하이오 공장에서 양산에 들어갔다.

미 국방부는 올해 AI·자율시스템에 예산 134억 달러를 배정했다.

방위 데이터 AI 분석의 선두 주자로 꼽히는 팔란티어는 세계 시가총액 40위권 기업이 됐고, 지난해 기준 미국 정부 상대 매출액이 18억5천500만 달러(약 2조7천억원)에 이르렀다.

알렉스 카프 팔란티어 CEO는 "우리 회사는 서방과 미국을 위해 헌신해왔다"며 "팔란티어는 기존 체제를 뒤흔들고 우리가 협력하는 기관을 세계 최고로 만들기 위해 존재하며 필요할 때는 적들을 위협하고 때로는 그들을 죽이기도 한다"고 거침없이 말하기도 했다.

미국은 지난 1월 베네수엘라의 니콜라스 마두로 대통령 체포 작전을 벌이면서 앤트로픽의 AI 모델 '클로드'의 도움을 받았고, 2월 말 시작한 이란전에서도 클로드를 재차 활용했다.

앤트로픽이 미국 내 대규모 감시나 인간의 감독 없는 자율 무기에는 자사 AI 모델을 쓰지 못한다는 조건을 내걸자, 미 정부는 오픈AI·구글 등과 계약을 체결해 다른 AI 모델을 사용하려 하고 있다.

8년 전 4천여 명이 '전쟁 사업'을 막아섰던 구글 내부에서는 지난 27일 AI 부문을 중심으로 약 600명이 피차이 CEO에게 공개서한을 발송하는 등 국방부와의 협력에 반발했지만, 구글 경영진은 8년 전과 달리 계약을 강행했다.

아닌 게 아니라 구글은 2018년 제정했던 AI 원칙을 도널드 트럼프 대통령 취임 직후인 지난해 2월 개정하면서 AI를 무기나 감시 등에 사용할 수 없다는 금지 항목을 슬그머니 삭제한 터였다.

공습으로 사망한 이란 어린이들 지난달 25일(현지시간) 이란 수도 테헤란의 한 모스크 벽에 지난 2월 미국·이스라엘 공습으로 숨진 어린이들의 사진이 걸려 있다. [AFP=연합뉴스 자료사진]

물론 전쟁에 AI를 활용하는 편이 인류를 위해 더 낫다는 주장도 있다. 실제로 우크라이나는 팔란티어 플랫폼과 AI 드론 덕분에 압도적인 전력 열세에도 러시아의 진격을 막아낼 수 있었다.

인간 병사의 생명 대신 기계가 희생되는 편이 낫다는 논리 역시 반박하기 어렵다. 정교한 AI가 도입되면 민간인 사망자를 줄일 수 있다는 주장에도 일리가 있다.

맨해튼 프로젝트로 탄생한 핵무기가 과거 냉전 시절 '핵에 의한 평화'(Pax Atomica)로 이어졌듯이 강력한 AI 발전이 미국과 중국의 양극화와 신냉전 속에서 평화를 가져올 것이라는 관측 또한 그럴듯하다.

그러나 핵무기의 역사는 정반대의 교훈도 남겼다. 이른바 '불량국가'들은 단번에 열세를 뒤집으려고 오히려 비대칭 전력으로서 핵 개발에 사활을 걸었고, 이는 북핵 위기와 이란 핵 갈등으로 이어졌다. AI가 '맹활약'을 한 이번 이란 전쟁 역시 핵 갈등의 연장선이다.

AI 무기 자체에도 핵에는 없는 위험이 따라붙는다. 인간의 개입 없이 작동하는 자율성, 의사결정 과정을 들여다볼 수 없는 불투명성, 인간이 따라잡을 수 없는 속도가 결합하면 우발적 확전 위험은 오히려 핵보다 크다. 여기에 책임의 공백도 따라온다.

AI 전쟁은 민간인 희생을 최소화할 수 있다는 주장이 무색하게도 AI가 본격적으로 활용된 이번 전쟁에서도 이란의 한 초등학교에서 어린이 170여 명이 공습으로 사망하는 등 민간인 참사가 반복됐다.

'신냉전'이라는 표현도 어느새 적절하지 않다는 비판이 나오고 있다. 러시아-우크라이나 전쟁과 미국·이스라엘-이란 전쟁은 작금의 현실이 냉전이 아니라 열전(Hot War) 상황임을 보여준다.

팔란티어 항의 시위 이주민 인권 활동가들이 지난달 1일(현지시간) 미국 워싱턴DC의 팔란티어 사무실 앞에서 시위하고 있다. [로이터=연합뉴스 자료사진. 재판매 및 DB 금지]

전장의 AI가 사법·행정의 영역으로 넘어오는 데도 오래 걸리지 않았다. 미국 이민세관단속국(ICE)은 팔란티어 플랫폼 등을 활용해 불법 체류자 색출·추방 작업을 벌이고 있고, 이를 위한 인력을 채용하는 데는 오픈AI의 GPT 모델을 쓰고 있다.

8년 전 AI 연구자들이 경고한, 전쟁을 어느 때보다 빠르고 큰 규모로 치를 수 있게 하고 무고한 시민을 상대로 사용되는 AI는 어느새 현실이 됐다.

AI 열풍의 시작점인 오픈AI의 샘 올트먼 CEO조차 AI를 핵에 빗대 그 위험성을 설명했다는 점에서 이 같은 우려를 일부 반대론자들의 기우만으로 볼 수는 없다.

그는 국제원자력기구(IAEA)와 같은 국제적인 AI 조율 기구가 필요하다고 여러 차례 말해왔다.

그러나 인공신경망을 활용한 기계학습의 기초를 확립해 AI 시대를 열어젖힌 공로로 2024년 노벨 물리학상을 수상한 힌턴 교수가 AI의 위험성을 경고하는 목소리를 한층 더 높이고 있는데도, 이에 귀 기울이는 사람은 점점 사라지고 있는 듯하다.

comma@yna.co.kr

▶제보는 카톡 okjebo

Copyright © 연합뉴스. 무단전재 -재배포, AI 학습 및 활용 금지