전쟁 설계자가 된 AI…핵 사용까지 판단하는 위험한 진화 [김형자의 세상은 지금]

김형자 과학 칼럼니스트 2026. 3. 28. 15:02
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

美-이란 전쟁에서 확인된 AI의 역할, 전술 보조를 넘어선 ‘전쟁 설계자’
불리한 전황엔 핵까지 고려…알고리즘이 밀어붙인 극단의 판단

(시사저널=김형자 과학 칼럼니스트)

미국·이스라엘과 이란이 충돌하는 중동전쟁이 전 세계를 긴장시키고 있는 가운데, 인공지능(AI)이 현대전의 '전쟁 설계자'로 등극했다. 과거의 전쟁이 병력 숫자와 화력의 규모로 결정되었다면, 오늘날의 전장은 정밀한 '데이터'와 고도화된 '알고리즘'에 의해 작전이 설계되고 집행된다. 지금의 중동전쟁은 이러한 'AI 전쟁'의 실체를 여실히 드러내는 상징적 사건이 되고 있다. 특히 이란의 최고지도자 아야톨라 알리 하메네이를 표적 제거한 작전에서 AI는 정보 분석의 일등 공신 역할을 했다. 그러나 AI가 전쟁의 주도권을 쥔 그 효율성의 이면에는 통제 불가능한 살상과 윤리적 파멸이라는 거대한 그림자가 짙게 드리워 있다.

ⓒChatGPT 생성이미지

AI, 도덕적 고뇌 없이 목표 달성에만 집중

미국의 이란 공습작전 과정에서 미 중부사령부는 AI 스타트업 앤트로픽의 AI 모델인 '클로드(Claude)'를 활용해 정보 분석과 목표물 식별, 그리고 구체적인 작전 시나리오를 수립한 것으로 알려졌다. AI가 방대한 데이터를 실시간으로 분석해 '어디를, 어떻게, 어떤 순서로 타격해야 전술적 효과가 극대화되는지'를 제안하는 방식이다. 예를 들어 "특정 건물이 하메네이 지휘소일 확률 95%, 인근 민간인 시설과의 거리를 고려할 때 현재 타격 시 성공 확률 최대"라는 식으로 고도의 분석관 역할을 수행한다. 인간 참모진이 수일간 매달려야 할 분석 업무를 AI는 단 몇 초 만에 끝마치는 것이다. 물론 최종 타격 버튼은 인간 지휘관이 누르지만, AI가 도출한 데이터의 정밀함을 전적으로 신뢰하게 되는 '자동화 편향'이 발생하기 쉽다.

이전 러시아-우크라이나 전쟁이나 이스라엘-하마스 전쟁에서도 AI 드론과 통신 체계가 사용된 바 있다. 하지만 이번 작전은 차원이 다르다는 평가다. 이전의 AI가 드론 조종이나 통신 감청 등 국지적 보조 수단이었다면, 이번엔 전쟁의 기획부터 수행까지 전 과정에 주도적으로 개입하고 있기 때문이다. 군사 전문가들은 AI가 영화 속 가상 시나리오를 넘어, 실제 전장에서 공격 지점과 시점을 결정하는 지휘부의 핵심 '두뇌' 역할을 수행하고 있다고 분석한다.

하지만 기술적 완벽함에 대한 환상은 곧 참혹한 현실로도 이어졌다. 정밀타격을 자신했던 AI의 분석과 달리, 실제 공습 과정에서 미사일이 목표를 빗나가며 100명 이상의 이란 어린 학생이 목숨을 잃는 비극이 발생하기도 했다. 이는 AI가 가진 근본적인 한계, 즉 데이터에 의존한 확률적 판단이 결코 인간의 생명을 온전히 담보할 만큼 완벽하지 않다는 사실을 증명한다.

이처럼 AI의 오류로 무고한 민간인이 희생될 수 있다는 점을 우려한 앤트로픽 측은 클로드를 살상이나 감시 목적으로 사용하는 것에 난색을 표시했다. 미 국방부는 군사적 활용 범위를 전면 개방하라고 요구했으나, 앤트로픽은 기술의 불완전성이 인류를 위험에 빠뜨릴 수 있다는 윤리적 이유로 이를 거절했다. 

그러자 미 국방부는 상대적으로 규제가 유연한 오픈AI와 새 계약을 체결했고, 안보라는 명분 아래 AI의 제동 장치를 해제하려는 시도를 멈추지 않고 있다. 윤리가 결여된 살상권 위임은 언젠간 부메랑이 되어 인류 전체의 생존을 위협하게 될지 모른다.

AI의 전장 투입이 더욱 섬뜩하게 다가오는 이유는 최근 학계의 시뮬레이션 결과에서도 잘 드러난다. 영국 킹스칼리지 런던(KCL)의 케네스 페인 교수 연구팀이 오픈AI의 GPT-5.2, 앤트로픽의 클로드 소넷 4, 구글의 제미나이3 플래시 등 3개 모델을 가상 국가의 통치자로 임명하고 지정학적 분쟁 상황을 부여한 결과, 놀랍게도 이 모델들은 시나리오의 95%에서 '핵무기 사용'이라는 극단적인 선택을 했다. 특히 구글의 제미나이3 플래시는 전황이 불리해지면 "인구 밀집 지역에 전략 핵을 발사해 함께 죽자"는 식의 극단적인 논리를 펼치며 공멸의 길을 택했다. 승리하지 못할 바엔 지구 전체를 파멸시키는 것이 알고리즘상 차악이라고 판단한 것이다. 도덕적 고뇌 없이 오직 주어진 목표 달성을 위한 '최적화'에만 집중한 결과다.

결국 AI에게 전쟁은 인륜적 가치의 문제가 아니라 수학적인 확률 문제일 뿐이다. 인간이 가진 주저함이나 책임감이 결여된 AI에게 '최선의 승리'는 종종 '가장 파괴적인 수단'과 동의어가 된다. 이러한 '치명적 자율무기 시스템(LAWS)'은 사고의 속도보다 빠르게 공격을 결정한다. 인간 지휘관이 윤리적 성찰을 할 틈도 없이 알고리즘이 살상을 집행하는 구조다.

전쟁 AI에 대한 국제적 법제화 마련해야

전 세계 방산 업체들이 앞다퉈 개발 중인 'AI 전쟁 로봇' 역시 마찬가지다. 옹호론자들은 로봇 투입이 아군의 인명 피해를 줄인다고 주장하지만, 이는 본질을 오도하는 논리다. 로봇은 '죽이는 사람'을 기계로 대체할 뿐, '죽는 사람'의 고통을 멈춰주지 않는다. 오히려 살생의 가책을 느끼지 않는 기계의 투입은 전쟁의 문턱을 낮추고 민간인들을 더욱 무차별적인 위험으로 몰아넣을 뿐이다.

미국의 AI 전술이 실전에서 위력을 증명하자, 중국 등 경쟁국들 또한 AI 군사화와 기술 자립을 시대적 과제로 내세우고 있다. 만약 미국의 AI 전쟁 기술력에 자극받은 중국이 추격한다면 이에 위협을 느낀 미국이 다시 기술 격차를 벌릴 테고, 이에 중국이 또다시 신기술을 내놓는 'AI 군비 경쟁'이 본격화할 수 있다. 이런 다툼은 전 세계 안보 지형을 전혀 다른 모습으로 바꿔놓을지 모른다. 

상황이 이렇다 보니 과학계와 국제사회를 중심으로 AI 무기에 대한 법적·윤리적 규제를 촉구하는 목소리가 거세지고 있다. 2023년 유엔은 "AI가 표적을 스스로 판단해 공격하는 자율무기 시스템의 위협에 대응해야 한다"는 결의안을 통과시켰다. 기술이 인간의 통제를 벗어나 '기계에 의한 살상'이 일상화되는 것을 막기 위한 최소한의 안전장치를 마련하자는 취지다. 과학자들 또한 경고한다. "완벽하지 않은 AI가 '전쟁의 설계자'가 되는 순간, 인류는 자신의 운명을 알고리즘에 저당 잡힌 채 공멸의 길로 들어서게 될 것"이라고.

자율 살상무기에 대한 국제적인 금지 협약 체결은 더 이상 미룰 수 없는 시대적 과제다. AI 개발 기업들은 기술의 오남용을 막기 위한 엄격한 가이드라인을 준수해야 하며, 각국 정부는 AI가 인간의 생사 여부를 독단적으로 결정하지 못하도록 하는 '의미 있는 인간의 통제'(Meaningful Human Control)' 원칙을 조속히 법제화해야 한다. 

기계의 판단이 인간의 존엄성을 앞설 수는 없다. 전쟁터로 파고든 AI의 주도권 질주를 멈춰세우는 것, 그것이 기술 문명을 일궈온 우리 인류가 스스로를 지키기 위해 마지막으로 발휘해야 할 지혜다.  

김형자 과학칼럼니스트

Copyright © 시사저널. 무단전재 및 재배포 금지.