[이진우의 거리두기]AI, 핵무기 이후 가장 정교한 ‘죽음의 기계’가 되다

이진우 포스텍 명예교수 2026. 3. 17. 19:57
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.


인공지능 시대의 위험은 핵무기보다 더 미묘하다
그것은 인간의 결정을 대체하고, 정치적 책임을 분산시키고
전쟁을 일상화할 수 있다
인공지능은 새로운 권력이 될 것이다
그런데도 그 효율성에 눈이 멀어
AI의 실존적 위험을 간과한다

전쟁이 사람들을 다시 한번 공포 속으로 몰아넣고 있다. 2022년 2월24일 러시아의 침략으로 시작해 4년째 이어지고 있는 우크라이나 전쟁에 둔감해진 시점에 새로운 전쟁이 세계를 혼란에 빠뜨리고 있다. 2026년 2월28일 미국의 트럼프 대통령은 ‘장대한 분노’라는 작전으로 이란을 공습해 이란의 최고지도자 하메네이를 제거했다.

트럼프는 자신의 SNS에서 하메네이를 “역사상 가장 사악한 인물 중 한 명”으로 규정하고, 수많은 사람을 학살한 “피에 굶주린 폭도 무리의 우두머리”라고 부르며 하메네이 제거를 이란 국민뿐만 아니라 전 세계를 위한 정의라고 주장했다.

여기서 트럼프의 이란 공격을 정의의 실현인지 아니면 단순히 ‘힘의 정치’의 복귀로 볼지는 다른 문제이다. 사람들을 충격에 빠뜨린 것이 힘의 논리에 의한 지정학적 질서의 급격한 변화인지 아니면 주식 시장의 정상화로 칭송되었던 주가의 상승이 꺾인 것인지도 중요하지 않다. 사람들이 은연중에 놀라는 것은 이번 ‘참수 작전’의 정교함과 극단적 효율성이다.

이번 작전은 인공지능(AI)과 고도화된 감시망을 활용해 테헤란의 최고지도자 관저 등 핵심 거점만을 핀셋처럼 골라 타격한 외과수술식 공격이었다. 이러한 방식은 과거 냉전시대의 전면전과 달리 지도부만을 정밀 타격해 전쟁의 효율성을 극대화하는 새로운 군사 전략으로 평가받고 있다.

이러한 군사작전 변화의 핵심에는 인공지능이 있다. 2026년은 ‘일반인공지능’(AGI)에 버금가는 충격이 일어날 것으로 예견된다. 2026년 초 이미 국제 정세는 유례없는 기술적 충격에 휩싸였다. 지난 1월3일 미국의 ‘확고한 결의’ 작전으로 베네수엘라의 니콜라스 마두로 대통령이 체포되어 미군 함정에 실려 뉴욕으로 압송되었다. 이 두 사건의 공통점은 미군 측 피해가 전무하다시피 한 ‘무결점 작전’이었다는 점이다. 그 배후에는 앤트로픽의 인공지능 모델 ‘클로드’가 있었다는 강력한 증언들이 나오고 있다. 인류는 이제 AI가 단순히 정보를 처리하는 도구를 넘어, 국가 지도자의 생사를 결정하는 ‘사령관’의 역할까지 수행하는 시대를 목도하고 있다.

문제는 이러한 변화가 단순히 전투 방식에만 국한되지 않는다는 데 있다. AI는 단순한 기술 혁신이 아니라 문명의 권력 구조를 바꾸는 기술이다. 이는 핵무기 발명 이후 가장 위험한 기술적 전환일 수 있다. 드론과 위성, 사이버 감시망이 결합된 정밀 군사작전은 이미 21세기 전쟁의 상징이 되었다.

만약 이런 작전에 인공지능이 개입했다면 어떻게 될까? 목표를 식별하고, 공격 경로를 계산하고, 작전 성공 확률을 분석하는 과정에 인간이 아니라 알고리즘이 참여했다면, 우리가 지금 정말 놀라고 경계해야 할 것은 도대체 무엇일까?

인공지능은 ‘결정 권력’을 대표

이 질문은 단순한 군사 기술의 문제가 아니다. 그것은 인공지능이 왜 핵무기 발명 이후 가장 위험한 기술적 전환이 될 수 있는지를 보여주는 하나의 단서다. 20세기 인류는 핵무기를 만들었다. 핵무기는 인간이 만들어낸 가장 강력한 파괴 장치였다. 그러나 핵무기의 역설은 그것이 너무 강력했기 때문에 사용이 억제되었다는 점이다. 핵무기는 전쟁의 수단이 아니라 억지의 장치가 되었다. 핵무기를 사용한다는 것은 곧 상호 파괴를 의미했기 때문이다. 그러나 인공지능은 핵무기와 다르다. 인공지능은 단일한 무기가 아니라, 권력의 새로운 형태다.

그것은 정보를 분석하고, 목표를 선택하고, 행동을 최적화하는 능력이다. 핵무기가 물리적 파괴력을 대표한다면, 인공지능은 ‘결정 권력’을 대표한다. 인공지능이 점점 더 인간 대신 더 많은 결정을 하게 된다면, AI는 핵무기 이후 가장 정교한 ‘죽음의 기계’가 될 것이다.

오늘날 전쟁은 이미 알고리즘의 도움 없이 수행되기 어렵다. 위성 영상 분석, 표적 식별, 드론 경로 계산, 미사일 방어체계, 사이버 작전 등 거의 모든 영역에서 AI는 필수적인 도구가 되고 있다. 군사 전략가들은 이를 ‘킬 체인(kill chain)의 자동화’라고 부른다. 표적 탐지에서 공격 실행까지 이어지는 과정이 점점 더 빠르게 자동화되는 것이다.

이 과정에서 인간의 역할은 무엇일까? 전통적인 전쟁에서는 인간이 결정을 내렸다. 장군이 명령을 내리고 병사가 그것을 수행했다. 그러나 알고리즘이 작전 환경을 분석하고 공격 옵션을 제시하기 시작하면, 인간은 점점 ‘승인 버튼’을 누르는 역할로 축소된다. 이것이 바로 인공지능 시대의 첫 번째 역설이다.

인간은 여전히 전쟁을 수행하지만, 전쟁을 이해하지 못하게 된다. 현대 전쟁의 속도는 이미 인간의 인지 능력을 넘어섰다. 미사일 방어 시스템은 몇초 안에 결정을 내려야 한다. 사이버 공격은 밀리초 단위로 이루어진다. 이런 환경에서는 인간의 판단이 너무 느리다. 결국 알고리즘이 결정을 내리게 된다. 그러나 알고리즘은 책임을 지지 않는다. 독일 정치철학자 해나 아렌트는 나치 전범 아이히만의 재판을 분석하면서 “악의 평범성”이라는 개념을 제시했다. 그녀는 아이히만이 악마적인 괴물이 아니라 ‘생각하지 않는’ 관료였다고 보았다. 그는 규칙을 따랐고 명령을 수행했을 뿐이었다. 그는 스스로 생각하지 않고 자신의 행위를 판단하지 않았기 때문에 악을 저지른 것이다. 악은 판단의 결여에서 기인한다.

인공지능이 전쟁에 깊이 개입할 때 우리는 비슷한 상황에 직면할 수 있다. 공격을 결정한 사람이 누구인지 불분명해진다. 군인인가, 장군인가, 알고리즘인가. 책임의 사슬은 흐려진다. 이것이 인공지능이 만들어내는 두 번째 위험이다. 책임의 증발이다. 핵무기를 사용할 때는 책임이 분명하다. 국가 지도자가 결정을 내린다. 그러나 알고리즘이 제시한 결정을 인간이 단순히 승인한다면 책임은 어디에 있는가? 문제는 여기서 끝나지 않는다. 인공지능이 핵무기보다 더 위험할 수 있는 이유는 그것이 단순한 무기가 아니라 자율적 시스템이 될 수 있기 때문이다.

자동화로 전쟁 더 빈번해질 수

철학자이자 옥스퍼드대 교수인 닉 보스트롬은 ‘초지능’에 관한 연구에서 중요한 경고를 제시했다. 초지능은 인간보다 훨씬 뛰어난 문제 해결 능력을 가진 시스템을 의미한다. 이런 시스템이 인간의 목표와 완전히 일치하지 않는 목표를 추구한다면, 그것은 통제 불가능한 결과를 낳을 수 있다. 우리는 인공지능이 우리가 부여한 목표를 충실하게 수행한다고 믿는다. 문제는 그 목표가 충분히 정교하지 않을 때 발생한다. 인간에게는 당연한 상식이 알고리즘에는 존재하지 않는다. 예를 들어 “적을 제거하라”는 목표를 가진 AI 시스템이 있다고 가정해보자. 인간이라면 그 목표를 정치적 맥락 속에서 해석한다. 그러나 알고리즘은 목표를 문자 그대로 수행할 수 있다. 이때 인공지능은 인간보다 훨씬 더 효율적인 전쟁 기계가 된다. 그리고 바로 이 지점에서 인공지능은 핵무기보다 더 위험한 ‘죽음의 기계’가 된다.

핵무기는 파괴력은 커도 지능은 없다. 핵무기는 목표를 스스로 선택하지 않는다. 그러나 인공지능은 목표를 분석하고 전략을 계산할 수 있다. 따라서 인공지능은 단순한 무기가 아니라 전쟁의 두뇌가 될 수 있다. 이것이 세 번째 위험이다. 전쟁의 자동화다. 전쟁이 자동화될수록 전쟁의 비용은 낮아진다. 병사들이 죽지 않는 전쟁은 정치적으로 훨씬 쉽게 선택될 수 있다. 드론 전쟁이 확산된 이유도 여기에 있다. 공격하는 쪽은 거의 위험을 감수하지 않는다. 이것은 국제정치의 구조 자체를 바꿀 수 있다. 과거에는 전쟁이 너무 위험했기 때문에 국가들이 신중했다. 그러나 인공지능이 전쟁을 저비용 정밀 공격으로 바꾼다면 전쟁은 더 빈번해질 수 있다. 즉 인공지능은 전쟁을 억제하는 것이 아니라 전쟁을 정상화할 수 있다.

인공지능이 위험한 이유는 그것이 인간을 물리적으로 파괴할 수 있기 때문만이 아니다. 그것은 인간의 판단 능력을 약화시키고 책임 구조를 흐리게 만들며, 전쟁의 비용을 낮추고 정치적 결정을 자동화할 수 있기 때문이다. 인공지능 시대의 위험은 핵무기보다 더 미묘하다. 인공지능은 핵폭발처럼 눈에 보이는 파괴를 일으키지 않을 수 있다. 대신 그것은 서서히 인간의 결정을 대체하고, 정치적 책임을 분산시키고, 전쟁을 일상화할 수 있다. 우리가 그 변화의 의미를 이해하지 못한 채 기술에 의존하게 된다면, 인공지능은 단순한 도구가 아니라 새로운 권력이 될 것이다. 그런데도 우리는 그 효율성에 눈이 멀어 AI의 실존적 위험을 간과한다. 그것이 바로 내가 두려워하는 것이다.

이진우 포스텍 명예교수

이진우 포스텍 명예교수

Copyright © 경향신문. 무단전재 및 재배포 금지.