AI에 군사 작전권…전쟁 뒤 ‘감시사회’ 부메랑 되나

2026. 3. 14. 00:22
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.


[이준기의 빅데이터] 앤트로픽 논란으로 본 AI 군비 경쟁
[뉴시스]
전쟁의 모습이 바뀌고 있다. 한때 전쟁은 병력과 화력, 그리고 산업 생산력의 대결로 이해됐다. 2026년의 전장은 더 이상 총과 탱크만의 공간이 아니다. 알고리즘이 위협을 분류하고, 인공지능(AI)이 작전의 우선순위를 제안하며, 인간은 점점 그 판단을 승인하는 위치로 밀려나고 있다. 문제는 AI가 전쟁에 깊숙이 들어올수록 ‘적의 위협’과 ‘안보상의 불안’이라는 명분 아래 효율은 우선되고, 기술 사용에 대한 윤리적 경계는 쉽게 느슨해진다는 점이다.

이 변화를 상징적으로 보여준 것이 최근 미국 워싱턴에서 불거진 이른바 ‘앤트로픽 사태’다. AI의 윤리와 안전을 핵심 가치로 내세워온 기업이 국가안보 시스템의 중심으로 들어가지 못하는 과정은 단순한 기업 경쟁의 문제가 아니다. 그것은 전시 체제 아래에서 윤리적 제약이 얼마나 빠르게 비현실적 원칙으로 밀려나는지를 보여주는 장면이다. 위기가 깊어질수록 안전장치는 양심이 아니라 장애물로 취급된다. 바로 그 지점에서 오늘의 AI 군비 경쟁은 가장 불길한 얼굴을 드러낸다.

사건의 핵심은 단순하다. 펜타곤이 전장용 통합 AI 모델을 검토하는 과정에서 앤트로픽은 몇 가지 분명한 선을 제시했다. 자국민 감시에 AI를 활용하지 말 것, 인간 개입 없는 자율살상 무기와 직접 연동하지 말 것 같은 조건들이다. 민주주의 국가라면 최소한 검토해야 할 기준처럼 들린다. 그러나 전쟁은 언제나 상식을 압박한다. 국가안보를 앞세운 권력은 이런 조건을 윤리적 책임이 아니라 작전상 제약으로 받아들이기 쉽다. 미국은 이 순간 앤트로픽을 밀어내고 오픈AI를 택하는 쪽으로 기울었다.

전시엔 AI 안전장치가 장애물로 취급돼
오늘날 미국의 군사 시스템은 위성 영상, 감청 정보, 드론 피드, 통신 패턴, 병참 데이터, 각종 현장 보고를 실시간으로 수집하고 연결하는 방식으로 움직인다. 이 방대한 데이터 흐름을 수집·정리하는 데 팔란티어의 시스템이 핵심적 역할을 하고, 이를 통합해 하나의 작전 그림으로 묶는 과정에는 AI가 깊숙이 관여한다. 팔란티어가 두뇌에 정보를 공급하는 눈과 귀이자 신경망에 가깝다면, AI는 전장의 두뇌에 해당한다.

그 점에서 앤트로픽은 오픈AI에 비해 몇 가지 기술적 장점을 갖고 있다. 첫째는 더 큰 맥락 처리 능력이다. 현대 전장은 단편적 정보 하나로 움직이지 않는다. 실시간 영상, 감청 기록, 위성 신호, 전자전 정보, 이동 경로, 보급선의 변화가 한꺼번에 밀려들고, 그 의미는 개별 데이터가 아니라 그사이의 연결에서 생긴다. 어느 지역의 이상 통신량, 특정 차량의 이동, 열 영상의 변화, 탄약 보급 흐름이 한 화면 안에서 종합될 때 적의 의도와 다음 움직임이 드러난다. 전쟁용 AI의 핵심은 짧고 영리한 답변이 아니라, 이 거대한 정보 흐름 속에서 긴 맥락을 유지하며 전체 그림을 놓치지 않는 능력이다.

둘째는 사실성의 문제다. 전장에서는 사용자의 기분을 맞추는 AI보다, 불편하더라도 사실에 가까운 판단을 내리는 AI가 필요하다. 상업용 AI는 대체로 사용자 친화적으로 설계되며, 때로는 지나치게 순응적인 응답을 보이기도 한다. 그러나 군사적 판단에서는 이것이 결함이 될 수 있다. 지휘관에게 필요한 것은 듣기 좋은 답이 아니라 현재 작전의 위험, 아군의 취약점, 적의 예상 밖 움직임을 냉정하게 제시하는 시스템이다. 이런 점에서 앤트로픽은 단순히 ‘더 안전한 AI’가 아니라, 전술적으로도 더 신뢰할 만한 분석형 AI에 가깝다.

셋째는 전쟁 같은 고압적 환경에서 요구되는 방식이 이미 사용되고 있었다는 것이다. 이는 사용자에게 일종의 학습 효과를 제공하고, 새로운 시스템 도입에 따르는 시행착오를 줄여줄 수 있다. 이런 점에서 앤트로픽의 기술적 우위는 더 분명하게 평가될 필요가 있다.

그럼에도 현실의 선택은 기술적 우수성으로 결정되지 않았다. 군이 원하는 것은 단순한 분석 도구가 아니다. 상황 변화에 따라 적용 범위를 넓히고, 필요할 경우 논쟁적인 경계선 가까이 운용할 수 있는 수단을 선호하기 쉽다. 문제는 앤트로픽이 바로 그 지점에 분명한 선을 그으려 했다는 데 있다. 자국민 감시 금지, 인간 개입 없는 자율살상 무기 연동 금지 같은 조건은 윤리적으로는 최소한의 안전장치지만, 전쟁 수행자의 시각에서는 선택 가능한 옵션과 해석의 여지를 미리 좁히는 제약으로 읽힐 수 있다.

이것이야말로 AI 군사화의 가장 위험한 지점이다. 기술이 강해질수록 권력은 그 기술을 둘러싼 윤리적 경계를 더 유연하게, 더 넓게 해석하고 싶어한다. 전쟁은 언제나 예외를 요구하고, 예외는 시간이 지나면 제도가 된다. ‘자국민’의 범위는 어디까지인가. 잠재적 위험인물은 제외된다면, 누가 어떤 기준으로 정하는가. 이런 질문이 흐려지는 순간 경계는 빠르게 무너진다.

그리고 이런 논리는 전장 밖으로 너무 쉽게 번져 나온다. 전시에 개발된 기술은 늘 평시의 통치 기술로 돌아왔다. AI도 마찬가지다. 위치 정보, 통화 기록, 카드 결제 패턴, 검색 이력, 얼굴 인식 데이터가 거대 모델과 결합하는 순간, 국가는 개인의 현재 위치만이 아니라 습관, 인간관계, 심리 상태, 잠재적 행동 가능성까지 추론할 수 있게 된다. 감시는 더 이상 사후 관찰이 아니다. 그것은 예측과 분류, 선제적 통제로 바뀐다.

중국식 ‘디지털 감시’ 타국에도 옮아가
바로 이 지점에서 디스토피아는 상상의 영역을 벗어난다. 시민은 감시당하고 있다는 사실조차 선명하게 느끼지 못한 채 끊임없이 분류되고 점수화된다. 특정 장소를 자주 방문했다거나, 어떤 사람들과 오래 접촉했다거나, 특정 검색어를 반복했다는 이유만으로 위험 신호가 붙을 수 있다. 더 무서운 것은 이런 시스템이 과거의 독재처럼 노골적인 공포로만 작동하지 않는다는 점이다. 오히려 더 편리한 행정, 더 효율적인 치안, 더 안전한 도시라는 말로 자신을 포장한다. 그래서 시민은 자유를 잃으면서도 그것을 서비스 개선쯤으로 오해하기 쉽다. 오늘날 초 감시 사회의 본질은 감시의 폭력이 아니라 감시의 일상화에 있다.

CCTV망, 안면인식 기술, 온라인 검열 등 디지털 기술을 통한 중국식 감시체계가 다른 권위주의 국가로 확산될 우려가 커지고 있다. [중앙포토]
중국의 행태를 보면 이 위험은 더 또렷해진다. 중국은 디지털 기술을 단순한 산업 발전의 수단이 아니라 통치의 핵심 도구로 활용해왔다. 광범위한 CCTV망, 안면 인식 기술, 온라인 검열, 플랫폼 기업에 대한 강한 통제, 국가안보를 명분으로 한 대규모 데이터 집중은 이미 널리 알려져 있다. 그 체제에서 기술은 개인의 자유를 넓히기보다 질서와 복종을 정교하게 조직하는 방향으로 작동해왔다. 시민의 이동과 소비, 발언과 접촉이 데이터로 축적되고 그 데이터가 국가 권력의 판단 재료가 되는 구조는 중국식 디지털 통치의 핵심이다.

우려스러운 것은 이런 모델이 중국 내부에만 머무르지 않는다는 점이다. 권위주의 국가들이 중국식 디지털 통치 기술에 관심을 보이는 이유는 단순하다. 그것이 효율적이기 때문이다. 사회를 더 빨리 읽고, 불복종의 징후를 더 이른 단계에서 포착하며, 대규모 인구를 더 촘촘하게 관리할 수 있기 때문이다. 그러나 효율은 자유의 기준이 될 수 없다. 인간의 권리를 줄이고 국가의 시야를 넓히는 방식으로 얻어진 효율은 진보가 아니라 정교한 퇴보다.

문제는 안보의 위협이라는 이름 아래 중국을 견제하는 과정에서 다른 나라들도 점점 중국을 닮아갈 수 있다는 데 있다. 지정학적 안정이 무너지는 지금의 시대에는 이런 유혹이 어느 나라에도 낯설지 않다. 이것이 오늘 AI 지정학의 가장 불편한 역설이다. 자유를 지키기 위해 비자유의 방식을 택하고, 민주주의를 방어한다는 명분 아래 민주주의적 제동 장치를 우회하려는 유혹이 커지고 있다. 경쟁국이 초고속 감시와 자동화된 결정을 무기로 삼을 때, 민주국가는 스스로에게 묻게 된다. 우리가 저들보다 더 엄격한 경계를 끝까지 지킬 수 있는가. 안보의 압력 앞에서 많은 국가는 결국 효율을 택하고, 원칙은 예외 조항 속으로 밀려난다. 중국을 이기기 위해 중국의 방식을 닮아가는 순간, 우리는 과연 옳은 길 위에 있는가.

오늘 밀려나는 것은 단지 ‘착한 AI’가 아니다. 더 정확히 말하면, AI 사용에 대한 윤리적 경계가 밀려나고 있다는 사실이다. 전쟁의 압박이 윤리의 선을 흐리게 만들고, 국가의 불안이 예외를 일상으로 만들기 시작할 때, 우리는 전쟁의 승패를 논하기도 전에 인간 사회의 기준부터 잃어버릴 수 있다. 자유를 지키겠다는 국가가 감시를 내면화하고, 인간을 보호하겠다는 군대가 인간의 윤리적 주저함까지 제거하려 할 때, 디스토피아는 미래의 경고가 아니라 현재의 시스템이 된다. 앞서 이어져 온 수많은 AI 윤리 논쟁이 전쟁 앞에서 민낯을 드러내는 순간이다.

이준기 연세대 정보대학원 교수. 서울대 계산통계학과 졸업 후, 카네기멜론대 사회심리학 석사, 남가주대 경영학 박사를 받았다. 인공지능의 기업 활용에 대해 여러 회사에 자문을 하고 있다. 저서로는 『AI로 경영하라』 『오픈 콜라보레이션』 『웹 2.0과 비즈니스 전략』 등이 있다.

Copyright © 중앙SUNDAY. 무단전재 및 재배포 금지.