수주일 걸릴 표적, 24시간 만에 끝냈다…AI, 괴물인가 참전 영웅인가 [세계는 지금]
美, 이란 표적 1000곳 선정 활용
몇 주 걸리던 작업, 24시간 내로
마두로 체포작전 등 주도적 역할
앤트로픽 자사기술 사용 문제 삼아
현대戰서 안 쓰면 불리, 의존심화
오판 가능성에 국제적 금지 촉구도

◆AI가 표적 추천…‘킬 체인’이 빨라졌다
AI가 본격 도입된 지금의 전쟁은 이전과 비교해 훨씬 진화했다. 2000년대의 전쟁이 연결된 화면으로 상황을 실시간 공유했던 네트워크 중심이었다면, 2020년대 전쟁은 연결된 데이터 속에서 의미를 분석해 추천하는 AI 중심 단계로 넘어갔다. 대규모언어모델(LLM)과 표적 추천 시스템이 사람이 읽고 판단하던 과정을 통째로 압축하는 것이다.

이런 변화는 이스라엘의 가자지구 공습에서 이미 확인됐다. 가디언과 독립매체 +972는 이스라엘군이 개발한 ‘라벤더’시스템이 대규모 인구 데이터를 처리해 가자 남성 중 하마스와 관련된 인물 표적 후보를 대량 산출했다고 보도했다. 연관 정도를 어떻게 설정하느냐에 따라 후보군 숫자도 달라지는데, 최대 3만7000명 규모의 후보가 언급된 것으로 알려졌다. 제보자는 “하나의 표적당 20초를 썼고 매일 수십명을 작업했다”며 “인간은 승인하는 절차 외엔 거의 관여하지 않았다. 표적이 남자인지 정도만 확인하는 데 그쳤고 시간이 많이 절약됐다”고 밝혔다.

AI 무기화 논쟁은 전쟁에서 AI를 어디까지 활용할 수 있느냐는 현실적인 질문을 던진다. 지난 1월 미국의 니콜라스 마두로 베네수엘라 대통령 체포 작전에 앤트로픽의 클로드가 쓰였다는 보도가 나왔다. 워싱턴포스트에 따르면 미군은 팔란티어가 구축한 ‘메이븐 스마트 시스템’을 사용했다. 방대한 기밀 데이터, 위성, 감시 정보를 모아 분석하는 프로그램인데, 그 안에 클로드가 내장돼 표적 후보를 제안하고 표적을 추출한 뒤 우선순위를 매기는 데 쓰였다.
앤트로픽이 이를 문제 삼자 미 국방부는 오히려 군이 클로드를 ‘모든 합법적 목적’에 쓸 수 있어야 한다고 요구했다. 앤트로픽은 이 계약이 미국인 대규모 국내 감시, 인간의 최종결정 없는 완전 자율무기로 번질 수 있다며 계약서에 ‘금지’ 조항을 명시해 달라고 맞섰다. 협상이 결렬되자 국방부는 앤트로픽을 ‘공급망 위험’ 기업으로 지정했고 정부 차원의 클로드 사용 중단 지시가 내려졌다.
그런데 그 후, 이번 이란 전쟁에도 클로드가 사용됐다는 보도가 여러 매체에서 나왔다. 가디언은 이에 대해 AI 의존성 문제를 짚으며 “강력한 AI 도구를 군 임무에서 갑자기 빼는 일이 왜 어려운지를 보여주는 사례”라고 설명했다. 이미 AI가 업무에 깊고 복잡하게 얽혀 있으면 실제 현장에서 당장 사용을 중단할 수 없다는 것이다.
로이터는 메이븐 안의 여러 업무 흐름이 클로드 코드로 구축돼 있어, 이를 제외하려면 팔란티어가 대대적인 재구축 작업을 해야 한다고 지적했다.

이 논쟁은 일반 사용자들에게도 영향을 미쳤다. 소비자들은 토론에 그치지 않고 어떤 AI 앱을 선택하는지로 자신의 입장을 드러내기 시작했다.
포브스에 따르면 앱스토어에서 클로드 앱 다운로드는 이달 2일 기준 전주 대비 55% 늘었다. 클로드의 입장을 지지하는 소비자들이 대거 유입된 것으로 해석할 수 있다. 오픈AI는 정반대였다. 국방부와의 계약 소식 직후 미국에서 챗GPT 앱 삭제는 전일 대비 295% 급증했다.
AI 기업 내부에서도 움직임이 일어났다. 구글 직원 300여명과 오픈AI 직원 60여명이 “대규모 감시와 완전 자율무기의 레드라인을 함께 지키자”는 공개서한에 서명한 것이다. 대내외적 반발 속에 오픈AI는 국방부와의 계약 문구를 보완하겠다고 밝혔다.

AI가 전장 표적 선정 과정을 ‘생산라인’처럼 재구성하면서 전쟁은 이제 처리량과 속도의 경쟁이 됐다. 세계 AI 기술을 주도하는 미국과 이스라엘이 전쟁 초기 짧은 시간 이란과 레바논(헤즈볼라)을 타격한 위치와 횟수, 그리고 희생자 숫자를 보면 AI는 전쟁 목표에 최적화된 도구로도 볼 수 있다.
그러나 AI 결과물의 정확도는 100%가 아니다. 전문가들은 특히 실제 전쟁에서 AI의 빠른 속도가 가장 위험하다고 경고한다. 국제로봇무장통제위원회(ICRAC) 공동 창립자 피터 아사로는 5일 AFP와 인터뷰에서 AI가 표적 목록을 인간보다 훨씬 빠르게 만들 수 있다는 점을 지적하며 “핵심 쟁점은 인간이 그 목록을 실제로 얼마나 검토하고 합법성과 군사적 가치를 확인하느냐”라고 짚었다.

이란 전쟁 초기 미군의 토마호크 미사일로 추정되는 미사일이 이란의 여자초등학교에 떨어져 어린 학생들과 교직원 등 최소 175명이 사망했다. 과거 해군기지였던 해당 학교의 위치 정보가 최신화되지 않아 표적 설정에 오류가 있었던 것으로 추정되고 있다.
이 과정에서 AI는 어떤 역할을 했고, 인간은 어느 정도까지 관여했으며 그 책임은 누구에게 있는지에 대한 질문이 제기된다. AI가 전쟁의 속도를 높일수록 인간의 최종 판단과 책임의 경계를 보다 명확히 해야 한다는 문제의식도 함께 커지고 있다.
김희원 기자 azahoit@segye.com
Copyright © 세계일보. 무단전재 및 재배포 금지.
- 보일러 없던 월세방서 ‘2000억’…배용준, 욘사마 버리고 ‘투자 거물’ 됐다
- “45만 월세의 반란” 박군, 30억 연금 던지고 ‘15억 등기부’ 찍었다
- 냉동실에 오래 둔 고기 하얗게 변했다면 먹어도 될까
- ‘200배 수익설’ 이제훈, 부동산 대신 스타트업 투자한 이유
- “헬스장 끊고 병원 줄 선다”…두 달 새 119곳 문 닫게 한 ‘살 빼는 주사’
- 정비공 출신·국가대표 꿈꾸던 소년이 톱배우로…원빈·송중기의 반전 과거
- “인생 안 풀리면 관악산 가라”…역술가 한마디에 ‘개운 산행’ 열풍 [이슈픽]
- “언니 변호사, 동생 의사” 로제·송중기 무서운 ‘집안 내력’ 보니
- “편의점 도시락 그대로 돌렸는데”…전자레인지 ‘3분 습관’의 숨은 위험
- “포르쉐 팔고 모닝 탄다… 훨씬 편해”…은혁·신혜선·경수진이 경차 타는 이유