‘인간적 주저함’이 사라졌다...이스라엘 AI가 만든 지옥의 묵시록 [★★글로벌]
AI 기술로 공격목표 쏟아내
신속하게 산출된 인간표적
민간인 대량살상 부수적 피해
“판단의 인간병목 사라졌다”
軍인사들조차 AI 부작용 우려
오직 승리라는 하나의 목표를 위해 서로를 죽고 죽이는 전쟁터에서 AI 기술 활용은 지옥문을 여는 열쇠가 될 것으로 보입니다. 이스라엘 사례 때문입니다.
올해 단독 형식으로 보도된영국 가디언, 이스라엘 매체 +972 매거진, 그리고 최근 미국 워싱턴포스트 기사를 종합하면 이스라엘은 ‘8200부대’라는 세계 최강의 정보화부대를 앞세워 지난 1년 간 팔레스타인 무장단체 하마스와 전쟁에 AI 기술을 사용하고 있습니다.
안타깝게도 전쟁 승리를 위해 투입한 이 기술은 이스라엘에 잔인한 핏빛 이미지를 더하고 있는 것으로 보입니다. 전쟁의 효율성을 명분으로 <민간인 사망 확대> <기술 위험성에 대한 반대의견 묵살> <알고리즘에 대한 통제력 상실>을 야기하고 있다는 분석입니다.
이스라엘이 전쟁 승리를 위해 쓰는 AI 기술은 거룩한 평화의 땅에서 어떤 부작용을 낳고 있는 것일까요.
그는 8200부대를 이끌기 직전 미국 국방대(NDU)에서 안식년을 보내며 2021년 실명이 아닌 필명(Y. S. 준장)으로 AI가 바꿀 미래 군사작전 변화를 그린 책(인간과 기계의 팀 : 세상을 혁신할 인간과 AI의 시너지 창출 방법)을 출간한 인물입니다.
당시에는 ‘Y. S. 준장’이라는 필명 때문에 저자가 누군지 몰랐는데 2023년 10월 이스라엘-하마스 전쟁이 터지고 이스라엘의 공격 양태를 보니 이 책에서 예고된 AI 전술들이 실제 사용되고 있다는 의구심을 불러 일으켰습니다.
마침내 지난 4월 가디언이 단독 보도를 내놓았는데 이 책의 저자가 바로 8200부대를 이끌고 있는 요시 사리엘 사령관이었다는 것이죠.
놀랍게도 요시 사리엘 사령관이 3년 전 자신의 저서에서 적시한 AI 활용 전략은 실제 8200부대의 AI 활용 방법과 일치하며 이스라엘군의 AI 전술 요체는 바로 가스펠과 라벤더로 요약됩니다.
복음이라는 고귀한 뜻을 가진 ‘가스펠’은 역설적으로 미국 드라마처럼 AI를 통해 살상 목표를 산출하는 이스라엘군의 기술력을 상징합니다.
작년 10월 전쟁이 시작되고 이스라엘군은 수 년간 공들여 수집한 집 주소, 터널 및 기타 무장 단체에 중요한 인프라스트럭처를 기록한 데이터베이스(DB)를 바탕으로 가자지구에 포탄을 퍼부었습니다.
하지만 목표 시설들은 전쟁이 장기화하면서 빠르게 바닥 났습니다. 이스라엘군은 빠른 공격 속도를 유지하기 위해 공격 목표물을 신속하게 생성하는 ‘가스펠’을 사용한 것으로 추정됩니다.
가스펠은 다양한 예측 알고리즘을 기반으로 통신감청 데이터, 인공위성 영상, 소셜네트워크 데이터를 분석해 하마스가 땅속에 묻어놓았을 로켓 무기 좌표 등을 찾아냅니다.
농경지에서 새로운 땅굴이 만들어졌을 가능성 등 미묘한 영상 패턴을 분석하는 식이죠.
이렇게 쏟아내는 공격 목표 리스트를 정보 분석가가 심사해 상부에 보고하고 고위급 장교가 최종 타깃 DB로 설정하게 됩니다.
워싱턴포스트는 가스펠의 효용성에 대해 지난 2023년 아비브 코하비 전 이스라엘군 참모총장이 한 언론과의 인터뷰에서 이렇게 자랑한 사실도 공개했습니다.
“가스펠 이전에는 분석가들이 가자지구에서 한 해 50개의 새로운 표적을 생성해 표적 DB화할 수 있었는데 가스펠이 가동된 후에는 하루 만에 100개의 표적을 만들어낸다.”
AI로 DB화한 공격 목표들은 이스라엘군 내 ‘더 풀(the Pool)‘이라는 네트워크에서 공유되며 이 DB 목록과 인간 병사가 의심하는 공격 목표 간 일치가 확인되면 주저 없이 공격을 퍼부은 것이죠.
확률을 기반으로 하는 AI 기술이 공습의 멈춤 없이 계속 폭탄을 투하하도록 만드는 지옥문을 열게 한 것입니다.
‘라벤더’라는 또 다른 머신러닝 도구 역시 백분율 점수를 사용해 팔레스타인인이 무장 단체의 일원이 될 가능성을 예측하고 인간 표적을 대량 생성하는 것으로 파악됩니다.
그러나 이번 가자 전쟁을 통해 하마스 하급 대원 1명 당 민간인 사망자 비율은 15명으로 늘었고 최근 뉴욕타임스는 이 숫자를 20명으로 보도했습니다.
현장에서 취합된 정보를 토대로 사람의 판단이 개입되는 기존 상황에서는 공격 단추를 누를 때 민간인 피해 여부가 중요하게 고려되는 반면, AI가 산출하는 공격 목표들은 강한 확신을 심어주며 공격 단추를 누를 때 발생하는 주저함을 소멸시킵니다.
또한 확률의 방식으로 멀쩡한 민간인을 테러리스트로 추정할 가능성도 커집니다. 이는 이스라엘의 공격 목표가 민간인 거주 시설에 더 가까워진다는 것을 의미하죠.
그러나 이스라엘군은 AI 사용이 인명을 위험에 빠뜨린다는 주장에 대해 “사실과 다르다”고 반박하고 있습니다. 이스라엘군은 워싱턴포스트에 보낸 성명에서 “정보를 효과적으로 수집할 수 있는 능력이 많을수록 그 과정은 더 정확해진다”고 밝혔습니다.
이스라엘군은 “오히려 이러한 도구는 부수적인 피해를 최소화하고 사람이 주도하는 프로세스의 정확성을 높였다”라고 주장하고 있습니다.
워싱턴포스트는 AI 기반 공격 목표 정보의 품질에 대한 우려와 더불어, 이 기술의 사용이 역사적으로 ‘개인의 추론’을 중시하던 업무 문화를 ‘기술력 우선’ 문화로 대체하면서 이스라엘군 내에 분열적 변화를 촉발했다고 전합니다.
일례로 8200부대는 오랫동안 낮은 직급의 정보 분석가들이 직속 상사를 우회하고 고위 상사에게 직접 경고를 할 수 있는 권한이 부여됐다고 합니다.
그런데 사리엘 사령관과 다른 정보 지휘자들의 지도 아래 엔지니어를 중시하는 방향으로 조직이 바뀌고 AI에 저항적인 것으로 여겨지는 몇몇 지휘관들이 해임됐다고 합니다.
익명을 요구한 전직 이스라엘군 지휘관은 워싱턴포스트에 “이곳은 AI 공장이 됐다. 인간은 기계로 대체됐다”고 전하고 있습니다.
또 AI 분석 도구에 부여되는 가중치도 신뢰할 수 없는 수준이라는 내부 비판이 나오고 있다고 합니다. 기계학습 과정에서 공격 타깃이 테러리스트가 아니라는 학습 자료가 상대적으로 적다는 점도 AI의 편향과 오류를 야기할 수 있습니다.
특히 전직 이스라엘군 고위 관료들은 워싱턴포스트에 군내 ‘경고 문화’가 약화됐다고 염려합니다. 앞서 얘기한 것처럼 AI 분석과 판단에 의존하면서 공격 결정을 두고 신중하게 고민하는 인간적 주저함, 이른바 ‘인간 병목’ 현상이 사라지고 있다는 것입니다.
전통의 지혜에 도전하라는 것이 10번째 사람에게 주어진 임무입니다.
브래드 피트가 출연한 영화 ‘월드워Z’를 기억하는 독자들은 익숙한 단어일 것입니다. 영화 속에서 이스라엘은 다른 나라보다 일찍 거대 장벽을 설치하고 알 수 없는 감염병과의 전쟁에서 선방했는데 이 영화적 상상력을 구성하는 현실 모티프가 바로 ‘10번째 사람’입니다.
또 무장단체의 여러 고위급 인사를 상대로 완벽한 암살 테러를 감행했습니다. 이 과정에서 영화 속에서나 나올법한 이른바 ‘삐삐 폭탄 테러’ 사건까지 일으켰습니다.
모두 이전 중동 전쟁에서는 보지 못한 새로운 양상이자 진한 피비린내를 풍기는 장면들입니다.
이를 두고 외부에서는 이스라엘의 정보력과 기술력에 놀라움을 표하지만 민간인 거주지를 가리지 않는 잔인한 공습과 이로 인해 쌓여가는 여성과 어린이 등 민간인 사망자 피해를 고려하면 이스라엘은 AI 기술을 이용해 인류가 예전에 보지 못한 지옥문을 연 것 같습니다.
2025년 가자전쟁이 휴전 혹은 종전을 맞게 된다면 10번째 사람 원칙이 통용돼 온 이스라엘 국방부 내부에서는 이번 AI 무기화에 대해 어떤 사후 평가를 내리게 될까요.
전쟁광으로 비난 받은 이스라엘 총리 등 “정치인보다 AI 기술이 더 통제불능 상태였다”는 10번째 사람의 경고가 나오지 않을까 싶습니다.
“뒤처지는 것에 대한 두려움이 작동하고 있다. 이 두려움은 예전 핵무기와 수소폭탄 개발경쟁의 동력이 됐던 것과 동일한 역학관계를 만들고 있다.”
오바마 행정부에서 국가안보회의(NSC) 특별보좌관을 역임한 존 울프스탈은 지난해 각국의 AI 무기화 경쟁에 이 같이 경고했습니다.
반대로 AI 안전론을 주창해온 세계적 벤처 투자가인 마크 안드리센은 2023년 6월 ‘AI가 세상을 구할 이유’라는 선언문에서 이렇게 말했습니다.
“나는 인공지능이 전쟁 사망률을 획기적으로 줄임으로써 전쟁을 개선할 수 있을 것이라고 생각한다. 모든 전쟁은 극심한 압박과 극도로 제한된 정보 속에서 제한된 능력을 가진 인간 지휘관의 끔찍한 결정으로 특징된다. AI는 군 지휘관과 정치 지도자들이 훨씬 더 나은 전략·전술적 결정을 내리도록 도울 것이다.”
안타깝게도 안드리센의 바람은 이스라엘 전쟁을 통해 순진한 헛소리가 됐습니다.
확률의 AI는 오히려 오판을 두려워하는 인간의 죄의식을 집어삼켜 더 많은 공격 버튼을 누르게 했다는 게 외신들의 탐사보도 결론입니다.
Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지
- “경호 구역이라 불허”…공수처 수색 저지한 박종준 경호처장은 누구? - 매일경제
- 15억 당첨되고도 몰랐던 부부, 마감 5시간 전에 복권 찾았다는데 어디? - 매일경제
- “두번 다시 선후배 언급 말아달라” 요구에…해병대 출신 김흥국이 한 말 - 매일경제
- 슈퍼카, 명품 가방 ‘잔뜩’...태국 최연소 총리 재산은 무려 5900억원 - 매일경제
- “밀폐된 수영장은 울음바다 그 자체”…분당 화재 대피자가 전한 아찔한 순간 - 매일경제
- “9만원에 판다고 샀더니 설치비가 10배”...엄동설한에 서민 울리는 ‘가짜 보일러’ 주의보 -
- 해외서만 1500조 ‘잭 팟’에도 웃을 수만은 없는 정부 - 매일경제
- 1등만 사는 더러운 세상?…‘2% 부족’ 싼타페, 쏘렌토 드디어 ‘국민차’ 됐다 [최기성의 허브車
- ‘尹체포’ 막아선 수방사 55경비단…정부 초 ‘김용현 설계’ 논란 - 매일경제
- “환영합니다 친구야” 오타니, 김혜성에 환영 인사 - MK스포츠