[태원준 칼럼] AI를 가진 중동의 악당, 네타냐후

태원준 2024. 8. 9. 00:52
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.


가자전쟁에 ‘AI 타깃팅’ 동원
어디를 폭격해 누구를 죽일지
무고한 민간인은 누가 죽을지
사실상 AI가 결정하는 구조

테헤란에 인공지능 폭탄 설치
하마스 지도자 보란듯이 살해
확전 노리며 감행한 ‘AI 암살’

AI가 사람 죽이는 전쟁의 미래
그의 사욕에 벌써 현재가 됐다

#1. 이스라엘군의 고민은 늘 ‘타깃’이 부족하다는 것이었다. 오랜 세월 팔레스타인과 분쟁하며 가자지구를 공습할 때마다 어디를 때릴지 좌표를 찍는 데 애를 먹었다. 하마스 고위층은 지하 터널로 사라져버리기 일쑤였고, 지상의 거점도 민간시설로 위장한 터였다. 이스라엘군 정보사령부 8200부대가 감시망을 총동원해 은신처 등 타깃을 발굴해왔는데, 매번 축적해둔 좌표가 고갈돼 공군에서 “빨리 찍어 달라” 재촉하는 상황이 벌어졌다.

그런데 2021년 5월의 공습은 전혀 달랐다. 이스라엘군은 불과 1주일 만에 가자지구 950개 표적을 폭격했다. 타깃의 ‘대량생산’이 이뤄진 것이다. 새로 발탁된 8200부대장 요시 사리엘이 이끈 변화였고, 그는 군사정보 시스템에 인공지능(AI)을 도입해 훈장을 받은 인물이었다. 온갖 정보를 사람이 분석해 연간 50개쯤 찾아내던 타깃을, AI에 맡겼더니 하루에 100개씩 발굴했다고 한다. 전투가 끝나자 이스라엘군은 “사상 첫 AI 전쟁에서 승리했다”고 자평했다.

#2. 이스라엘 정보기관 모사드는 이란의 핵개발을 막기 위해 2007년부터 핵과학자들을 암살해왔다. 처음엔 독살, 두 번째는 폭탄, 세 번째와 네 번째는 킬러를 동원했다. 전부 이란의 오펜하이머라는 모센 파크리자데 박사의 조수들이었다. 이제 파크리자데만 남겨둔 암살 작전은 미국 오바마 대통령이 이란과 핵합의에 나서며 중단됐다가 트럼프가 이를 뒤집으면서 재가동됐다.

‘탈출 계획 없이는 작전도 없다’는 원칙을 가진 모사드는 이란의 철통 경호에 탈출선이 확보되지 않자 ‘현장 요원 없는 암살’을 설계했다. 2020년 11월 파크리자데의 차량 이동 길목에 은닉한 기관총은 차라리 로봇에 가까웠다. 수십대 카메라와 인공지능, 자동격발 및 자폭 장치가 탑재돼 있었다. AI 기관총은 차량 행렬에서 안면 인식으로 파크리자데를 정확히 찾아냈고, 격발 시 흔들림까지 제어하며 스스로 조준해 15발을 쐈다. 옆자리 부인은 전혀 다치지 않았다. 비틀거리며 차에서 내린 파크리자데를 총구로 쫓아가 확인 사살한 뒤 증거인멸을 위해 자폭했다. 전말을 보도한 뉴욕타임스는 “SF영화의 AI 살상무기가 실전에 데뷔한 순간”이라 했다.

이런 AI 공습과 AI 암살의 실험은 모두 베냐민 네타냐후가 총리일 때 벌어졌다. 몇 년이 흘러 인공지능은 진화했고, 가자전쟁은 다시 터졌으며, 네타냐후는 여전히 군 통수권을 갖고 있다. AI의 전쟁 효능을 절감한 그는 하마스와의 전면전을 AI 전쟁터로 만들었다.

지난봄 이스라엘 독립언론 보도로 알려진 8200부대의 최신 타깃팅 시스템은 인간 타깃을 찾아내는 ‘라벤더’와 건물 타깃을 발굴하는 ‘가스펠’, 두 인공지능을 활용하고 있다. 위성사진, 드론 영상, 감청 파일 등 방대한 자료를 학습하며 폭격할 대상과 위치를 찍는다. 라벤더는 주민 개개인의 활동내역을 분석해 하마스 관련성을 수치화하는데, 그렇게 추려낸 타깃이 3만7000명이나 됐다. 이들의 위치를 두 AI가 파악해 좌표 승인 요원에게 전달하는 폭격 정보에는 부수적 피해, 즉 타깃과 함께 사망할 민간인 예상치가 담겨 있다. 하마스 고위층은 부수적 피해 100명, 하급 대원은 20명까지 폭격 승인이 이뤄졌다고 한다.

이번 가자전쟁의 인명피해가 유독 큰 것은 AI가 왕성히 활동한 결과였다. 사람이 하던 것의 몇 배나 되는 타깃을 생산했고, 자체 테스트에서 신뢰도 90%로 평가한 터라 AI를 다루는 사람이 검증 대신 의존을 하는 상황이 벌어졌다(언론 취재에 응한 익명의 8200부대원은 “좌표 1건 승인에 20초 이상 걸리지 않았다”고 했다). 누구를 죽일 것인지, 함께 죽을 무고한 민간인은 누구인지를 사실상 인공지능이 결정한 것이다.

가자지구를 초토화한 네타냐후는 확전에 나섰다. 지난주 테헤란에서 하마스 최고지도자를 대놓고 암살했다. 이 작전에도 AI가 동원됐다. 4년 전 AI 기관총과 흡사한 AI 폭탄이 거처에 설치돼 있었다고 한다(이란은 미사일이라 했지만 설득력이 떨어진다). 네타냐후는 전쟁이 끝나면 안보 실패 책임과 각종 비리의 심판대에 설 것이다. 그 책임론을 무마하려 잔혹한 학살전을 벌이고, 정치생명을 연장하려 더 큰 전쟁을 유도하는 데 AI를 꺼내 들었다. AI가 사람을 죽이는 전쟁의 미래는 그의 사욕에 벌써 현재가 됐다. 우리는 AI가 악당 손에 들어가는 디스토피아의 미래를 걱정했는데, 중동의 악당은 이미 AI를 갖고 있었다.

태원준 논설위원 wjtae@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포 및 AI학습 이용 금지

Copyright © 국민일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?