AI가 당신 목숨을 노린다…이스라엘이 불 지핀 ‘AI전쟁’ 논란

김상준 기자(kim.sangjun@mk.co.kr) 2024. 4. 13. 09:03
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

이스라엘 군사작전에 사용하는
킬링 리스트 만드는 AI ‘라벤더’
공격 건물 추천하는 AI ‘가스펠’
작전 수행 속도 빨라지게 만들었지만
민간인 피해에는 무감각 우려 커져
군용AI 규제 마련 시급 의견 제기돼
지난 8일 팔레스타인 가자지구 남부 칸 유니스의 모습. 6개월을 넘긴 전쟁으로 인해 폐허가 됐다. [사진=AP연합]
“인공지능(AI)이 20초만에 당신이 누군지 말해줍니다!”

머리카락만 보내면 조상을 알려준다는 서비스라면 흥미롭겠지만 적군이 쓰는 피아식별 AI라면 얘기가 조금 달라집니다. 전시상황이라면 섬뜩해집니다. 신속한 작전 수행을 위해 오차범위가 넓게 설정되면, 민간인인 당신이 군인으로 오인돼 사살될 가능성이 높아질 수 있습니다. 군인 주변에 있었다는 이유로 ‘부수적인 사살’ 처리될 수도 있습니다.

공상과학(SF) 영화의 설정 같은 이러한 상황이 팔레스타인 가자지구에서는 현실입니다. 이스라엘이 팔레스타인 무장정파 하마스와의 전쟁에서 운용하고 있다는 AI머신, ‘라벤더’, ‘가스펠’ 이야기입니다.

이들의 존재와 ‘인간미 없는’ 운용 방식은 이스라엘 현지매체 ‘+972’, ‘로컬콜’ 등을 통해 최초 보도됐는데, 영국 일간 가디언이 추가 취재를 통해 실상을 구체화하면서 널리 알려졌습니다. 이스라엘군(IDF)은 AI를 활용하고 있다는 점은 인정하지만 AI인 만큼 무차별하지 않고 오히려 정교하다고 주장하고 있습니다.

실제 매일경제신문이 지난 2월 이스라엘 텔아비브에 방문했을 때, IDF 등 이스라엘 정부와 스타트업계 인사들은 군용AI의 이점을 강조했습니다.

진실은 아직 베일에 감싸져 있지만, 이스라엘과 하마스 사이 전쟁이 AI가 핵무기와 같은 ‘비대칭 전력’이 될 수 있다는 점을 여실히 보여준 최초의 전쟁으로 역사에 기록된다는 점은 분명해 보입니다. 향후에는 점점 더 많은 AI 신(新)무기들이 전쟁사에 새겨질 전망이고요.

군용AI 개발과 활용에 대한 국제적인 기준과 규약이 필요하다는 목소리가 크지만 전문가들조차 의견이 갈립니다. 규제에 신중해야 한다는 쪽은 선진국을 중심으로 규제가 마련될 텐데, 일부 국가나 단체는 허점을 이용해 치명적인 방식으로 AI를 활용할 수 있다고 봅니다.

지난 2월 7일 매일경제신문이 방문한 이스라엘 텔아비브 소재 이스라엘군 대변인실의 모습. 매일경제는 이날 이스라엘군 디지털&데이터 부대 ‘로템’ 소속 정보요원과 만나 이스라엘의 군용AI 시스템 개발 현황을 청취했다. [사진=김상준 기자]
“삐빅- 그는 테러리스트입니다. 사살 시 예상되는 민간인 희생은 15명입니다”
+972, 가디언 등을 종합하면 라벤더는 한 마디로 ‘하마스 킬링 리스트’를 만드는 AI머신입니다. 누구를 사살할지 라벤더가 정하고, 정보요원은 이를 결재합니다. 리스트는 미사일 부대, 보병 부대 등에 전달되고 군인들은 명단에 올라 있는 ‘테러리스트’를 사살하는 작전을 수행합니다.

라벤더는 머신러닝을 통해 가자지구 주민 가운데 약 3만7000명을 킬링리스트 후보로 분류했습니다. 라벤더는 전시 상황을 감안해 타격 여부를 결정합니다.

작전 진행 중 AI는 보병들이 진입할 경로를 골목 단위로 안내해준다. 최근에는 길모퉁이를 돌았을 때 적이 있을 가능성도 계산한다. 군인들은 손목에 위치한 모바일 장비 등으로 군과 AI 시스템이 제공하는 정보를 보고 듣는다. 이스라엘군 대변인실에서 만난 로템 소속 로니 헤페츠는 “우리 군인들은 자신이 처한 상황을 거의 빈틈없이 실시간으로 제공받고 있다”고 말했다.

문제는 IDF가 민간인에 대한 ‘부수적인 사살’을 용인하고 있다는 점입니다. 라벤더를 담당했던 6명의 이스라엘 정보요원들은 지난해 말, 즉 전쟁 초에 IDF가 하마스나 이슬라믹지하드 하급 무장대원 1명을 사살하는 데 최대 20명의 민간인 희생을 용인했다고 전했습니다.

하마스 고위 관료에 대해서는 사실상 민간인 희생자 수 상한을 걸지 않았습니다. 고위 관료 1명당 민간인 100명 이상의 불가피한 사살이 가능하다고 IDF는 통보했었다고 합니다.

라벤더가 신이 아니라 AI머신이기 때문에 실수를 한다는 점도 문제입니다. 오차범위가 있다는 의미인데, 정보요원들에 따르면 IDF는 틀릴 가능성을 10%로 보고 있다고 합니다. 한 정보요원은 “라벤더가 선정한 표적에 20초 정도 투자하고 승인 스탬프를 찍었다”고 말했습니다. 또 다른 요원은 “전시에는 모든 표적을 면밀하게 검토할 시간이 없다. AI의 오차범위나 민간인 피해 발생 등을 기꺼이 수용하게 된다”고 했습니다.

지난 2월 이스라엘 텔아비브에서 열린 ‘AI 데이’에서 야엘 그로스만 이스라엘군 디지털&데이터 부대 리더가 이스라엘군이 가자지구 작전에서 운용 중인 군 AI 시스템의 일부를 공개했다. ‘가스펠’로 추정된다. [사진=김상준 기자]
“A 빌딩, B 창고 공격 추천. 참고, A 빌딩 공격 시 민간인 십여명 사망 가능”
IDF는 인간 외에 공격할 건물과 인프라도 AI로 선정하고 있습니다. AI머신 가스펠입니다. 하마스 무장대원들의 전투 지휘 본부, 무기 창고, 로켓·미사일 발사대, 시설이 우선 목표이고 무장대원이 살고 있는 민간 주거 건물과 도심의 건물, 학교, 은행 등은 2차 목표로 설정돼 있습니다.

매일경제가 지난 2월 참석한 이스라엘 텔아비브대 산학연 콘퍼런스에서는 ‘가스펠’로 추정되는 AI 시연이 있었습니다. 이스라엘군 디지털&데이터 부대 ‘로템’ 리더인 야엘 그로스만이 설명한 AI시스템을 보면, 담당 정보요원은 3차원(3D)으로 구현된 팔레스타인 가자지구 지도를 학습한 AI 시스템으로부터 군사 작전 관련 제안을 받습니다.

가스펠은 머신러닝 알고리즘의 핵심인 ‘확률적 추론’을 통해 표적을 생성합니다. 대량의 데이터를 분석해 패턴을 식별하고 결과를 설정하는 기술입니다. IDF가 하마스 무장대원이나 관련자로 추정하고 있는 자들에 대한 감시 데이터가 기반입니다.

공격 건물 추천에도 시간이 얼마 걸리지 않는데, IDF는 더 나아가 담당 요원의 결정도 빠르게 할 수 있는 기능을 뒀습니다. 가스펠은 표적 건물을 알려준 뒤에 건물 내 민간인 비율을 추정해 신호등처럼 빨간색, 노란색, 초록색으로 표시해줍니다.

IDF는 전쟁 초 하마스의 기습으로 인한 국민의 분노를 달래기 위해 가스펠의 성과를 과시한 바 있습니다. DF는 지난해 11월2일 공식 웹사이트에 가스펠의 존재를 공식화하며 “AI를 통해 빠른 속도로 공격 표적을 생성한 결과 27일의 전투에서 1만2000개 건물을 공격했다”고 밝혔습니다. 하루에 400개가 넘는 건물을 폭격한 셈입니다.

이스라엘은 군용AI 연구를 전 세계 어느 국가보다 열심히 진행하고 있습니다. 매일경제가 지난 2월 이스라엘 텔아비브대에서 만난 아리엘 포라트 텔아비브대 총장은 “이스라엘에 인공지능(AI)은 생존 도구”라고 말했습니다. 아이작 벤 이스라엘 텔아비브대 융합 사이버 연구 센터(ICRC) 대표는 “이스라엘의 AI는 직간접적으로 군과 연결돼 있다”고 말했습니다.

이스라엘 혁신청과 텔아비브대학에 따르면, 현재 이스라엘 내 첨단기술 업체는 약 9100개에 이릅니다. 이 가운데 AI 전문업체는 최소 2200개라고 합니다. 박사급 AI 전문인력도 4000명에 달합니다. 이스라엘이 인구 1000만명의 작은 나라라는 점을 감안하면 ‘AI 올인’이라고 봐도 무방한 수준입니다.

AI 무분별한 이용 ‘위험’…하지만 규제 방식 두고 이견
전문가들은 입을 모아 군용 AI의 위험성을 우려하고 있습니다. 마르타 보 스톡홀름 국제평화연구소 연구원은 가디언에 “전쟁에 도입되는 AI 기술은 인간이 개입한다고 해도 ‘자동화 편향(기계 등에 점차 의존하게 되는 경향)’을 유발한다”며 “AI에 의존할수록 기계화된 방식 때문에 민간인 피해를 고려하는 능력을 상실할 위험이 있다”고 말했습니다.

게다가 AI의 비약적인 발전은 이미 물밑에서 전쟁의 모습을 바꾸고 있습니다. 미국 국무부에 따르면 현재 전 세계의 최소 30개 이상의 국가가 AI 자율 방공 시스템을 운영하고 있습니다. 군사학자 앤서니 킹은 미국 일간 뉴욕타임스(NYT)에 “데이터와 AI는 현재 전쟁의 핵심이며 어쩌면 그 자체일지도 모른다”며 “전쟁에서 승리하고자 하는 모든 군대는 빅데이터를 활용할 줄 알아야 하며 전장의 모든 데이터를 파악해야 한다. 인간은 이를 수행할 능력이 없고, AI가 아마 할 수 있다”고 말했습니다.

그러나 군용AI 관련 기준이나 규제 마련을 두고는 의견이 갈립니다. 미 안보 기관 연구원인 폴 샤레는 지난 2월 발표한 에세이를 통해 규제 마련의 시급성을 강조했습니다. 그는 군용AI는 인간의 감독이 반드시 전제돼야 하며, 핵무기에 대해선 통제권을 인간만이 갖도록 하며 드론 사용에 대한 가이드라인을 재설정하는 등 방안을 제안했습니다. 그러면서 “제한이 없다면 인류는 기계가 주도하는 위험한 전쟁의 미래로 달려가게 된다”며 “조치를 취할 수 있는 문이 빠르게 닫히고 있다”고 적었습니다.

영국 파이낸셜타임스(FT)에 따르면 옥스포드대 철학과 교수인 톰 심슨은 법을 준수하지 않는 일부 국가나 단체가 AI 살상 무기를 개발하고 활용할 가능성을 고려하면 군용AI에 대한 규제는 자제할 필요가 있다고 봅니다. 심슨 교수는 “자유민주주의가 수호할 가치가 있다고 한다면, 우리는 가장 효과적인 도구를 가져야 합니다”라고 말했습니다.

독자 여러분들은 군용AI 활용에 대해 도덕론을 견지하시겠습니까, 현실론을 채택하시겠습니까? 어느 쪽이든 AI 기술력을 확보해야 한다는 데에는 모두 동의할 수 있지 않을까 싶습니다.

Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?