인류애 모르는 AI… 도대체 이 죄는 누가 짊어지나

김지방 2026. 4. 18. 00:04
음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[크리스천 뷰] 무기가 된 인공지능


“생각의 속도로 전쟁을 실행했다.”

브래드 쿠퍼 미 중부사령부 사령관은 이란을 선제 공격한 뒤인 지난달 5일 인공지능(AI)이 전쟁의 규모와 속도를 결정했다면서 이렇게 말했다. 미국과 이스라엘의 ‘에픽 퓨리’ 작전은 인공지능이 킬체인(Kill Chain·전쟁 실행 과정)을 주도한 인류 최초의 AI 전쟁이다.

AI 전쟁은 인간이 따라잡기 불가능할 정도로 빠르게 전개됐다. 위성 사진, CCTV 영상, 소셜미디어 데이터 등 80개 언어 정보를 순식간에 분석해 공격 목표를 선별하고, 현재 위치를 찾아내, 실시간으로 타격 가능한 실행 계획을 제시했다. 미 전쟁부에 AI 서비스를 제공하는 팔란티어의 CTO 샤이암 상카르는 블룸버그 인터뷰에서 “2003년 이라크전에서는 1000개 표적을 찾는 데 50~100명이 6개월 걸렸는데, 이번 전쟁에서는 그 두 배 규모의 작업을 한 명이 2주 만에 해냈다”고 말했다. ‘인간 없는 전쟁’을 쓴 최재운 광운대 교수는 17일 국민일보에 “사람은 AI가 선별한 공격 대상이 적절한지 아닌지 20초 안에 판별하는 작업밖에 할 수 없었고, 그나마 성별을 구별하기도 벅찰 정도로 시간이 턱없이 부족했다”고 말했다. 살상 여부를 스스로 결정하는 킬러 로봇도 더 이상 금기가 아니다. 이란도 AI 무기로 반격했다. 카메라와 AI를 장착한 신형 드론을 페르시아만 건너편 아라비아반도 전역으로 보냈다. 적의 전파 방해를 피해 스스로 목표물을 찾아 아랍에미리트(UAE)와 바레인에 있는 미군부대와 아마존 데이터센터를 직접 타격했다. 여기에는 중국 소셜미디어에 올라온 사진과 데이터가 활용된 것으로 알려졌다. 이란과 연계된 해커 조직은 생성형 AI의 영상 제작 능력을 활용해 도널드 트럼프 미 대통령, 베냐민 네타냐후 이스라엘 총리가 등장하는 레고 애니메이션 등의 이른바 ‘슬롭파간다(Slopaganda)’를 만들어 유포했다.

유엔 안전보장이사회는 지난해 9월 24일 미국 뉴욕에서 토론회를 개최했다. 주제는 AI 무기 통제. 파키스탄 이집트 에콰도르 등 대부분 국가의 대표들이 “인간 통제 없이 살상을 결정하고 실행하는 AI 무기는 인도주의 원칙에 어긋난다”며 전면 금지를 촉구했다. 미국 중국 러시아 등 군사 강국은 미온적이었다. 이들은 기존의 국제인도법만으로도 규제는 충분하다면서 “제한적인 자율 무기 사용은 오폭을 줄일 수 있다”고 AI 무기의 장점을 역설했다. 김명주 AI안전연구소장은 “결국 유엔에선 국가 간 불신과 우려 때문에 킬러 로봇 금지를 결정하지 못했다”고 전했다.

AI 살상무기에 쏟아지는 관심


한국 역시 AI 무기 개발에 더 관심이다. 이재명 대통령은 지난해 11월 4일 국회 연설에서 “방위산업을 AI 시대의 주력 제조업으로 육성하겠다”고 말했다. 국회에 상정된 국방AI기본법안 역시 신속한 AI 무기 개발을 위해 제도적 장벽을 허무는 데 초점을 맞추고 있다. 성공회대 평화월딩연구소 김현준 교수는 “한국 정부는 방어적 목적 외에 살상용으로는 AI를 활용하지 않겠다고 했지만 법안에는 반영되지 않았다”면서 “속도와 효율에 앞서 민주적인 통제와 신뢰를 확보해야 정부가 추진하는 AI 이니셔티브에도 도움이 될 것”이라고 지적했다.

이란 남부 미나브의 초등학교에 미사일이 떨어져 175명의 민간인이 사망한 참사는 AI가 과거의 낡은 군사 기지 데이터를 학습해 표적을 잘못 지정한 명백한 시스템 오류였으나 군 당국은 이를 전쟁의 부수적 피해(collateral damage)로 치부하고 있다. 리처드 무어 미 공군 중장은 2023년 허드슨연구소에서 “불면과 더위에 지친 젊은 병사의 판단보다 알고리즘이 내린 결정을 더 신뢰할 수 있다면 기계에 판단을 맡기는 것이 차라리 낫다”고 강변했다.

인간의 부재 규탄하는 교회

스위스 제네바 유엔본부 앞에서 세계교회협의회(WCC)가 킬러 로봇 반대 시위를 하는 장면. 붉은색 부러진 의자는 지뢰 금지를 상징하는 조형물이다. WCC제공

국제사회에서 AI 무기는 허용하느냐 마느냐의 문제가 아니라 누가 더 빨리 더 뛰어난 기술을 개발하느냐는 경쟁이 됐다. 마치 미국 독일 소련이 핵무기를 먼저 만들려던 2차대전 같은 상황이다.

세계교회협의회(WCC)는 2019년부터 AI 무기의 전면 금지를 촉구해 왔다. WCC 집행위원회는 “인간의 실시간 통제와 의사결정, 책임 없는 킬러 로봇 개발과 배치는 근본적으로 용납할 수 없는 비양심적 행위”라고 규정했다. WCC는 “AI 무기에는 지혜, 책임감, 도덕적 양심과 연민이라는 비판적 인간 특성이 결여돼 있다”면서 전쟁 결과의 책임을 누구에게 물어야 할지 알 수 없는 블랙박스 상태를 초래한다고 지적했다. 미나브 초등학교 오폭 사례가 여기에 해당한다. 공격 의사가 없는 민간 시설을 군사적으로 폭격한 전쟁범죄 성격이 짙지만 지휘관이나 개발자 혹은 알고리즘 어디에 공격 책임이 있는지 불분명하다.

한신대 종교와과학센터가 지난 7일 개최한 심포지엄에서 이현주 박사는 AI 무기에 대한 신학적 비판을 신약성서 누가복음 16장의 불의한 청지기 비유에서 찾았다. 그는 “청지기가 해고에 직면해 자신의 책임을 숙고하고 응답했듯 AI 무기를 통제하는 인간에게도 숙고할 수 있는 충분한 시간과 공격 대상에 대한 충분한 정보, 필요할 때 시스템을 멈추게 할 수 있는 권한이 필요하다”면서 “유엔을 중심으로 AI 무기 규제 논의가 본격화될 때 교회와 신학자들도 적극 참여해야 한다”고 밝혔다.

WCC 논의에 참여해 온 전철 센터장은 “AI 무기와 기술에 대한 냉철하고 비판적인 신학적 연구를 한국의 과학계, 산업계, 시민사회와 함께 진행 중”이라며 “AI의 장밋빛 미래만 제시되는 상황에서 한국 교회가 세계 기독교계와 함께 AI 무기에 대한 경각심을 촉구해야 한다”고 말했다.

김지방 종교부국장 fattykim@kmib.co.kr

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포 및 AI학습 이용 금지

Copyright © 국민일보. 무단전재 및 재배포 금지.