[KINN] AI와 전쟁 ② 선이 그어지고, 지워지고, 처벌받기까지

디프레임 2026. 3. 26. 10:21
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

AI가 전쟁에 적극 활용되고 있습니다.

디프레임(deframe)은 'AI와 전쟁'이라는 주제로 미국 법원 소장과 의견서, 기업 공시 등의 1차 자료를 입수, 분석해 논쟁의 핵심을 추적합니다.

주요 AI 기업이 AI의 군사 사용에 공식적으로 선을 그은 것은 이때가 처음이었다.

AI 기업들이 선을 긋거나 지우는 동안, 실제 전쟁에서 AI는 이미 사람을 죽이는 데 활용되고 있었다.

음성재생 설정 이동 통신망에서 음성 재생 시 데이터 요금이 발생할 수 있습니다. 글자 수 10,000자 초과 시 일부만 음성으로 제공합니다.
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

이 기사는 뉴스타파함께재단과 뉴스타파가 연대 협업하는 한국독립언론네트워크(KINN)에서 창업 과정을 밟고 있는 예비 언론사 ‘디프레임(deframe)’이 취재했습니다. 디프레임은 올 하반기 테크 및 AI 관련 탐사보도 전문매체로 출범을 준비하고 있습니다.

[편집자 주] AI가 전쟁에 적극 활용되고 있습니다. 범위도 넓어지고 있습니다. 이에 따라 AI를 군사 활동에 어디까지 사용할 수 있을지, 그 범위는 어떻게 정할지 등과 관련한 논쟁이 확산되고 있습니다. 디프레임(deframe)은 ‘AI와 전쟁’이라는 주제로 미국 법원 소장과 의견서, 기업 공시 등의 1차 자료를 입수, 분석해 논쟁의 핵심을 추적합니다.


2018년, 구글 직원 3,100명이 "전쟁 사업에 관여하지 말라"고 CEO에게 서한을 보냈다. 구글은 AI의 군사 사용에 선을 그었다. 7년 뒤, 그 선은 지워졌다. 같은 시기 다른 AI 기업들도 하나씩 제한을 풀었다. 선을 끝까지 유지하려 한 앤트로픽은 블랙리스트에 올랐다. 그 사이, AI는 가자·우크라이나·이란의 전쟁에서 이미 사람을 죽이는 데 활용되고 있었다. 2018년 구글 서한부터 2026년 앤트로픽의 소장까지, 8년간의 자료를 읽고 정리했다.

2018년: 선이 그어졌다

2018년 4월, 구글(Google) 직원 3,100명이 CEO 순다르 피차이(Sundar Pichai) 앞으로 서한을 보냈다. 서한은 이렇게 시작한다.

우리는 구글이 전쟁 사업에 관여해서는 안 된다고 믿는다. (We believe that Google should not be in the business of war.)

서한의 계기는 '프로젝트 메이븐(Project Maven)'이었다. 미 국방부가 2017년 시작한 이 프로젝트는 드론 영상을 AI로 분석해 표적을 식별하는 것이 목적이었다. 구글이 자사의 AI 기술 텐서플로우 (TensorFlow)를 제공하고 있었다.

직원들은 서한에서 이렇게 경고했다.

직접적인 적용 범위를 좁힌다 해도, 이 기술은 군을 위해 만들어지고 있으며, 납품되면 이런 용도에 쉽게 전용될 수 있다.

우리 기술의 도덕적 책임을 제3자에게 외주할 수 없다.

약 12명의 직원이 항의 사직하며 반대의 목소리를 냈다. 구글은 프로젝트 메이븐 계약을 갱신하지 않았다. 100억 달러 규모의 펜타곤 클라우드 계약(JEDI) 입찰에서도 철수했다. "AI 원칙에 부합하는지 확신할 수 없다"는 이유였다.

2018년 6월, 구글은 'AI 원칙(AI Principles)'을 발표한다. 여기에는 "추구하지 않을 응용 분야(Applications we will not pursue)" 섹션이 포함돼 있었다.

- 사람에게 상해를 입히는 것을 주된 목적으로 하는 무기 또는 기타 기술

- 국제적으로 받아들여진 규범을 위반하는 감시 기술

- 전반적인 해악을 야기하거나 야기할 가능성이 있는 기술

주요 AI 기업이 AI의 군사 사용에 공식적으로 선을 그은 것은 이때가 처음이었다.

2025~2026년: 선이 하나씩 지워졌다

2025년 2월 4일, 트럼프 2기 행정부 출범 15일이 되는 날 구글은 AI 원칙을 업데이트했다. "추구하지 않을 응용 분야" 섹션이 통째로 삭제됐다.

이전 버전과 비교하면, '무기(weapons)'도, '감시(surveillance)'도, '전반적인 해악(overall harm)'도 모두 금지 목록에서 사라졌다. 대신 "핵심 가치인 자유, 평등, 인권 존중에 따라 민주주의 국가들이 AI 개발을 주도해야 한다"는 문장이 들어왔다.

구글의 전 윤리적 AI팀 공동 리더 마거릿 미첼(Margaret Mitchell)은 블룸버그 보도에서 이렇게 말했다. 

"원칙을 제거하는 것은 윤리적 AI 분야와 활동가들이 구글에서 이뤄낸 성과를 지우는 것이다. 더 큰 문제는, 구글이 이제 사람을 죽일 수 있는 기술을 직접 개발할 가능성이 높아졌다는 것이다."

선을 지운 것은 구글만이 아니었다.

챗지피티(ChatGPT) 개발사인 (OpenAI는 미션 스테이트먼트에서 “안전(safety)"를 핵심 가치에서 제거했다. 2026년 2월 27일, 앤트로픽이 블랙리스트에 오른 바로 그 날, OpenAI는 펜타곤과 계약을 체결했다.

OpenAI는 "이번 협약이 앤트로픽의 협약을 포함한 기존의 어떤 협약보다 더 강력한 안전 장치를 갖추고 있다"고 주장하며 계약 조항을 공개했다. 대규모 국내 감시, 자율무기 지휘, 중대한 의사결정 자동화를 금지한다는 내용이다. 다만 계약 문구에는 "모든 합법적 목적을 위하여 AI 시스템을 사용할 수 있다"는 조항이 포함돼 있다. 앤트로픽이 거부한 바로 그 표현이다.

xAI의 그록(Grok) 모델은 펜타곤이 요구한 "모든 합법적 사용(any lawful use)" 기준을 수용하고, 기밀 시스템 접근 승인을 받았다.

2018년에 그어진 선이, 7년이 지나 하나씩 지워지고 있었다.

한편, 전쟁 현장에서는

AI 기업들이 선을 긋거나 지우는 동안, 실제 전쟁에서 AI는 이미 사람을 죽이는 데 활용되고 있었다.

가자: AI가 37,000명의 표적 목록을 만들었다

▶ +972 매거진이 라벤더 AI 시스템을 폭로한 기사 (출처: +972 매거진 홈페이지)

2024년 4월, 이스라엘 매체 +972 매거진(+972 Magazine)과 로컬콜(Local Call)이 이스라엘군 정보장교 6명의 증언을 바탕으로 보도한 내용에 따르면, 이스라엘군은 '라벤더(Lavender)'라는 AI 시스템을 사용해 가자 지구 주민들에게 "무장 단체 소속 가능성" 점수를 매기고, 공격 대상을 선정해왔다.

정보장교들의 증언에 따르면, 이 시스템은 37,000명을 잠재적 공격 대상으로 지목했고 분석관이 라벤더가 지목한 표적을 공격하라고 승인하는 데 걸린 시간은 평균 20초였다. 이 외에도 이스라엘군은 '웨어즈 대디(Where's Daddy?)', '더 가스펠(The Gospel)' 라는 이름의 AI 시스템으로 생성된 표적을 바탕으로 공습을 진행했다.

2025년 5월 공개된 이스라엘 군사 데이터베이스 기록에 따르면, 가자 사망자 중 전투원은 17%, 나머지 83%는 민간인이었다…(후략)

👉전체 기사 보기: https://thedeframe.com/ai-in-war_rules-blurred/

👉디프레임 응원하기: https://thedeframe.com/support/

뉴스타파 디프레임 zero@thedeframe.com

Copyright © 뉴스타파. 무단전재 및 재배포 금지.