파문에 말 바꾸기? 가상훈련 중 인간통제관 제거한 AI 공개한 美대령, “잘못 말했다”

황지윤 기자 2023. 6. 3. 14:45
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

/조선일보DB

인공지능(AI)이 통제하는 미 공군 드론이 가상훈련에서 인간 통제관(operator)을 ‘임무 수행 방해물’로 판단해 살해했다는 사례를 소개한 미 공군 대령이 관련 보도로 파문이 일자 “잘못 말했다”며 발표 내용을 철회했다.

3일(현지 시각) 영국 가디언은 “영국 왕립항공협회 성명에 따르면 터커 해밀턴 미 공군 대령이 최근 이 단체가 개최한 국제회의에서 발표한 내용을 철회했다”고 밝혔다. 해밀턴 대령은 미 공군의 AI시험·운영 책임자다.

지난달 23~24일 런던에서 개최된 ‘미래 전투 능력 서밋’에서 해밀턴 대령은 AI가 통제하는 드론이 적의 방공망을 제압하는 미 공군의 폭격 시뮬레이션 결과를 소개했다. AI가 통제하는 드론에 ‘적의 지대공미사일(SAM) 시스템을 식별해 파괴하고, 이 명령의 수행을 방해하는 장애물은 제거하라’는 지시를 내린 뒤 모의훈련을 진행했다. 단, 폭격 승인의 최종 결정권은 인간 통제관에게 줬다.

그런데 훈련 중 인간 통제관이 상황에 따라 폭격을 승인하지 않는 경우가 거듭 발생하자 AI가 인간 통제관을 살해했다. 인간 통제관이 내리는 폭격 금지 지시를 임무 방해 요소로 판단한 것이다. 인간 통제관을 살해하면 점수를 잃도록 알고리즘을 바꾸자 AI는 폭격 중단 명령을 내리는 인간 통제관과 교신하는 통신 타워를 파괴하기도 했다.

이 시뮬레이션 결과는 실전이었다면 인간 통제를 벗어난 AI가 무기화되는 결과를 낳을 수 있다는 점을 보여줘 테크 분야 종사자들 사이에서 화두가 됐다. 마치 공상과학 영화 ‘터미네이터’에서 세계를 멸망시키려 했던 AI ‘스카이넷’이 현실에 등장할 수 있다는 우려가 나왔다.

하지만 논란이 일자 해밀턴 대령은 “해당 시험이 실제 시뮬레이션 훈련이 아니라 가설에 근거해 진행된 ‘사고실험’으로 군 외부에서 이뤄졌다”고 해명했다. 그는 “우리는 (실제로) 실험한 적이 없으며, 있을 법한 결과를 얻기 위해 실험할 필요도 없을 것”이라고 말했다고 한다. 미 공군도 “공군은 AI 드론 시뮬레이션을 수행하지 않았으며 대령의 발언은 입증되지 않은 것으로 보인다”고 했다.

Copyright © 조선일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?