[기고] "AI가 명령자를 살상했다"는 오보 소동이 주는 교훈

2023. 6. 9. 00:25
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

최근 영화 '터미네이터' 속 인공지능(AI) '스카이넷'을 연상시키는 실험 결과가 나왔다는 뉴스가 보도됐다.

마치 영화처럼 AI가 인간의 명령을 무시한 채 독단적으로 군사작전을 벌이는 시나리오가 실제로 일어났다는 실험 결과를 터커 해밀턴 미국 공군 대령이 발표했다는 것이다.

셋째, 해밀턴 대령이 발표한 '인간의 명령을 거역'하고 '명령자를 살상'하는 AI의 예는 심층신경망 강화 학습이라는 기술을 통해 구현은 가능하지만, 실제로 쓰이기에는 너무 위험천만하다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

류봉균 에피시스사이언스 대표

최근 영화 ‘터미네이터’ 속 인공지능(AI) ‘스카이넷’을 연상시키는 실험 결과가 나왔다는 뉴스가 보도됐다. 마치 영화처럼 AI가 인간의 명령을 무시한 채 독단적으로 군사작전을 벌이는 시나리오가 실제로 일어났다는 실험 결과를 터커 해밀턴 미국 공군 대령이 발표했다는 것이다. 문제는 이런 컴퓨터 시뮬레이션 실험이 실제로 존재하지 않았을 뿐 아니라 미 공군은 이런 위험하고 무책임한 AI를 개발하고 있지 않다는 데 있다. 결국 해밀턴 대령은 자신의 발표가 “머릿속으로 상상한, 가능성이 있을 수 있다는 시나리오를 설명한 것이 과장되고 왜곡돼 오해를 불러일으켰다”고 밝혔다. 하지만 이 기사는 한국을 포함한 전 세계 언론을 통해 여과 없이 노출됐고, 많은 사람에게 AI에 대한 불필요한 공포를 심어주는 데 성공한 듯하다. 미 공군 연구개발 과제를 통해 무인기와 전투기, 미래의 스마트 무기체계에 적용할 신뢰 기반 AI를 개발하고 공급하는 회사의 대표로서 이 해프닝에 대해 몇 가지 중요한 점을 지적하고자 한다.

첫째, 오픈AI의 ‘챗GPT’에서 시작된 AI 능력에 대한 과대평가가 자연어 분야에서 이제는 전 분야로 급속도로 퍼지는 현상을 확인한 사례다. 전 세계 언론이 전문가 확인도 없이 이 뉴스를 퍼뜨린 데서 우리가 얼마나 AI의 ‘초인간’ 능력을 두려워하는지를 알 수 있다.

둘째, 공군 관계자 한 사람의 해프닝으로 일단락되긴 했지만 그의 의도는 AI를 잘못 제작·디자인·구현하면 이런 무책임하고 위험한 AI가 충분히 만들어질 수 있음을 경고하는 것이었다. 윤리와 신뢰 기반의 AI 기술 개발은 살상용에 쓰일 수 있는 무기체계와 자율주행, 자율비행에서 더 필요하고 더 어렵다. 한 번의 실수가 대량 살상으로 이어질 수 있기 때문이다.

셋째, 해밀턴 대령이 발표한 ‘인간의 명령을 거역’하고 ‘명령자를 살상’하는 AI의 예는 심층신경망 강화 학습이라는 기술을 통해 구현은 가능하지만, 실제로 쓰이기에는 너무 위험천만하다. 간과하지 말아야 할 점은 완벽하게 제어가 불가능한 AI 기술은 우리에게도 적에게도 도움이 되지 않는다는 것이다. 만약 무책임하고 제어가 안 되는 AI를 중국이나 북한에서 만들었다고 가정했을 때 그 AI가 북한 같은 나라들이 인류에게 해가 된다고 ‘스스로’ 판단해 명령을 안 따르고 그들의 무기 체계나 국가를 파괴할 수도 있는 일이다.

이번 해프닝의 결론은 신뢰와 윤리 기반의 AI 기술은 국방에서 더없이 필요한 분야지만, 챗GPT의 어이없는 실수를 보면 알 수 있듯 아직 갈 길이 멀다. 특히 군 무기체계에 필요하고, 현재 진행 중인 기술 개발은 초거대 모델과는 상당히 다른 방향으로 가야 함을 인지해야겠다.

클래식과 미술의 모든 것 '아르떼'에서 확인하세요
한국경제신문과 WSJ, 모바일한경으로 보세요

Copyright © 한국경제. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?