[세상보기] 인공지능 무기는 챗GPT와 다르다

2024. 11. 11. 07:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

윤대엽 대전대 군사학과 교수.

인공지능의 무한한 가능성에 대한 기대와 함께 인공지능 리스크(AI Risk)에 대한 우려도 커지고 있다. 인공지능이 전염병, 핵무기와 같은 공멸의 위험이 될 수 있다는 'AI 리스크 성명'에는 300여 명이 넘는 과학자, 빅테크 CEO, 정치인이 참여했다. 인공지능의 토대가 된 머신러닝 연구로 2024년 노벨물리학상을 받은 제프리 힌튼 교수도 그중 한 사람이다. 힌튼 교수는 인간보다 똑똑해질 수 있는, AI가 통제할 수 없는 위협이 되지 않도록 국제적인 규제를 주장해 왔다. 산업혁명, 정보혁명에 이어 생산력을 폭발적으로 증가시킬 인공지능의 자율적 규제는 불가능하기 때문이다.

인공지능이 핵 혁명에 버금가는 '오펜하이머 순간'이 될 것이라는 비유는 인공지능 무기에 대한 우려를 대변한다. 오펜하이머 순간으로 기록된 1945년 7월 16일 최초의 원폭 실험은 파멸을 위한 핵 군비경쟁의 출발점이 됐다. 상상을 뛰어넘은 폭발력을 가진 원자력에 대한 '기대'가 핵 군비경쟁의 동기가 된 것처럼, 인공지능의 군사적 가능성에 대한 '기대'가 인공지능 군비경쟁을 촉발하고 있다. 인공지능 군비경쟁은 정해진 미래라고 단정해도 무방하다. 실존적 위협이 현실화되지 않은 가운데 가능성을 규제하는 것은 불가능할뿐더러 디지털 기반의 범용성, 개방성을 가진 인공지능 기술은 상업적, 군사적 전용의 장벽이 매우 낮다. 약소국이 보유할 수도 있는 불완전한, 적당히 스마트한 인공지능 무기가 초래하는 비대칭 위협이 강대국의 인공지능 무기 개발을 촉진시키고 있다.

그러나 인공지능이 곧 '완벽한 군대'라는 기대는 영화적 상상이다. 인공지능의 무기화는 핵 군비경쟁보다 더 복합적인 요인이 혁신적, 점진적, 또는 퇴행의 과정을 거치면서 현실화할 것이다. 완벽한 인공지능의 성능은 알고리즘(A), 빅데이터(B), 클라우드(C) 등 '인공지능 삼위일체(AI Triad)'의 완벽성에 비례한다. 인공지능 삼위일체는 쉽지 않은 기술적 장벽이 있다. AI 알고리즘은 빅데이터의 복잡성을 줄여주고, 인간이 인지하지 못하는 패턴을 분석하는 데 유용하다. 하지만 알고리즘은 통계적 상관관계에 대한 통찰력일 뿐 인과적인 결론이 아니다. 판단이 곧 생존을 결정하는 전장에서 근거 없이 배제하거나(거짓긍정) 리스크를 수용(거짓부정)하는 알고리즘은 생존의 위기를 수반한다. 신뢰할 수 있는 군사빅데이터를 축적하는 것도 과제다. 우연히 수집된 빅데이터를 조합해 그럴듯한 사진, 영상, 문장으로 조합하는 챗GPT는 이미 상용화됐다. 그러나 인공지능의 무기화를 위해서는 군사적 목적에서 수집된 양적, 질적 빅데이터가 축적돼야 한다. 전략은 물론 의지, 감정, 편견이 상호작용하는 돌발적이고 우연적인 '전쟁의 안개'를 완벽하게 자료화하는 것은 불가능하다. 더구나 인공지능 삼위일체의 기반으로서 사물인터넷, 데이터센터, 컴퓨팅 능력은 물론 통신, 우주, 전력 기반의 구축을 위해서는 모험적 기술과 막대한 자원, 시간이 필요하다.

탄도미사일방어나 유도무기체계와 같이 정형성, 신속성을 요구하는 센서-슈터 플랫폼의 인공지능화는 빠르게 진전될 것이다. 그러나 인공지능 삼위일체와 기반이 동시적, 병렬적으로 발전할 수 없는 현실을 고려하면 인공지능 살상 무기의 개발 속도는 기대보다 늦어질 것이다. 반면, 인공지능의 무기화가 비대칭성과 불완전성의 안보딜레마를 심화시키는 게 중요하다. 모든 것이 디지털화되고 모든 정보 주체가 네트워크로 연결된 디지털 사회에서 인공지능은 불안, 선동, 여론을 조작하는 비살상 무기로 활용될 수 있다. 디지털 전환의 속도와 디지털 리스크가 비례하는 것도 문제다. 무엇보다 불완전한, 적당히 스마트한 인공지능 무기의 위험이 증가할 것이다. 이-하마스 전쟁에서 암살 표적 확보를 위해 이스라엘이 사용한 '라벤더(Lavenda)'는 에러제로(zero-error) 원칙이 최소화되면서 3만 명이 넘는 민간인이 희생되는 비극을 초래했다.

인공지능이 핵무기에 이어 파멸의 연쇄작용이 될지는 인공지능 리스크를 인식하고 통제하는 인간의 디지털 리더십에 달려있다. 윤대엽 대전대 군사학과 교수

Copyright © 대전일보. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?