[뉴스라운지] 미래 전쟁의 게임체인저 AI 무기, 현황과 쟁점은

YTN 2023. 10. 23. 20:04
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

■ 진행 : 함형건 앵커

■ 출연 : 조상근 KAIST 국가미래전략기술 정책연구소 교수

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다. 인용 시 [YTN 뉴스라운지] 명시해주시기 바랍니다.

[앵커]

우리 사회에 심대한 영향을 끼치는 큰 흐름을 짚어보고 미래를 조망해 보는 <비전 카페> 시간입니다. AI 기술이 빠르게 발전하며 요즘엔 국방 분야에서도 AI가 무기개발의 핵심 기술로 주목받고 있습니다. 미래 안보의 지형을 바꿔놓을 수도 있는 이른바 '게임 체인저'로 떠오르고 있는데요. 현황과 함께 관련 쟁점은 뭔지, 조상근 카이스트 국가미래전략기술 정책연구소 교수와 함께 짚어보겠습니다. 인공지능 무기라면 아직도 적지 않은 분들이 생경하게 느끼실 것 같은데요. 정확히 어떤 개념인지 일단 정리를 해 봐야 할 것 같습니다. 어떤 건가요?

[조상근]

이거를 알기 위해서는 전쟁의 사례를 알아야 되거든요. 그런데 전쟁의 사례를 분석해 보게 되면 상대보다 먼저 보고 먼저 결심해서 먼저 타격하는 측이 승리를 했습니다. 그래서 이거를 한자로 말하면 선견, 선결, 선타라고 하는데요. 그런데 현대적 용어로 바꾸게 되면 먼저보다 선견은감시, 선결은 결심, 그다음에 선타는 타격으로 할 수갸있습니다. 그래서 이 세 가지가 전쟁 승리의 요체기 때문에 지금 군사적으로 강력한 나라들 같은 경우는 이런 감시, 그다음에 결심, 그다음에 타격 자산을 AI 기술로 접목시켜서 효율성을 높이고 있거든요.

그렇기 때문에 이런 것들이 예전에 머신러닝 하시면 다 아시겠지만 이런 것들이 계속해서 고도화되고 있기 때문에 특정 무기체계에 있는 것이 아니라 현재도 그렇고 미래에도 그렇고 모든 무기체계에 다 덧입힌다는 것이 인공지능 무기거든요. 그 수준이 높고 낮음의 차이만 있을 뿐입니다.

[앵커]

시시각각 변하는 표적이라든가 아니면 군의 상황에 따라서 감시정찰에도 AI를 쓸 수 있고 표적을 식별하는 데도 AI를 쓸 수 있고 그렇다는 거죠. 지금 말씀하신 대로 그렇다면 이게 완전히 새롭게 나온 것은 아니고 과거에도 표적을 이를테면 유도탄 같은 것이, 미사일이 어떤 궤적을 그리면서 표적을 향해서 스스로 날아가는 그런 기능이 있지 않았습니까? 그것도 연장선상에서 보면 이것의 초기 단계라고 볼 수 있습니까?

[조상근]

AI라는 것은 데이터의 싸움인데 갑자기 뜬금없이 나오는 게 아니라 그동안의 데이터가 축적된 것이 고도화되는 거거든요. 그래서 말씀하신 사례가 정확하게 맞습니다.

[앵커]

그렇다면 구체적으로 어떤 모습으로, 어떤 용도로 쓰고 있는 건지, 최근 분쟁 사례에도 이것이 적용되고 있다고요?

[조상근]

그렇습니다. 우리가 생각하기에 인공지능 무기 하게 되면 터미네이터 보시면 인간의 능력을 능가하는 것으로 알고 계신데요. 아직까지는 초기 수준의 단계고요. 이번에 하마스가 이스라엘을 기습 공격을 할 때 이스라엘의 경계 부분에 실패가 있었지만 기본적으로 이스라엘군 같은 경우에는 드론, CCTV, 그다음에 인간들에 의해서 수집된 영상이나 이미지들을 분석해서 하마스의 전투원들의 위치를 추적하는 시스템을 쓰고 있고요. 그다음에 우크라이나에서도 우크라이나군들이 쓰고 있는 것들이 많이 있는데 어떤 걸 하게 되냐 하면 표적을 전장에서 확보를 하게 되면 아군이 갖고 있는 자산들이 상당히 많이 있지 않습니까? 그래서 표적의 성질별로 해서 최적의 타격수단을 매칭시켜주는 거죠. 그것을 GIS-Arta라는 것이 있는데 작년에 어떤 전투에서 단 한 번의 전투에 73:1의 러시아군의 전차, 장갑차를 파괴함으로써 세계의 이목을 받기도 했습니다.

[앵커]

이를테면 정보를 구체적으로 세부적으로 어떻게 수집하게 되는 겁니까?

[조상근]

예를 들어서 저희가 다영역이라고 말을 하는데 요새는 기존의 육군을 기준으로 하게 되면 지상 위주로 활동을 하게 되는데 지금 전장이 과학기술 발전에 따라서 지상, 해상, 공중, 사이버 전장으로 확대가 돼 있잖아요. 그래서 지상에서 사람들에 의해서 수집되는 건 기본이고요. 그다음에 공중에서는 드론 같은 것들, 감청을 통해서 적의 정보를 듣기도 하고요. 그런 것들을 다 취합을 해서 분석을 하게 되는 것이죠.

[앵커]

알겠습니다. 미군 같은 경우도 굉장히 적극적으로 AI 무기 기술을 개발해 왔고 이미 실전 배치한 사례들도 많이 있다고 들었는데 어떤 게 있습니까?

[조상근]

아시다시피 현재 미국은 중국과 전략적 경쟁을 하고 있지 않습니까? 대만을 중심으로 해서 첨예하게 대립하고 있는데 특히 인도태평양사 예하에 있는 미 해군의 활동을 주목해 볼 필요가 있습니다. 거기에서 보시면 얼마 전에도 언론에 나왔지만 씨 헌터라든가 이것은 무인수상정이거든요. 무인수상정인데 이것이 최대 90일 동안 활동이 가능합니다, 사람이 탑승하지 않고. 그렇게 되면 이것들이 적이 나타나게 되면 대형을 전환하거나 유지하는 것들이 이런 것들이 다 인공지능에 의해서 지금 사용되게 되고요. 또 에코 보이저라는 무인 잠수정도 있는데요. 이건 1만 2000km까지 이동이 가능하고 예를 들어서 적의 바닥에 매복을 하다가 어뢰를 쏘든가 하는 그런 것들이 다 AI에 의해서 자동적으로 수행되게 되는 것이죠.

[앵커]

이를테면 자동차에 비유한다면 무인 자율주행차라고 볼 수가 있겠는데 그렇다면 주행하고 작동하는 과정이 인간이 어디선가 원격으로 통제하고 있는 겁니까? 어떤 겁니까?

[조상근]

지금 현재는 통제를 해야 하는 거고요. 통제를 받고 있는 거고, 예를 들어서 우리가 갖고 있는 룰이 뭐냐 하면 AI 같은 경우는 사람이 결심을 지원하게 하는 보조적인 수단이고 어떤 액션 같은 경우에는 사람에 의해서 하게 돼 있습니다. 그래서 제가 자세히는 모르겠지만, 비밀이기 때문에. 현재까지는 우리가 알려진 바로는 사람에 의해서 지정되는 작전 지역에서 AI 도움을 받아서 행동은 사람에 의해서 지시에 따라서 하는 것으로 알려져 있습니다.

[앵커]

하지만 시시각각의 상황을 기민하게 판단하는 데는 또 기계의 판별이나 판단에 의존하는 측면도 있을 것이고요.

[조상근]

그렇습니다. 사람보다 빠르기 때문이죠.

[앵커]

말씀하신 대로 각국이 AI 기반의 무기를 개발한다고 하면 그 기술 자체를 완전히 공개하지 않고 상당히 비밀리에 진행할 가능성이 있기 때문에 우리는 단편적으로 나오는 정보를 갖고 생각해 볼 수밖에 없는 상황인데 지난 8월 말인가요? 미군이 레플리케이터라고 하는 수천 개의 인공지능 무인 자율 체계라고 자율무기체라고 발표를 했습니다. 그것을 2년 내에 도입을 할 것이다 이렇게 발표를 했는데 이게 어떤 겁니까?

[조상근]

정확히 말을 하게 되면 미 국방부의 부장관께서 레프리케이터 구상을 발표했는데요. 이게 이유가 뭐냐 하면 중국의 물량 우세를 상쇄시키기 위한 것입니다. 아까 말씀드린 것처럼 인도태평양사에서 미 해군이 유무인 복합전투체계로 가면서 생존성을 보호하고 그다음에 전투 효율성을 극대화하기 위해서 전단에 무인체계를 배치하고 있거든요. 그런 무인체계에 덧입힐 로봇이라든가 드론, 무인수상정 등을 표준화하고 그다음에 표준화게 되면 생산 단가가 싸지지 않겠습니까? 그리고 또한 기상이라든가 표면에 장애를 받지 않고 전천후로 운용할 수 있도록 작전 효율성을 높일 수 있도록 2년 이내에 상당히 많은 무인체계를, 그것도 진화된 무인체계를 도입하겠다는 의미죠.

[앵커]

그렇다면 이건 육해공군 다 다 적용이 되는 기술입니까?

[조상근]

그렇습니다.

[앵커]

그러면 무인기, 아까 화면에 나왔던 무인정이라든가 무인함 그리고 무인 장갑차 같은 것도 있을 수 있나요? 그런 데 다 적용이 되는 겁니까?

[조상근]

다 적용이 되는 거고, 아까 해군을 말씀드렸지만 인도태평양사에서는 육군, 해군, 공군, 해병대한테 다 전개가 되어 있으니까요. 거기서 전투원과 협업을 할 수 있는 무인체계로 거기에다가 AI를 방점을 둬서 발전시키겠다는 의미로 해석이 됩니다.

[앵커]

이게 어떤 함대 선단 개념으로 굉장히 많은 AI 무기를 투입한다는 건데 그러면 그 AI 무기 사이에 서로 간에 소통을 하면서 유기적으로 작동하는 건가요? 어떤 개념입니까?

[조상근]

우선 예를 들어서 기본적인 대형 유지라든가 이런 것들은 인공지능에 의해서 실시가 될 거고 가장 치명적인 부분 같은 경우는 사격을 하거나 정밀타격을 할 때는 그건 아까 말씀드린 것처럼 전방에 있는 무인체계들이 정보를 수집을 하게 되면 분석을 해서 지휘관에게 옵션을 제공하게 됩니다. 그러면 그것을 보고 다른 것과 비교해서 민간인이 있느냐, 아니면 과대한 피해가 있느냐, 이런 것들을 다 고려해서 지휘관이 명령을 하게 되면 그때 사격을 하는 시스템으로 발전이 되게 됩니다.

[앵커]

아까 화면에 나왔었던 미군의 무인기 자체도 우리가 뉴스를 통해서 기억하실지 모르겠습니다마는 알카에다에 대응하는 특수작전에 이미 투입했던 그런 사례들이 있는 것으로 알고 있고요. 이렇게 단편적인 사례에서는 조금씩 드러나고 있는데 지금 말씀하신 대로 전면적인 투입, 그리고 어떤 선단 개념으로 수백 개, 수천 개를 투입해서 AI 무기끼리 서로 소통을 하면서 작동하는 그런 사례, 그렇게 전면적인 작전을 한 사례는 아직 없기 때문에 과연 미래에 어떤 식으로 전개가 될지 궁금하기는 한데요. 지금 말씀하신 대로 중국의 물량공세에 대응하기 위한 차원이라고 미군은 얘기하고 있죠. 중국은 이미 인공지능 기반 무기를 많이 개발해놓은 상태입니까? 어떻습니까?

[조상근]

정확히 알 수는 없습니다. 왜냐하면 인공지능 무기 자체가 미래전의 게임 체인저거든요. 당연히 각국에서는 비밀리에 개발을 하겠죠. 하지만 중국에서 공개하고 있는 영상들을 보게 되면 장거리 자폭 드론, 그다음에 군집형 드론 이런 걸 봤을 때는 상당한 수준에 올라와 있는 것으로 평가할 수가 있습니다. 더 문제가 되는 건 뭐냐 하면 중국은 권위주의 국가이기 때문에 정부 통제 하에서 데이터들을 확보하고 또 공세적인 해외 정보 활동을 통해서 빅데이터를 구축하게 되면 그런 것들이 AI의 첨단화와 고도화의 밑거름이 되기 때문에 앞으로 제가 보기에는 중국의 지능화된 무인체계 발전속도는 상당히 빠를 것으로 예측하고 있습니다.

[앵커]

미국 못지않게 중국도 이미 민간 영역에서의 인공지능 무기 연구개발 기술은 상당히 높은 수준으로 알려지고 있으니까요. 우리군 같은 경우에도 자율무기체계 개발 선언을 한 상황입니다마는 얼마 전에 윤석열 대통령도 AI 디지털 기반의 군 무기 개발 필요성을 강조하는 그런 발언을 했습니다마는 우리 군도 계획을 갖고 추진하고 있는 게 있습니까?

[조상근]

국방혁신 4.0의 핵심이 뭐냐 하면 AI 기반의 유무인 복합 전투체계를 하루빨리 도입하겠다는 의미거든요. 국방부에서 발표한 것을 보게 되면 2023년까지, 그러니까 올해까지죠. 그래서 인식기능 지능을 갖춘 감시정찰자산을 확보를 하겠다. 그리고 그 이후에 27년까지는 인식에 플러스해서 판단기능까지 가진 반자율 전투체계를 가지겠다. 그리고 그 이후부터는 인식, 판단 플러스해서 결심 지능을 가진 완전자율 결심체계를 가지겠다, 이렇게 구상을 하고 있거든요. 그래서 순차적으로 스텝 바이 스텝으로 올라가는데 그 이유는 아까 말씀드린 것처럼 인공지능이 발전하기 위해서는 해당 목적성 있는 유의미한 데이터가 있어야 되는데 그런 것들을 단계적으로 확보해 나가면서 발전시켜나가겠다는 의미로 해석됩니다.

[앵커]

민간 분야의 인공지능 연구에서도 가장 취약하고 걸림돌이라고 지적되는 부분이 학습 데이터의 확보인데요. 국방 분야 역시 그러면 양질의 데이터가 있어야지 좀 더 정확하고 신뢰성 있는 무기를 개발할 수 있을 것 아닙니까? 데이터 확보가 어떻게 가능한가요?

[조상근]

이게 사실은 데이터를 확보해 나감에 있어서 또 고려해야 될 사항이 뭐냐 하면 사회에서는 인공지능의 기술이 너무 빠르게 발달하고 있습니다. 생성형 AI가 몇 단계, 몇 단계 나온 것처럼 그런 부분들을 잘 추적 관리하면서 이해가 돼야 되고요. 또 중요한 건 뭐냐 하면 군은 특수성이 있기 때문에 전쟁이나 전투의 속성을 잘 알아야 됩니다. 이 두 가지를 다 병행해서 알아야지만 유의미하고 목적성 있는 데이터가 축적이 되고 활용할 수 있는데 아직까지는 초기 단계다 보니까 저희가 구축하고 있는 상태고요.

그러나 군의 특성이 있습니다. 예를 들어서 보안이라는 문제가 있어서 폐쇄성이 있고요. 그다음에 거대하기 때문에 혁신이나 변화의 바람을 받아들이는 속도가 늦게 될 수가 있고 그다음에 전문성을 가진 사람들이 인사 이동이 잦기 때문에 그런 부분들을 어떻게 우리가 빨리 해결하느냐, 그게 아까 말씀드린 것처럼 군의 자체 도전이거든요. 그 자체 도전을 얼마나 빨리 상쇄시키느냐에 따라서 무인체계와 사람의 협업이 그날이 빨리 올 것 같습니다.

[앵커]

아까 말씀하신 우크라이나전이나 이스라엘-하마스 분쟁에서 일부 사용하고 있다는 감시정찰정보 취합 단계에서는 AI 기반의 이런 장비들, 그 정도는 우리가 지금 갖추고 있는 겁니까? 아니면 아직 연구 단계입니까?

[조상근]

갖추고 있다고.

[앵커]

이미 갖추고 있다고 보면 됩니까?

[조상근]

그렇게 생각하시면 될 것 같습니다.

[앵커]

하지만 전반적으로는 아직 AI 무기 개발은 초기 단계다.

[조상근]

전 세계적으로 초기 단계니까요.

[앵커]

전 세계적으로 초기 단계고 무인 자율무기체계 자체가 미래 전장의 게임체인저가 될 거다라는 얘기를 계속하고 있습니다마는 그렇다면 미래 전쟁에서 이것이 어떤 역할을 하게 되는지, 그렇게 되면 전쟁의 전략과 전술 자체가 바뀌게 되는 건가요? 기본적인 판도가 다르게 됩니까, 어떻습니까?

[조상근]

판을 바꾸게 될 것 같고요. 이와 관련해서 미국의 방위고등연구계획국, 다파라고 합니다. 여기에서 모자이크전이라는 개념을 새롭게 만들어냈어요. 그게 뭐냐 하면 다영역에 전개돼 있는 감시자산도 있고 결심자산도 있고 그다음에 타격 자산이 있지 않습니까? 이걸 실시간대에 작전 목적에 따라서 이합집산을 하게 됩니다. 그렇게 되면 적은 대응할 수가 없어요.

왜냐하면 내가 대응하는 것보다 더 빠르게 공격해 들어오기 때문에. 그래서 이런 부분들이 핵심적인 사항이고, 이때 인공지능이 뭘 하게 되냐면 상황 변화에 따라서 거기에 맞게 아까 말씀드린 것처럼 감시, 결심, 타격 자산들을 실시간대 조합을 해서 지휘관에게 이런 게 좋을 것 같습니다라고 제안하게 됩니다. 그러니까 결심이 빨리 되는 거죠. 그래서 이 모자이크천을 결심중심전이라고 말을 하기도 합니다. 그런데 저희가 여기서 간과하지 말아야 할 게 뭐냐 하면 생성형 AI가 오픈 소스를 통해서 작동이 되잖아요.

그런데 이런 AI 기술이 보편화되면서 이게 우리가 말하고 있는 권위주의 국가라든가 권위주의 조직, 테러 조직들, 범죄 활동을 할 수 있는 그런 조직들도 사용할 수 있다는 겁니다. 그래서 미국에서 되게 유명한 군사학자 중의 한 명이 인비저블 아미스라는 책에서 뭐라고 얘기했냐면 과학기술이 보편화가 되면서 게릴라들이라든가 테러 조직들이 그들의 위협들이 우리가 생각하는 것 이상으로 발전해서 국제적인 사회의 치안과 안전을 위해할 수 있다라는 것들을 말하고 있거든요. 그래서 결국에는 인공지능 같은 경우에는 우리 입장에서 보게 되면 기회이기도 하지만 안보적 측면에서는 도전이기도 하기 때문에 우리가 이런 부분들을 양면을 잘 봐가면서 우리가 대비를 해야 합니다.

[앵커]

이 기술이 또 어떤 세력의 손에 들어갈지 그것도 우리가 확언할 수 없는 그런 상황이기도 하고요. 전반적으로 보면 똑같은 비행기나 함정을 개발하는 데 무인기나 무인함정을 개발한다는 것은 기존의 함정보다 훨씬 저렴한 비용이 든다고 들었는데 어느 정도 차이가 납니까?

[조상근]

그건 기종마다 다 다를 수 있습니다. 그런데 생각해 보시면 이겁니다. 유인체계가 비싼 이유는 뭐냐 하면 사람들이 운용하기 때문에 그 사람들의 생존성을 보장해야 되기 때문에 방어력을 덧대고 이런 부분들이 있기 때문에 규모가 어느 정도로 확보돼야 되기 때문에 규모에 따라서 가격이 많이 비싸지는 거거든요. 그런데 AI에 의해서 무인체계가 운용되면 아시다시피 다 규모가 작습니다. 그리고 소형화되어 있는 거고 그 안에 있는 프로그램은 쉽게 개발할 수 있는 거고 그걸 덧댈 수 있는 하드웨어 같은 경우에는 작은 소형화에다가 표준화시키게 되면 생산 단가는 엄청나게 싸질 수밖에 없는 것이죠. 그래서 이런 부분들이 기존에는 AI가 약했을 때는 그냥 사람에 의해서 통제하기 때문에 버거운 부분이 있었지만 지금 AI가 나오면서 소형화되고 또 표준화되면서 이게 전투의 판도를 바꿀 수 있는 게임체인저로 다시 태어나고 있는 것입니다.

[앵커]

기존에 첨단 스텔스 전폭기, 전투기와 비교하면 제작 비용이 굉장히 싸다고 들었는데요, 무인기는. 그만큼 또 규모가 굉장히 작다. 그러면 거기에 장착할 수 있는, 탑재할 수 있는 미사일이라든가 공격무기의 양도, 종류도 작아지는 것 아닙니까?

[조상근]

작아지는데 아시다시피 군집 형태로 운용한다. 그렇게 되면 예를 들어서 F-35라는 전투기가 있으면 생존력과 가동거리를 높이기 위해서 전방에 무인체계들을 여러 대를 배치할 수 있거든요. 그러면 여기에서는 미사일 6발을 예를 들어서 갖고 있다고 하게 되면 전방에 있는 것을 한 대가 운용하면 한 발이지만 6대를 군집으로 운용하면 6발이 되는 거죠. 그렇기 때문에 F-35 같은 경우는 작전반경도 늘어나고 그다음에 타격력도 세지는 부분이거든요. 그래서 그런 것들을 무인체계 단독으로 하는 게 아니라 무인체계와 유인체계의 협업, 그래서 우리가 유무인 복합 전투체계라고 합니다.

[앵커]

이렇게 AI 무기 자체가 상당히 우리가 모르는 사이에 빠르게 발전하고 있는 것 같은데요. 윤리적 쟁점도 다른 한편에서는 계속 지속적으로 제기가 되고 있습니다. 왜냐하면 결국에는 AI 자체가 고도화되게 되면 우리가 어떤 시점에서는 상당 부분을 인명 살상을 할 것인가, 어떤 표적을 우리가 공격을 할 것인가, 이런 것을 기계에 의존하는 시점이 올 수가 있거든요. 우리가 이걸 어떻게 활용할 것인가의 문제, 그리고 이를테면 민간인과 군인을 어떻게 구분해서 공격할 것인가 이런 것도 굉장히 어려운 문제인데요. 어떻게 지금 정리가 되고 있습니까?

[조상근]

이건 핵심적으로 저희가 이 원칙을 지키면 어느 정도 해결이 되는 겁니다. 아까 말씀드린 것처럼 무인체계, 그러니까 지능화된 무인체계에 결심권을 주면 안 돼요. 그것은 뭐냐 하면 순수하게 지휘관, 그러니까 사람이 결심할 수 있도록 결심을 보조하는 수단으로 써야 하고 결국에 명령은 사람에 의해서만 행해질 수 있도록 사용해야 합니다. 그런데 문제는 뭐냐 하면 저희가 이번에 진행되고 있는 우크라이나-러시아 전쟁에서 보게 되면 권위주의 국가 같은 경우에는 정치적 목적을 달성하기 위해서 수단과 방법을 가리지 않는 경향이 있습니다.

그래서 그런 부분들이 예를 들어 권위주의 국가나 테러단체에서 쓰이게 된다면 아까 말씀드린 것처럼 치명성이 높아지는 거죠. 그럼에도 불구하고 그 원칙을 우리가 준수하게 된다면 억제는 아니더라도 그 행동을 주저하게 할 수 있다는 국제적인 컨센서스가 일어나서 저희가 감시의 기준이 될 수 있거든요. 그래서 윤리적 기준 같은 경우는 반드시 정립이 돼야 되는데 이게 되게 웃긴 게 뭐냐 하면 유엔에서도 이 관련된 부분을 계속 논의하고 있거든요. 그런데 중국 같은 경우에 이걸 반대하고 있어요. 왜냐하면...

[앵커]

논의 자체를 반대합니까?

[조상근]

논의는 가능한데 그거를 어떤 반대를 하냐 하면 정립을 해야 한다, 그러니까 킬러 로봇 같은 경우를 쓰지 못하게 해야 한다라고 해서 강력하게 주장을 하고 있는데 그 이유는 뭐냐 하면 미국이 전략적으로 지능화된 무인체계를 개발하고 있기 때문에 그걸 방해하기 위한 목소리로 보이는데 반대로 미국 같은 경우 반대하고 있는 이유가 뭐냐 하면 킬러 로봇을 제한해야 된다고 하는 공감대를 형성하고 있지만 전략적 헤게모니를 계속해서 유지하기 위해서는 그런 무기체계를 안정적으로 사용할 수 있는 부분을 확보해야 하거든요. 그래서 그런 의견 차이가 지금 있습니다. 그래서 이 부분이 2017년도에 특정 재래식 무기 금지 협약에서 첫 번째로 킬러 로봇에 대한 논의가 됐었는데 아직까지도 합의라든가 그런 가이드라인이 나오지 않고 있는 상황이 되겠습니다.

[앵커]

일단 기본적인 차원에서는 각국 정부, 군이 무기를 개발하는 단계에서도 내부적인 지침이라든가 이런 게 있어야 될 것이고, 기준을 갖고 있어야 할 것이고 말씀하신 대로 국제적인 차원에서 국제 협약이라든가 규약 같은 게 관련해서 만들어져야 할 것 같은데 그렇다면 지금까지는 아무런 인공지능 기반 무기에 대한 협약이 없다는 것이죠?

[조상근]

논의는 지금 현재 되고 있고 그래서 그거에 대해서 어떻게 해야 된다는 정확한 가이드라인은 지금 현재 나온 것이 없는 것으로 제가 알고 있습니다. 그 이유는 아까 말씀드린 것처럼 AI라는 것이 미래전의 핵심 전력이자 게임체인저이기 때문에 결국에는 국가 이익하고 연결되는 부분이거든요. 그렇기 때문에 좀 사용해서 국가 이익에 도움이 된다고 하게 되면 그런 입장에서 마다할 필요가 없는 것이고, 또 정치 체제하고 연결이 돼 있습니다. 그래서 권위주의 국가라든가 테러조직 같은 경우는 자기의 영역을 확산하기 위해서 그런 부분들을 충분히 사용할 수 있기 때문에 이런 찬반이 되게 많습니다. 그렇기 때문에 합의에 이르기에는 부족한 부분이 있고 상당한 시간이 필요하다고 보는 거죠.

[앵커]

그렇군요. 또 다른 한편에서는 개발하고 무기를 제작하는 데 훨씬 가격이 싸게, 저렴하게 든다고 하니까. 그리고 전장에 병사를 투입하는 것보다는 무인기나 무인함을 투입하게 되면 훨씬 더 쉽게 투입하게 되지 않겠습니까? 그러면 미래에는 지금보다 전 세계 곳곳에서 분쟁이 좀 더 빈발해질 가능성은 없습니까?

[조상근]

이런 게 있습니다. 2020년도에 아제르바이젠하고 아르메니아하고 전쟁을 실시했었는데 그때 아제르바이젠군이 드론 기동전을 해서 드론을 통해서 전쟁을 승리했거든요. 그때 당시에 전 세계에 있는 군사 전문가들이 앞으로는 드론 전쟁이 될 거야라고 해서 이렇게 전망을 했습니다. 그런데 지금 현재 진행되고 있는 우크라이나-러시아 전쟁을 보게 되면 드론을 막기 위해서 대드론 체계가 상당히 많이 나와 있거든요. 그래서 이번에 하마스하고 이스라엘 간의 분쟁에서도 레이저라는 무기 체계가 화두가 된 것처럼 드론이 나오면 그 드론을 막기 위한 대드론 체계가 나오는 겁니다.

그런데 이런 것들이 역사적으로 볼 때 전쟁사에서 계속해서 반복이 되고 있거든요. 그리고 또 아까 말씀드린 것처럼 인공지능 기술이 보편화되게 되면서 아마 전략적 균형이 있을 겁니다. 무슨 말씀이냐면 지금은 군사 강국과 그렇지 않은 중소국가 이런 것에 전략중심이 맞춰지기 때문에 결국에는 전 세계가 무인 체계의 고도화에 차이는 있겠지만 다 갖고 있기 때문에 이것 때문에 과거나 현재보다 전쟁이 더 많이 발발하겠다 그렇게는 가지 않을 것 같고요. 오히려 전쟁을 어떻게 스마트하게 빨리 끝낼 것이냐, 이런 쪽의 측면에서 바라봐야 할 것이 맞을 것 같습니다.

[앵커]

일단은 유엔 산하의 기구라든가 유엔 긴축포럼 같은 것도 있지 않습니까? 그래서 국제적인 협의가 속도를 냈으면 좋겠다는 생각이 드는데요. 그전에 어쨌든 기술 발전 속도를 규약이나 규범을 만드는 속도는 항상 늦으니까요. 지금부터 우리 국내에서라도 논의가 있어야 할 것 같은데 전문가라든가 정부 그리고 관련 기관, 사회적인 공론화가 되어야겠네요?

[조상근]

우선 외교부에서 보게 되면 연말에 있을 것 같은데 신안보 포럼 같은 데서 이런 부분들이 AI 안보 같은 것들이 상당히 강하게 이슈화되고 있고 국방부 차원에서 당연한 부분이고요. 그래서 이런 부분들이 저희가 공감대를 형성하고 있습니다. 그런데 문제는 뭐냐 하면 이런 AI 윤리와 관련된 담론만 형성되고 있는데 그게 왜 그러냐면 사회 전체적으로 군도 지금 현재 첫발을 떼고 있고 이것을 얘기하기 위해서 아까 말씀드린 전쟁이나 전투의 속성을 정확하게 알아야 하는데 기술과 그런 속성을 두 가지를 다 아는 전문가들이 상당히 부족한 상태입니다.

그래서 제가 연구자로서 제안드리고 싶은 건 뭐냐 하면 우리가 보면 규약이나 어떤 법규 같은 건 톱다운으로 내리는 게 아니라 이런 것들은 보이지 않는 곳에 있기 때문에 현재 진행되고 있는 우크라이나-러시아 전쟁 또는 이스라엘이나 팔레스타인 분쟁 안에서 전쟁 사례를, 전투 사례를 정확하게 조명해서 하지 말아야 할 것들을 일단 찾아내서 그것을 규약이나 규범화시키는 작업으로 가야 하는데 예를 들면 우크라이나 전쟁 같은 경우 전사한 러시아 병사의 얼굴을 안면인식 AI를 통해서 그 사람의 SNS를 통해서 확인하게 되면 인척관계라든가 주소가 나오잖아요.

그래서 부모한테 그 전사 소식을 전해 줍니다. 그러면 그 소식을 전쟁 상대국의 첩보로부터 들은 부모의 마음은 상당히 찢어지겠죠. 그런 것들을 하나씩 하게 되면, 그런 것들은 하지 말아야 한다, 참여자가 식별이 된 거거든요.

이런 것들이 차곡차곡 쌓여서 어떻게 보면 그루핑이 된다면 이건 어떻게 보면 전 세계에서 해이해지고 있는 AI의 악용 사례가 되기 때문에 이런 것들을 표준화해서 그런 것들을 규약화하게 된다면 컨센서스를 얻어가면서 공감대 형성을 하기 때문에 실제적으로 실효적인 그런 가이드라인이 나올 수 있다는 겁니다. 그래서 바텀업 차원에서 접근해야 할 필요가 있다는 것입니다.

[앵커]

할 수 있는 것 그리고 해서는 안 될 것, 거기에 대해서 명확한 구분이 필요할 것이다. 사회적인 논의가 필요할 것 같습니다. 조상근 카이스트 국가미래전략기술 정책연구소 교수와 함께했습니다. 고맙습니다.

※ '당신의 제보가 뉴스가 됩니다'

[카카오톡] YTN 검색해 채널 추가

[전화] 02-398-8585

[메일] social@ytn.co.kr

[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]

Copyright © YTN. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?