‘독이 든 성배’?...국가대표 AI 오해와 진실 5 [스페셜리포트]

배준희 매경이코노미 기자(bjh0413@mk.co.kr), 최창원 매경이코노미 기자(choi.changwon@mk.co.kr) 2026. 2. 3. 07:54
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

AI 딥다이브

정부가 5300억원을 들여 추진 중인 ‘독자 AI 파운데이션 모델’ 사업이 1차 평가 이후 거센 후폭풍에 휘말렸다. 국내 대표 빅테크 네이버클라우드와 NC AI가 동반 탈락하고 LG AI연구원, SK텔레콤, 업스테이지 등 3개사가 ‘국가대표 AI’ 후보군으로 생존했다. 1차 평가 과정에서 독자성·표절 논란부터 평가 기준 변경에 따른 공정성 의혹까지 숱한 뒷말을 남겼다는 평가가 IT 업계에서 터져 나온다. 예정에 없던 ‘패자부활전’을 밀어붙이자 특정 기업을 염두에 둔 게 아니냐는 의심까지 들불처럼 확산했다. 숱한 논란에 휩싸인 ‘패자부활전’마저 주요 빅테크가 줄줄이 불참 의사를 밝히자, 국가대표 AI가 자칫 ‘독이 든 성배’로 전락할 수 있다는 우려가 벌써부터 고개를 든다. 국가대표 AI 사업을 둘러싼 오해와 진실을 들여다본다.

오해와 진실 1 ‘프롬 스크래치’

독자성 기계적 평가 시각도

이번 평가 과정에서 가장 논란이 됐던 대목은 ‘프롬 스크래치(From Scratch)’ 여부다. 영단어 scratch의 원뜻은 ‘바닥을 긁다’라는 의미로, 이를 활용한 관용어가 ‘from scratch’다. 직역하면, ‘바닥을 긁는 데서부터’라는 뜻이다. 인공지능(AI) 개발에서는 ‘기존 결과물이나 축적된 자산을 활용하지 않고 처음부터 만든다’는 의미다. 예를 들면, 다른 AI 모델이 이미 학습해놓은 가중치(Weights)를 그대로 가져다 쓰지 않고 모델 구조만 설계한 뒤 이를 무작위 값으로 초기화해 데이터를 투입하며 ‘바닥부터 학습시키는’ 방식을 뜻한다.

독자 AI 파운데이션 모델 사업 과정에서 참가 기업이 개발 중인 모델이 잇따라 프롬 스크래치 논란에 휘말렸다. AI 스타트업 업스테이지 AI 모델에 대해 중국산 모델 베끼기 논란이 제기된 데 이어 네이버도 중국 핵심 모듈을 썼다는 지적이 AI 업계에서 나왔다.

논란의 발단은 세계 최대 오픈소스 플랫폼 깃허브에 올라온 보고서였다. 30년 차 소프트웨어 개발자로 자신을 소개한 작성자는 ‘국가 AI 파운데이션 모델 프롬 스크래치 검증 프로젝트’ 보고서에서 “네이버클라우드를 제외한 나머지 4개 AI 모델은 모두 프롬 스크래치 모델”이라고 했다. 네이버만 ‘부분적 재사용’으로 판단했다. ‘비전 인코더’라는 핵심 모듈을 중국 알리바바 AI 모델 큐엔(Qwen)의 ‘Qwen2.5 ViT’를 가져다 썼다는 이유에서다. 비전 인코더는 AI가 이미지(Vision)와 소리(Audio)를 이해하도록 돕는 핵심 모듈이다. 사람으로 치면 눈과 귀 역할을 한다. 중국산 ‘눈’과 ‘귀’를 그대로 썼다는 의혹이 일었고 이 여파로 네이버는 1차 평가에서 탈락했다.

IT 업계에서도 프롬 스크래치 여부를 두고 논란이 드셌다. 딥러닝 분야 전문가 조경현 뉴욕대 교수는 “네이버클라우드 팀이 사전 학습된 비전·오디오 인코더를 사용한 이유로 실격된 것은 안타깝다”라며 “AI의 지능은 토큰, 이미지, 오디오 조각의 다양한 관측값을 고도로 능력 있는 신경망 모달로 매끄럽게 통합하는 데 있다. 정부가 프롬 스크래치를 근거로 네이버를 탈락시켰단 점이 다소 놀랍다”고 말했다. 배순민 KT 기술혁신 부문 AI 퓨처랩장도 “기술 발전에서 완전히 새로운 것은 드물며 오픈 커뮤니티와 축적된 성과 위에서 진화해왔다”라며 “국방이나 고도의 민감 영역에선 예외가 필요하지만, (범용 부문에서) 프롬 스크래치에 초점이 맞춰지는 건 주객이 전도되는 것”이라 지적했다.

결론부터 말하면 AI 모델 개발 과정에서 일종의 부품 격인 검증된 모듈을 차용하는 것 자체는 세계적 추세다. 모듈을 차용했더라도 그 안에 담긴 데이터 집합을 뜻하는 ‘가중치’를 초기화하고 백지 상태에서 출발했다면 독자 모델로 볼 수 있다. 쉽게 말해, 데이터 수집부터 모델 아키텍처(설계도) 구성, 수조 개 단위 토큰 학습까지 밑바닥에서 다졌다면 ‘독자 기술’로 인정한다는 뜻이다. 하지만, 학습 결과물인 가중치를 그대로 갖다 쓰면 변주를 준 파생형 모델에 불과하므로, ‘프롬 스크래치’로 볼 수 없다는 시각이 많다.

모델 성능 여부를 차치하고 네이버도 이런 의심의 눈초리를 극복하지 못했다는 평가다. AI 업계에서는 네이버가 쓴 인코더 ‘가중치’를 문제 삼았다. AI 모델에서 가중치는 모든 데이터·연산·선택의 결과가 수치로 압축된 상태를 뜻한다. 구조와 알고리즘은 공유 가능하지만, 가중치는 학습 산물로 평가된다. AI 업계 관계자는 “최근 공개한 모델(하이퍼클로바X-Think-32B·Omni-8B)을 검증했더니 핵심 모듈 가중치가 중국 큐엔 모델과 99% 이상 일치했다”고 주장했다. 가중치를 그대로 갖다 쓴 모델을 ‘독자’ AI 모델로 봐선 안 된다는 지적이 나왔던 이유다.

네이버 ‘인코더’를 보조 모듈로 치부할 수 없다는 시각도 있다. ‘Hyper CLOVAX-SEED-Omni-8B’ 모델 기준, 인코더가 차지하는 파라미터가 전체 12%에 달한다는 분석도 있다. 이름만 ‘인코더’일 뿐, ‘소형 LLM’이 모델 내부에 통째로 들어 있다는 주장이다. 정부 역시 ‘해외 AI 모델 미세조정을 통한 파생형 모델을 독자 AI 모델로 볼 수 없다’는 방침이다. 이런 방침은 과학기술정보통신부 ‘공모안내서에 대한 명기사항 안내’ 공지에서도 나타난다.

정리하면 오픈소스로 공개된 모델을 미세조정해서 쓰는 개발 방식은 일종의 관행이므로, 이를 문제 삼을 수는 없다. 하지만, 이번 정부 사업은 독자적인 국가 주권 AI를 선발하자는 것이므로 외국 공개 모듈을 미세조정해 썼다면 정책 취지에 어긋나 탈락했다는 해석이 가능하다.

[배준희 기자 bae.junhee@mk.co.kr, 최창원 기자 choi.changwon@mk.co.kr]

[본 기사는 매경이코노미 제2345호 (2026.01.28~02.03일자) 기사입니다]

[Copyright (c) 매경AX. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지]

Copyright © 매경이코노미. 무단전재 및 재배포 금지.