"엔비디아 독점 깬다"는 토종 슈퍼컴 개발자...AMD도 반했다

최태범 기자 2024. 8. 21. 07:00
음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

[스타트UP스토리]조강원 모레 대표

[이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.]

조강원 모레 대표 /사진=최태범 기자

2012년 개발된 '천둥'은 서울대 매니코어 프로그래밍 연구단이 설계·제작한 국내 최초의 슈퍼컴퓨터다. 56대의 노드(컴퓨터)가 연결됐다. 다른 슈퍼컴퓨터에 비해 적은 노드로 같은 성능을 낼 수 있고 차지하는 공간과 전력 소모를 현저히 줄인 것이 특징이다.

천둥은 그해 세계 슈퍼컴퓨터 '톱500'에서 278위에 오르며 한국 처음으로 500위권에 진입했다. 해외 선두권과의 격차는 컸지만 국내 연구진이 독자적인 기술로 제작에 성공한 토종 슈퍼컴퓨터라는 점에서 의미 있는 기록으로 평가받는다.

이 같은 역사적인 기록을 만든 서울대 매니코어 프로그래밍 연구단이 이번에는 AI(인공지능) 반도체에 사용되는 인프라 소프트웨어 개발을 위해 뭉쳤다. 천둥의 설계 담당자 출신을 주축으로 2020년 9월 설립된 스타트업 '모레(MOREH)'의 이야기다.
반도체의 연산 작업 중개하는 소프트웨어 개발

/그래픽=이지혜
모레는 GPU(그래픽 처리장치)와 같은 반도체가 연산 작업을 할 수 있도록 중개하는 소프트웨어를 개발하고 있다. 개발자들이 AI 모델을 학습시키고 추론하기 위해선 GPU 영역인 컴퓨팅 인프라를 사용하게 되는데, 그 사이를 연결해 주는 역할을 한다.

대다수 사람들은 엔비디아를 단순히 GPU 개발사로 알고 있으나, 엔비디아가 AI 컴퓨팅 인프라 시장을 독점할 수 있는 핵심은 AI 개발자들을 위한 플랫폼 '쿠다'(CUDA)에 있다.

현재 컴퓨터의 AI 모델 학습은 GPU를 통해 이뤄진다. 특히 LLM(거대언어모델)을 활용하는 생성형 AI 서비스 개발에는 엄청난 양의 데이터와 이를 학습할 강력한 하드웨어인 GPU가 필수적으로 요구된다.

쿠다는 엔비디아의 소프트웨어 프로그래밍 플랫폼이다. GPU를 활용한 AI 모델 학습과 프로그래밍을 위해 AI 개발자들이 사실상 필수적으로 사용해야 하는 도구가 됐다. 쿠다로 만든 프로그램은 오직 엔비디아의 GPU에서만 돌아가기 때문이다.

많은 AI 개발자들이 10년 넘게 쿠다를 기반으로 프로그래밍하다 보니 그동안 축적된 코드가 방대하고, 이는 또 다른 개발자들에게 참고자료가 된다. 이 같은 '쿠다 생태계'가 워낙 강력해 AI 반도체도 엔비디아의 GPU를 쓸 수밖에 없게 됐다.

모레는 AI 반도체 시장의 90% 이상을 독점한 엔비디아에 맞서 쿠다의 '상위 호환' 기술을 개발했다. 더 이상 쿠다에 의존하지 않아도 되는 구도를 만들어 전세계 수많은 기업들이 엔비디아에 갇힌 AI 인프라 생태계에서 벗어날 수 있도록 한다는 목표다.
"엔비디아 '쿠다'가 못하는 클러스터링 제어 가능"

모레의 솔루션은 쿠다와 동일한 풀스택을 제공하는 것을 넘어 엔비디아의 GPU가 아닌 다른 프로세서에서도 코드 변경 없이 사용할 수 있도록 개발됐다. 생성형 AI를 개발하는 기업이 막대한 엔비디아 GPU 비용에 대한 부담을 낮출 수 있게 한다.

조강원 모레 대표는 "최고 수준의 LLM을 빠르게 개발하기 위해선 무엇보다 효율적인 모델 학습 방법을 확보하는 것이 중요하다. 모레의 '모아이'(MoAI) 플랫폼은 고도의 병렬화 처리 기법을 통해 대규모 AI 모델을 효율적으로 개발하고 학습하도록 돕는다"고 했다.

그는 "우리의 기술은 엔비디아 외에도 AMD, 인텔, AI 반도체 기업들의 제품에서 사용할 수 있다. 벤더 독점을 깨면 비용을 낮출 수 있고 인프라를 훨씬 효율적으로 구축·관리할 수 있게 된다"고 설명했다.

모레는 쿠다가 하지 못하는 영역에서 기술적 차별화를 했다. 조강원 대표는 "쿠다의 시작은 GPU를 잘 사용할 수 있도록 돕는 소프트웨어였다. 즉 단일 GPU에 대한 소프트웨어이기 때문에 LLM 환경에서는 적합하지 않다는 단점이 있다"고 지적했다.

그는 "쿠다는 개별 반도체를 제어하는 소프트웨어로 많은 반도체를 묶어서 쓰는 문제를 풀어주지는 못한다"며 "초거대 AI 시대에서는 GPU를 적게는 수백개, 많게는 수만개까지 클러스터링(결합)해 사용하기 때문에 단일 GPU에 특화된 소프트웨어는 적합하지 않다"고 했다.

조 대표는 "모레는 클러스터링 된 GPU 구조에서도 동시에 제어할 수 있는 소프트웨어를 개발했다"며 "클러스터링의 문제를 풀어주면 AI 업계가 보다 효과적이고 비용효율적으로 차세대 AI를 개발하고 사용할 수 있게 된다"고 강조했다.
'반도체 설계의 전설' 짐 켈러와 협업

조강원 모레 대표가 지난 5월2일 열린 'KT 클라우드 서밋'에서 발표를 진행하고 있다. /사진=모레 제공
모레는 창업 초기부터 KT와 전략적 협업을 통해 AI 클라우드 인프라를 구축했다. 현재 모레의 소프트웨어는 AMD 인스팅트(Instinct) GPU와 함께 KT의 AI 클라우드 서비스에서 '하이퍼스케일 AI 컴퓨팅'(HAC)이라는 상품명으로 상용 서비스 중이다.

KT의 자체 LLM인 '믿음'의 인프라 소프트웨어로도 사용되고 있다. 조 대표는 "기술적으로 뾰족함을 먼저 찾은 뒤 BM(비즈니스 모델)을 발굴해 나갔다. 하드웨어 벤더에 라이센싱을 주는 방법 등 BM 관점에서 다양한 가능성을 열어두고 탐색하고 있다"고 말했다.

성장 잠재력을 인정받은 모레는 지난해 시리즈B 라운드까지 누적 3000만달러(약 400억원대) 규모의 투자금을 유치했다. KT와 AMD가 전략적 투자자로 참여해 눈길을 끌었다.

최근에는 AI 반도체 시장에서 엔비디아의 아성에 도전하고 있는 미국 '텐스토렌트'의 최고경영자(CEO) 짐 켈러로부터 합병 제안을 받았다는 소식이 전해지면서 화제가 되기도 했다. 모레 측은 "개발 협력을 해온 것은 맞지만 인수 제안은 사실무근"이라고 선을 그었다.

조 대표는 "텐스토렌트와 긴밀하게 협업을 해왔다. 텐스토렌트의 하드웨어를 가져오고 우리가 그 위에 소프트웨어를 올려서 솔루션으로 만들어 보려는 작업을 하고 있다"고 밝혔다.

모레는 아시아를 시작으로 북미 등 글로벌 확장을 추진한다. 조 대표는 "단기적 관점으로는 아시아 시장을 보고 있다. 이쪽 지역이 엔비디아에 대한 접근성이나 기술적 지원이 상대적으로 떨어지기 때문에 시장 진입이 좀 더 용이할 것"이라고 전망했다.

궁극적으로는 AI 기술이 챗GPT와 같은 챗봇을 넘어 더욱 다양한 응용·전문 분야에 활용될 수 있도록 기여한다는 목표다. 조 대표는 "지금의 초거대 AI는 사실상 몇 개 기업만 만들 수 있는 구조다. 인프라를 활용하기 어렵다는 것이 가장 큰 허들"이라고 했다.

그러면서 "비용효율적으로 대규모 인프라를 사용할 수 있도록 하면 많은 사람들이 초거대 AI 관련 서비스를 만들고 AI 기술 발전이 더욱 가속화할 것"이라며 "소수 기업이 독점하는 시장이 아닌 여러 플레이어들이 공동 발전할 수 있는 시장으로 만들고 싶다"고 덧붙였다.

[머니투데이 스타트업 미디어 플랫폼 '유니콘팩토리']

최태범 기자 bum_t@mt.co.kr

Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지

이 기사에 대해 어떻게 생각하시나요?