[2022 상반기 인기상품]품질우수-소이넷-AI가속솔루션 '추론엔진'

박윤호 2022. 6. 22. 18:01
자동요약 기사 제목과 주요 문장을 기반으로 자동요약한 결과입니다.
전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다.

인공지능(AI) 최적화 전문 기업인 소이넷은 지난달 실행 최적화가 적용된 AI 모델들을 위한 '글로벌 모델 마켓'을 정식 론칭했다.

모델 마켓에는 자사 추론최적화 솔루션인 소이넷상에서 작동되는 다양한 공개 AI 모델들이 올라가 있으며 AI 개발자들은 사용하고자 하는 모델들을 선택하고 바로 자신의 개발환경에 받아서 실행해 볼 수 있다.

음성재생 설정
번역beta Translated by kaka i
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

인공지능(AI) 최적화 전문 기업인 소이넷은 지난달 실행 최적화가 적용된 AI 모델들을 위한 '글로벌 모델 마켓'을 정식 론칭했다. 모델 마켓에는 자사 추론최적화 솔루션인 소이넷상에서 작동되는 다양한 공개 AI 모델들이 올라가 있으며 AI 개발자들은 사용하고자 하는 모델들을 선택하고 바로 자신의 개발환경에 받아서 실행해 볼 수 있다. 소이넷은 모델 마켓을 통해 국내외 고객을 대상으로 디지털 마케팅을 펼쳐갈 계획이다.

AI 서비스는 수없이 반복되는 복잡한 수치연산을 기반으로 하기 때문에 대부분 GPU나 NPU와 같은 하드웨어 가속기와 이를 활용할 수 있는 전용 소프트웨어 개발 기술이 필요하다. 하지만 고도로 숙련된 병렬코어 실행최적화 전문인력이 절대적으로 부족해 많은 AI 서비스 업체는 울며 겨자먹기식으로 고가 AI 전문 장비 비용을 지불하고 있다.

또 통상적으로 AI 연구자들은 텐서플로, 파이토치 등과 같이 글로벌 테크 기업이 제공하는 AI 프레임워크를 통해 AI 모델을 개발하고 동일한 환경에서 추론서비스를 제공한다. 하지만 이 경우, AI를 최적화된 상태로 작동시키는 것은 어려운 일이며 이를 해결하기 위해서는 모델 경량화나 멀티코어 병렬처리 최적화 등 추가적인 엔지니어링이 필요하다.

소이넷은 AI 서비스 업체가 가지는 공통적인 이슈를 해결하기 위해 AI 실행 최적화 솔루션인 '소이넷'을 개발했다. 소이넷은 학습이 완료된 AI 모델을, 배포되는 장비에서 가장 높은 실행속도와 적은 GPU 메모리를 사용하도록 만들어주는 인퍼런스-온니 프레임워크(추론 가속 및 경량화 프레임워크)로서 딥러닝 모델 실행 시 GPU 같은 하드웨어 코어 사용률을 최대화하고 소요되는 GPU 메모리를 최소화하는 알고리즘을 기반으로 하고 있다.

이런 특징으로 소이넷을 도입한 고객사는 동일 장비 상에서 기존 대비 2~3개 모델을 동시에 작동시키거나 추론속도를 수배가량 향상시킬 수 있게 됐고, 결과적으로 전체 시스템 구성을 위한 비용을 획기적으로 절감할 수 있게 됐다. 소이넷은 특정 분야가 아닌 머신비전, 스마트팩토리, 스마트팜, 지능형 영상분석, 자연어처리 등 다양한 AI 영역에 적용 가능하며 AI 연구자가 아닌 일반 개발자도 손쉽게 사용할 수 있도록 개발돼 AI 애플리케이션이나 서비스 제공 기업과 협업도 용이하다.

소이넷은 2018년 설립 이후 포스코, 뉴로메카, 솔트룩스, 한화시스템 등 30여개 업체에 공급하고 있으며 최근에는 해외 AI 솔루션 회사와도 협업 중이다. 솔루션 부분에서는 현재 소이넷 v5와 실행 중심 MLOps 솔루션을 개발하고 있으며 향후에는 모델 마켓과 MLOps 솔루션을 통합할 계획이다.

박윤호기자 yuno@etnews.com

Copyright © 전자신문. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?