[PRNewswire] 웨카, 엔비디아 클라우드 네트워크 파트너 인증 획득

보도자료 원문 2024. 9. 26. 11:09
음성재생 설정
글자크기 설정 파란원을 좌우로 움직이시면 글자크기가 변경 됩니다.

이 글자크기로 변경됩니다.

(예시) 가장 빠른 뉴스가 있고 다양한 정보, 쌍방향 소통이 숨쉬는 다음뉴스를 만나보세요. 다음뉴스는 국내외 주요이슈와 실시간 속보, 문화생활 및 다양한 분야의 뉴스를 입체적으로 전달하고 있습니다.

-- 웨카 데이터 플랫폼은 이제 GPU 컴퓨팅 인프라를 위한 엔비디아 클라우드 파트너 레퍼런스 아키텍처를 통해 고성능 데이터 스토어 솔루션으로 인증되었다

캠벨, 캘리포니아 2024년 9월 26일 /PRNewswire=연합뉴스/ -- AI 네이티브 데이터 플랫폼 회사 웨카IO(WekaIO(웨카[https://www.weka.io/ ]))는 오늘 웨카® 데이터 플랫폼이 엔비디아 파트너 네트워크 클라우드 파트너를 위한 고성능 데이터 스토어로 인증받았다고 발표했다. 이 인증을 통해 엔비디아 클라우드 파트너는 엔비디아 VIDIA HGX H100 시스템[https://www.nvidia.com/en-us/data-center/hgx/ ]을 사용하는 엔비디아 클라우드 파트너를 위해 공동 검증된 웨카 레퍼런스 아키텍처를 통해 이제 웨카 데이터 플랫폼의 탁월한 성능, 확장성, 운영 효율성과 사용 편의성을 활용할 수 있게 되었다.

엔비디아 클라우드 파트너 레퍼런스 아키텍처는 클라우드 제공업체들이 다양한 사용 사례에 맞는 AI 서비스와 워크플로우를 제공할 수 있는 포괄적인 풀스택 하드웨어와 소프트웨어 솔루션을 공급한다. 웨카의 스토리지 인증을 통해 웨카 인증을 받은 서버 파트너의 웨카팟(WEKaPod™) 기기들과 하드웨어가 AI 클라우드 환경을 위한 엔비디아 클라우드 파트너 고성능 스토리지(HPS) 사양을 충족할 수 있다.

이번 인증을 통해 대규모의 강력한 성능을 제공하고 AI 워크로드를 가속하는 웨카 데이터 플랫폼의 능력이 부각되었다. 이 플랫폼은 단일 HGX H100 시스템에서 최대 48GBps의 읽기 처리량과 46GBps 이상의 쓰기 처리량을 제공하며, 단일 엔비디아 스펙트럼 -X[https://www.nvidia.com/en-us/networking/spectrumx/ ] 이더넷 네트워크 클러스터에서 최대 32,000개의 엔비디아 GPU를 지원한다. 엔비디아 클라우드 파트너는 이제 고객들이 AI 프로젝트를 신속하게 전개하고 확장할 수 있도록 웨카 데이터 플랫폼과 엔비디아 GPU가 구동하는 대규모 AI 인프라 전개를 자신 있게 페어링할 수 있다.

웨카 최고제품책임자 닐레쉬 파텔(Nilesh Patel)은 "AI 혁신가들은 점점 더 하이퍼스케일 및 특수 클라우드 제공업체들을 이용하여 모델 학습과 추론을 촉진하고 첨단 컴퓨팅 프로젝트를 구축하고 있다"면서 "엔비디아 클라우드 파트너와 고객들은 이제 웨카의 인증된 레퍼런스 아키텍처를 통해 완벽하게 검증된 AI 네이티브 데이터 관리 솔루션을 전개하여 결과 도출 시간 메트릭스을 개선하는 한편 전력과 데이터 센터 인프라 비용을 크게 절감할 수 있다"고 말했다.

AI 혁명으로 특수 클라우드 솔루션의 수요 급증

차세대 GPU 액세스에 대한 전 세계 수요가 조직들이 생성형 AI를 빠르게 채택하고 다양한 사용 사례를 통한 경쟁 우위 확보를 위해 움직임에 따라 급증하고 있다. 이로 인해 모든 규모와 모든 산업 분야의 조직들에 가속화된 컴퓨팅 및 AI 인프라 솔루션을 공급함으로써 폭넓은 GPU 액세스를 제공하는 새로운 유형의 특수 AI 클라우드 서비스 제공업체들이 크게 부상했다. 엔터프라이즈 AI 프로젝트들이 대규모 GPU 환경에서 학습, 추론, 검색 증강 생성(RAG) 워크플로우를 융합함에 따라 이들 클라우드 제공업체는 종종 데이터 통합 및 휴대성, 지연 시간 최소화, 효율적인 GPU 활용을 통한 비용 통제와 같은 중요한 데이터 관리 문제에 종종 직면한다.

웨카의 AI 네이티브 데이터 플랫폼은 데이터 파이프라인을 최적화하고 가속하여 GPU가 데이터로 연속 포화되어 최대 활용도를 달성하고, AI 모델 학습 및 추론을 간소화하며, 성능 집약적인 워크로드를 가속하도록 해준다. 동 플랫폼은 모든 I/O 프로파일에서 성능을 최적화하는 간소화된 제로 튜닝 스토리지 경험을 제공하여 클라우드 제공업체들이 AI 워크플로우를 간소화함으로써 데이터 관리의 복잡성과 직원 관리비를 줄일 수 있도록 지원한다.

많은 엔비디아 클라우드 파트너들도 지속 가능성을 염두에 두고 서비스 제품을 구축하고 있으며, 에너지 효율적인 기술과 지속 가능한 AI 관행을 활용하여 환경에 미치는 영향을 줄이고 있다. 웨카 데이터 플랫폼은 GPU 효율성과 AI 모델 학습과 추론의 효능을 획기적으로 개선하여 클라우드 서비스 제공업체가 저장된 데이터 페타바이트 당 260톤의 CO2e를 저감할 수 있도록 지원한다. 이를 통해 그들 데이터 센터의 에너지 및 탄소 배출 그리고 고객의 AI 및 HPC 이니셔티브가 환경에 미치는 영향을 더 줄일 수 있다.

엔비디아 클라우드 파트너인 요타 데이터 서비스(Yotta Data Services)의 공동 설립자이자 매니징디렉터 겸 CEO 수닐 굽타(Sunil Gupta)는 "웨카 데이터 플랫폼은 인도에서 가장 빠른 AI 슈퍼컴퓨팅 인프라인 요타의 샤크티 클라우드의 성능 최적화에 핵심이다. 우리는 샤크티 클라우드를 통해 모든 규모의 조직들이 확장 가능한 GPU 서비스를 제공하고, 고성능 컴퓨팅 자원에 대한 액세스를 민주화하며, 기업들이 우리의 대규모 엔비디아 H100 GPU들을 통해 AI를 완벽하게 활용할 수 있도록 지원한다. 우리 고객들은 이러한 개선을 통해 1조 개의 파라미터로 구성된 언어 모델에서 실시간 생성형 AI를 효율적으로 실행할 수 있다"면서 "우리 요타는 데이터 센터의 성장과 지속 가능성 및 에너지 효율의 균형을 맞추겠다는 확고한 의지를 갖고 있다. 우리는 우리 데이터 센터의 환경 영향을 최소화하기 위해 에너지 효율적인 AI 기술을 전개하는 동시에 증가하는 수요에 맞출 수 있도록 우리의 인프라를 지속적으로 확대하는 데 전념하고 있다. 웨카는 우리가 이 목표를 달성하는 데 중요한 역할을 하고 있다"고 말했다.

엔비디아 클라우드 파트너를 위한 웨카의 레퍼런스 아키텍처의 핵심 장점은 다음과 같다.

- 뛰어난 성능 : 검증된 많은 처리량과 짧은 지연 시간은 AI 모델 학습과 추론 월 클럭 시간을 며칠에서 몇 시간으로 단축시키며, 단일 HGX H100 시스템에 최대 48GBps의 읽기 처리량과 46GBps 이상의 쓰기 처리량을 제공한다.

- 최대 GPU 가동률: 웨카는 모든 HGX H100 시스템에서 일정한 성능과 선형 확장성을 제공함으로써 데이터 파이프라인을 최적화하고 GPU 가동률을 최대 20배까지 개선하여 트래픽이 많은 워크로드에 필요한 GPU 수를 줄이면서도 성능을 극대화한다.

- 서비스 제공업체 수준의 멀티 테넌시 : 보안 액세스 제어와 인터넷에서 구성 가능한 클러스터는 자원의 분리와 독립적인 암호화를 제공하여 고객의 개인 정보와 성능을 보존한다.

- 검문 스톨 제거 : 확장 가능하고 지연 시간이 짧은 검문은 대규모 모델 학습의 핵심으로서 리스크를 줄이고 운영 상태를 예측할 수 있다.

- 대규모 확장 : 엔비디아 스펙트럼-X 이더넷 백본에서 최대 32,000개의 엔비디아 H100 GPU와 단일 네임스페이스 내에서 엑사바이트 급의 용량을 지원함으로써 어떠한 전개 규모의 니즈도 충족하도록 확장할 수 있다.

- 간소화된 운영 : 제로 튜닝 아키텍처는 메타데이터와 데이터 서비스의 선형 확장을 제공하고 다양한 멀티 워크로드 클라우드 환경의 설계, 전개와 관리를 간소화한다.

- 복잡성 저감과 효율성 제고 : 웨카는 경쟁 솔루션 대비 10분의 1 수준인 데이터 센터 설치 공간과 케이블로 동급 최고의 성능을 구현하여 인프라 복잡성, 스토리지 및 에너지 비용 그리고 관련된 환경 영향을 줄여 보다 지속 가능한 AI 이용을 촉진한다.

엔비디아 클라우드 파트너를 위한 웨카 레퍼런스 아키텍처에 대한 상세 정보가 필요할 경우 https://www.weka.io/company/partners/technology-alliance-partners/nvidia를 방문하기 바란다.

웨카가 GPU 가속화 속도를 어떻게 제고하는 지를 알고 싶으면 https://www.weka.io/data-platform/solutions/gpu-acceleration/을 방문하기 바란다.

웨카

웨카는 AI 시대를 위해 구축된 기업 데이터 스택에 대한 새로운 방식을 설계하고 있다. 웨카® 데이터 플랫폼은 클라우드와 어디에나 설치할 수 있는 AI 기반 아키텍처가 갖춰진 AI 인프라의 표준을 설정함으로써 온- 프레미스, 클라우드와 엣지 환경에서 데이터를 원활하게 이동할 수 있게 한다. 이 플랫폼은 종래의 데이터 사일로를 GPU, AI 모델 트레이닝과 추론 그리고 기타 성능 집약적인 워크로드를 가속하는 동적 데이터 파이프라인으로 변환하여 보다 효율적으로 작업하고 에너지를 덜 소비하며 관련 탄소 배출량을 줄일 수 있도록 지원한다. 웨카는 전세계에서 가장 혁신적인 기업과 연구 조직들이 복잡한 데이터 문제를 해결하여 더 빠르고 지속 가능하게 발견, 통찰과 결과에 도달할 수 있도록 해주는데 여기에는 포춘 50대 기업 중 12개가 포함되어 있다. 상세 정보가 필요할 경우 www.weka.io를 방문하거나 링크트인[https://www.linkedin.com/company/weka-io/ ], X[https://x.com/WekaIO ]와 페이스북[https://www.facebook.com/WEKADataPlatform ]에서 웨카와 연결하기 바란다.

WEKA와 WEKA 로고는 웨카아이오의 등록상표이다. 여기에서 사용된 기타 트레이드 명칭들은 그들 각 소유자들의 상표일 수도 있다.

사진 - https://mma.prnewswire.com/media/2511528/PR_weka_nvidia_NCP_1200x675.jpg

The WEKA Data Platform is Now Certified as a High-Performance Data Store Solution with the NVIDIA Cloud Partner Reference Architecture for GPU Compute Infrastructure

미디어 연락처: Napua Leong, 웨카 홍보 담당, pr@weka.io

출처: WekaIO

WEKA Achieves NVIDIA Cloud Network Partner Certification

-- The WEKA Data Platform is Now Certified as a High-Performance Data Store Solution with the NVIDIA Cloud Partner Reference Architecture for GPU Compute Infrastructure

CAMPBELL, Calif. Sept. 26, 2024 /PRNewswire/ -- WekaIO (WEKA [https://www.weka.io/ ]), the AI-native data platform company, today announced that the WEKA® Data Platform has been certified as a high-performance data store for NVIDIA Partner Network Cloud Partners. With this certification, NVIDIA Cloud Partners can now leverage the WEKA Data Platform's exceptional performance, scalability, operational efficiency, and ease of use through the jointly validated WEKA Reference Architecture for NVIDIA Cloud Partners using NVIDIA HGX H100 systems [https://www.nvidia.com/en-us/data-center/hgx/ ].

The NVIDIA Cloud Partner reference architecture provides a comprehensive, full-stack hardware and software solution for cloud providers to offer AI services and workflows for different use cases. WEKA's storage certification ensures that WEKApod™ appliances and hardware from WEKA-qualified server partners meet NVIDIA Cloud Partner high-performance storage (HPS) specifications for AI cloud environments.

The certification highlights the WEKA Data Platform's ability to provide powerful performance at scale and accelerate AI workloads. It delivers up to 48GBps of read throughput and over 46GBps of write throughput on a single HGX H100 system and supports up to 32,000 NVIDIA GPUs in a single NVIDIA Spectrum-X [https://www.nvidia.com/en-us/networking/spectrumx/ ] Ethernet networked cluster. NVIDIA Cloud Partners can now confidently pair the WEKA Data Platform with large-scale AI infrastructure deployments powered by NVIDIA GPUs to help their customers rapidly deploy and scale AI projects.

"AI innovators are increasingly turning to hyperscale and specialty cloud providers to fuel model training and inference and build their advanced computing projects," said Nilesh Patel, chief product officer at WEKA. "WEKA's certified reference architecture enables NVIDIA Cloud Partners and their customers to now deploy a fully validated, AI-native data management solution that can help to improve time-to-outcome metrics while significantly reducing power and data center infrastructure costs."

The AI Revolution Is Driving Surging Demand for Specialty Cloud Solutions

Global demand for next-generation GPU access has surged as organizations move to rapidly adopt generative AI and gain a competitive edge across a wide spectrum of use cases. This has spurred the rise of a new breed of specialty AI cloud service providers that offer wide GPU access by providing accelerated computing and AI infrastructure solutions to organizations of every size and in every industry. As enterprise AI projects converge training, inference, and retrieval-augmented generation (RAG) workflows on larger GPU environments, these cloud providers often face significant data management challenges, such as data integration and portability, minimizing latency, and controlling costs through efficient GPU utilization.

WEKA's AI-native data platform optimizes and accelerates data pipelines, helping ensure GPUs are continuously saturated with data to achieve maximum utilization, streamline AI model training and inference, and accelerate performance-intensive workloads. It provides a simplified, zero-tuning storage experience that optimizes performance across all I/O profiles, helping cloud providers simplify AI workflows to reduce data management complexity and staff overhead.

Many NVIDIA Cloud Partners are also building their service offerings with sustainability in mind, employing energy-efficient technologies and sustainable AI practices to reduce their environmental impact. The WEKA Data Platform dramatically improves GPU efficiency and the efficacy of AI model training and inference, which can help cloud service providers avoid 260 tons of CO2e per petabyte of data stored. This can further reduce their data centers' energy and carbon footprints and the environmental impact of customers' AI and HPC initiatives.

"The WEKA Data Platform is crucial in optimizing the performance of Yotta's Shakti Cloud, India's fastest AI supercomputing infrastructure. Shakti Cloud allows us to provide scalable GPU services to enterprises of all sizes, democratizing access to high-performance computing resources and enabling businesses to fully harness AI through our extensive NVIDIA H100 GPU fleet. With this enhancement, our customers can efficiently run real-time generative AI on trillion-parameter language models," said Sunil Gupta, Co-founder, Managing Director, and CEO of Yotta Data Services, an NVIDIA Cloud Partner. "At Yotta, we are deeply committed to balancing data center growth with sustainability and energy efficiency. We are dedicated to deploying energy-efficient AI technologies to minimize the environmental impact of our data centers while continuing to scale our infrastructure to meet the growing demand. WEKA is instrumental in helping us achieve this objective."

Key Benefits of WEKA's Reference Architecture for NVIDIA Cloud Partners include:

- Exceptional Performance: Validated high throughput and low latency help to reduce AI model training and inference wall clock time from days to hours, providing up to 48GBps of read throughput and over 46GBps of write throughput for a single HGX H100 system.

- Maximum GPU Utilization: WEKA delivers consistent performance and linear scalability across all HGX H100 systems, optimizing data pipelines to improve GPU utilization by up to 20x, resulting in fewer GPUs needed for high-traffic workloads while maximizing performance.

- Service Provider-level Multi-tenancy: Secure access controls and virtual composable clusters offer resource separation and independent encryption to preserve customer privacy and performance.

- Eliminate Checkpoint Stalls: Scalable, low-latency checkpointing is crucial for large-scale model training, mitigating risks and providing operational predictability.

- Massive Scale: Supports up to 32,000 NVIDIA H100 GPUs and an exabyte of capacity within a single namespace across an NVIDIA Spectrum-X Ethernet backbone to scale to meet the needs of any deployment size.

- Simplified Operations: Zero-tuning architecture provides linear scaling of metadata and data services and streamlines the design, deployment, and management of diverse, multi-workload cloud environments.

- Reduced Complexity & Enhanced Efficiency: WEKA delivers class-leading performance in one-tenth the data center footprint and cabling compared to competing solutions, reducing infrastructure complexity, storage and energy costs, and the associated environmental impact to promote more sustainable use of AI.

To learn more about the WEKA reference architecture for NVIDIA Cloud Partners, visit https://www.weka.io/company/partners/technology-alliance-partners/nvidia.

To explore how WEKA can enhance GPU acceleration, visit: https://www.weka.io/data-platform/solutions/gpu-acceleration/.

About WEKA

WEKA is architecting a new approach to the enterprise data stack built for the AI era. The WEKA® Data Platform sets the standard for AI infrastructure with a cloud and AI-native architecture that can be deployed anywhere, providing seamless data portability across on-premises, cloud, and edge environments. It transforms legacy data silos into dynamic data pipelines that accelerate GPUs, AI model training and inference, and other performance-intensive workloads, enabling them to work more efficiently, consume less energy, and reduce associated carbon emissions. WEKA helps the world's most innovative enterprises and research organizations overcome complex data challenges to reach discoveries, insights, and outcomes faster and more sustainably - including 12 of the Fortune 50. Visit www.weka.io to learn more, or connect with WEKA on LinkedIn [https://www.linkedin.com/company/weka-io/ ], X [https://x.com/WekaIO ], and Facebook [https://www.facebook.com/WEKADataPlatform ].

WEKA and the WEKA logo are registered trademarks of WekaIO, Inc. Other trade names used herein may be trademarks of their respective owners.

Photo - https://mma.prnewswire.com/media/2511528/PR_weka_nvidia_NCP_1200x675.jpg

The WEKA Data Platform is Now Certified as a High-Performance Data Store Solution with the NVIDIA Cloud Partner Reference Architecture for GPU Compute Infrastructure

Source: WekaIO

[편집자 주] 이 보도자료는 자료 제공사에서 제공한 것으로, 연합뉴스는 내용에 대해 어떠한 편집도 하지 않았으며, 연합뉴스의 편집방향과는 무관함을 밝혀 드립니다.

(끝)

출처 : PRNewswire 보도자료

Copyright © 연합뉴스 보도자료. 무단전재 및 재배포 금지.

이 기사에 대해 어떻게 생각하시나요?