[PRNewswire] 슈퍼마이크로, AI 솔루션 확장
-- HBM3e 메모리를 탑재한 NVIDIA HGX H200 및 MGX Grace Hopper 플랫폼 출시 예정
-- 슈퍼마이크로(Supermicro)는 더 빠르고 더 큰 HBM3e 메모리를 갖춘 LLM 애플리케이션용 NVIDIA HGX H200 및 Grace Hopper Superchip의 지원으로 8-GPU, 4-GPU 및 MGX 제품 라인을 확장한다. NVIDIA HGX 8-GPU를 갖춘 혁신적인 슈퍼마이크로 수냉식 4U 서버는 랙당 컴퓨팅 밀도를 두 배로 높이고 최대 80kW/랙으로 TCO를 절감한다.
산호세 및 덴버, 캘리포니아주 2023년 11월 15일 /PRNewswire=연합뉴스/ -- 슈퍼 컴퓨팅 컨퍼런스(SC23) -- Supermicro, Inc.(NASDAQ: SMCI)는 AI, 클라우드, 스토리지, 5G/Edge를 위한 종합 IT 솔루션 제공업체로서 H200 Tensor Core GPU로 구축된 새로운 NVIDIA HGX H200에 대한 지원을 앞두고 AI 범위를 확장하고 있다. 8U 및 4U 범용 GPU 시스템을 포함하는 슈퍼마이크로의 업계 선도적인 AI 플랫폼은 HGX H200 8-GPU, 4-GPU에 즉시 사용 가능하며 NVIDIA H100 Tensor Core GPU에 비해 거의 2배에 가까운 용량과 1.4배 더 높은 대역폭의 HBM3e 메모리를 갖추고 있다. 또한 슈퍼마이크로 NVIDIA MGXTM 시스템의 가장 광범위한 포트폴리오는 곧 출시될 HBM3e 메모리를 탑재한 NVIDIA Grace Hopper Superchip을 지원한다. 전례없는 성능, 확장성 및 안전성을 갖춘 슈퍼마이크로의 랙 규모 AI 솔루션은 계산 집약적인 생성형 AI, LLM(대형언어모델) 학습 및 HPC 애플리케이션의 성능을 가속화하는 동시에 점점 커지는 모델 크기에 대한 수요를 충족한다. 슈퍼마이크로는 빌딩 블록 아키텍처를 사용하여 신기술을 신속하게 시장에 출시하여 고객이 더 빨리 생산성을 높일 수 있도록 지원한다.
슈퍼마이크로는 또한 최신 슈퍼마이크로 액체 냉각 솔루션을 활용하는 액체 냉각 4U 시스템의 NVIDIA HGX H100 8-GPU 시스템을 갖춘 업계 최고 밀도의 서버를 도입하고 있다. 업계에서 가장 소형의 고성능 GPU 서버를 사용하면 데이터 센터 운영자는 단일 랙에서 사용할 수 있는 최고 성능의 AI 학습 용량을 제공하는 동시에 설치 공간과 에너지 비용을 줄일 수 있다. 최고 밀도 GPU 시스템을 통해 조직은 최첨단 액체 냉각 솔루션을 활용하여 TCO를 절감할 수 있다.
슈퍼마이크로의 사장 겸 CEO인 찰스 리앙(Charles Liang)은 "슈퍼마이크로는 AI 학습 및 HPC 애플리케이션을 위한 가장 진보된 시스템을 설계하기 위해 NVIDIA와 협력하고 있습니다."라고 말했다. 리앙은 또한 "당사의 빌딩 블록 아키텍처를 통해 당사는 최신 기술을 가장 먼저 시장에 출시할 수 있어 고객이 그 어느 때보다 빠르게 생성형 AI를 배포할 수 있습니다. 당사는 전 세계 제조 시설을 통해 이러한 새로운 시스템을 고객에게 더 빠르게 제공할 수 있습니다. 900GB/s의 NVIDIA® NVLink™ 및 NVSwitch™ 고속 GPU-GPU 상호 연결과 함께 NVIDIA H200 GPU를 사용하는 이 새로운 시스템은 이제 당사의 랙 규모 AI 솔루션에서 노드당 최대 1.1TB의 고대역폭 HBM3e 메모리를 제공하여 오늘날의 LLM 및 생성형 AI를 위한 최고 성능의 모델 병렬성을 제공합니다. 또한 당사는 당사의 랙 규모 AI 솔루션의 밀도를 두 배로 늘리고 에너지 비용을 줄여 오늘날의 가속화된 데이터 센터를 위한 친환경 컴퓨팅을 달성하는 세계에서 가장 소형의 NVIDIA HGX 8-GPU 수냉식 서버를 제공하게 되어 기쁘게 생각합니다."라고 덧붙였다.
NVIDIA GPU를 탑재한 슈퍼마이크로 서버에 대해 자세히 알아보기[https://www.supermicro.com/en/accelerators/nvidia ]
슈퍼마이크로는 다양한 폼 팩터를 갖춘 광범위한 AI 서버 포트폴리오를 설계하고 제조한다. 4 방향 및 8 방향 NVIDIA HGX H100 GPU를 갖춘 인기 있는 8U 및 4U 범용 GPU 시스템은 이제 새로운 H200 GPU에 즉시 사용이 가능하여 더 짧은 시간에 훨씬 더 큰 언어 모델을 학습할 수 있다. 각 NVIDIA H200 GPU에는 4.8TB/s의 대역폭을 갖춘 141GB의 메모리가 포함되어 있다.
NVIDIA의 HPC, AI 및 양자 컴퓨팅을 위한 데이터 센터 제품 솔루션 이사인 디온 해리스(Dion Harris)는 "NVIDIA HGX H200을 사용하는 슈퍼마이크로의 향후 서버 설계는 생성형 AI 및 HPC 워크로드를 가속화하는 데 도움이 되어 기업과 조직은 AI 인프라를 최대한 활용할 수 있습니다"라고 말했다. 해리스는 또한 "고속 HBM3e 메모리를 탑재한 NVIDIA H200 GPU는 다양한 워크로드에 대해 막대한 양의 데이터를 처리할 수 있습니다."라고 덧붙였다.
또한 NVIDIA GH200 Grace Hopper Superchips를 탑재한 최근 출시된 슈퍼마이크로 MGX[https://www.supermicro.com/en/pressreleases/supermicro-starts-shipments-nvidia-gh200-grace-hopper-superchip-based-servers ] 서버는 NVIDIA H200 GPU와 HBM3e 메모리를 통합하도록 설계되었다.
새로운 NVIDIA GPU를 사용하면 수천억 개의 매개변수가 포함된 현재 및 미래의 대규모 언어 모델(LLM)을 더욱 작고 효율적인 클러스터에 적용하여 더 짧은 시간에 생성형 AI를 학습하고 수백만 명의 사용자에게 생성형 AI를 제공하기 위한 실시간 LLM 추론을 위해 여러 개의 대형 모델을 하나의 시스템에 맞출 수 있다.
SC23에서 슈퍼마이크로는 AI의 진화를 주도하기 위해 밀도와 효율성을 더욱 향상시키는 최신 액체 냉각 혁신 기술을 갖춘 8 방향 NVIDIA HGX H100을 탑재한 4U 범용 GPU 시스템인 최신 제품을 선보이고 있다. 친환경 컴퓨팅을 위해 설계된 슈퍼마이크로의 업계 최고의 GPU 및 CPU 콜드 플레이트, CDU(냉각 분배 장치) 및 CDM(냉각 분배 매니폴드)을 갖춘 새로운 수냉식 4U 범용 GPU 시스템은 8 방향 NVIDIA HGX H200에도 준비되어 있으며 이는 슈퍼마이크로의 완전 통합형 액체 냉각 랙 솔루션과 당사의 L10, L11 및 L12 검증 테스트를 통해 데이터 센터 공간, 전력 비용 및 배포 장애물을 획기적으로 줄일 것이다.
자세한 내용은 SC23의 슈퍼마이크로 부스[https://learn-more.supermicro.com/sc23 ]를 참조하세요.
슈퍼마이크로컴퓨터(Super Micro Computer, Inc.) 소개
슈퍼마이크로(NASDAQ: SMCI)는 애플리케이션에 최적화된 종합 IT 솔루션 분야의 글로벌 리더입니다. 캘리포니아주 산호세에서 설립되어 운영되는 슈퍼마이크로는 엔터프라이즈, 클라우드, AI 및 5G 통신 / 엣지 IT 인프라를 위한 시장 혁신을 최초로 제공하기 위해 최선을 다하고 있습니다. 당사는 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어 및 지원 서비스를 갖춘 종합 IT 솔루션 제조업체입니다. 슈퍼마이크로의 머더보드, 전원 및 섀시 설계 전문 지식은 당사의 개발과 생산을 더욱 가능하게 하여 글로벌 고객을 위해 클라우드에서 엣지까지 차세대 혁신을 가능하게 합니다. 당사의 제품은 규모와 효율성을 위해 글로벌 운영을 활용하고 TCO를 개선하고 환경에 미치는 영향을 줄이기 위해 최적화되어(그린 컴퓨팅) 사내(미국, 아시아 및 네덜란드)에서 설계 및 제조됩니다. 수상 경력에 빛나는 Server Building Block Solutions® 포트폴리오를 통해 고객은 포괄적인 폼 팩터 세트, 프로세서, 메모리, GPU, 스토리지, 네트워킹, 전력 및 냉각 솔루션(공기 조정 장치, 자유 공기 냉각 또는 액체 냉각)을 지원하는 유연하고 재사용 가능한 빌딩 블록으로 구축된 광범위한 시스템 제품군 중에서 선택하여 정확한 워크로드 및 애플리케이션에 맞게 최적화할 수 있습니다.
Supermicro, Server Building Block Solutions 및 We Keep IT Green은 Super Micro Computer, Inc. 의 상표 및 / 또는 등록 상표입니다.
기타 모든 브랜드, 이름 및 상표는 해당 소유자의 자산입니다.
사진 - https://mma.prnewswire.com/media/2274161/03_2023__4U_8GPU_H200_1080.jpg
Supermicro 4U 8GPU H200
로고 - https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg
출처: Super Micro Computer, Inc.
Supermicro Expands AI Solutions with the Upcoming NVIDIA HGX H200 and MGX Grace Hopper Platforms Featuring HBM3e Memory
-- Supermicro Extends 8-GPU, 4-GPU, and MGX Product Lines with Support for the NVIDIA HGX H200 and Grace Hopper Superchip for LLM Applications with Faster and Larger HBM3e Memory - New Innovative Supermicro Liquid Cooled 4U Server with NVIDIA HGX 8-GPUs Doubles the Computing Density Per Rack, and Up to 80kW/Rack, Reducing TCO
SAN JOSE, Calif., and DENVER, Nov. 13, 2023 /PRNewswire/ -- Supercomputing Conference (SC23) -- Supermicro, Inc. (NASDAQ: SMCI), a Total IT Solution Provider for AI, Cloud, Storage, and 5G/Edge, is expanding its AI reach with the upcoming support for the new NVIDIA HGX H200 built with H200 Tensor Core GPUs. Supermicro's industry leading AI platforms, including 8U and 4U Universal GPU Systems, are drop-in ready for the HGX H200 8-GPU, 4-GPU, and with nearly 2x capacity and 1.4x higher bandwidth HBM3e memory compared to the NVIDIA H100 Tensor Core GPU. In addition, the broadest portfolio of Supermicro NVIDIA MGXTM systems supports the upcoming NVIDIA Grace Hopper Superchip with HBM3e memory. With unprecedented performance, scalability, and reliability, Supermicro's rack scale AI solutions accelerate the performance of computationally intensive generative AI, large language Model (LLM) training, and HPC applications while meeting the evolving demands of growing model sizes. Using the building block architecture, Supermicro can quickly bring new technology to market, enabling customers to become more productive sooner.
Supermicro is also introducing the industry's highest density server with NVIDIA HGX H100 8-GPUs systems in a liquid cooled 4U system, utilizing the latest Supermicro liquid cooling solution. The industry's most compact high performance GPU server enables data center operators to reduce footprints and energy costs while offering the highest performance AI training capacity available in a single rack. With the highest density GPU systems, organizations can reduce their TCO by leveraging cutting-edge liquid cooling solutions.
"Supermicro partners with NVIDIA to design the most advanced systems for AI training and HPC applications," said Charles Liang, president and CEO of Supermicro. "Our building block architecture enables us to be first to market with the latest technology, allowing customers to deploy generative AI faster than ever before. We can deliver these new systems to customers faster with our worldwide manufacturing facilities. The new systems, using the NVIDIA H200 GPU with NVIDIA® NVLink™ and NVSwitch™ high-speed GPU-GPU interconnects at 900GB/s, now provide up to 1.1TB of high-bandwidth HBM3e memory per node in our rack scale AI solutions to deliver the highest performance of model parallelism for today's LLMs and generative AI. We are also excited to offer the world's most compact NVIDIA HGX 8-GPU liquid cooled server, which doubles the density of our rack scale AI solutions and reduces energy costs to achieve green computing for today's accelerated data center."
Learn more about the Supermicro servers with NVIDIA GPUs [https://www.supermicro.com/en/accelerators/nvidia ]
Supermicro designs and manufactures a broad portfolio of AI servers with different form factors. The popular 8U and 4U Universal GPU systems featuring four-way and eight-way NVIDIA HGX H100 GPUs are now drop-in ready for the new H200 GPUs to train even larger language models in less time. Each NVIDIA H200 GPU contains 141GB of memory with a bandwidth of 4.8TB/s.
"Supermicro's upcoming server designs using NVIDIA HGX H200 will help accelerate generative AI and HPC workloads, so that enterprises and organizations can get the most out of their AI infrastructure," said Dion Harris, director of data center product solutions for HPC, AI, and quantum computing at NVIDIA. "The NVIDIA H200 GPU with high-speed HBM3e memory will be able to handle massive amounts of data for a variety of workloads."
Additionally, the recently launched Supermicro MGX [https://www.supermicro.com/en/pressreleases/supermicro-starts-shipments-nvidia-gh200-grace-hopper-superchip-based-servers ] servers with the NVIDIA GH200 Grace Hopper Superchips are engineered to incorporate the NVIDIA H200 GPU with HBM3e memory.
The new NVIDIA GPUs allow acceleration of today's and future large language models (LLMs) with 100s of billions of parameters to fit in more compact and efficient clusters to train Generative AI with less time and also allow multiple larger models to fit in one system for real-time LLM inference to serve Generative AI for millions of users.
At SC23, Supermicro is showcasing the latest offering, a 4U Universal GPU System featuring the eight-way NVIDIA HGX H100 with its latest liquid-cooling innovations that further improve density and efficiency to drive the evolution of AI. With Supermicro's industry leading GPU and CPU cold plates, CDU(cooling distribution unit), and CDM (cooling distribution manifold) designed for green computing, the new liquid-cooled 4U Universal GPU System is also ready for the eight-way NVIDIA HGX H200, which will dramatically reduce data center footprints, power cost, and deployment hurdles through Supermicro's fully integrated liquid-cooling rack solutions and our L10, L11 and L12 validation testing.
For more information, visit the Supermicro booth at SC23 [https://learn-more.supermicro.com/sc23 ]
About Super Micro Computer, Inc.
Supermicro (NASDAQ: SMCI) is a global leader in Application-Optimized Total IT Solutions. Founded and operating in San Jose, California, Supermicro is committed to delivering first to market innovation for Enterprise, Cloud, AI, and 5G Telco/Edge IT Infrastructure. We are a Total IT Solutions manufacturer with server, AI, storage, IoT, switch systems, software, and support services. Supermicro's motherboard, power, and chassis design expertise further enables our development and production, enabling next generation innovation from cloud to edge for our global customers. Our products are designed and manufactured in-house (in the US, Asia, and the Netherlands), leveraging global operations for scale and efficiency and optimized to improve TCO and reduce environmental impact (Green Computing). The award-winning portfolio of Server Building Block Solutions® allows customers to optimize for their exact workload and application by selecting from a broad family of systems built from our flexible and reusable building blocks that support a comprehensive set of form factors, processors, memory, GPUs, storage, networking, power, and cooling solutions (air-conditioned, free air cooling or liquid cooling).
Supermicro, Server Building Block Solutions, and We Keep IT Green are trademarks and/or registered trademarks of Super Micro Computer, Inc.
All other brands, names, and trademarks are the property of their respective owners.
Photo - https://mma.prnewswire.com/media/2274161/03_2023__4U_8GPU_H200_1080.jpg
Supermicro 4U 8GPU H200
Logo - https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg
Source: Super Micro Computer, Inc.
[편집자 주] 이 보도자료는 자료 제공사에서 제공한 것으로, 연합뉴스는 내용에 대해 어떠한 편집도 하지 않았으며, 연합뉴스의 편집방향과는 무관함을 밝혀 드립니다.
(끝)
출처 : PRNewswire 보도자료
Copyright © 연합뉴스 보도자료. 무단전재 및 재배포 금지.
- [속보] 대통령실, 尹·트럼프 회동 가능성에 "긴밀히 소통 중" | 연합뉴스
- 루비오, 북핵에 강한 경계심…"핵무기 가진 미치광이 北에 있어" | 연합뉴스
- "내년엔 트럼프 관세 없다" KDI 성장전망 2.1→2.0% 하향 | 연합뉴스
- 거침없는 '트럼프 랠리'…"허니문 오래 못 갈 수도" 신중론도 | 연합뉴스
- "명태균, 대통령 부부 친분 과시해 돈받아"…검찰 구속영장 적시 | 연합뉴스
- 국내 첫 백일해 사망, 생후 2개월 미만 영아…"임신부 접종해야"(종합) | 연합뉴스
- 국민 절반은 '결혼 안해도 된다'…안하는 이유 1위는 '자금부족' | 연합뉴스
- 尹 "불법추심은 악질범죄…검경, 수사역량 총동원해 뿌리뽑아야" | 연합뉴스
- 신원식 "韓, 한미동맹 일방적 수혜자 아냐…비핵화 목표 견지" | 연합뉴스
- 野 수정특검법, '도이치·명태균' 압축…제삼자추천 비토권 부여 | 연합뉴스