すぐに展開可能なフルスタックの空冷式または液冷式のラック構成のSuperCluster は、最新のNVIDIA Tensor コアGPU、ネットワーク、NVIDIA AI Enterprise ソフトウェアを採用、
トレーニングやクラウドスケールの推論に最適で、エンタープライズから大規模なLLMインフラストラクチャまで拡張が可能に
カリフォルニア州サンノゼ, 2024年3月22日 /PRNewswire/ -- Super Micro Computer, Inc.(NASDAQ: SMCI)は、AI、クラウド、HPC、ストレージ、5G/Edge、グリーンコンピューティングをリードする、トータルITソリューションを提供するメーカーです。同社は、生成AIの展開を加速する、最新のポートフォリオを発表しました。Supermicro SuperCluster ソリューションは、大規模言語モデル(LLM)インフラストラクチャの、現在および将来の基盤となるビルディング・ブロックを提供します。
3種類の強力なSupermicro SuperClusterソリューションが、生成AIのワークロードで利用できるようになります。4U液冷システム、または、8U空冷システムは、強力なLLMトレーニングパフォーマンス、大規模なバッチサイズ、大量のLLM推論処理を実現するために、特別に構築され、設計されています。3つ目のSuperClusterは、1U空冷Supermicro NVIDIA MGXTM システムを搭載し、クラウドスケールの推論用途に最適化されています。
Supermicroの社長兼最高責任者(CEO)であるチャールズ・リアン(Charles Liang)は、次のように述べています。「AIの時代において、コンピューティングの数の単位はサーバーの数だけでなくクラスターによって測定され、、月産5000ラックという当社のグローバル製造能力の拡大により、完全な生成AIクラスターをかつてないほど迅速にお客様の元に提供できるようになりました。64ノードのクラスターでは、400Gb/s の NVIDIA Quantum-2 InfiniBand と Spectrum-X イーサネットネットワークを備えた大規模なクラスター・ビルディング・ブロックによって、72TBのHBM3e メモリーを搭載した512基の NVIDIA HGX H200 GPU の構築が可能になります。Supermicro SuperCluster ソリューションと、NVIDIA AI Enterprise ソフトウェアの組み合わせは、最大数兆個のパラメーターを使用し、LLM トレーニングを行っている、今日のエンタープライズおよびクラウド・インフラストラクチャに最適です。また、相互接続されたGPU、CPU、メモリー、ストレージ、ネットワークを、ラック内の複数ノードに展開することで、AI基盤を構築します。Supermicro SuperCluster ソリューションは、急速に進化する生成AIとLLMの基盤となるビルディング・ブロックを提供します。」
Supermicro AI SuperClusters の詳細はこちらをご覧ください:www.supermicro.com/ai-superclusterhttps://www.supermicro.com/ai-supercluster
NVIDIA社GPU製品管理担当バイスプレジデントである カウストゥブ・サンガニ(Kaustubh Sanghani)は、次のように述べています。「NVIDIA の最新GPU、CPU、ネットワーク、ソフトウェアテクノロジーにより、システムメーカーはグローバル市場に向けて、さまざまな次世代型AIワークロードを高速化できます。Supermicroは、NVIDIAのアクセラレーテッド・コンピューティング・プラットフォームとBlackwellアーキテクチャベースの製品を活用することで、データセンターに容易に展開できる最先端のサーバーシステムをお客様に提供します。」
Supermicro 4U NVIDIA HGX H100/H200 8-GPUシステムは、液冷を利用することで、搭載密度を8U空冷システムの2倍にし、エネルギー消費を削減、さらにデータセンターのTCOも削減します。
これらのシステムは、次世代のNVIDIA BlackwellアーキテクチャベースのGPUをサポートするように設計されています。Supermicro の冷却分配ユニット(CDU)とマニホールド(CDM)は、冷却された液体を Supermicro 独自のDirect-to-Chip(D2C)コールドプレートに分配するための大動脈であり、GPUとCPUを最適な温度に保ち、最大限のパフォーマンスを実現します。この冷却技術によって、データセンター全体の電力コストを最大40%削減し、データセンターのスペースを節約することができます。
Supermicro 液体冷却テクノロジーの詳細はこちらをご覧ください:https://www.supermicro.com/en/solutions/liquid-cooling
NVIDIA HGX H100/H200 8-GPU搭載システムは、生成Alのトレーニングに最適です。NVIDIA® NVLink® によって高速相互接続されたGPU、高帯域幅で大容量のGPUメモリーは、LLMモデルをコスト効率よく実行するための鍵となります。Supermicro SuperCluster は、単一のAIスーパーコンピューターとして機能するGPUリソースの大規模なプールを構築します。
数兆にもなるトークンを含むデータセットでトレーニングされる巨大な基盤モデルを、ゼロから適合させる場合でも、クラウドスケールのLLM推論インフラストラクチャを構築する場合でも、ノンブロッキング400Gb/sファブリックを備えたスパインおよびリーフ・ネットワーク・トポロジーにより、32ノードから数千ノードまでシームレスに拡張できます。完全に統合された液体冷却を備えたSupermicro の実証済みのテストプロセスにより、出荷前に運用の有効性と効率を徹底的に検証することができます。
NVIDIA GH200 Grace Hopper Superchipsを搭載したSupermicroのNVIDIA MGX™ システム設計では、運用コストを削減するために、高い推論バッチサイズで大規模言語(LLM)モデルを実行できるGPUメモリー帯域幅と容量によって、生成Alの重大な妨げに対処し、将来のAIクラスターの青写真を作成します。256ノードのクラスターにより、クラウド規模の大容量推論の原動力となり、容易な展開と拡張を実現します。
SuperCluster:5ラックの4U液冷システム、または、9ラックの8U空冷システム
- 256基の NVIDIA H100/H200 Tensor コア GPU を、1つのスケーラブルユニットに搭載
- 液冷により512 GPU、64ノードを、空冷256 GPU、32ノードのソリューションと同じ設置面積で実現
- 20TB HBM3のNVIDIA H100、または、36TB HBM3e のNVIDIA H200 を、1つのスケーラブルユニットに搭載
- 1:1 ネットワークは、各GPUに最大400Gbpsを提供し、NVIDIA GPUDirect RDMA および GPUDirect Storage によって、最大数兆個のパラメーターを持つ大規模言語モデルのトレーニングが可能
- NVIDIA Quantum-2 InfiniBand および NVIDIA Spectrum-X イーサネットプラットフォームを含む、拡張性の高いスパイン/リーフ・ネットワーク・トポロジーを備えた 400G InfiniBand または 400GbE イーサネット スイッチファブリック を採用
- 業界をリードする並列ファイルシステムオプションを備えた、カスタマイズ可能なAIデータパイプラインストレージファブリック
- NVIDIA AI Enterprise 5.0 ソフトウェアは、大規模なAIモデルの展開を加速する新しい NVIDIA NIM 推論マイクロサービスをサポート
SuperCluster:9ラックの1U空冷NVIDIA MGXシステム
- 256基のGH200 Grace Hopper Superchipを1つのスケーラブルユニットに搭載
- 最大144GBのHBM3e+480GBのLPDDR5Xユニファイドメモリーは、クラウドスケール、大容量、低遅延、高バッチサイズの推論に適しており、1つのノードで70B以上のパラメータモデルに適合可能
- 拡張性の高いスパイン/リーフ・ネットワーク・トポロジーを備えた、400G InfiniBand または 400GbE イーサネット・スイッチ・ファブリック
- ノードあたり、最大8つのE1.S NVMe ストレージデバイスを内蔵
- NVIDIA BlueField-3® DPU と業界をリードする並列ファイルシステムオプションを備えたカスタマイズ可能な AIデータパイプラインストレージファブリックにより、各GPUへの高スループットと低遅延のストレージアクセスを実現
- NVIDIA AI Enterprise 5.0 ソフトウェア
GPU-GPU間接続で達成可能なネットワーク性能を備えたSupermicro SuperClusterソリューションは、LLMトレーニング、ディープラーニング、大量かつ高バッチサイズの推論に最適化されています。Supermicro の L11 および L12 検証テストと、オンサイト展開サービスを組み合わせることで、お客様にシームレスな体験を提供します。お客様は、プラグアンドプレイのスケーラブルなユニットを受け取ることで、データセンターへの導入が容易になり、結果が出るまでの時間を短縮できます。
Super Micro Computer, Inc. について
Supermicro(NASDAQ: SMCI)は、アプリケーションに最適化したハードウェアとトータルITソリューションのグローバルリーダーです。米国カリフォルニア州サンノゼで設立し、本社を置くSupermicroは、エンタープライズ、クラウド、AI、HPC、IoT/Edgeを含むITインフラストラクチャ市場に、いち早くイノベーションを提供することに取り組んでいます。当社は、サーバー、AI、ストレージ、IoT、ネットワークスイッチ、ソフトウェア、保守サービスを提供する、トータルITソリューションのメーカーです。Supermicroのマザーボード、電源、シャーシに至る設計の専門知識は、自社開発および生産の向上を可能にし、世界中のお客様に、クラウドからエッジまでの次世代のイノベーションを提供しています。当社の製品は、生産規模と効率のため、グローバルな運用を活用して米国、アジア、オランダにおいて、設計および製造しており、TCOの改善、環境への影響を減らすグリーンコンピューティングを目指した最適化を促進しています。数々の受賞歴をもたらしている当社独自のServer Building Block Solutions®は、様々なフォームファクター、プロセッサー、メモリー、GPUなどのアクセラレータ、ストレージ、ネットワーク、電源、冷却方式(空冷や液冷)の組み合わせの中から、お客様に合った最適な構成を構築することが可能であり、アプリケーションとワークロードの最適化を実現します。
Supermicro、Server Building Block Solutions、We Keep IT Greenは、Super Micro Computer, Inc.の商標および/または登録商標です。
その他すべてのブランド、名称、および商標は、それぞれの所有者に帰属します。
写真 - https://mma.prnasia.com/media2/2365342/Super_Micro_Computer_Inc.jpg?p=medium600
ロゴ - https://mma.prnasia.com/media2/1443241/Supermicro_Logo.jpg?p=medium600