• 話題
  • スーパーマイクロ、新しいNVIDIA Blackwellアーキテクチャソリューションを搭載した新世代のシステムおよびラックアーキテクチャでAI最適化製品ポートフォリオを拡大

  • 2024/03/21 11:01 公開  Super Micro Computer, Inc.
  • 大規模なCSPおよびNSP向けの強力でエネルギー効率の高いソリューションは、NVIDIA Quantum X 800プラットフォームとNVIDIA AI Enterprise 5.0を搭載した次世代のNVIDIA GPUおよびCPUのフルスタックを搭載

    サンノゼ(カリフォルニア州), 2024年3月21日 /PRNewswire/ -- NVIDIA GTC 2024, -- スーパーマイクロ(Supermicro, Inc.NASDAQ: SMCI)は、AI、クラウド、ストレージ、5G/EdgeのトータルITソリューションプロバイダーであり、最新のNVIDIA GB200 Grace™ Blackwell Superchip、NVIDIA B200 Tensor Core、B100 Tensor Core GPUなど、NVIDIAの次世代データセンター製品を搭載した大規模生成AI向けの新しいAIシステムを発表しました。スーパーマイクロは、現在のNVIDIA HGX™ H100/H200 8-GPUシステムを強化し、NVIDIA HGX™ B100 8-GPUにドロップインできるようにし、B200をサポートするように強化することで、納品までの時間を短縮します。さらに、スーパーマイクロは、72個のNVIDIA Blackwell GPUを搭載した完全なラックレベルソリューションであるNVIDIA GB200 NVL72を含む、NVIDIA GB200を搭載した新しい製品により、幅広いNVIDIA MGX™システムラインナップをさらに強化します。また、スーパーマイクロは4U NVIDIA HGX B200 8-GPU液冷システムを含む新しいシステムをラインナップに追加します。


    「AI向けのビルディングブロックアーキテクチャおよび全IT規模のラックアーキテクチャに注力することにより、私たちはNVIDIA Blackwellアーキテクチャを基盤としたGPUの高度な要件に対応した次世代システムを設計することができました。その一例として、新型の4U液冷式NVIDIA HGX B200 8-GPUベースシステムや、NVIDIA GB200 NVL72を搭載した完全統合型のチップ直結液冷ラックなどがあります。」と、スーパーマイクロの社長兼CEOであるCharles Liang氏は述べています。さらに、「これらの新製品は、スーパーマイクロとNVIDIAの実績あるHGXおよびMGXシステムアーキテクチャをベースに構築されており、NVIDIA Blackwell GPUの新機能に最適化されています。スーパーマイクロは、1kWのGPUを幅広い空冷式および液冷式システムに組み込む専門知識を有しており、また月間5,000ラックのラックスケール生産能力を持ち、NVIDIA Blackwell GPUを搭載したフルラッククラスタの市場投入で先駆けとなることを見込んでいます。」と続けています。

    スーパーマイクロのチップ直結液冷技術により、最新GPUの熱設計電力(TDP)を増加させ、NVIDIA Blackwell GPUの全潜在能力を引き出すことが可能になります。スーパーマイクロのNVIDIA Blackwellを搭載したHGXおよびMGXシステムは、AIインフラの未来の基盤となる構成要素であり、数兆パラメータのAIトレーニングとリアルタイムAI推論において、画期的な性能を提供します。

    NVIDIA Blackwell B200およびB100 Tensor Core GPU向けに最適化されたスーパーマイクロの多様なシステムが準備され、最新のNVIDIA AI Enterpriseソフトウェアで検証されます。これには、NVIDIA NIM推論マイクロサービスのサポートが追加されています。スーパーマイクロのシステムには以下が含まれます。

    • NVIDIA HGX B100 8-GPUおよびHGX B200 8-GPUシステム
    • 最大10GPUの5U/4U PCIe GPUシステム
    • 8U筐体に最大20基のB100 GPU、6U筐体に最大10基のB100 GPUを搭載可能なSuperBlade®を採用
    • 最大3基のB100 GPUを搭載可能な2U Hyper
    • 最大4基のB100 GPUを搭載したスーパーマイクロ2U x86 MGXシステム

    巨大な基盤AIモデルのトレーニングのために、スーパーマイクロは市場で最初にNVIDIA HGX B200 8-GPUおよびHGX B100 8-GPUシステムをリリースする準備ができています。これらのシステムは、1.8TB/秒の高速第5世代のNVIDIA® NVLink® インターコネクトを介して接続された8つのNVIDIA Blackwell GPUを特徴とし、前世代の性能を倍増させ、1.5TBの合計高帯域幅メモリを備えています。これにより、NVIDIA Hopperアーキテクチャの世代と比較して、GPT-MoE-1.8TモデルなどのLLMに対するトレーニング結果を3倍速く提供します。これらのシステムは、NVIDIA Quantum-2 InfiniBandとNVIDIA Spectrum-X Ethernetオプションの両方をサポートし、GPU対NIC比が1:1であるため、クラスタに拡張できる高度なネットワーキングを特徴としています。

    「スーパーマイクロは、市場の現在のニーズに対応できる、AIトレーニングおよび推論に最適化された加速コンピューティングプラットフォームサーバーの驚くべき範囲を市場に提供し続けています。」と、NVIDIAのGPUプロダクトマネジメント副社長であるKaustubh Sanghani氏は述べました。さらに「私たちはスーパーマイクロと緊密に協力し、最も最適化されたソリューションをお客様に提供しています。」と続けています。

    最も要求の厳しいLLM推論ワークロードのために、スーパーマイクロはNVIDIA GB200 Grace Blackwell Superchipを搭載した複数の新しいMGXシステムをリリースしています。これは、NVIDIA Grace CPUと2つのNVIDIA Blackwell GPUを組み合わせたものです。GB200システムを搭載したスーパーマイクロのNVIDIA MGXは、NVIDIA HGX H100と比較して最大30倍の高速化を実現し、AI推論のパフォーマンスを飛躍的に向上させます。スーパーマイクロとNVIDIAは、NVIDIA GB200 NVL72を使用して、単一のラック内で36のGrace CPUと72のBlackwell GPUを接続するラックスケールソリューションを開発しました。72のGPUすべてが第5世代のNVIDIA NVLinkと相互接続され、1.8TB/秒でGPU間通信が可能です。さらに、推論ワークロードのために、スーパーマイクロはGH200製品ラインに基づく2UサーバーであるARS-221GL-NHIRを発表しており、これは900Gb/秒の高速インターコネクトを介して2台のGH200サーバーが接続される予定です。さらに詳しい情報を知りたい方は、GTCでのスーパーマイクロのブースにお越しください。

    スーパーマイクロのシステムは、NVIDIA Quantum-X800 QM3400スイッチとSuperNIC800からなる今後発売されるNVIDIA Quantum-X800 InfiniBandプラットフォーム、そしてNVIDIA Spectrum-X800 SN5600スイッチとSuperNIC800からなるNVIDIA Spectrum-X800 Ethernetプラットフォームもサポートする予定です。NVIDIA Blackwellアーキテクチャ、NVIDIA Quantum-X800、およびSpectrum-X800に最適化されたこれらのシステムは、AIインフラのための最高レベルのネットワーキング性能を提供します。

    スーパーマイクロが提供するNVIDIAソリューションの詳細については、https://www.supermicro.com/en/accelerators/nvidiaをご覧ください。 

    NVIDIAB200GB200を搭載したスーパーマイクロの今後のシステムラインナップは以下の通りです。

    • スーパーマイクロのNVIDIA HGX B200 8-GPU空冷および液冷システムは、最高の生成AIトレーニング性能を実現するためのものです。このシステムは、第5世代のNVLinkを介して接続された8つのNVIDIA Blackwell GPUを特徴とし、最大60TB/秒の1.5TB高帯域幅メモリプールを備えており、AIトレーニングワークロードの加速に貢献します。
    • スーパーマイクロで最も売れているAIトレーニングシステムである、NVIDIA HGX H100/H200 8-GPUを搭載した4U/8Uシステムは、NVIDIAが近く発表するHGX B100 8-GPUにも対応します。
    • スーパーマイクロのラックレベルソリューションは、サーバーノードとしてGB200 Superchipシステムを特徴とし、各ノードに2つのGrace CPUと4つのNVIDIA Blackwell GPUを搭載しています。スーパーマイクロのチップ直結液冷方式は、1つの44U ORV3ラック内に72個のGB200 192GB GPU(各GPUにつき1200WのTDP)を搭載し、密度を最大化します。

    GTC 2024でのスーパーマイクロ

    スーパーマイクロは、3月18~21日までサンノゼコンベンションセンターで開催されるNVIDIAのGTC 2024イベントで、AI向けのGPUシステムの完全なポートフォリオを披露する予定です。スーパーマイクロのブース#1016では、生成AIモデルのトレーニング、AI推論、エッジAIなど、幅広いAIアプリケーション向けに構築されたソリューションをご覧いただけます。スーパーマイクロは、第5世代のNVLinkで相互接続された72個の液冷GPUを搭載したシステムを特徴とする、近日中に発売されるNVIDIA GB200を使用したコンセプトラックを含む、2つのラックレベルソリューションも展示する予定です。

    GTC 2024で展示されるスーパーマイクロのソリューションには以下が含まれます。

    • スーパーマイクロの液冷式AIトレーニングラックは、NVIDIA HGX H200 8-GPUを搭載した8台の4U 8-GPUシステムを特徴としています
    • スーパーマイクロのコンセプトORV3ラックは、第5世代のNVLinkを介して接続された合計72個のNVIDIA GB200 Superchipを搭載した液冷式MGXシステムノードをホスティングしています
    • スーパーマイクロのMGXシステムには、1U液冷式NVIDIA GH200 Grace Hopper Superchipシステムが含まれます
    • スーパーマイクロのHyper-EシステムでエッジでのGPUコンピューティングを実現します
    • 高性能AIデータパイプライン向けSupermicro Petascaleオールフラッシュストレージシステム

    スーパーマイクロコンピューター(Super Micro ComputerInc.)について

    スーパーマイクロ(Supermicro、NASDAQ: SMCI)は、アプリケーション最適化総合ITソリューションのグローバルリーダーです。カリフォルニア州サンノゼで設立・運営されているスーパーマイクロは、企業、クラウド、AI、5G通信/エッジITインフラストラクチャ向けの革新的な製品を市場に先駆けて提供することに取り組んでいます。私たちは、サーバー、AI、ストレージ、IoT、スイッチシステム、ソフトウェア、およびサポートサービスを含むトータルITソリューションメーカーです。スーパーマイクロのマザーボード、電源、およびシャーシ設計の専門知識は、さらに私たちの開発と生産を可能にし、グローバルな顧客のためのクラウドからエッジまでの次世代イノベーションを可能にします。製品は自社(米国、アジア、オランダ)で設計・製造され、グローバルなオペレーションを活用してスケールと効率を高め、TCOの改善と環境への影響を低減する(グリーンコンピューティング)ために、最適化されています。受賞歴のあるサーバー・ビルディング・ブロック・ソリューション®(Server Building Block Solutions®)のポートフォリオでは、フォームファクター、プロセッサ、メモリ、GPU、ストレージ、ネットワーク、電源、冷却ソリューション(空調、自由空冷、液冷)を包括的にサポートする、柔軟で再利用可能なビルディングブロックで構築された幅広いシステムラインナップから選択して、顧客が正確に作業負荷と用途に合わせて最適化できます。

    スーパーマイクロ(Supermicro)、サーバー・ビルディング・ブロック・ソリューション(Server Building Block Solutions)、We Keep IT Greenは、スーパーマイクロコンピューターの商標および/または登録商標です。

    その他のブランド、名称、商標は各所有者に帰属します。

    SMCI-F

    写真 - https://mma.prnasia.com/media2/2365522/4118657.jpg
    ロゴ - https://mma.prnasia.com/media2/1443241/Supermicro_Logo.jpg 

新着