NVIDIA Blackwell Ultra DGX SuperPOD は、企業がすぐに利用可能な AI スーパーコンピューターを提供し、AI ファクトリーの構築を支援
-
NVIDIA Blackwell Ultra を搭載した DGX システムが、リアルタイム AI エージェントの応答向けに最大 35 倍高速の AI リーズニングを提供
-
Equinix は、AI インフラの世界的な需要に対応するために、DGX GB300 および DGX B300 システム向けに Blackwell 対応施設を事前構成したスペースと共に NVIDIA Instant AI ファクトリー サービスを初めて提供

カリフォルニア州サンノゼ - GTC - 2025 年 3 月 18 日 - NVIDIA は本日、NVIDIA Blackwell Ultra GPU を搭載した世界最先端のエンタープライズ AI インフラである NVIDIA DGX SuperPOD™を発表しました。これは、最先端のエージェント型 AI リーズニングを実現する AI ファクトリー スーパーコンピューティングをさまざまな業界の企業に提供するものです。
企業は、NVIDIA ネットワーキングと統合された新しい NVIDIA DGX™ GB300 および NVIDIA DGX B300 システムを使用して、FP4 の精度で NVIDIA Hopper システムよりも最大 35 倍高速な AI リーズニングを実現する、すぐに使用可能な DGX SuperPOD AI スーパーコンピューターを提供することができます。
AI ファクトリーは、エージェント型、生成、フィジカル AI ワークロード特化したインフラを提供します。これには、本番環境で実行するアプリケーション向けに、AI の事前トレーニング、事後トレーニング、テストタイム スケーリングのための膨大なコンピューティング リソースが必要になる場合があります。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「AI は光速で進化しています。企業はリーズニング AI と推論のタイム スケーリングの処理要求を満たすために拡張可能な AI ファクトリーの構築を競い合っています。NVIDIA Blackwell Ultra DGX SuperPOD は、エージェント型およびフィジカル AI の時代に、すぐに使用可能な AI スーパーコンピューティングを提供します」
DGX GB300 システムは、36 基の NVIDIA Grace™ CPU と 72 基の NVIDIA Blackwell Ultra GPU を含む NVIDIA Grace Blackwell Ultra Superchip と先進的なリーズニング モデルを基にリアルタイムでエージェントが応答できるように設計されたラックスケールで液冷式のアーキテクチャを特徴とします。
空冷式 NVIDIA DGX B300 システムは、NVIDIA B300 NVL16 アーキテクチャを活用し、あらゆるデータセンターが生成およびエージェント型 AI アプリケーションの計算要求に対応できるように支援します。
高度なアクセラレーテッド インフラに対する需要の拡大に対応するため、NVIDIA は Blackwell Ultra を搭載した NVIDIA DGX SuperPOD を特徴とするマネージド サービスである NVIDIA Instant AI Factory も発表しました。Equinix は世界 45 の市場にある事前構成済みの液冷または空冷式 AI 対応データセンターで、新しい DGX GB300 および DGX B300 システムを初めて提供します。
DGX GB300 を搭載した NVIDIA DGX SuperPOD が、AI リーズニング時代を加速
DGX GB300 システムを搭載した DGX SuperPOD は、NVIDIA NVLink™、NVIDIA Quantum-X800 InfiniBand、NVIDIA Spectrum-X™ イーサネット ネットワークを介して接続された NVIDIA Grace Blackwell Ultra Superchip を最大数万基まで拡張可能で、最も計算負荷の高いワークロードのトレーニングと推論を高速化します。
DGX GB300 システムは、Hopper システムと比較して 30 倍のエネルギー効率と、38TB の高速メモリを提供し、エージェント型 AI とリーズニング アプリケーションにおける多段階リーズニングのために比類のないパフォーマンスを大規模に提供します。
各 DGX GB300 システムに搭載された 72 基の Grace Blackwell Ultra GPU は、第 5 世代の NVLink テクノロジによって接続され、NVLink Switch システムを介して 1 つの巨大な共有メモリ スペースとなります。
各 DGX GB300 システムは、72 基の NVIDIA ConnectX®-8 SuperNIC を特徴とし、最大 800Gb/秒の高速ネットワークを実現します。これは前世代の 2 倍のパフォーマンスです。18 基の NVIDIA BlueField™-3 DPU が、NVIDIA Quantum-X800 InfiniBand または NVIDIA Spectrum-X イーサネットと組み合わされ、大規模な AI データセンターでパフォーマンス、効率、セキュリティを加速します。
DGX B300 システムがあらゆるデータセンター向けの AI を高速化
NVIDIA DGX B300 システムはあらゆるデータセンターにエネルギー効率の高い生成 AI と AI リーズニングをもたらすために設計された AI インフラ プラットフォームです。
Blackwell Ultra GPU で高速化された DGX B300 システムは、推論で 11 倍高速な AI パフォーマンスとトレーニングで 4 倍の高速化を提供します。
各システムには、2.3TB の HBM3e メモリを搭載し、8 基の NVIDIA ConnectX-8 SuperNIC と 2 基の BlueField-3 DPU による高速なネットワークを備えています。
NVIDIA ソフトウェアが AI 開発と展開を加速
企業が自社のインフラ管理と運用を自動化できるよう、NVIDIA はまた、Blackwell ベースの DGX システム向けの AI データセンター運用およびオーケストレーション ソフトウェアである NVIDIA Mission Control™ を発表しました。
NVIDIA DGX システムは、エンタープライズ グレードの AI エージェントを構築および展開するための NVIDIA AI Enterprise ソフトウェア プラットフォームをサポートしています。これには、本日発表された新しい NVIDIA Llama Nemotron オープン リーズニング モデル ファミリーなどの NVIDIA NIM™ マイクロサービス、AI エージェントのパフォーマンスをオーケストレーションし、最適化するために使用する NVIDIA AI Blueprint、フレームワーク、ライブラリ、ツールが含まれます。
NVIDIA Instant AI Factory がインフラ需要に対応
NVIDIA Instant AI Factory は、Blackwell Ultra を搭載した NVIDIA DGX SuperPOD とNVIDIA Mission Control ソフトウェアを特徴とする Equinix マネージド サービスを供します。
世界中にある Equinix の専用施設により、このサービスは最先端のモデル トレーニングとリアルタイム リーズニング ワークロードに最適化された、完全にプロビジョニングされたインテリジェンス生成 AI ファクトリーを企業に提供します。これにより、展開までにインフラ計画にかかる数か月もの時間を短縮します。
提供予定
DGX GB300 またはDGX B300 システムを搭載した NVIDIA DGX SuperPOD は、今年中にパートナーから提供予定です。
NVIDIA Instant AI Factory は、今年中に提供予定です。
詳細については、NVIDIA GTC の基調講演をご覧いただき、3 月 21 日まで開催される本イベントで NVIDIA と業界のリーダーたちによるセッションに参加登録してください。
※本発表資料は米国時間 2025 年 3 月 18 日に発表されたプレスリリースの抄訳です。
NVIDIAについて
NVIDIA (NASDAQ: NVDA) はアクセラレーテッド コンピューティングの世界的なリーダーです。
このプレスリリースには、メディア関係者向けの情報があります
メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。
すべての画像