NVIDIA 、業界で幅広く採用されている BlueField-4 STX ストレージ アーキテクチャを発表

ニュース概要:
-
新しい NVIDIA STX リファレンス アーキテクチャは、最大 5 倍のトークンスループットと最大 4 倍のエネルギー効率の向上を実現し、データ取り込みを 2 倍高速化
-
コンテキスト メモリ ストレージとして STX を早期に採用した企業には、CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure (OCI)、Vultr などが含まれる
-
AIC、Cloudian、DDN、Dell Technologies、Everpure、Hitachi Vantara、IBM、MinIO、NetApp、Nutanix、Supermicro、Quanta Cloud Technology (QCT)、VAST Data、WEKA などのストレージ プロバイダーと製造パートナーは、エージェント型 AI を推進するために、NVIDIA のモジュール式リファレンスデザインを活用したインフラを構築
カリフォルニア州 サンノゼ—GTC—2026 年 3 月 16 日— NVIDIA は本日、エンタープライズ、クラウド、AI プロバイダーが、エージェント型 AI に必要とされる長文コンテキスト推論 リーズニングを実現する高速化ストレージインフラ容易に展開できるモジュール式リファレンス アーキテクチャである NVIDIA BlueField-4® STX を発表しました。
従来のデータセンターは、大容量の汎用的なストレージを提供しますが、多くのステップ、ツール、セッションで動作する AI エージェントとシームレスに相互作用するために必要な応答性には欠けています。エージェント型 AI は、対話やタスクを高速かつ一貫性のあるものに保つために、データへのリアルタイム アクセスとコンテキストを保持するワーキングメモリを必要とします。 コンテキストの拡大をすると、従来のストレージとデータ パスでは AI 推論が遅くなり、GPU 使用率が低下する可能性があります。
NVIDIA STX により、ストレージ プロバイダーはデータを近くに保持し、大規模環境でもアクセスを可能にするインフラを構築できるため、エージェント型 AI ファクトリーは、推論、トレーニング、分析にわたって高いスループットと応答性を実現できます。
最初のラックスケール実装には、新しい NVIDIA CMX™ コンテキスト メモリ ストレージ プラットフォームが含まれています。これは、スケーラブルな推論システムとエージェント型 システム向けの高性能なコンテキスト レイヤーによって GPU メモリを拡張し、従来のストレージと比較して 最大5倍のトークン/秒のトークンを提供します。
NVIDIA の創業者/ CEO である ジェンスン フアン (Jensen Huang) は次のように述べています。「エージェント型 AI はソフトウェアのあり方を根本から変えつつあります。これに伴い、その基盤となるコンピューティング インフラも作り直す必要があります。大規模なコンテキストで推論し、継続的に学習する AI システムには、新たな種類のストレージが求められます。 NVIDIA STX は、ストレージ スタックを再構築し、AI ネイティブ インフラ向けのモジュール型基盤を提供することで、AI ファクトリーをピークパフォーマンスで稼働させ続けることを可能にします。」
STX は、NVIDIA Vera Rubin プラットフォームで高速化されており、ストレージ向けに最適化された新しい NVIDIA BlueField-4 プロセッサを活用しています。このプロセッサは、NVIDIA Vera CPU と NVIDIA ConnectX®-9 SuperNIC を組み合わせ NVIDIA Spectrum-X™ Ethernet ネットワーキング、NVIDIA DOCA™、および NVIDIA AI Enterprise ソフトウェアとともに構成されます。
また、STX アーキテクチャは、高性能ストレージ向けの従来の CPU アーキテクチャと比較して 4 倍の高いエネルギー効率を実現し、エンタープライズ AI データに対して 1 秒あたり 2 倍多くのページを取り込むことができます。
NVIDIA STX を基盤とした次世代 AI インフラを共同設計するストレージ プロバイダーの パートナーには、Cloudian、DDN、Dell Technologies、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、VAST Data、WEKA などが含まれます。
STX 基盤のシステムを構築している製造パートナーには、AIC、Supermicro、Quanta Cloud Technology (QCT) が含まれます。
コンテキスト メモリ ストレージに STX の採用を計画している主要な AI ラボやクラウド サービス プロバイダーには、CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Vultr などが含まれます。
STX ベースのプラットフォームは、今年後半にパートナー各社から提供される予定です。
ジェンスン フアン の GTC 基調講演およびセッションをご覧ください。
※本発表資料は米国時間 2026 年 3 月 16 日に発表されたプレスリリースの抄訳です。
NVIDIAについて
NVIDIA (NASDAQ: NVDA) はAIとアクセラレーテッド コンピューティングの世界的なリーダーです。
このプレスリリースには、メディア関係者向けの情報があります
メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。
すべての画像
