NVIDIA

NVIDIA、エージェント型 AI 向けに設計された Vera CPU を発表

NVIDIA Vera CPU が大規模なデータ処理、AI トレーニング、エージェント型推論で最高のパフォーマンスとエネルギー効率を実現

NVIDIA

ニュース概要:

  • NVIDIA Vera CPU は、従来の CPU と比較して 2 倍の効率性と 50% の高速化を提供

  • Vera CPU の導入に向けて NVIDIA と協力している顧客には、Alibaba、ByteDance、Meta、Oracle Cloud Infrastructure をはじめ、CoreWeave、Lambda、Nebius、Nscale なども名を連ねる

  • すでに Vera CPU を採用している製造パートナーには、Dell Technologies、HPE、Lenovo および Supermicro をはじめ、ASUS、Compal、Foxconn、GIGABYTE、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynn なども名を連ねる

カリフォルニア州サンノゼ — GTC — 2026 年 3 月 16 日 — NVIDIA は本日、エージェント型 AI と強化学習の時代に向けて設計された世界初のプロセッサ、NVIDIA Vera CPU を発表しました。従来のラックスケール CPU と比較して 2 倍の効率性と 50% の高速化を実現します。

 

リーズニングとエージェント型 AI の進歩に伴い、スケール、パフォーマンス、コストは、タスクの計画、ツールの実行、データとのやり取り、コードの実行、結果の検証を担うモデルを支えるインフラによって大きく左右されるようになっています。

 

NVIDIA Vera CPU は、NVIDIA Grace™ CPU の成功を基盤とし、あらゆる規模、業種の組織が大規模なエージェント型 AI を実現する AI ファクトリーを構築できるようにします。最高のシングルスレッド性能とコアあたりの帯域幅を備えた Vera は、コーディング アシスタントや消費者向けおよびエンタープライズ向けエージェントなどの大規模な AI サービスにおいて、より高い AI スループット、応答性、効率性を提供する新しいクラスの CPU です。

 

Vera の導入に向けて NVIDIA と連携している主要なハイパースケーラーには、Alibaba、CoreWeave、Meta、Oracle Cloud Infrastructure が含まれ、Dell Technologies や HPE、Lenovo、Supermicro をはじめとするグローバル システム メーカーも本テクノロジを活用したサーバー設計を進めています。この広範な採用により、Vera は開発者、スタートアップ、官民機関、企業にとって最も重要な AI ワークロード向けの新たな CPU 標準となり、AI へのアクセスの民主化とイノベーションの加速を推進します。

 

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「Vera は、AI の転換点に登場しました。インテリジェンスがエージェント型になり、リーズニングし、行動できるようになるにつれて、その作業を調整するシステムの重要性が高まっています。CPU はもはやモデルをサポートするだけでなく、モデルを推進する役割を果たしています。画期的なパフォーマンスとエネルギー効率により、Vera はより迅速に思考し、さらなる拡張を実現する AI システムを実現します」

 

あらゆるデータセンターに合わせて設定可能

NVIDIA は、256 基の液冷式の Vera CPU を統合した、新しい Vera CPU ラックを発表しました。これにより、22,500 以上の同時 CPU 環境を維持し、各環境が独立してフルパフォーマンスで動作することが可能になります。AI ファクトリーは、単一のラック内で数万もの同時インスタンスやエージェント型ツールを迅速に展開、拡張できます。

 

新しい Vera ラックは、NVIDIA MGX ™ モジュラー リファレンス アーキテクチャを採用して構築されており、世界中の 80 社のエコシステム パートナーによってサポートされています。

 

NVIDIA Vera Rubin NVL72 プラットフォームの一部として、Vera CPU は NVIDIA NVLink™-C2C インターコネクト テクノロジを介して NVIDIA GPU とペアリングされています。1.8 TB/s のコヒーレント帯域幅 (PCIe Gen 6 の 7 倍) により、CPU と GPU 間の高速データ共有を実現します。さらに、NVIDIA は、NVIDIA HGX™ Rubin NVL8 システム向けに、Vera をホスト CPU として採用した新しいリファレンス デザインを発表しました。これにより、GPU アクセラレーテッド ワークロードにおいて、データの移動とシステム制御を連携させます。

 

Vera のシステム パートナーは、デュアル ソケット CPU サーバー構成とシングル ソケット CPU サーバー構成の両方で提供します。強化学習、エージェント型推論、データ処理、オーケストレーション、ストレージ管理、クラウド アプリケーション、ハイパフォーマンス コンピューティングなどのワークロードに最適です。

 

すべての構成において、Vera は、NVIDIA ConnectX® SuperNIC カードおよび  NVIDIA BlueField®-4  プロセッサと統合され、エージェント型 AI に不可欠な高速化されたネットワーキング、ストレージ、セキュリティを実現します。これにより、顧客はプラットフォーム全体で統一されたソフトウェア スタックを維持しながら、特定のワークロードに最適化できます。

 

エージェント型スケーリング向けの設計

高性能でエネルギー効率に優れた CPU コア、高帯域幅のメモリ サブシステム、第 2 世代の NVIDIA Scalable Coherency Fabric を組み合わせることで、Vera はエージェント型 AI と強化学習に共通する極限の使用状況下で、より高速なエージェント型応答を可能にします。

 

Vera は、NVIDIA 独自設計による 88 基のカスタム Olympus コアを搭載し、コンパイラ、ランタイム エンジン、分析パイプライン、オーケストレーション サービスに卓越したパフォーマンスを提供します。各コアは NVIDIA Spatial Multithreading により 2 つのタスクを同時実行でき、一貫した予測可能なパフォーマンスを提供します。これは、多数のジョブを同時実行するマルチテナント AI ファクトリーに最適です。

 

エネルギー効率をさらに向上させるため、Vera は LPDDR5X メモリをベースとした第 2 世代の NVIDIA の低消費電力メモリ サブシステムを搭載し、最大 1.2 TB/s の帯域幅を実現しています。これは汎用 CPU と比較して 2 倍の帯域幅である一方、消費電力は半分です。

 

幅広いエコシステムによるサポート

ストリーミング データ プラットフォーム大手の Redpanda は、Vera を活用してパフォーマンスを劇的に向上させています。

    

Redpanda の CEO / 創業者である Alex Gallego 氏は次のように述べています。「Redpanda は最近、Apache Kafka 互換ワークロードを実行して NVIDIA Vera をテストしたところ、ベンチマークした他のシステムよりも大幅に優れたパフォーマンスを達成し、レイテンシを最大 5.5 倍低減しました。Vera は、コアあたりのメモリ増加とオーバーヘッドの削減という CPU アーキテクチャの新たな方向性を表し、お客様がリアルタイム ストリーミング ワークロードをこれまで以上に拡張し、新たな AI およびエージェント型アプリケーションを切り拓くことを可能にします」

 

Vera CPU の導入を計画している国立研究機関には、ライプニッツ スーパーコンピューティング センター、ロスアラモス国立研究所、ローレンス バークレー国立研究所の国立エネルギー研究科学計算センター、そしてテキサス先端計算センター (TACC) が含まれます。

 

TACC のハイパフォーマンス コンピューティング ディレクター、John Cazes 氏は次のように述べています。「TACC では先頃、今後導入予定の Horizon システムに向けた準備として NVIDIA の Vera CPU プラットフォームをテストし、6 つの科学アプリケーションを実行して、優れた初期結果を確認しました。Vera のコアあたりのパフォーマンスとメモリ帯域幅は、科学計算にとって飛躍的な進歩です。今年後半に Horizon の CPU ユーザーへ Vera ベースのノードを提供できることを楽しみにしています」

 

Vera CPU の導入を計画している主要なクラウド サービス プロバイダーには、Alibaba、ByteDance、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI、Vultr などが挙げられます。

 

Vera CPU を採用している主要なインフラ プロバイダーには、Aivres、ASRock Rack、ASUS、Compal、Cisco、Dell、Foxconn、GIGABYTE、HPE、Hyve、Inventec、Lenovo、MiTAC、MSI、Pegatron、Quanta Cloud Technology (QCT)、Supermicro、Wistron、Wiwynn などがあります。

 

提供予定

NVIDIA Vera は現在量産中であり、今年後半にパートナーから提供される予定です。

 

フアン の GTC 基調講演のリプレイ、およびセッションもご覧ください。

 

※本発表資料は米国時間 2026 年 3 月 16 日に発表されたプレスリリースの抄訳です。

NVIDIA について

NVIDIA (NASDAQ: NVDA) はAIとアクセラレーテッド コンピューティングの世界的なリーダーです。

このプレスリリースには、メディア関係者向けの情報があります

メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。

すべての画像


会社概要

NVIDIA

91フォロワー

RSS
URL
-
業種
製造業
本社所在地
東京都港区赤坂2-11-7 ATT New Tower13F
電話番号
-
代表者名
大崎 真孝
上場
未上場
資本金
-
設立
-