ASUS、NVIDIA GB300 NVL72搭載のASUS AI PODを発表
ASUSは主要な受注を獲得することで、AIインフラストラクチャーソリューションにおけるリーダーシップを拡大

キーポイント
• GTC 2025 でASUS AI PODが初公開: 重要な受注を獲得した、次世代のAIインフラストラクチャーであるNVIDIA GB300 NVL72プラットフォームを初展示
•包括的なAI ソリューションの展示: NVIDIA Blackwell、HGX、MGXを搭載したAIサーバーのフルラインナップ
•エンタープライズ対応のAIデプロイメント: エンドツーエンドのAIソリューションは、ハードウェアからクラウドベースのアプリケーションまで、シームレスなデプロイメントと効率を確保
•画期的なAIスーパーコンピュータ: NVIDIA GB10 Grace Blackwellスーパーシップを搭載したASUS Ascent GX10、最大2000億パラメータのAIモデルに対応
ASUSは、ダイヤモンドスポンサーとしてGTC 2025に参加し、NVIDIA® GB300 NVL72プラットフォームを搭載した最新のASUS AI PODを発表しました。同社はまた、すでに大量の受注を獲得したことを誇りに思っており、これは技術業界における重要なマイルストーンとなります。
AIイノベーションの最前線に立つASUSは、BlackwellおよびHGX™ファミリーの最新AIサーバーとAI/GPUサーバーも展示します。これには、NVIDIA B300 NVL16を搭載したASUS XA NB3I-E12、NVIDIA B200 8-GPUを搭載したASUS ESC NB8-E11、NVIDIA H200を搭載したASUS ESC N8-E11V、およびMGXアーキテクチャを備えたNVIDIA RTX PRO 6000 Blackwell Server EditionをサポートするASUS ESC8000A-E13P/ ESC8000-E12Pが含まれます。業界全体でのAI採用を促進することに重点を置き、ASUSはNVIDIA AI EnterpriseおよびNVIDIA Omniverseプラットフォームに基づいた世界クラスのソフトウェアサービスと組み合わせて包括的なインフラソリューションを提供し、お客様の市場投入時間の短縮を支援します。
NVIDIA GB300 NVL72を搭載したASUS AI POD
NVIDIA GB300 NVL72サーバープラットフォームの強力な処理能力を統合することで、ASUS AI PODは企業が大規模なAI課題に簡単に対処できるようにします。NVIDIA Blackwell Ultraを搭載したGB300 NVL72は、最適化されたコンピュート、増加したメモリ、高性能ネットワーキングで新しいAIの時代をリードし、画期的なパフォーマンスを提供します。
ASUS AI POD は、72個のNVIDIA Blackwell Ultra GPUと36個のGrace CPUをラックスケールのデザインで搭載しており、AI FLOPSを増加させ、ラックごとに最大40TBの高速メモリを提供します。さらに、NVIDIA Quantum-X800 InfiniBandとSpectrum-X Ethernetとのネットワーキングプラットフォーム統合、サービス性を考慮したSXM7およびSOCAMMモジュール、100%液体冷却デザイン、およびNVIDIAを使用した兆パラメータのLLM推論とトレーニングをサポートします。この発表は、AIインフラストラクチャーにおける重要な進展を示しており、お客様にとって信頼性が高くスケーラブルなソリューションを提供し、進化するニーズに対応します。
ASUSはNVIDIA GB200 NVL72インフラストラクチャーの構築において専門性を示しています。ソフトウェア定義ストレージアーキテクチャのパラダイムでピークコンピューティング効率を達成するために、ASUS RS501A-E12-RS12Uも展示されています。この強力なSDSサーバーはデータトレーニングと推論の遅延を効果的に削減し、NVIDIA GB200 NVL72を補完します。ASUSはハードウェアからクラウドベースのアプリケーションに至るまで、アーキテクチャ設計、先進的な冷却ソリューション、ラック設置、大規模な検証/デプロイメントおよびAIプラットフォームをカバーする広範なサービススコープを提供し、お客様がAIインフラストラクチャーの卓越性を達成し、市場投入時間を短縮できるようにします。
NVIDIAのGPU製品管理担当バイスプレジデント、カウストゥブ サンガニ氏(Kaustubh Sanghani)は、次のように述べています。「NVIDIAはASUSと協力して、データセンターにおける次のイノベーションの波を推進しています。ASUSの先進的なサーバーとBlackwell Ultraプラットフォームを組み合わせることで、トレーニングと推論を加速させ、企業がAI推論やエージェントAIといった分野で新たな可能性を開拓することを可能にします。」
生成AIの高負荷ワークロード対応GPUサーバー
GTC 2025では、ASUSがNVIDIA Enterprise AIとOmniverseプラットフォームをサポートする一連のNVIDIA認定サーバーを展示しました。これらの多用途なモデルは、シームレスなデータ処理と計算を可能にし、生成AIアプリケーションのパフォーマンスを向上させます。
ASUS 10U ESC NB8-E11は、NVIDIA Blackwell HGX™ B200 8-GPUを搭載しており、比類のないAIパフォーマンスを提供します。ASUS XA NB3I-E12はHGX™ B300 NVL16を搭載し、AI FLOPSが増加し、2.3TBのHBM3eメモリ、NVIDIA Quantum-X800 InfiniBandとSpectrum-X Ethernetのネットワーキングプラットフォーム統合が特徴です。Blackwell UltraはAI推論、エージェントAI、およびビデオ推論アプリケーションにおいて画期的なパフォーマンスを提供し、すべてのデータセンターの進化するニーズに対応します。
最後に、7U ASUS ESC N8-E11Vデュアルソケットサーバーは、8つのNVIDIA H200 GPUを搭載し、空冷および液冷のオプションをサポートし、効果的な冷却と革新的なコンポーネントを提供するように設計されており、熱効率、スケーラビリティ、そして前例のないパフォーマンスを実現します。
AI推論最適化をマスターするためのスケーラブルなサーバー
ASUSは、AI推論向けのサーバーおよびエッジAIオプションも提供しています。最新のNVIDIA RTX PRO 6000 Blackwell Server Edition GPUsを搭載したASUS ESC8000シリーズです。ASUS ESC8000-E12Pは、高密度な4Uサーバーで、8つのデュアルスロット高性能NVIDIA H200 GPUを搭載し、NVIDIA OmniverseおよびAI Enterpriseのソフトウェアスイートをサポートします。また、NVIDIA MGXアーキテクチャに完全対応しており、柔軟なスケーラビリティと迅速な大規模展開を確実にします。さらに、ASUS ESC8000A-E13Pは4UのNVIDIA MGXサーバーで、8つのデュアルスロットNVIDIA H200 GPUをサポートし、現代のデータセンターおよび動的なIT環境におけるシームレスな統合、最適化、スケーラビリティを提供します。
画期的なAIスーパーコンピュータASUS Ascent GX10
ASUSは本日、画期的なAIスーパーコンピュータであるASUS Ascent GX10を発表しました。このコンパクトなパッケージは、最先端のNVIDIA GB10 Grace Blackwell Superchipを搭載しており、1000 AI TOPSの性能を提供します。これにより、要求の厳しいワークロードに最適です。Ascent GX10は、Blackwell GPU、20コアのArm CPU、128GBのメモリを搭載しており、最大2000億パラメータのAIモデルをサポートします。この革新的なデバイスは、ペタフロップ規模のAIスーパーコンピュータの強力な能力を、世界中の開発者、AI研究者、データサイエンティストのデスクに直接提供します。
GTCで展示されたASUS IoTのエッジAIコンピュータも、エッジでのAI推論における高度な能力を強調しています。NVIDIA® Jetson AGX Orin™およびNVIDIA JetPack SDKを搭載したASUS IoT PE2100NエッジAIコンピュータは、最大275 TOPSを提供し、生成AI、視覚言語モデル(VLM)、および大規模言語モデル(LLM)アプリケーションに理想的です。これらのアプリケーションは、イベントの識別やオブジェクト検出のために、動画や画像との自然な言語対話を可能にします。低消費電力およびオプションの4G/5Gとアウトオブバンド技術サポートにより、スマートシティ、ロボティクス、および車載ソリューションに最適です。さらに、ASUS IoT PE8000G耐久性エッジAI GPUコンピュータは、デュアル450W NVIDIA RTX™ PCIeグラフィックスカードをサポートし、リアルタイムAI推論、前処理、および知覚AIに優れています。柔軟な8-48V DC電力入力、点火電力制御、および-20°Cから60°Cまでの動作安定性により、PE8000Gは過酷な環境でのコンピュータビジョン、自律走行車、インテリジェントビデオ分析、生成AIに適しています。
インフラストラクチャーの卓越性を達成し、効率を最大化し、コストを最小化する
ASUSは、高性能コンピューティング(HPC)および人工知能(AI)ワークロードの厳しい要求に対応する革新的なAIインフラソリューションを通じて、卓越性を提供することに専念しています。私たちの精密に設計されたサーバーとストレージシステムは、さまざまな企業のニーズに対応するために、パフォーマンス、信頼性、スケーラビリティを向上させます。
L12対応のインフラソリューションは、データセンターのライフサイクル全体にわたって持続可能な実践を取り入れており、エネルギー効率の高い電源、先進的な冷却システム、クラウドサービス、およびソフトウェアアプリケーションを特徴としています。ASUSサーバーを選ぶことは、単なるハードウェアの購入にとどまりません。独自のソフトウェアプラットフォームを利用して、大規模な展開を支援するASUS Infrastructure Deployment Center(AIDC)と、ITリモート監視管理のために設計されたASUS Control Center(ACC)、およびNVIDIA AI EnterpriseとNVIDIA Omniverseのサポートにより、クライアントがシームレスなAIおよびHPC体験を達成できるように支援します。これにより、運用コストと時間を削減するだけでなく、高いサービスレベルの維持も確保されます。この包括的なアプローチは、総所有コスト(TCO)と電力使用効率(PUE)を効果的に最小化し、環境への影響を大幅に減少させます。
1995年以来、サーバー業界で30年の経験を持つASUSは、AIの競争環境をナビゲートするクライアントを支援する準備が整っています。革新的なAI駆動ソリューションにより、動的なワークロード管理を可能にし、計算タスクが最も効率的なリソースに割り当てられることを保証します。広範な技術能力と業界をリードする専門知識を活用することで、ASUSは、AIインフラストラクチャーの要求を解決しながら、イノベーションと持続可能性を推進する組織を支援することにコミットしています。
製品と価格について
ASUSのAIインフラストラクチャーソリューションとサーバーは世界各地で販売しております。詳しくは、日本国内のASUS代理店までお問い合わせください。
関連ウェブサイト
ASUSサーバーウェブサイト: https://server.asus.com/jp
ASUS AI Server: https://www.asus.com/event/ai-server-solutions/jp/

ASUSについて
ASUSは、世界で最も革新的で直感的なデバイス、コンポーネント、ソリューションを提供し、世界中の人々の生活を豊かにする素晴らしい体験を届けるグローバル・テクノロジー・リーダーです。ASUSは、社内に5,000人の研究開発の専門家チームを擁しており、品質、イノベーション、設計の分野で毎日11以上の賞を獲得し、Fortune誌の「世界で最も賞賛される企業」に選ばれています。
ASUS公式サイト:https://www.asus.com/jp/
ASUS JAPAN公式X(旧Twitter):https://x.com/ASUSJapan
このプレスリリースには、メディア関係者向けの情報があります
メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。
すべての画像