NVIDIA B200搭載 GPUアプライアンスサーバー「NVIDIA® DGX™ B200」受注開始のお知らせ
AIとビジュアライゼーションのソリューションカンパニーである株式会社ジーデップ・アドバンス(GDEP Advance,Inc. 本社:東京都中央区、代表取締役CEO:飯野匡道、東証スタンダード 証券コード:5885)は、2024年7月29日(月)より、NVIDIA B200 GPU搭載GPUアプライアンスサーバー「NVIDIA® DGX™ B200」の受注を開始いたします。
NVIDIA B200 GPU搭載 第6世代 ラックマウント型 DGXシステム「NVIDIA DGX B200」
NVIDIA DGX B200は、2024年3月NVIDIA主催イベントGTC2024(米国カリフォルニア州サンノゼ開催)で発表されたAIモデルのトレーニング、ファインチューニング、推論のための統合AIスーパーコンピューティングプラットフォームです。
NVIDIA DGX B200は、Blackwellアーキテクチャを採用したNVIDIA B200 TensorコアGPUが8基搭載され、Blackwell Transformer Engineが4ビット浮動小数点(FP4)精度で、最大144PFLOPSのAIパフォーマンスを実現します。また、GPUメモリはDGX H100の2.25倍にあたる1440GBへ大幅に増強され、64TB/秒の広帯域なバンド幅により1兆パラメータモデルのリアルタイム推論がHopper世代と比較して最大15倍高速化されます。
さらに、8基のNVIDIA ConnectX™-7 HCAと2基のBlueField®-3 DPUを備え、ネットワークIOモジュール毎に最大400ギガビット/秒のスループットをサポートし、NVIDIA Quantum-2 InfiniBandや、NVIDIA Spectrum™-X Ethernet™ ネットワーキングプラットフォームによって、より高速な相互接続とよりインテリジェントなネットワークを実現します。
NVIDIA DGX B200は、自然言語処理やディープラーニングによるレコメンデーションモデルなど、大規模で複雑なAIジョブに対応できるように強化されているだけではなく、開発と展開のための様々なソフトウェアスタックがオプション提供されています。「NVIDIA AI Enterprise」に含まれる事前トレーニング済みのNVIDIA基盤モデル、フレームワーク、ツールキット、及びNVIDIA NIMマイクロサービスを使用することで推論作業を大幅に加速します。また、NVIDIA DGXプラットフォームを強化する「NVIDIA Base Command」には、AIジョブスケジューリングとワークロードオーケストレーション、包括的なクラスター管理、コンピューティング、ストレージ、ネットワークインフラストラクチャを高速化するライブラリ、AIワークロードの実行に最適化されたシステムソフトウエアが含まれます。
究極のAIパフォーマンス
革新的なNVIDIA Blackwellアーキテクチャによる高度なコンピューティングのNVIDIA DGX B200は、前世代のNVIDIA DGX H100と比較してトレーニング性能が3倍、推論性能が15倍の最先端の性能を提供します。NVIDIA Blackwell GPUアーキテクチャを採用したDGX B200は、大規模言語モデル、レコメンダーシステム、チャットボットなどの多様なワークロードを処理することが可能であり、AIトランスフォーメーションの加速を目指すパワーユーザーに最適です。
NVIDIA DGX B200 製品特徴
◆NVIDIA B200 GPU x8、合計GPUメモリ 1,440GBの大容量GPUメモリ
72 PFLOPSのFP8トレーニングと144 PFLOPS のFP4推論性能
◆第5世代のNVIDIA NVLink®により、最大18本のNVLink 100GB/sの接続でGPU間の双方向帯域幅の合計は1.8TB/s(テラバイト毎秒)性能
◆NVIDIA ConnectX-7 NIC及び、BlueField-3 DPU 400Gb/秒ネットワークインターフェイス x2
接続ごとに最大400ギガビット/秒の帯域幅を提供、ピーク時の双方向ネットワーク帯域幅1.6TB/秒で高速なAIパフォーマンスを実現
◆第5世代インテル® Xeon®プロセッサと最大4.0TBシステムメモリ
AIへの依存が非常に高い仕事を可能にするパワフルなCPU
◆30TB NVMeストレージ
最高のパフォーマンスを実現するための高速ストレージ
◆ソフトウエア
DGX OS / Ubuntuベース – オペレーティングシステム
製品ページURL:https://www.gdep.co.jp/products/list/v/66016bbc87594/
NVIDIA DGX B200 仕様
GPU |
NVIDIA Blackwell GPU(NVIDIA Blackwell アーキテクチャ) |
GPUメモリ |
合計 1,440GB(HBM3e 180GBx8) |
NVIDIA NVSwitch |
NVIDIA SHARP™ |
NVIDIA NVLink |
第5世代 NVLink 1,800GB/秒 |
演算性能 |
FP4 Tensor Core / 144PFLOPS FP8 / FP6 / INT8 / 72PFLOPS |
CPU |
インテル第5世代Xeonプロセッサ Platinum 8570 112 コアl, 2.1 GHz(Base), 4 GHz(Max Boost) |
システムメモリ |
2TB~4TB |
ネットワーク |
10Gb/s オンボード NIC with RJ45 100Gb/s デュアルポート イーサネット NIC 管理ポート(BMC)with RJ45 |
高速ネットワーク InfiniBand / Ethernet |
ノード:4x OSFP ポート 8x シングルポート NVIDIA ConnectX-7 VPI 最大 400Gb/s ストレージ:2x QSFP 112 デュアルポート NVIDIA BlueField-3 DPU 最大 400Gb/s |
ストレージ |
システム:2x 1.9TB NVMe M.2(内蔵) データ:前面8ベイx 3.84TB NVMe U.2 |
冷却方式 |
空冷 |
電源 |
200V入力 3300W PSU 6基リダンダント設計 |
最大消費電力 |
最大14.3kW |
寸法 |
10U(ラックマント)H 44.4cm x W 48.2cm x D 89.71cm |
動作環境温度 |
5–30°C(41–86°F) |
ソフトウエア |
DGX OS |
NVIDIA DGX SuperPODへのスケールアウト
NVIDIA Blackwell GPUを搭載したNVIDIA DGX B200は、NVIDIA DGX BasePOD及びNVIDIA DGX SuperPODといったAIデータセンターインフラストラクチャプラットフォームを構成することが可能です。DGX SuperPODは、生成AIワークロードの要求を満たすために、高性能ストレージと統合された完全なデータセンター規模のAIスーパーコンピューターです。メーカーにおいて全てのノードとネットワークスイッチをケーブル接続し、構築及びテストされるためデータセンターでの展開が大幅に高速化されます。
ジーデップ・アドバンスでは、NVIDIA DGX B200の導入を検討されている開発者ユーザーの為にPoC環境からのシステム設計・提案、導入・設置、データ運用支援等、当社独自の「GDEPフルスタック」をご用意しております。ファシリティ環境にてシステム導入が困難な場合、データセンターのハウジングサービスをセットにしたプライベートクラウドの形態でもご提供させていただきます。
GDEPフルスタックページURL:https://www.gdep.co.jp/products/list/v/6672a2bbaa47b/
【ジーデップ・アドバンスについて】
ジーデップ・アドバンスは、「Advance with you」をミッションに、GPGPUをはじめとするアクセラレーターやハイエンドワークステーション、広帯域ネットワークや高速ストレージを用いたクラスターシステム、さらにライブラリやコンパイラ、ジョブスケジューラなどの運用ツールの提供構築から運用支援まで、仕事や研究を前に進めるための手段をオンプレミスやレンタル、クラウドなどあらゆる形態で総合的に提供するAIとビジュアライゼーションのソリューションプロバイダです。NVIDIA社の「NPN(NVIDIA Partner Network)」においてエリートパートナーとして活動しています。
※記載されている会社名、製品名等は各社の登録商標あるいは商標です。
※記載されている仕様は、NVIDIA社での発表時点での仕様であり、変更される場合があります。
■製品に関するお問い合わせ先
株式会社ジーデップ・アドバンス ソリューション部
E-mail:sales@gdep.co.jp
このプレスリリースには、メディア関係者向けの情報があります
メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。
すべての画像