NVIDIA DGX Station A100 は、研究者にAI データセンターの機能と性能をワンボックスで提供

世界唯一のペタスケール統合型 AI ワークグループ サーバーである、第 2 世代の DGX Station が 4 基の NVIDIA A100 GPU と
最大 320GB の GPU メモリを搭載し、オフィスおよび研究室での AI の活用を推進

2020 年 11 月 16 日、カリフォルニア州サンタクララ - SC20 - NVIDIA は本日、世界唯一のペタスケール ワークグループ サーバーである、NVIDIA DGX Station™ A100 を発表しました。画期的な AI システムの第 2 世代となる DGX Station A100 は、企業のオフィスや研究施設、研究所またはホーム オフィスなど、あらゆるところでチームで作業するのに必要とされている機械学習とデータサイエンスのワークロードを加速します。

2.5 PFLOPS の AI 性能を誇る DGX Station A100 は、NVIDIA NVLink® にて完全に相互接続されている 4 基の NVIDIA® A100 Tensor コア GPUと、最大 320GB の GPU メモリが搭載されている唯一のワーキンググループ サーバーであり、企業のデータサイエンスや AI でのブレイクスルーを後押しします。

DGX Station A100 は、NVIDIA マルチインスタンス GPU (MIG) テクノロジに対応している、唯一のワークグループ サーバーでもあります。MIG により、1 台の DGX Station A100 から最大 28 の個別の GPU インスタンスを生成し、システムの性能に影響を及ぼすことなく、並行に作業を実行し、複数のユーザーに対応できるようになります。

NVIDIA の DGX システム担当バイスプレジデント兼ジェネラルマネージャーであるチャーリー ボイル (Charlie Boyle) は、次のように述べています。「DGX Station A100 は、あらゆる場所に組み込めるサーバークラスのシステムで、データセンター以外でも AI の活用を可能にします。データサイエンスや AI の研究チームでは、NVIDIA DGX A100 システムと同じソフトウェア スタックを使って作業をスピードアップできるようになり、開発から実装までの過程を簡単に進められるようになります」

DGX Station が AI のイノベーションを後押し
世界中の企業や研究所が DGX Station を導入し、教育や金融サービス、政府、ヘルスケア、リテールといった、多様な業界で AI とデータサイエンスを利用できるようになっています。このような AI リーダーには、以下のような組織が含まれています。

BMW Group Production NVIDIA DGX Station を使って洞察の探索をよりスピードアップし、業務改善のための AI モデルの大規模な開発および導入を進めています。
DFKI ドイツの人工知能研究センターである DFKI では、DGX Station によって、救急サービスが自然災害に迅速に対応できるようにするためのコンピューター ビジョン システムなど、社会と業界にとって重要な課題に対処するためのモデルを構築しています。

Lockheed Martin は、DGX Station を活用し、製造の稼働時間の改善、労働者の安全向上および運営コストの削減を実現するためのメンテナンスの必要性を予測するセンサーデータとサービスログを使用した AI モデルを開発しています。

NTT ドコモ 日本を代表する携帯電話サービス事業者であり、契約者数が7900万人を超えるNTTドコモは、DGX Stationを活用して、画像認識ソリューションなどの革新的なAIサービスに開発に取り組んでいます。
Pacific Northwest National Laboratory は、NVIDIA DGX Station を使い、連邦政府より資金提供を受けた、国家安全保障に関係する研究を行っています。エネルギー レジリエンスと国家安全保障での技術的イノベーションの実現を目指す PNNL は、科学的な発見、エネルギー レジリエンス、化学、地球科学およびデータ分析に取り組んでいる、米国の代表的な HPC センターです。

あらゆる場所に AI スーパーコンピューターを
DGX Station A100 は、データセンターのような電力または冷却性能を必要としないにもかかわらず、NVIDIA DGX A100 データセンター システムと同じリモート管理機能を備えている、サーバークラスのシステムです。システム管理者は、データ サイエンティストや研究者が自宅または研究所のどちらで作業しているときでも、リモート接続によって管理作業を簡単に遂行することができます。

DGX Station A100 には、80GB または 40GB の NVIDIA A100 Tensor コア GPU を 4 基搭載することが可能です。データサイエンスや AI の研究チームは、それぞれのワークロードと予算に応じて GPU を選択することができます。

BERT Large の推論のような、複雑な対話型 AI モデルに対応するために、DGX Station A100 は、前世代の DGX Station に比べて、処理速度が 4 倍以上速くなっています。また、BERT Large の AI トレーニングのための性能が 3 倍近く向上しています。

AI、HPC のために GPU メモリを倍増
最先端のデータセンター ワークロードに対応するために、DGX A100 システムに、新しい NVIDIA A100 80GB GPU を搭載することができるようになります。システム当たりの GPU メモリ容量が 640GB へと倍増し、AI チームは大規模なデータセットやモデルでの精度をさらに高めることができます。

新しい NVIDIA DGX A100 640GB システムは、NVIDIA DGX SuperPODTM Solution for Enterprise との統合も可能で、企業や研究所は、20 台の DGX A100 システムで構成されたターンキーの AI スーパーコンピューターによって、大規模な AI モデルの構築、トレーニングおよび展開を行えるようになります。

DGX A100 640GB が搭載された、DGX SuperPOD システムの最初の導入先には、ヘルスケアでの研究を加速するために英国で導入される Cambridge-1 スーパーコンピューター、ならびに米国フロリダ州で AI を活用した研究を支援している、新しいフロリダ大学 HiPerGator AI スーパーコンピューターが含まれています。

発売予定
NVIDIA DGX Station A100 および NVIDIA DGX A100 640GB は、全世界の NVIDIA Partner Network リセラーを通じて、本四半期に発売される予定です。MVIDIA DGX A100 320GB のお客様は、アップグレードのオプションをお選びいただけます。

DGX Station A100 の詳しい情報は、11月17日午前8時(日本時間) からライブ配信される NVIDIA SC20 Special Address でご覧になれます。また、12 月 3 日 午前2時(日本時間) に予定されている、DGX Station についてのウェビナー、Learn to Build Bigger AI, Faster にもご登録ください。

NVIDIA について
1999 年における NVIDIA (NASDAQ 表示: NVDA) による GPU の発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピューター グラフィックスを再定義し、並列コンピューティングに革命的変化を起こしました。最近では、GPU ディープラーニングが最新の AI (次世代コンピューティング) に火をつけ、世界を知覚し理解することができるコンピューター、ロボット、自律走行車の脳として GPU は機能しています。詳細は、こちらのリンクから http://nvidianews.nvidia.com/
※以下、メディア関係者限定の特記情報です。個人のSNS等での情報公開はご遠慮ください。
このプレスリリースには、メディア関係者向けの情報があります。

メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。
※内容はプレスリリースにより異なります。

  1. プレスリリース >
  2. NVIDIA >
  3. NVIDIA DGX Station A100 は、研究者にAI データセンターの機能と性能をワンボックスで提供