生成 AI の高速化向けに設計された NVIDIA Grace Hopper Superchip が量産開始
世界的なシステム メーカーから提供されている 400 以上のシステム構成に追加予定
台湾、台北 – COMPUTEX – 2023 年 5 月 29 日 – NVIDIA は本日、NVIDIA® GH200 Grace Hopper Superchip(https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/) の量産が開始し、複雑な AI および HPC ワークロードを実行するための世界中のシステムに搭載予定であることを発表しました。
GH200 を搭載したシステムは、生成 AI に対する急増する需要に応えるために開発された NVIDIA Grace™(https://www.nvidia.com/ja-jp/data-center/grace-cpu/)、NVIDIA Hopper™(https://www.nvidia.com/ja-jp/data-center/technologies/hopper-architecture/)、NVIDIA Ada Lovelace(https://www.nvidia.com/ja-jp/geforce/ada-lovelace-architecture/)、NVIDIA BlueField®(https://www.nvidia.com/ja-jp/networking/products/data-processing-unit/) など、NVIDIA の最新の CPU、そして GPU、DPU アーキテクチャのさまざまなコンビネーションに基づく 400 以上のシステムの仲間入りをします。
COMPUTEX では、NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) が、GH200 Grace Hopper Superchip に関する新しいシステム、パートナー、および詳細を明らかにしました。GH200 Grace Hopper Superchip は、NVIDIA NVLink®-C2C(https://www.nvidia.com/ja-jp/data-center/nvlink-c2c/) インターコネクト テクノロジを使用し、Arm ベースの NVIDIA Grace CPU と Hopper GPU アーキテクチャを統合します。これにより、最大 900 GB/秒の総帯域幅が実現されます。これは、従来のアクセラレーテッド システムに搭載されている標準の PCIe Gen5 レーンよりも 7 倍広い帯域幅であり、最も要求の厳しい生成 AI および HPC アプリケーションに対応する驚異的なコンピューティング能力を提供します。
NVIDIA アクセラレーテッド コンピューティング担当バイス プレジデントのイアン バック (Ian Buck) は次のように述べています。「生成 AI はビジネスを急速に変革し、ヘルスケア、金融、ビジネス サービスを含めたさまざまな業界で新たな機会を開拓し、発見を加速しています。Grace Hopper Superchip の量産が開始したことで、世界中のメーカーは間もなく、企業が独自の独自データを活用する生成 AI アプリケーションを構築および導入するために必要なアクセラレーテッド インフラストラクチャを提供できるようになります」
GH200 を搭載したシステムを活用する顧客には、ヨーロッパと米国の世界的なハイパースケーラーやスーパーコンピューティング センターが含まれます。
何百ものアクセラレーテッド システムとクラウド インスタンス
台湾のメーカーを含め、世界中のシステムメーカーが、NVIDIA のプロセッサを組み合わせたさまざまなシステムを市場に投入しています。AAEON、Advantech、Aetina、ASRock Rack、ASUS、GIGABYTE、Ingrasys、Inventec、Pegatron、QCT、Tyan、Wistron、Wiwynn などの台湾のメーカーが、本日の NVIDIA 創業者/CEO のジェンスン フアンの COMPUTEX 基調講演において、主要パートナーとして取り上げられました。
さらに、世界的なサーバー メーカーである Cisco、Dell Technologies、Hewlett Packard Enterprise、Lenovo、Supermicro、および Atos 傘下の Eviden も、NVIDIA アクセラレーテッド システムを幅広く提供しています。
NVIDIA H100 のクラウド パートナーには、Amazon Web Services (AWS)、Cirrascale、CoreWeave、Google Cloud、Lambda、Microsoft Azure、Oracle Cloud Infrastructure、Paperspace、Vultr が含まれます。
NVIDIA L4 GPU は、Google Cloud で利用可能です。
アクセラレーテッド システム全体にわたるフルスタック コンピューティング
NVIDIA Grace、Hopper、および Ada Lovelace アーキテクチャによって加速される今後のシステム ポートフォリオは、NVIDIA AI、NVIDIA Omniverse™ プラットフォーム、NVIDIA RTX™ テクノロジを含む NVIDIA ソフトウェア スタックの幅広いサポートを提供します。
NVIDIA AI プラットフォームのソフトウェア レイヤーである NVIDIA AI Enterprise(https://www.nvidia.com/ja-jp/data-center/products/ai-enterprise/) は、生成 AI 、コンピューター ビジョン、音声 AI などの運用向け AI の開発と展開を効率化するための 100 を超えるフレームワーク、事前トレーニング済みモデル、開発ツールを提供します。
メタバース アプリケーションを構築および運用するための NVIDIA Omniverse(https://www.nvidia.com/ja-jp/data-center/products/ai-enterprise/) 開発プラットフォームにより、個人やチームが複数のソフトウェア スイートにまたがって作業し、共有環境でリアルタイムな共同作業が可能になります。このプラットフォームは、仮想世界のためのオープンで拡張可能な 3D 言語である Universal Scene Description フレームワークに基づいています。
NVIDIA RTX プラットフォーム(https://developer.nvidia.com/rtx)は、レイトレーシング、ディープラーニング、ラスタライゼーションを融合し、業界をリードするツールと API のサポートにより、コンテンツ クリエイターと開発者の制作プロセスを根本的に変革します。RTX プラットフォーム上に構築されたアプリケーションは、リアルタイムのフォトリアルなレンダリングと AI で強化されたグラフィックス、ビデオ、および画像処理の力をもたらし、何百万人ものデザイナーやアーティストが最高の作品を制作できるようにします。
提供予定
GH200 Superchip を搭載したシステムは、今年後半から発売される予定です。
最新の AI、グラフィックス、そしてNVIDIA 搭載システムについての詳細は、COMPUTEX(https://www.nvidia.com/ja-jp/events/computex/) でご覧ください。
NVIDIA について
1993年の創業以来、NVIDIA(NASDAQ:NVDA)はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、産業用メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細については、https://nvidianews.nvidia.com/ をご参照ください。
このプレスリリースには、メディア関係者向けの情報があります
メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。
すべての画像