オラクルとNVIDIA、ソブリンAIを全世界で提供
オラクルとNVIDIA、デジタル主権を確立し、国や個人が所有権を持つデータを管理するアクセラレーテッド コンピューティングおよび生成AIサービスの提供で協力
テキサス州オースティンおよびカリフォルニア州サンノゼ—GTC - 2024年3月29 日
(本資料は2024年3月18日にオラクル・コーポレーションより発表されたプレスリリース( https://www.oracle.com/news/announcement/oracle-and-nvidia-to-deliver-sovereign-ai-worldwide-2024-03-18/ )の抄訳です)
オラクルとNVIDIAは、本日、ソブリンAIソリューションを世界中のお客様に提供するために、協力関係を拡大することを発表しました。オラクルの分散クラウド( https://www.oracle.com/jp/cloud/distributed-cloud/ )、AIインフラストラクチャ( https://www.oracle.com/jp/ai-infrastructure/ )、および生成AIサービス( https://www.oracle.com/jp/artificial-intelligence/generative-ai/ )と、NVIDIAのアクセラレーテッド コンピューティングおよび生成AIソフトウェアを組み合わせることで、政府機関や企業は、AIファクトリーを実現できます。
AIファクトリーは、ローカルまたは国や組織のセキュアな施設内で、幅広い運用管理を適用しながらクラウド・サービスを実行でき、経済的な成長を多様化し促進する主権目標を支援します。
オラクルのCEOであるサフラ・キャッツ(Safra Catz) は次のように述べています。「AIによって世界中のビジネス、業界、ポリシーが再構築されており、国や組織は最も価値のあるデータを保護するために、デジタル主権を強化する必要があります。NVIDIAとの継続的な協力関係と、クラウド・リージョンをローカルに迅速に導入するオラクル独自の能力により、社会が安全性を損なうことなく AI を活用できるようにしていきます。」
創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「生成AIによってイノベーションが促進される時代では、データ主権が文化的、経済的に不可欠です。オラクルの統合クラウド・アプリケーションおよびインフラストラクチャと、NVIDIAのアクセラレーテッド コンピューティングおよび生成AIサービスを組み合わせることで、国や地域が自らの行く末をコントロールするための要件とされる柔軟性とセキュリティを実現します。」
お客様のデータ主権実現を支援するターンキー・ソリューション
NVIDIAのフルスタックのAIプラットフォームとオラクルのエンタープライズAIを組み合わせることにより、「OCI Dedicated Region」、「Oracle Alloy」、「Oracle EU Sovereign Cloud」、および「Oracle Government Cloud」にわたり導入が可能で、デジタル主権サポートを支援するための運用、ロケーション、およびセキュリティを適切に管理可能な最先端のAIソリューションをお客様に提供します。
世界中の国々が、それぞれの文化的および経済的な目標をサポートできるAIインフラストラクチャへの投資を増やしています。26カ国の66のクラウド・リージョン全体で、お客様はITの移行、モダナイゼーション、およびイノベーションをサポートするために、インフラストラクチャやアプリケーションにわたる100を超えるクラウド・サービスやAIサービスを利用できます。
オラクルとNVIDIAの組み合せによるサービスは、パブリック・クラウドを介して、または特定の場所にあるお客様のデータセンター内に導入でき、柔軟な運用管理を実現します。オラクルはAIサービスとフル機能のクラウド・サービスを、場所を問わずローカルに提供できる唯一のハイパースケーラーです。OCIのサービスと価格設定は、さまざまな導入タイプにわたって一貫性があるため、計画、ポータビリティ、および管理が簡素化されます。
オラクルのクラウド・サービスは、NVIDIAアクセラレーテッド コンピューティング インフラストラクチャおよび、新たに発表されたNVIDIA NIM推論マイクロサービスを含むNVIDIA AI Enterpriseソフトウェア プラットフォームなどのNVIDIAのさまざまなスタックを活用しています。NVIDIA NIM推論マイクロサービスは、NVIDIA TensorRT、NVIDIA TensorRT-LLM、およびNVIDIA Triton Inference ServerなどのNVIDIA推論ソフトウェアの基盤上に構築されます。
ソブリンAIのパイオニア
資産管理テクノロジーのリーダーであるAvaloqは、「OCI Dedicated Region」を選択し、包括的なOCIパブリック・クラウド・リージョンを自社データセンターに導入しました。
Avaloqのチーフ・テクノロジー・オフィサーであるMartin Büchi氏は次のようにコメントしています。「『OCI Dedicated Region』は、最新のクラウド・インフラストラクチャへのアクセスを提供しながら、データ・レジデンシーを最大限に制御するという当社のコミットメントと一致します。銀行やウェルスマネージャーのデジタル・トランスフォーメーションを推進し続ける私たちをサポートしてくれます。」
ニュージーランドの主要な情報管理サービス・プロバイダーであるTEAM IMは、「Oracle Alloy」を採用し、ニュージーランドで初めてとなる、ローカルで所有と運用を行うハイパースケール・クラウドを構築しました。
TEAM IM のチーフ・エグゼクティブ・オフィサーであるイアン・ロジャース(Ian Rogers) 氏は次のようにコメントしています。「ニュージーランドでは、独自のハイパースケール・クラウド・ソリューションを利用することで、データの整合性を自国内で保護しつつ、クラウドのパワーを活用したいという組織のニーズが高まっています。『Oracle Alloy』とNVIDIA AI プラットフォームを当社のクラウド・サービスに統合できる可能性により、当社は、公共機関と商業組織、および部族組織がデジタル環境の複雑さを乗り越え、デジタル・トランスフォーメーションを最適化できるように支援するクラウド・サービス・プロバイダーになることができました。」
e&グループの通信部門であるe& UAEは、オラクルとコラボレーションしてAI機能を強化し、「OCI Dedicated Region」にNVIDIA H100 Tensor コア GPUクラスタを導入しようとしています。
e& UAEのチーフ・テクノロジー・アンド・インフォメーション・オフィサー(CTIO)であるKhalid Murshed氏は次のようにコメントしています。「OCIにより、私たちはe& UAEのデータセンターでホストしている独自の『OCI Dedicated Region』にNVIDIA H100 GPUクラスタを導入できます。このタイプのローカリゼーションにより、UAE全体でAIイノベーションを加速し、新しい生成AIアプリケーションや大規模なユースケースの開発に役立つでしょう。これは、他社にない顧客体験を提供するために AI の卓越性を推進することに重点を置き、イノベーションを開拓しテクノロジーの未来を形作るという e& UAE の変革の取り組みと一致しています。」
NVIDIA Grace Blackwellで強化されるOCI SuperclusterとOCI Compute
お客様がますます増加するAIモデルのニーズに対応できるよう、オラクルは、本日GTCで発表された最新のNVIDIA Grace Blackwellコンピューティング プラットフォームを「OCI Supercluster」( https://www.oracle.com/jp/ai-infrastructure/ )と「OCI Compute」( https://www.oracle.com/jp/cloud/compute/ )で活用することを計画しています。「OCI Supercluster」は、新しい「OCI Compute」ベアメタル・インスタンス、超低レイテンシのRDMAネットワーキング、および高パフォーマンスのストレージにより、大幅に高速化されます。「OCI Compute」は、NVIDIA GB200 Grace™ Blackwell SuperchipとNVIDIA Blackwell B200 Tensor コア GPUの両方を採用します。
NVIDIA GB200 Grace Blackwell Superchipは、コンピューティングの新時代を推進します。GB200は、前世代の GPU と比較して、最大 30 倍高速なリアルタイム大規模言語モデル (LLM) 推論、25 倍の TCO 削減、必要なエネルギーの 25 倍の削減を実現し、AI トレーニング、データ処理、エンジニアリング設計とシミュレーションを強化します。NVIDIA Blackwell B200 Tensor コア GPUは、最も要求の厳しいAI、データ分析、およびハイパフォーマンス・コンピューティング(HPC)のワークロード向けに設計されています。
検索拡張生成(RAG)推論を導入するためのNVIDIA NeMo RetrieverなどのNVIDIA NIMおよびCUDA-Xマイクロサービス( https://nvidianews.nvidia.com/news/generative-ai-microservices-for-developers )は、OCIのお客様が独自データを使用して、生成AIコパイロツトやその他の生産性ツールに、より多くのインサイトと正確性をもたらすのに役立ちます。
NVIDIA Grace BlackwellがOCI上のDGX Cloudで利用可能に
複雑なAIモデルに関するお客様の需要の高まりに応えるために、オラクルとNVIDIAは、NVIDIA Grace BlackwellをOCI上のNVIDIA DGX Cloudに追加します。このスーパーコンピューティング・サービスは、数兆パラメータの大規模言語モデルの時代でのエネルギー効率の高いトレーニングと推論を実現することを目指して共同設計され、お客様はこのサービスを通じて新しいGB200 NVL72ベースのインスタンスにアクセスできるようになります。
フル機能のDGX Cloudクラスタの構築には、20,000個を超えるGB200アクセラレータとNVIDIA CX8 InfiniBandネットワーキングが含まれ、スケーラビリティとパフォーマンスの高いクラウド・インフラストラクチャを実現します。クラスタは、72基のBlackwell GPU NVL 72および36基のGrace CPUで構成され、第5世代のNVLinkを使用します。
提供開始時期
オラクルとNVIDIAのソブリンAIソリューションは、すぐに利用可能です。詳細については、ソブリンAIのページ(英語)( https://www.oracle.com/cloud/sovereign-ai/ )を参照してください。
参考リンク
● OCI Supercluster( https://www.oracle.com/ai-infrastructure/ )
● OCIで実行されるAIイノベーター( https://www.oracle.com/artificial-intelligence/ai-ecosytem/ )
● オラクルの分散型クラウド( https://www.oracle.com/cloud/distributed-cloud/ )
本プレスリリースに含まれる特定の記述には、以下のような記述が含まれますが、これらに限定されるものではありません:NVIDIA NIM 推論マイクロサービス、 TensorRT、 NVIDIA TensorRT-LLM、NVIDIA Triton Inference Server を含むNVIDIAのアクセラレーテッド コンピューティング インフラストラクチャおよびNVIDIA AI Enterprise ソフトウェア プラットフォーム; NVIDIA H100 Tensor コア GPU、NVIDIA GB200 Grace Blackwell Superchip、NVIDIA Blackwell B200 Tensor コア GPU、NVIDIA NeMo Retriever for retrieval-augmented generation (RAG) 推論デプロイメント、 NVIDIA DGX Cloud、GB200 NVL72および NVLinkを含むNVIDIA CUDA-X マイクロサービスなどのNVIDIA の製品、サービス、技術の利点、影響、性能; NVIDIAとオラクルのコラボレーションによる利益やインパクト、またサービスやオファリングでの機能や提供時期; 生成AIにより推進されるイノベーションなど、本プレスリリースにおける一定の記載は、将来予測的なものが含まれており、予測とは著しく異なる結果を生ずる可能性があるリスクと不確実性を伴っています。かかるリスクと不確実性は、世界的な経済環境、サード パーティに依存する製品の製造、組立、梱包、試験、技術開発および競合による影響、新しい製品やテクノロジの開発あるいは既存の製品やテクノロジの改良、NVIDIA 製品や協業企業の製品の市場への浸透、デザイン、製造あるいはソフトウェアの欠陥、ユーザーの嗜好および需要の変化、業界標準やインターフェイスの変更、システム統合時に NVIDIA 製品および技術の予期せぬパフォーマンスにより生じる損失などを含み、その他のリスクの詳細に関しては、Form 10-K での NVIDIA のアニュアル レポートならびに Form 10-Q での四半期レポートなど、米証券取引委員会 (SEC) に提出されている NVIDIA の報告書に適宜記載されます。SEC への提出書類は写しが NVIDIA の Web サイトに掲載されており、NVIDIA から無償で入手することができます。これらの将来予測的な記述は発表日時点の見解に基づくものであって将来的な業績を保証するものではなく、法律による定めがある 場合を除き、今後発生する事態や環境の変化に応じてこれらの記述を更新する義務を NVIDIA は一切負いません。
本プレスリリースで説明されている製品と機能の多くはさまざまな段階にあり、利用可能になったときに提供される予定です。上記の記述は、コミットメント、約束、または法的義務を意図したものではなく、またそのように解釈されるべきではありません。当社の製品について説明されている機能の開発、リリース、およびタイミングは変更される可能性があり、NVIDIA の単独の裁量に委ねられます。 NVIDIA は、ここに記載されている製品、機能、または機能の納品の不履行または納品の遅延については責任を負いません。
NVIDIAについて
1993年の創業以来、NVIDIA( https://www.nvidia.com/ja-jp/ ) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、各種産業のデジタル化を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/
オラクルについて
オラクルは、広範かつ統合されたアプリケーション群に加え、セキュリティを備えた自律型のインフラストラクチャをOracle Cloudとして提供しています。オラクル(NYSE:ORCL)に関するより詳細な情報については、https://www.oracle.com をご覧ください。
商標
Oracle、Java、MySQL及びNetSuiteは、Oracle Corporation、その子会社及び関連会社の米国及びその他の国における登録商標です。NetSuiteは、クラウド・コンピューティングの新時代を切り開いたクラウド・カンパニーです。
© 2024 NVIDIA Corporation. 無断複写・転載を禁じます。NVIDIA、NVIDIAロゴ、CUDA-X、DGX、NVIDIA NeMo、NVIDIA NIM、 NVIDIA Triton Inference Server、NVLink、および TensorRTは、米国およびその他の国におけるNVIDIA Corporationの商標および/または登録商標です。その他の会社名および製品名は、関連する各社の商標である場合があります。機能、価格、可用性および仕様は予告なく変更されることがあります。
- 種類
- 商品サービス
- ビジネスカテゴリ
- サーバ・周辺機器ネットワーク・ネットワーク機器