NVIDIA

NVIDIA NIM がモデル展開に革命をもたらし、世界中の何百万人もの開発者を生成 AI 開発者に変える

NVIDIA

・エンタープライズ AI アプリケーションの展開を数週間から数分に短縮するため、AI エコシステムのあらゆる層にわたる 150 社以上のパートナーが NIM 推論マイクロサービスを導入
・NVIDIA Developer Programのメンバーは、研究、開発、テストのために NIM に無料でアクセスが可能に


台湾、台北 — COMPUTEX — 2024 年 6 月 2 日 — NVIDIA は本日、世界中の 2,800 万人の開発者が、最適化されたコンテナーとしてモデルを提供する推論マイクロサービスである NVIDIA NIM (https://www.nvidia.com/ja-jp/ai/)をダウンロードして、クラウド、データセンター、またはワークステーションに展開できるようになったことを発表しました。これにより、コパイロットやチャットボットなどの生成 AI アプリケーションを数週間ではなく数分で簡単に構築可能となります。


これらの新しい生成 AI アプリケーションはますます複雑になり、テキスト、画像、ビデオ、音声などを生成するためのさまざまな機能を備えた複数のモデルを利用することがあります。NVIDIA NIM は、アプリケーションに生成 AI を追加するためのシンプルで標準化された方法を提供することで、開発者の生産性を大幅に向上させます。


NIM を使用すると、企業はインフラへの投資を最大限に活用できます。たとえば、NIM で Meta Llama 3-8B を実行すると、NIM を使用しない場合に比べて、高速化されたインフラで最大 3 倍の生成 AI トークンが生成されます。これにより、企業は効率を高め、同じ量のコンピューティング インフラを使用してより多くの応答を生成することができます。


Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI、Synopsys など、約 200 社のテクノロジ パートナーが、NIM を各社のプラットフォームに統合し、コパイロット、コード アシスタント、デジタル ヒューマン アバターなどのドメイン固有のアプリケーション向けに生成 AI の展開を加速しています。Hugging Face は現在、NIM の提供を Meta Llama 3 から始めています。


NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「あらゆる企業が業務に生成 AI を追加しようとしていますが、すべての企業が AI 研究者の専任チームを持っているわけではありません。すべての開発者がアクセスでき、どのような場所でも実行される NVIDIA NIM は、テクノロジ業界が生成 AI を全組織に提供できるよう支援しています」


企業は、NVIDIA AI Enterprise (https://www.nvidia.com/ja-jp/data-center/products/ai-enterprise/)ソフトウェア プラットフォームを通じて、NIM を使用した AI アプリケーションを本番環境に展開することができます。来月から、NVIDIA Developer Program (https://developer.nvidia.com/)のメンバーは、希望するインフラ上で研究、開発、テストを行うために NIM に無料でアクセス可能となります。


40 以上の NIM マイクロサービスがテキスト、音声、画像、ビデオ、ヘルスケアなどの 生成 AI を強化

NIM コンテナーは、GPU で高速化される推論のためのモデル展開を加速するために事前に構築されており、NVIDIA CUDA(https://developer.nvidia.com/cuda-zone) ソフトウェア、NVIDIA Triton Inference Server(https://www.nvidia.com/ja-jp/ai-data-science/products/triton-inference-server/)、NVIDIA TensorRT-LLM(https://developer.nvidia.com/tensorrt#inference)ソフトウェアを含めることができます。


ai.nvidia.com(http://ai.nvidia.com/) では、Databricks DBRX、Google のオープン モデル Gemma、Meta Llama 3、Microsoft Phi-3、Mistral Large、Mixtral 8x22B、Snowflake Arctic を含む、40 種類以上の NVIDIA モデルとコミュニティ モデルを NIM エンドポイントとして体験できます。


開発者は、Hugging Face AI プラットフォームから Meta Llama 3 モデル用の NVIDIA NIM マイクロサービスにアクセスが可能になりました。これにより、開発者は好みのクラウドで NVIDIA GPU を搭載した Hugging Face 推論エンドポイントを使用して、数回クリックするだけで Llama 3 NIM に簡単にアクセスして実行できます。


企業は NIM を使用して、テキスト、画像、ビデオ、音声、デジタル ヒューマンを生成するアプリケーションを実行できます。デジタル バイオロジー向けの NVIDIA BioNeMo(https://www.nvidia.com/ja-jp/clara/bionemo/) NIM マイクロサービスを使用すると、研究者は新しいタンパク質構造を構築して創薬の加速が可能となります。


新しいNVIDIA ACE NIMマイクロサービスにより、開発者は、顧客サービス、遠隔医療、教育、ゲームおよびエンターテイメント向けのアプリケーションにおいて、インタラクティブでリアルなデジタルヒューマンを簡単に構築し、操作することができます。


数百の AI エコシステム パートナーが NIM を導入

Canonical、Red Hat、Nutanix、VMware (Broadcom が買収) などのプラットフォーム プロバイダーは、オープンソースの KServe(https://blogs.nvidia.com/blog/kserve-nim-inference) またはエンタープライズ ソリューションで NIM をサポートしています。AI アプリケーション企業の Hippocratic AI、Glean、Kinetica、Redisも、生成 AI 推論を強化するために NIM を展開しています。


Amazon SageMaker、Microsoft Azure AI、Dataiku、DataRobot、deepset、Domino Data Lab、LangChain、Llama Index、Replicate、Run.ai、Securiti AI、Weights & Biases などの主要な AI ツールおよび MLOps パートナーも、開発者が最適化された推論を使用してドメイン固有の生成 AI アプリケーションを構築および展開できるように、NIM をプラットフォームに組み込んでいます。


グローバル システム インテグレーターおよびサービス提供パートナーの Accenture、Deloitte、Infosys, Latentview、Quantiph、SoftServe、TCS、Wipro は、世界の企業がプロダクションAI 戦略を迅速に開発および展開できるように、NIM の機能を構築しています。


企業は、グローバル インフラストラクチャ メーカーである Cisco、Dell Technologies、Hewlett-Packard Enterprise、Lenovo、Supermicro の NVIDIA-Certified Systems™(https://www.nvidia.com/ja-jp/data-center/products/certified-systems/) や、サーバー メーカーである ASRock Rack、ASUS、GIGABYTE、Ingrasys、Inventec、Pegatron、QCT、Wistron、Wiwynn などから、事実上どこでも NIM 対応アプリケーションを実行できます。NIM マイクロサービスはすでに、Amazon Web Services、Google Cloud、Azure、Oracle Cloud Infrastructure にも統合されています。


業界大手が NIM で生成 AI を強化

業界のリーダーである Foxconn、Pegatron、Amdocs、Lowe’s、ServiceNowおよびSiemens は、製造、ヘルスケア、金融サービス、小売、カスタマー サービスなどの分野で生成 AI アプリケーションに NIM を使用しています。


・ 世界最大の電子機器メーカーである Foxconn は、スマート製造、スマート シティ、スマート電気自動車向けの AI 工場のさまざまな社内システムとプロセスに組み込まれたドメイン固有の LLM の開発に NIM を使用。

・ 台湾の電子機器製造会社である Pegatron は、業界向けのローカル LLM の開発を促進するために設計された台湾の Mixtral of Experts モデルである Project TaME に NIM を活用。

・ 通信およびメディア企業向けのソフトウェアとサービスの大手グローバル プロバイダーである Amdocs は、NIM を使用して顧客課金 LLM を実行中。これにより、トークンのコストが大幅に削減され、精度が最大 30% 向上し、レイテンシが 80% 削減され、ほぼリアルタイムの応答が可能に。

・ FORTUNE®50のホームセンター企業であるLowe'sは、様々なユースケースに生成AIを使活用しています。例えば、同社は、NVIDIA NIM推論マイクロサービスを活用して、従業員と顧客の体験を向上させています。

・ ビジネス変革のための AI プラットフォームである ServiceNow は、今年初めに、NIM マイクロサービスにアクセスして、顧客向けに高速でスケーラブルかつコスト効率の高い LLM の開発と展開を可能にした最初のプラットフォーム プロバイダーの 1 つであると発表。NIM マイクロサービスは Now AI マルチモーダル モデルに統合されており、ServiceNow の生成 AI エクスペリエンスである Now Assist がインストールされている顧客が利用可能に。

・ 産業、インフラ、運輸、ヘルスケアに特化したグローバル テクノロジー カンパニーである Siemens は、現場の AI ワークロード向けに、自社の運用技術を NIM マイクロサービスと統合しています。また、NIMを利用したIndustrial Copilot for Machine Operators のオンプレミス版も構築中です。


提供時期

開発者は、ai.nvidia.com(https://www.nvidia.com/en-us/ai/#referrer=ai-subdomain) にて NVIDIA マイクロサービスを無料で試すことができます。企業は、NVIDIA-Certified Systemsと主要なクラウド プラットフォームで実行される NVIDIA AI Enterprise(https://www.nvidia.com/en-us/data-center/products/ai-enterprise/) を使用して、プロダクショングレードの NIM マイクロサービスを展開することができます。来月から、NVIDIA Developer Programのメンバーは、研究とテストのためにNIMに無料でアクセスできるようになります。


NVIDIA 創業者/CEO ジェンスン フアンの COMPUTEX 基調講演(https://www.nvidia.com/ja-jp/events/computex/)をご覧ください。


NVIDIAについて

 1993年の創業以来、NVIDIA(https://www.nvidia.com/ja-jp/) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、各種産業のデジタル化を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/

このプレスリリースには、メディア関係者向けの情報があります

メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。

すべての画像


会社概要

NVIDIA

70フォロワー

RSS
URL
-
業種
製造業
本社所在地
東京都港区赤坂2-11-7 ATT New Tower13F
電話番号
-
代表者名
大崎 真孝
上場
未上場
資本金
-
設立
-