NVIDIA

ストックマークがゼロから構築した 1000 億パラメーターの日本語大規模言語モデルを NVIDIA NIM マイクロサービスとして提供開始

NIM での提供を通じて推論速度が最大 2.5 倍高速化

NVIDIA

NVIDIA は本日、開発者向けに開催されたイベント、NVIDIA AI Day Tokyo において、AI スタートアップのストックマークがゼロから開発した 1000 億パラメーターの日本語大規模言語モデル (LLM)、「Stockmark-2-100B-Instruct (以下 Stockmark-2)」を NVIDIA NIM マイクロサービスとして提供を開始したことを発表しました。

LLM を実務で活用する難しさと、それを解決する NVIDIA NIM

LLM は研究段階で高い性能を示しますが、企業が実務で活用しようとすると、さまざまな困難が立ちはだかります。1000 億パラメーター クラスのモデルでは、推論やリーズ二ング、ファインチューンに高性能な GPU 環境が必要となるため導入コストがかかり、ユーザー数が増えるとレスポンスの遅延やシステム負荷の問題も発生します。さらに、モデルの環境構築や最適化、API 化には高度な専門知識が必要であり、企業や自治体での業務利用ではデータの機密性や安定稼働を確保することも不可欠です。このように、性能は十分であっても、実務で安全かつ効率的に活用するハードルが高いことが、ビジネスでの本番導入における障壁となっていました。

このような課題を解決するために NVIDIA が提供するのが、NVIDIA NIM マイクロサービスです。NVIDIA NIM は、AI モデルの本番環境への展開と、AI を搭載したエンタープライズ アプリケーションの開発を効率化する、最適化されたクラウド ネイティブなマイクロサービス群を提供します。クラウド、データ センター、GPU 対応ワークステーションなど、場所を問わず生成 AI モデルのデプロイをシンプルに行えるように設計され、市場投入までの時間を短縮します。また、最適化されたモデルと推論技術を業界標準の API、およびセキュアなクラウド ネイティブ ランタイムと統合することで、企業がプライベート AI モデルを展開する際の複雑さを抽象化します。

コミュニティ モデル、NVIDIA AI Foundation モデル、NVIDIA のパートナーが提供するカスタム AI モデルなど、多くの AI モデルをサポートする NIM は、複数のドメインにわたる AI のユース ケースをサポートします。これには LLM や視覚言語モデル (VLM) のほか、音声、画像、動画、3D、創薬、医用画像処理などに対応する数々のモデルが含まれます。

日本語特化型のフルスクラッチモデルへの挑戦

今回新たに NIM として提供されるカスタム AI モデルは、NVIDIA のスタートアップ支援プログラム、NVIDIA Inception のメンバーであるストックマークが開発した日本語 LLM、 Stockmark-2 です。自然言語処理に特化したストックマークはこれまで、製造業向け AI エージェント「Aconnect」や業務 AI 実装支援プラットフォーム「SAT」を展開し、トヨタ自動車、パナソニック、日清食品、サントリーなど多くの企業で導入実績を積み上げてきました。産業技術総合研究所や東北大学、理化学研究所などとの産学連携による、自然言語処理基盤の技術開発も推進しています。また、日本語特化型 LLM の開発で国内トップクラスの実績を持ち、複数の高性能モデルを国内外に公開しています。

Stockmark-2 は、ストックマークがゼロから開発したフルスクラッチモデルです。LLMの開発には、コストや時間の削減の観点から、オープンソースの既存 LLM をベースに開発することが一般的です。しかし、ビジネス特有の複雑な文脈や専門用語の理解において、精度と独自性の面で課題を抱えていました。この課題を解決するため、ストックマークは、あえてフルスクラッチでの開発を選択しました。

このプロジェクトでは、膨大な日本語のビジネス文書や会話文をトレーニング データとして活用し、NVIDIA のコンピューティング プラットフォームと NVIDIA NeMo Framework を駆使することで、モデル開発における計算処理を効率的に実行しました。さらに NVIDIA TensorRT-LLM を用いて学習データの生成の効率化を行うなどの工夫がされています。独自の開発アプローチにより、ストックマークは、単なる言語モデルではなく、厳密性と専門性が求められるビジネスドメインで高精度な性能を発揮し、ビジネスの意思決定を支援する独自の AI 基盤モデルを構築することに成功しました。この取り組みは、技術的な挑戦であると同時に、日本のビジネス環境に最適化された AI ソリューションを提供するというストックマークの強いコミットメントを象徴しています。

「広島 AI プロセス」についての回答比較。ストックマーク開発の Stockmark-2-100B-Instruct は最新の文脈を正確に捉え、精度の高い回答を生成する

国内最大規模の 1,000 億パラメーターを誇る Stockmark-2 は、日本語特有の文脈に対する優れた理解によって、ビジネス文書や会話文の高精度な要約や解析を可能にします。また、ハルシネーションを抑えた設計により、業務利用における安定性も確保されています。このような高い性能が評価され、NIMによる効率的な運用と親和性が高いことから今回 NVIDIA NIM としての提供につながりました。

NIM を通じて、国産の高度な LLM の活用がより身近に

開発者が GPU 環境にコンテナを展開するだけで、数行のコードで API を通じて呼び出せるため、1000 億パラメータークラスの大規模モデルを手軽に利用することができるようになります。また、NIM はエンタープライズ グレードのセキュリティ、サポート、安定性を提供する NVIDIA AI Enterprise 環境で動作することから、ビジネス ユースに耐えうる信頼性が備わっています。そのため、機密性が求められる自治体、医療、製造分野などでも、国産 LLM を活用する現実的な選択肢が広がります。

ストックマーク株式会社 CTO の有馬幸介氏は次のように述べています。「NIM を通じた提供により、Stockmark-2 は GPU 環境上で効率的に動作することが可能になり、従来比で推論速度が最大 2.5 倍向上し※、リソース消費も最適化されました。これまでこうした大規模なモデルを使うには、専用の運用環境や高い運用スキルが求められていましたが、NIM として提供されることで、国内クラウドやオンプレミスといった多様なインフラ上で安全かつ柔軟に運用できるようになるでしょう。日本語 LLM を活用したアプリケーション開発が格段に身近になることを大変嬉しく思います」

国産の高度な LLM と、セキュリティと信頼性が備わった実装基盤の両方が揃ったことで、ソブリン AI を支える開発環境が、より実用的なものとして開かれつつあります。スタートアップの技術と開発者の手元が、着実につながっていると言えます。

 

今すぐ活用可能

 

開発者は、NVIDIA API カタログから NVIDIA のマネージド クラウドの API を使用して、本モデルを試すことができます。また、NIM をダウンロードしてモデルをセルフホストしたり、Kubernetes を使って主要なクラウド プロバイダーや本番向けのオンプレミスの環境に迅速にデプロイすることもできます。

Stockmark-2 に関するさらなる詳細、およびモデル性能や推論速度に関するベンチマーク結果は、NVIDIA の技術ブログをご覧ください。

ストックマークをご紹介した NVIDIA のカスタマー ストーリーもご覧ください。

※ 2x NVIDIA B200 Tensor コア GPU上で、一般的に使用されるオープンソースLLM推論ソフトウェアとのスループット(時間あたりトークン生成数)を比較

このプレスリリースには、メディア関係者向けの情報があります

メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。

すべての画像


会社概要

NVIDIA

85フォロワー

RSS
URL
-
業種
製造業
本社所在地
東京都港区赤坂2-11-7 ATT New Tower13F
電話番号
-
代表者名
大崎 真孝
上場
未上場
資本金
-
設立
-