IBM、マルチモーダルと推論機能を搭載したエンタープライズ向けのGraniteモデル・ファミリーを拡充

-
Granite 3.2 – 推論、画像処理、AIガードレール機能を備え、開発者に適したライセンスで提供される小規模AIモデル
-
Graniteの時系列モデルを強化し、1,000万未満のパラメーターで長期予測を実現
IBMは、Granite大規模言語モデル(LLM)ファミリーの次世代モデルである「Granite 3.2」を発表しました。IBMは、Granite3.2を通じて、小規模で効率的かつ実用的なエンタープライズ向けAIを提供し、実用的な効果をさらに高めます。
Granite 3.2のすべてのモデルは、Hugging Face上で寛容型のApache 2.0ライセンスのもと提供されます。一部のモデルは、本日よりIBM watsonx.ai、Ollama、Replicate、LM Studioにて利用可能で、近日中にRHEL AI 1.5でも公開予定です。これにより、企業やオープンソース・コミュニティーは以下のような高度な機能を活用できます。
新たに発表された視覚言語モデル(VLM)は、文書処理タスクにおいて、Llama 3.2 11BやPixtral 12Bといった、さらに大規模なモデルと同等、または、それ以上の性能を実現しています。このモデルは、DocVQA、ChartQA、AI2D、OCRBench[1]といった重要な企業ベンチマークにおいて優れた性能を発揮しています。さらに、頑健な学習データに加えて、IBMは自社のオープンソース・ツールであるDoclingを活用し、8,500万件のPDFを処理し、2,600万件の質問と回答のペアを生成することで、複雑で文書が多いワークフローに対応できるようVLMの機能を強化しました。
-
Granite 3.2 2Bおよび8Bには、推論を強化するための思考連鎖(Chain of Thoughts:CoT)機能が搭載されています。さらに推論機能をオンまたはオフに切り替えることで、効率性を最適化できます。これにより、Granite 3.2 8Bは、安全性や他のベンチマークでの性能を保ったまま、ArenaHardやAlpaca Evalといった指示への従順性を検証するベンチマークにおいて、前世代のGranite 3.1に比べて10%以上の改善を実現しています。[2]さらに、Granite 3.2 8Bモデルは、革新的な推論スケーリング手法を用いることで、AIME2024やMATH500などの数学的推論能力を評価するベンチマークにおいて、Claude 3.5 SonnetやGPT-4oといったはるかに巨大なモデルに匹敵する性能を発揮するように調整することができます。[3]
-
Granite Guardian 3.2では、Granite Guardian 3.1と同等の性能と安全性を維持したまま、サイズを30%縮小したモデルを提供しています。また、Granite Guardian 3.2には言語化された信頼性提示機能が新たに搭載され、安全性評価における曖昧さを考慮した、より機微なリスク判断が可能になります。
IBMではエンタープライズ向けに小規模で専門的なAIモデルを提供する戦略を推し進めており、その有効性は各種ベンチマークにおいて引き続き高い効果を発揮しています。最近では、Granite 3.1 8Bが、SalesforceのCRM向けLLMベンチマークにおいて高い精度を証明しました。
Graniteモデル・ファミリーは、LLMを自社の技術に組み込む先進的なソフトウェア企業をはじめ、強力なパートナー・エコシステムによって支えられています。
CrushBankの最高技術責任者兼共同創設者であるDavid Tan氏は次のように述べています。「CrushBankでは、IBMのオープンで効率的なAIモデルがエンタープライズAIにおいて、実際にどれほどの価値を発揮するかを日々実感しています。これらのモデルは、性能、コスト効率、拡張性のバランスに優れています。Granite 3.2は新しい推論機能を搭載しており、私たちはこの機能を活用して新しいエージェント型ソリューションを構築することを楽しみにしています」
Granite 3.2は、IBMのポートフォリオと戦略における重要な進化であり、エンタープライズ向けに小規模で実用的なAIを提供する取り組みをさらに強化します。思考の連鎖(Chain of Thought:CoT)アプローチは推論において強力な手法ですが、多くのコンピューター・リソースを消費し、すべてのタスクに必要なわけではありません。そのため、IBMは推論機能をプログラムでオンまたはオフに切り替える機能を導入しました。これにより、シンプルなタスクにおいては推論を使わずに運用することで、不要な計算量の増加を抑えることができます。さらに、推論スケーリングなどの技術を活用することで、Granite 3.2 8Bは、標準的な数学的推論ベンチマークにおいて、より大規模なモデルと同等、または、それ以上の性能を実現しています。こうした取り組みを支えるためにIBMの研究チームでは、推論スケーリングのような手法の進化に引き続き注力していきます。[4]
IBMは、Granite 3.2 Instruct、Vision、Guardrailに加え、次世代のTinyTimeMixers(TTM)モデル(1,000万パラメータ未満)を発表します。このモデルでは、最大2年間の長期予測が可能で、金融および経済トレンド、サプライチェーン需要予測、小売業における季節的な在庫計画など、長期的なトレンド分析において強力なツールです。
IBM Research AIのバイス・プレジデントであるスリラム・ラガヴァン(Sriram Raghavan)は次のように述べています。「次のAI時代では、効率性やシステム統合力、そして実世界への効果が重視されます。企業は、コンピューター・リソースに膨大な費用をかけることなく、優れた成果を得られるようになります。IBMの最新のGraniteを発展させることで、ソリューションのオープン化に注力し、AIをよりアクセスしやすく、コスト効率が高いものへと進化させ、現代の企業に新たな価値をもたらす変革を支援しています」
Granite 3.2の詳細については、 こちらの技術記事(英語)をご参照ください。
注釈
[1] Visionモデルのベンチマーク結果は、2025年2月26日に発表されたIBMの技術記事『IBM Granite 3.2:推論、ビジョン、予測など(IBM Granite 3.2: Reasoning, Vision, Forecasting, and More)』(日本語)をご覧ください。
[2] Instructモデルのベンチマーク結果は、2025年2月26日に発表されたIBMの技術記事『IBM Granite 3.2: Reasoning, Vision, Forecasting, and More』(英語)をご覧ください。
[3] 推論スケーリングのベンチマーク結果は、2025年2月26日に発表されたIBMの技術リサーチブログ『Reasoning in Granite 3.2 Using Inference Scaling』(英語)をご覧ください。
[4] 『Reasoning in Granite 3.2 Using Inference Scaling』(英語)をご覧ださい。
当報道資料は、2025年2月26日(現地時間)にIBM Corporationが発表したプレスリリースの抄訳をもとにしています。原文はこちらを参照ください。
すべての画像