楽天、経産省およびNEDOによる生成AIの開発力強化プロジェクト「GENIAC」に採択
- 高度にパーソナライズされたAIエージェントの実現に向けて、8月より次世代の日本語大規模言語モデルの研究開発を開始 -
楽天グループ株式会社(以下「楽天」)は、経済産業省および国立研究開発法人新エネルギー・産業技術総合開発機構(以下「NEDO」)が推進する日本の生成AIの開発力強化を目的としたプロジェクト「GENIAC(Generative AI Accelerator Challenge)プロジェクト」(以下「GENIAC」)の第3期公募に採択されたことをお知らせいたします(注1)。
GENIACは主に、生成AI開発において必要となる計算リソースの利用支援に加え、当該技術の最新動向や開発者コミュニティを通じたナレッジの提供等を行うプロジェクトです。2024年2月に第1期、同年10月には第2期の研究開発支援が行われ、本件は2025年3月からNEDOが実施した第3期公募の採択を受けたものです。今回の結果を受けて、楽天は2025年8月より、「長期記憶メカニズムと対話型学習を融合した最先端の生成AI基盤モデルの研究開発」(以下「本研究開発」)を開始します。
楽天は、2024年3月より、日本語に最適化したオープンかつ高性能な大規模言語モデル(以下「LLM」)(注2)の開発・公開に取り組んでいます。開発当初からコスト効率を重視し、「Rakuten AI 2.0」のような小規模ながら高効率なLLMを開発しています。このモデルは、Mixture of Experts (MoE) アーキテクチャ(注3)を採用しており、「エキスパート」と呼ばれる複数のサブモデルで構成されています。クエリ処理時には関連する一部の「エキスパート」のみを稼働させるため、従来の高密度モデルと比較して運用コストを大幅に削減できるのが特長です。
本研究開発では、既存のLLMでは難しかった、より長く複雑な日本語の文脈に合わせた処理が可能で、従来よりもさらに高度なLLMを開発します。このLLMには、言語モデルのメモリ機能を大幅に拡張する新たな技術を組み込むことで、応答生成時にアクセス可能な情報量が飛躍的に増加します。楽天は、これらの技術を活用し、生成AIのメモリに関する既存の制約を克服することで、情報再現率および性能を大幅に向上させたモデルの開発を推進します。
今後楽天は、AIの次なるフェーズとして、メモリ機能を拡張することでLLMの記憶能力を向上させます。ユーザーとの会話を記憶することで、よりパーソナライズされた応答ができるLLMの開発を目指します。これにより、ユーザーとの長期にわたる会話から能動的に好みや経験を学習・活用することで、長いコンテキストウィンドウの処理に課題を抱える既存のトランスフォーマーアーキテクチャの制約を大幅に緩和することができます。さらに、最適な学習・推論アルゴリズムによって運用コストの効率化を達成し、AIエージェントのパーソナライズ化に向けて新たな可能性を引き出せます。これらの技術開発を通じて、「楽天エコシステム(経済圏)」内の様々なサービスへのAIエージェントの適用を拡大し、顧客体験向上や業務効率化を図ります。
楽天のAIリサーチ統括部 楽天技術研究所 副部長の平手 勇宇は、本研究開発に関して次のようにコメントしています。「NEDOおよび経済産業省のご支援のもと、最先端の生成AI基盤モデルの開発に取り組めることを大変嬉しく思います。本研究開発を通じて、日本語に最適化され、かつ高度にパーソナライズされたAIエージェントの実現と、社会全体におけるAI活用の可能性拡大に貢献していきたいと考えています。」
楽天は、AI化を意味する造語「AI-nization(エーアイナイゼーション)」をテーマに掲げ、さらなる成長に向けてビジネスのあらゆる面でAIの活用を推進する取り組みをしています。今後も豊富なデータと「楽天エコシステム」の活用を通じて、国内外の人々へ新たな価値創出を目指してまいります。
以 上
(注1)GENIAC採択結果公表ページ:
https://www.nedo.go.jp/koubo/CD3_100397.html
(注2)関連プレスリリース:
楽天、日本語に最適化した大規模言語モデルと楽天初の小規模言語モデルを提供開始(2025年2月12日)
https://corp.rakuten.co.jp/news/press/2025/0212_02.html
楽天、日本語に最適化した新たなAIモデルを発表(2024年12月18日)
https://corp.rakuten.co.jp/news/press/2024/1218_01.html
楽天、日本語に最適化したオープンかつ高性能なLLMを公開(2024年3月21日)
https://corp.rakuten.co.jp/news/press/2024/0321_01.html
(注3)Mixture of Expertsアーキテクチャは、モデルが複数のサブモデル(エキスパート)に分割されているAIモデルアーキテクチャです。推論および学習中は、最も適したエキスパートのサブセットのみがアクティブ化され、入力処理に使用されることで、より汎用的で高度な推論を行うことができます。
このプレスリリースには、メディア関係者向けの情報があります
メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。