Shisa.AI、大規模言語モデルシリーズ「Shisa V2.1」を公開:より小さく、賢く、使いやすく — 端末からクラウドまで対応
~日本語LLMの性能と効率を大幅に向上、API提供も新たに開始~
Shisa.AI(本社:東京都港区)は、2025年12月9日、日英バイリンガル汎用チャットモデル「Shisa V2.1」シリーズを公開しました。最高水準と評価されたShisa V2から、日本語性能と効率をさらに向上しました。スマートフォンでも動作する1.2Bから、GPT-4並の日本語性能を持つ14B・70Bまで、全5サイズで提供します。HuggingFaceでの無料ダウンロードに加え、今回初めてAPIでの有料提供も開始しました。

■ より小さく、より賢く
Shisa V2.1は、より小さなモデルでShisa V2を超える日本語性能を実現しました。
-
Shisa V2.1 14Bは、4月公開のShisa V2 70Bを超える日本語性能を達成——5分の1以下のサイズで、より高速に、より少ないメモリで動作します。
-
Shisa V2.1 70Bは、国産LLMとして最高性能を誇るShisa V2 405Bに迫る性能を達成—こちらも約6分の1のサイズです。
(モデルのパラメータ数(例:14B=140億)が小さいほど、必要なメモリが少なく、推論速度も向上します。そのため、同等の性能を、より低コストで、より幅広い環境で利用可能になります。)

|
ライセンス |
モデル名 |
パラメータ数 |
日本語AVG |
英語AVG |
JA-MT |
|
Llama 3.1 |
405B |
74.7 |
67.5 |
9.43 |
|
|
Llama 3.3 |
70B |
73.1 |
66.0 |
9.26 |
|
|
MIT |
14B |
72.6 |
57.7 |
9.28 |
|
|
Apache 2.0 |
8B |
67.8 |
57.8 |
8.93 |
|
|
Llama 3.2 |
3B |
57.9 |
43.2 |
7.55 |
|
|
LFM |
1.2B |
43.4 |
27.6 |
6.69 |
上記の表には、日本語・英語それぞれのテストの平均スコアに加え、他モデルとの比較がしやすいよう、GPT-4 Turboを評価者とした日本語MT-Benchスコアも掲載しています。
今回の改善は、データセットの80%以上を一新し、SFT・DPOに加えてRL(強化学習)やモデルマージ技術を取り入れることで可能になりました。ベンチマーク特化の学習は行っておらず、上記の結果は実環境での日本語能力向上を反映しています。
■ 正確な日本語出力を実現
昨今、日本語に対応したLLMが急速に増えていますが、海外モデルはもちろん、国内で学習されたモデルでも、日本語出力の途中で中国語や英語などが混入する現象が見られます。Shisa.AIでは、こうした「言語漏れ」を業界で初めて定量化する評価手法(Cross-Lingual Token Leakage)を開発しました。

|
ベースモデル |
Shisa V2.1 |
ベース漏れ率 |
V2.1漏れ率 |
改善倍率 |
|
Llama 3.2 3B |
Shisa V2.1 3B※ |
11.48% |
0.24% |
47.8× |
|
LFM2 1.2B |
Shisa V2.1 1.2B |
4.32% |
0.32% |
13.5× |
|
Qwen 3 8B |
Shisa V2.1 8B |
2.18% |
0.44% |
5.0× |
|
Llama 3.3-70B |
Shisa V2.1 70B※ |
1.90% |
0.36% |
5.3× |
|
Phi 4 14B |
Shisa V2.1 14B |
0.12% |
0.06% |
2.0× |
言語の混在は、翻訳、カスタマーサポート、コンテンツ生成など、実用的な日本語アプリケーションにとって致命的な問題です。Shisa V2.1は、ベースモデルと比較して最大47.8倍の改善を達成し、検証した他のほぼすべてのモデルを上回る結果となりました。
■ API提供・商用サービスの開始
なお、今回のShisa V2.1のリリースに合わせて、テキスト・翻訳・音声APIの提供も始めました。また、Shisa V2ベースの翻訳サービス「chotto.chat」も公開中。個人ユーザーから法人まで、高品質な日英翻訳をすぐにお試しいただけます。
高性能な大規模モデルを試すにはコストや環境構築のハードルが高いという声にお応えし、OpenRouterでご利用しやすい価格設定と無料枠付きで提供する予定です。専用キャパシティ、オンプレミス導入、カスタム学習などのご要望にも対応いたします。
Shisa V2モデルは経済産業省GENIAC国産モデルとして承認されました。計算資源は日本国内でホストされており、低レイテンシはもちろん、データレジデンシーや規制対応が求められる用途にも安心してご利用いただけます。
■ AMDハードウェアでの学習
Shisa V2.1の学習は、AMD Developer Cloudより提供されたAMD MI300X GPUで実施されました。日本で開発された大型LLMとして、初めてAMDハードウェアで学習されたモデルとなります。学習効率を向上させる独自の改良も実施し、オープンソースとして公開しています。
■ Shisa.AIについて
Shisa.AIは、シリコンバレー発の技術チームを中核とする次世代AIスタートアップです。「日本語特化AI」と「データドリブン開発」を軸に、オープンソースLLMの進化をリードし、日本発のAIイノベーションを世界へ発信してまいります。
関連リンク
-
Shisa.AI公式サイト:https://shisa.ai/
-
Shisa API:https://talk.shisa.ai/
-
HuggingFace:https://huggingface.co/shisa-ai
-
chotto.chat:https://chotto.chat/
本件に関するお問い合わせ先
Shisa.AI株式会社 広報担当 press@shisa.ai
—
※ Llama Community License Agreementに基づき、正式名称は「Llama 3.2 Shisa V2.1 3B」「Llama 3.3 Shisa V2.1 70B」および「Llama 3.1 Shisa V2 405B」とします。
すべての画像
