Miraiへの投資

オンデバイスAIインフラの新標準を築くMiraiへの投資

Z Venture Capital株式会社

by Hyung Kim

The article in English follows the Japanese version.

(日本語)

Miraiに投資する理由

Miraiは、これまで市場に欠けていた「オンデバイス推論のインフラストラクチャレイヤー」を構築しています。オンデバイス推論のインフラストラクチャレイヤーとは、スマホやPC上でAIモデルを高速・効率的に動かすための実行基盤および最適化レイヤーです。そして今ほど、その重要性が高まっているタイミングはありません。

私がMiraiの起業家に初めて出会ったのは、彼らがPrisma(AIによる写真加工アプリ)やReface(AIによるフェイススワップ)を手がけていた頃でした。印象的だったのは、優れたプロダクトセンスだけではありません。スケールする内部インフラを自ら構築し、運用まで見据えて形にしてしまう、技術的な完成度の高さでした。そして今、二人は再びタッグを組み、より根源的な課題に挑んでいます。それが「高性能なオンデバイス推論」です。

AIはもはや目新しい存在ではなく、「あって当たり前」のものへと変わりました。音声アシスタント、リアルタイム翻訳、コード補完、各種コパイロット機能――こうした体験が広がる中で、「すべての推論はクラウドで行う」という前提は崩れ始めています。レイテンシーの許容範囲はより厳しくなり、同時にプライバシーへの期待も高まっています。さらに、推論コストはもはや無視できない水準になりました。

だからこそ、私たちはMiraiに投資します。


MiraiはApple Silicon向けのオンデバイスAI推論インフラを構築し、開発者が最新のモデルをローカル環境で、本番品質のパフォーマンスで実行できるようにします。社内ベンチマークでは、特定のモデルとデバイスの組み合わせにおいて、MLXと比較して生成速度が37%向上し、プリフィル速度が最大59%高速化するという成果を示しています。オンデバイスでの性能向上は、単なる「わずかな改善」ではありません。多くの場合、それは「即時に使える体験」と「使い物にならない体験」の差を生み出します。

転換点はどこにどこにあるのか

現在、消費者向けデバイスにはAI専用の計算基盤が標準搭載されつつあります。特にApple Siliconでは、ハードウェアはすでに十分に整っています。しかし、ソフトウェアスタックはまだ追いついていません。オンデバイス推論は、単なるモデル実行の問題ではなく、「システム全体の最適化問題」です。チップごとの違い、モデルアーキテクチャの差異、デバイス世代、メモリ制約――これらが複雑に絡み合います。「1つのランタイムですべて対応する」というアプローチは、すぐに限界に達します。Miraiのミッションは、オンデバイス推論をクラウドAPIと同じくらい手軽にすることにあります。

経済的な合理性

AIワークロードが継続的なものへと進化する中で、音声、コード補完、リアルタイムアシスタンスなどのクラウドコストは積み上がり続けます。規模が拡大すればするほど、そのコストはプロダクトの成長を直接制約します。

適切なワークロードをデバイス側へ移すことで、1推論あたりのコストを大幅に削減できるだけでなく、レイテンシーの改善、信頼性の向上、プライバシーの強化、さらにはオフライン対応も可能になります。未来は「すべてクラウド」でも「すべてオンデバイス」でもなく、ハイブリッド型になると考えています。しかし、インタラクティブでリアルタイム性が求められるユースケースにおいては、オンデバイスが想定以上に大きな割合を占めるようになるでしょう。Miraiはその移行を現実的なものにします。

プラットフォームシフト

これは単なる技術革新ではなく、プラットフォーム構造の変化であると考えています。これまで、開発者の可能性はOSベンダーの進化速度に依存してきました。しかし、オンデバイスAIの進展により、開発者はOSのアップデートを待つことなく、ローカルに高度な知能を組み込むことが可能になります。その結果、OSの上に新たなインフラレイヤーが形成される余地が生まれます。Miraiは、その次世代レイヤーの中核となる可能性を秘めています。

なぜ今、なぜMiraiなのか

インフラへの投資はタイミングが重要です。AIチップがあらゆるデバイスに搭載されるようになり、課題(コスト、レイテンシー、信頼性)は明確になりました。そして需要は急速に拡大しています。Miraiはその交差点に立っています。

起業家たちは、すでに大規模なコンシューマーAIプロダクトを構築し、スケールさせてきた実績を持ちます。そして今度は、次の時代を支えるインフラレイヤーに、その情熱と実行力を注いでいます。

私たちは、ローカルで、瞬時に、そして手頃なコストで動作するAI――その「AIネイティブ」な体験を定義するMiraiを支援できることを、大変嬉しく思います。

【Miraiについて】

・X(Twitter) : @trymirai

・LinkedIn : Mirai Tech Inc.

・起業家 : Dima Shvets (X: @dmitrshvets, Linkedin), Alexey Moiseenkov (X: @Darkolorin , Linkedin)

・ウェブサイト : trymirai.com

・メディア掲載 :

https://trymirai.com/blog/mirai-raises-10m-to-build-the-on-device-ai-capability-layer

https://techcrunch.com/2026/02/19/co-founders-behind-reface-and-prisma-join-hands-to-improve-on-device-model-inference-with-mirai/

(EN)

Why we invested in Mirai 

Mirai is building the on-device inference infrastructure layer the market has been missing—and its timing couldn’t be more critical. I first met Alexey and Dima when they were building Prisma and Reface. What stood out wasn’t just product instinct, but deep technical rigor: they built internal infrastructure that scaled. Now they’ve reunited to tackle something foundational—high-performance on-device inference.

AI has shifted from novelty to expectation. As voice assistants, real-time translation, code completion, and copilots proliferate, the assumption that all inference belongs in the cloud is breaking. Latency budgets are tighter. Privacy expectations are higher. And inference costs are no longer negligible—they’re material.

That’s why we invested in Mirai Tech.

Mirai builds on-device AI inference infrastructure for Apple Silicon, enabling developers to run modern models locally with production-grade performance. In internal benchmarks, Mirai delivers a 37% increase in generation speed and up to 59% faster prefill versus MLX on certain model-device pairings. On-device performance isn’t a marginal gain—it’s often the difference between instant and unusable.

 The Inflection Point 

Specialized AI compute is now standard in consumer devices. The hardware is ready—especially on Apple Silicon—but the software stack lags behind.

On-device inference is a systems problem. Performance varies across chips, model architectures, device generations, and memory constraints. The “one runtime fits all” approach breaks down quickly. Mirai’s mission is to make on-device inference as accessible as cloud APIs—without requiring every team to master low-level optimization.

 The Economics 

As AI workloads become continuous—voice, code completion, real-time assistance—cloud costs compound. At scale, they directly constrain product ambition.

Shifting the right workloads to the device dramatically lowers per-inference costs while improving latency, reliability, privacy, and offline capability. The future isn’t purely cloud or purely on-device—it’s hybrid. But on-device will take a much larger share of interactive, real-time use cases than most expect. Mirai makes that shift practical.

 The Platform Shift 

This is also a power shift in the stack. For years, OS vendors dictated the pace of developer capability. On-device models change that dynamic. Developers can ship intelligence locally without waiting for OS primitives.

That creates space for new infrastructure layers above the OS—runtimes that evolve faster than iOS or Android release cycles. Mirai’s long-term vision aligns with that opportunity.

 Why Now, Why Mirai 

Infrastructure timing matters. The substrate is ready (AI chips everywhere), the pain is real (cost, latency, reliability), and demand is rising.

Mirai sits at that intersection, led by founders who’ve already built and scaled consumer AI products—and are now applying that intensity to the infrastructure layer the next era will depend on.

We’re excited to back Mirai as they help define what “AI-native” feels like when intelligence runs locally, instantly, and affordably.

【About Mirai】 

・X(Twitter) : @trymirai

・LinkedIn : Mirai Tech Inc.

・Founders : Dima Shvets (X: @dmitrshvets, Linkedin), Alexey Moiseenkov (X: @Darkolorin , Linkedin)

・Website : trymirai.com

・Media coverage :

https://trymirai.com/blog/mirai-raises-10m-to-build-the-on-device-ai-capability-layer

https://techcrunch.com/2026/02/19/co-founders-behind-reface-and-prisma-join-hands-to-improve-on-device-model-inference-with-mirai/

このプレスリリースには、メディア関係者向けの情報があります

メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。

すべての画像


ビジネスカテゴリ
広告・宣伝・PR
関連リンク
https://zvc.vc/
ダウンロード
プレスリリース素材

このプレスリリース内で使われている画像ファイルがダウンロードできます

会社概要

Z Venture Capital株式会社

23フォロワー

RSS
URL
https://zvc.vc/
業種
金融・保険業
本社所在地
東京都千代田区紀尾井町1-3 東京ガーデンテラス紀尾井町紀尾井タワー
電話番号
03-6850-0010
代表者名
In Joon Hwang
上場
未上場
資本金
2億円
設立
2012年08月