マイクロン、主要顧客へのHBM4出荷を開始 次世代AIプラットフォームの強化を支援
マイクロンの12層積層 HBM4 36GB製品は、データセンターとクラウドAIの加速を支援し、業界をリードする電力効率を実現
2025年6月10日、米国アイダホ州ボイシ — 高性能メモリは、データセンターにおけるAIの学習/推論ワークロードの急増を支える中核的な役割から、その重要性はこれまで以上に高まっています。Micron Technology, Inc.(Nasdaq:MU)は本日、複数の主要顧客向けに、12層積層 HBM4 36GB(ギガバイト) のサンプル出荷を開始したと発表しました。この成果は、AIアプリケーションにおけるメモリ性能と電力効率の分野で、マイクロンがリーダーシップをさらに強化していることを示しています。マイクロンのHBM4は、同社の確立された1β(ベータ)DRAMプロセス、実績のある12層積層の先進パッケージング技術、高度なメモリ内蔵自己テスト(MBIST)機能を採用し、顧客およびパートナーが次世代AIプラットフォームの開発を円滑に進められるよう、シームレスな統合を支援します。

画期的な進展
生成AIの活用が拡大する今、推論を効果的に管理できる能力が一層、重要視されています。マイクロンのHBM4は、2048ビットのインターフェースを採用し、メモリスタックあたり毎秒2テラバイト(TB/s)を超える帯域幅を実現し、前世代比で60%以上の性能向上を達成しています*1。この拡張されたインターフェースは、高速な通信と高スループットな設計を可能にし、LLM(大規模言語モデル)やChain-of-Thought(思考の連鎖)の論理システムでの推論性能を加速させます。これにより、HBM4は、AIアクセラレータがより迅速に反応し、より効果的に推論を実行できるようにします。
さらに、マイクロンのHBM4は、前世代のHBM3E製品と比較して、20%以上の電力効率向上を実現し、HBMの電力効率として業界初となる新たな基準を確立しました*2。この改善により、最低限の電力消費で最大のスループットを達成し、データセンターの電力効率を最大化します*2。
生成AIの活用事例は日々拡大しており、この変革的な技術が社会に大きな利益をもたらすことが期待されています。HBM4は、医療、金融、輸送など多様な分野でイノベーションを促進させるための迅速な洞察と発見を可能にする重要な基盤技術です。
マイクロン クラウドメモリ事業部門シニアバイスプレジデント兼ゼネラルマネージャー ラジ・ナラシンハン(Raj Narasimhan)は「マイクロンのHBM4の性能、高い帯域幅、業界をリードする電力効率は、私たちのメモリ技術と製品リーダーシップの証です。HBM3Eで築いた画期的な成果を基盤に、私たちはHBM4ならびにAI向けメモリおよびストレージソリューションの堅牢なポートフォリオの提供を通じて、イノベーションの推進を継続しています。今回のHBM4製造の成果は、顧客が進める次世代AIプラットフォームへの対応に沿っており、シームレスな統合と量産体制の拡大を可能にします」と述べています。
インテリジェンスの加速:AI革命におけるマイクロンの役割
マイクロンは、約50年にわたりメモリとストレージのイノベーションの可能性を切りひらいてきました。現在では、データセンターからエッジに至るまで、データからインテリジェンスを創出する広範なソリューションを提供し、AIの加速を推進しています。マイクロンは、HBM4を通じて、AIイノベーションの重要な触媒としての役割をさらに強固にし、顧客が求める極めて厳しい要件を満たすソリューションを提供できる信頼性の高いパートナーとしてその地位を一層確固たるものにします。
マイクロンは、顧客が進める次世代AIプラットフォームの量産開始に合わせて、2026年にHBM4の量産を開始する計画です。
*1: マイクロンのHBM4の社内テストおよび公開されたHBM3E仕様(2.0 TB/s対1.2 TB/s)に基づく
*2: マイクロンの社内シミュレーション予測に基づき、Micron HBM3E 36GB 12-highおよび類似の競合製品と比較
すべての画像