マイクロンのHBM、AMDの先進AIプラットフォームに採用
マイクロンの12層積層 HBM3E 36GBとAMD Instinct™ MI350シリーズのGPUプラットフォームが、AIデータセンターのイノベーションと成長を促進
2025年6月12日、米国アイダホ州ボイシ — Micron Technology, Inc.(Nasdaq: MU)は本日、同社の12層積層 HBM3E 36GB(ギガバイト)製品がAMDの次世代「AMD Instinct™ MI350」シリーズ・ソリューションに採用されたと発表しました。この連携は、大規模なAIモデルの学習における電力効率と性能の向上で重要な役割を果たし、高スループットな推論に加え、データ処理や計算モデルなど、複雑なHPC(高性能コンピューティング)のワークロードの処理を可能にします。さらに、今回の発表は、マイクロンの卓越した実行力と顧客との強固な関係の価値を象徴し、マイクロンのHBM業界リーダーシップを示す重要な成果です。
マイクロンの12層積層 HBM3E 36GB ソリューションは、業界をリードするメモリ技術をAMD Instinct™ MI350シリーズGPUプラットフォームに提供し、優れた帯域幅と低消費電力を実現します*1。AMDの先進的なCDNA 4アーキテクチャに基づくAMD Instinct MI350シリーズのGPUプラットフォームは、288GBの広帯域幅なHBM3Eメモリを統合し、最大8TB/sの帯域幅により優れたスループットを実現します。この大容量メモリにより、Instinct MI350シリーズGPUは単一のGPUで最大5,200億パラメータのAIモデルを効率的に処理します。さらにフルプラットフォーム構成では、最大2.3TB(テラバイト)のHBM3Eメモリを搭載し、FP4精度で最大161PFLOPSの理論ピーク性能を達成し、高密度AIワークロードに対する高い電力効率と拡張性を提供します。この高集積なアーキテクチャとマイクロンの省電力HBM3Eの組み合わせにより、大規模言語モデルの学習や推論、科学技術シミュレーションといった処理において優れたスループットを発揮し、データセンターはワットあたりの計算性能を最大化しつつ、柔軟な拡張性を確保できます。マイクロンとAMDの連携により、AIソリューションの市場投入までの時間が短縮されました。
マイクロン クラウドメモリ製品部門 バイスプレジデント兼ゼネラルマネージャー プラヴィーン・ヴァイディアナタン(Praveen Vaidyanathan)は「AMDとの緊密な連携と共同エンジニアリングの取り組みにより、マイクロンの12層積層 HBM3E 36GB 製品はInstinct MI350シリーズGPUおよびそのプラットフォームとの高い互換性を実現しています。マイクロンのHBM3Eにおける業界をリードする技術イノベーションは、性能が要求されるAIシステム向けに高い性能を発揮するだけでなく、最終顧客のTCO(総保有コスト)削減というメリットも提供します」と述べています。
また、AMD Instinct製品エンジニアリング部門 コーポレートバイスプレジデント ジョシュ・フリードリッヒ氏(Josh Friedrich)は「マイクロンの12層積層 HBM3E 36GB 製品は、AMD Instinct™ MI350シリーズのアクセラレータの性能と電力効率を最大限に引き出すうえで重要な役割を果たしています。マイクロンとの継続的な協業により、低消費電力かつ高帯域幅のメモリがさらに進化し、顧客はより大規模なAIモデルの学習、高速な推論、複雑なHPCワークロードに対応できるようになります」と述べています。
マイクロンの12層積層 HBM3E 36GB 製品は、複数の主要なAIプラットフォームで認証を取得しています。