インテル、Computex 2024でAI Everywhereのさらなる推進を発表
インテル Xeon 6 プロセッサー、Gaudi アクセラレーター、Lunar Lakeアーキテクチャーが実現する演算処理能力とパフォーマンス、価格競争力により、AI PCのリーダーシップを拡大
インテル コーポレーションは台湾現地時間6月4日に開幕したComputex 2024において、データセンター、クラウド、ネットワークからエッジやPCに至るまで、AIエコシステムを劇的に加速させる最先端のテクノロジーとアーキテクチャーを発表しました。処理能力の向上と最高水準の電力効率、総保有コスト(TCO)の削減により、包括的なAIシステムの提供が可能になります。
ニュースハイライト:
データセンターの高密度かつ大規模なワークロードにパフォーマンスと電力効率を提供する、Efficient-cores(E-cores)搭載インテル® Xeon® 6 プロセッサーをリリース。ラックを3:1に集約し、ラック単位のパフォーマンスを最大4.2倍、ワット当たりのパフォーマンスを最大2.6倍に拡大*1。
競合プラットフォームと比較して約3分の1のコストで高性能を提供する、インテル® Gaudi® 2 AI アクセラレーターとインテル® Gaudi® 3 AI アクセラレーターのキットでの製品価格を発表*2 。1つのシステムにインテル® Xeon® プロセッサーとインテル® Gaudi® AI アクセラレーターを組み合わせることで、AIの高速化とコスト削減、さらに利用しやすさを追求する、強力なソリューションを提供。
AI PCの製品カテゴリーを拡大する、新しいクライアント向けプロセッサー(開発コード名:Lunar Lake)のアーキテクチャーを公開。次世代のAI PCに画期的なx86電力効率と妥協のないアプリケーション互換性が備わり、システム・オン・チップ(SoC)の消費電力を前世代と比較して最大40%削減*3。
インテル コーポレーション最高経営責任者(CEO)のパット・ゲルシンガー(Pat Gelsinger)は、次のように述べています。「AIはこの業界がこれまで経験したことのない重大なイノベーションの時代をけん引しています。再びシリコンはコンピューティングに指数関数的な進歩をもたらし、人間の可能性の限界を押し広げ、今後何年にもわたり世界の経済を動かしていくでしょう。インテルは、半導体製造からPC、ネットワーク、エッジ、データセンターのシステムに至るまで、AI市場全体にわたってイノベーションを推進できる、世界でも限られた企業の1つです。インテル® Xeon® プロセッサー、インテル® Gaudi® アクセラレーター、インテル® Core™ Ultra プロセッサーという最新プラットフォームにハードウェアとソフトウェアのエコシステムが持つパワーが結集し、この先に広がる巨大なチャンスを最大限に活かすために欠かせない柔軟性や、セキュリティー、サステナビリティーが確保されたコスト・パフォーマンスの高いソリューションを提供していきます」
AI Everywhereを実現するインテル
パット・ゲルシンガーはComputexの基調講演で、オープン・スタンダードの利点と、AIの可能性を加速するインテルのエコシステムを強調しました。この基調講演では、Acerの会長 兼 CEO ジェイソン・チェン(Jason Chen)氏や、ASUSの会長ジョニー・シー(Jonney Shih)氏、Microsoftの会長 兼 CEO サティア・ナデラ(Satya Nadella)氏、そしてInventecの社長ジャック・ツァイ(Jack Tsai)氏をはじめとする業界トップの経営陣が登壇しました。
いずれの登壇者も、パット・ゲルシンガーとともに、インテルがAIイノベーションを一変させ、予想よりも早く次世代のテクノロジーを実現していることを明らかにしました。インテルはわずか6カ月の間に、第5世代インテル® Xeon® スケーラブル・プロセッサーを発売し、インテル® Xeon® 6 プロセッサー・ファミリーの第1弾となる製品も発表しました。加えて、インテル® Gaudi® AI アクセラレーターのプレビュー版から、企業顧客向けにコスト効率の高い高性能な生成AI学習処理/推論システムの提供開始にいたりました。さらに800万台を超えるデバイスにインテル® Core™ Ultra プロセッサーを搭載してAI PC時代の到来を迎え、今年後半にリリースを予定しているクライアント向けアーキテクチャーを発表しました。
インテルはこうした数々の開発を推進しながら、イノベーションと生産力の限界を押し広げ、AIの民主化とさまざまな業界の活性化に取り組んでいます。
AI導入のためのデータセンターのモダナイゼーション:高密度かつ大規模なワークロードにパフォーマンスと電力効率の向上をもたらすインテル® Xeon® 6 プロセッサー
デジタル・トランスフォーメーションが加速する中で、企業はコスト削減、サステナビリティー目標の達成、フロア面積やラックなど物理スペースの有効活用、組織全体で最新デジタル機能を導入するといった課題に直面し、老朽化が進むデータセンター・システムの刷新を迫られている組織は少なくありません。
インテル® Xeon® 6 プロセッサーの全製品ファミリーとプラットフォームはこうしたニーズに応えるために設計されています。また、E-core(Efficient-core)とP-core (Performance-core)の両SKUにより、インテル® Xeon® 6 プロセッサーは、AIやハイパフォーマンス・コンピューティングからスケーラブルなクラウドネイティブのアプリケーションまで、幅広いユースケースとワークロードに対応します。E-coresとP-coresともに、共通のソフトウェア・スタックを備えた互換アーキテクチャーを基盤に、ハードウェアとソフトウェアを提供する多彩なベンダーからなるオープン・エコシステム上に構築されています。
インテル® Xeon® 6 プロセッサーのうちE-core搭載インテル® Xeon® 6 プロセッサー(開発コード名:Sierra Forest)は、本日より提供開始です。そしてP-core搭載インテル® Xeon® 6 プロセッサー(開発コード名:Granite Rapids)は、第3四半期にリリース予定です。
高密度コアと卓越したワットパフォーマンスを特長とするE-core搭載のインテル® Xeon® 6 プロセッサーは、効率的な演算処理を実現し、電力コストを大幅に削減します。パフォーマンスと電力効率の向上により、クラウドネイティブのアプリケーションやコンテンツ配信ネットワーク、ネットワーク・マイクロサービス、コンシューマー向けのデジタルサービスなど、要求が極めて厳しい高密度の大規模ワークロードに最適です。
さらにE-core搭載インテル® Xeon® 6 プロセッサーには、ラック実装を3分の1に集約できるという密度の面で圧倒的な優位性を持ち、メディアのコード変換ワークロードで第2世代インテル® Xeon® プロセッサーと比較してラック単位のパフォーマンスは最大4.2倍、ワットパフォーマンスは最大2.6倍を達成しました*1。 インテル® Xeon® 6 プロセッサーは、消費電力とラックスペースを節約しながら、コンピューティング容量とインフラストラクチャーを最大限に活かして、革新的な新しいAIプロジェクトを推進します。
インテル® Gaudi® AI アクセラレーターを導入し、総コストを大幅に削減しながら高性能の生成AIを活用
今日、私たちは生成AIを高速かつ低コストで使えるようになりました。x86はインフラストラクチャーの主流の選択肢として、ほぼすべてのデータセンター環境で大規模に稼動し、AIの能力を組み込む基盤となして、コスト効率の高い相互運用性を確保し、開発者と利用者の双方にオープン・エコシステムの大きなメリットをもたらします。
インテル® Xeon® プロセッサーはAIワークロードに最適なCPUヘッドノードであり、AIワークロードに特化して設計されたインテル® Gaudi® AI アクセラレーターと1つのシステム内で連携し動作します。この2つを組み合わせることで、既存のインフラストラクチャーにシームレスに統合できる、強力なソリューションが完成しました。
インテル® Gaudi® アーキテクチャーは、大規模言語モデル(LLM)の学習処理と推論においてMLPerfベンチマーク対象となった唯一のNVIDIA H100 に置き換わる製品として、顧客が必要としている生成AIのパフォーマンスを引き出し、導入時間の短縮と運用コストの削減を実現する、コスト・パフォーマンスに優れた製品です。
標準のAIキットには8基のインテル® Gaudi® 2 アクセラレーターを実装するユニバーサル・ベースボード(UBB)が含まれ、システム・プロバイダーに65,000ドルで提供されます。これは競合プラットフォームの3分の1ほどの価格設定です。8基のインテル® Gaudi® 3 アクセラレーターとUBBを含むキットは125,000ドルの価格設定を予定しており、競合プラットフォームの3分の2程度のコストと推定されます*4。
インテル® Gaudi® 3 AI アクセラレーターによって、主要な生成AIモデルで実行する学習処理と推論のパフォーマンスが大幅に向上し、企業が独自データの価値を最大限に引き出すことができると期待されています。8,192基のインテル® Gaudi® 3 アクセラレーターで構成されるクラスターは、NVIDIA H100 GPUを搭載した同等サイズのクラスターと比較して、学習処理にかかる時間を最大40%短縮し*5、Llama2-70Bモデルを64基のアクセラレーターを実装するクラスターで実行した場合、NVIDIA H100と比較して学習処理のスループットが最大15%向上すると推定されます*6。インテル® Gaudi® 3 アクセラレーターはさらに、Llama-70BやMistral-7Bなど広く利用されているLLMを実行する場合、NVIDIA H100と比較して推論を平均して最大2倍のスピードで処理できると見込まれています*7。
インテルはこうしたAIシステムの利用を拡大するために、インテル® Gaudi® 3 アクセラレーターの市場投入を発表した6社を新たに加えて、世界をリードする10社のシステム・プロバイダーと協力しています。本日新たに発表となった企業にはAsus、Foxconn、Gigabyte、Inventec、Quanta、Wistronが名を連ね、Dell、Hewlett-Packard Enterprise、Lenovo、Supermicroをはじめとする主要システム・プロバイダーとともに、製品提供がさらに拡大されます。
ノートブックPC向けオンデバイスAIの加速:3倍のAI演算処理と卓越した電力効率を実現する新しいアーキテクチャー
インテルはデータセンターに限らず、エッジやPCへもAIの利用を広げています。エッジへの展開は9万件を超え、エコシステムに2億ものCPU製品を提供してきたインテルは、数十年にわたり多くの企業から選ばれてきました。
AI PCのカテゴリーは現在、コンピューティング体験のあらゆる側面を大きく変えつつあり、インテルは新たなカテゴリーが創出される最前線に立っています。もはや処理スピードの高速化や洗練されたデザインだけではなく、ユーザーのニーズを予測し、好みに適応して、生産性、効率、クリエイティビティーの全く新しい時代を先取りして、リアルタイムで学習し進化するエッジデバイスを創出しなければなりません。
2028年までには製造されるPCの80%近くをAI PCが占めるようになると予測されており、インテルではすでに、AI PCに最適なハードウェアとソフトウェア・プラットフォームを構築する態勢を整えてきました。100社以上の独立系ソフトウェア・ベンダー(ISV)との協業により、インテル® Core™ Ultra プロセッサーのプラットフォーム全体で300の機能と500のAIモデルに対応しています。
このような比類なき優位性を素早く活かして、インテルは本日、次世代のAI PC用フラッグシップ・プロセッサーとなるプロセッサー(開発コード名:Lunar Lake)アーキテクチャーの詳細を公開しました。グラフィックスとAI処理能力を大幅に飛躍させ、薄型軽量セグメントの電力効率と演算パフォーマンスに焦点を当てたLunar Lakeは、SoCの電力効率を最大40%引き上げ*3、3倍以上のAI演算処理を実現します*8。Lunar Lakeは、年末商戦の時期に合わせ、2024年第3四半期より出荷開始となる予定です。
Lunar Lakeを構築する全く新しいアーキテクチャーの特長は次の通りです。
新しいPerformance-cores(P-cores)とEfficient-cores(E-cores)はパフォーマンスと電力効率を大幅に向上します。
最大48 TOPSのAIパフォーマンスを実現するインテルの第4世代ニューラル・プロセシング・ユニット(NPU)は、前世代と比較して最大4倍のAI演算を実現し、生成AIの処理にさまざまな改良をもたらします。
刷新されたXe2搭載のGPUは、AI用のXe Matrix Extension(XMX)を備えた第2世代のXeコア、強化されたレイトレーシング・ユニット、低消費電力のハードウェア・デコードによるVVCビデオ・コーデック・テクノロジー、最新のeDP 1.5パネルのサポートなどの新しいイノベーションを組み合わせています。Xᵉ2 GPUコアは、ゲーミングやグラフィックス性能を前世代と比較して1.5倍に、新しいXMXアレイには、AIコンテンツ制作で最大67 TOPSという並外れたスループットを実現する第2のAIアクセラレーターを搭載しています。
進化した低電力アイランド、演算クラスターの刷新、インテルのイノベーション技術により、バックグラウンドで動くタスクや生産性タスクを極めて効率的に処理し、ノートブックPCのバッテリー持続時間を大幅に延長します。
競合企業がAI PC市場への参入を準備している間、インテルはすでに量産出荷を開始し、2024年の第1四半期には他社すべての合計を上回るAI PCプロセッサーを市場に送り出しました。Lunar Lakeは、20社のPCメーカーから80デザイン以上のAI PCに搭載されて発売される予定です。インテルは今年、4,000万を超えるインテル® Core™ Ultra プロセッサーの市場投入を見込んでいます。
ゴードン・ムーアは、「実現できることならば、それを上回ることも可能だ」という名言を残しました。インテルは常に進歩を目指すこの飽くなき追求の最前線に立っています。インテルは、グローバル規模で広がるクライアント、エッジ、データセンター、クラウドと、オープン・スタンダードに基づいた堅実なエコシステム、コスト効果の高い強力なソリューションにより、AI Everywhereを実現するだけにとどまらず、その未来を形作っています。本日の発表は、技術的な躍進を伝えるだけではなく、かつてないほどの可能性を捉え、次の時代のイノベーションを切り拓いていく、顧客とパートナーに対する招待でもあります。
1 See [7T1] at intel.com/processorclaims: Intel® Xeon® 6. Results may vary.
2 Pricing estimates based on publicly available information and Intel internal analysis.
3 Disclaimer for footnote: Power measurements are based on Lunar Lake reference platform using YouTube 4K 30fps AV1. See backup for details. Results may vary.
4 Pricing guidance for cards and systems is for modeling purposes only. Please consult your original equipment manufacturer (OEM) of choice for final pricing. Results may vary based upon volumes and lead times.
5 Source for Nvidia H100 GPT 3 performance: https://mlcommons.org/benchmarks/training/, v3.1, closed division round. Accessed Apr 30th, 2024
Intel Gaudi 3 measurements and projections by Habana Labs, Apr 2024; Results may vary
Intel Gaudi 3 performance projections are not verified by MLCommons Association. The MLPerf name and logo are registered and unregistered trademarks of MLCommons Association in the United States and other countries. All rights reserved. Unauthorized use strictly prohibited. See http://www.mlcommons.org/ for more information.
6 Source for Nvidia H100 LLAMA2-70B performance https://developer.nvidia.com/deep-learning-performance-training-inference/training , Apr 29th 2024 à “Large Language Model” tab.
Intel Gaudi 3 measurements and projections by Habana Labs, Apr 2024; Results may vary
7 Add footnote: source for Nvidia performance: Overview — tensorrt_llm documentation (nvidia.github.io), May, 2024. Reported numbers are per GPU.
Intel Gaudi 3 projections by Habana Labs, Apr 2024; Results may vary
8 Based on total number of platform Tops on Lunar Lake vs. prior generation.