IBM、IBM Cloud上の新しいGPUオファリングにより、お客様の基盤モデルやAIワークロードの展開を支援

AIに対応するIBM Cloudの最新インフラストラクチャーは、watsonxサービスや、計算集約型ワークロードをサポートできるように設計

日本IBM

世界中で、着実に人工知能(AI)の導入( https://www.ibm.com/watson/resources/ai-adoption )が進んでいます。最近では、基盤モデルのワークロードをサポートするPICaaS(Performance Intensive Computing as a Service)が登場しています。基盤モデルは、企業がAIを作成・拡張する方法を大きく変える可能性がありますが、基盤モデルの構築や活用に必要なスキルやインフラストラクチャーを有する組織は皆無に近い状況です。IBMは、AIスタック、クラウド・テクノロジー、業界の専門知識を組み合わせることで、企業のお客様に基盤モデルの力を活用いただき、デジタル変革のために成果を最適化し、責任のあるAI活用ができるよう支援することに注力しています。

IBMのパフォーマンス・インテンシブ・コンピューティング:成功へのロードマップ
IBM Researchは、基盤モデルの学習と実行向けに、パフォーマンス・インテンシブ・コンピューティング・ソリューションを適用しています。最近では、IBM Researchコミュニティー向けに、IBM CloudでホストされるIBM初のAIに最適化されたクラウドネイティブ・スーパーコンピューター「Vela」を導入しました。この取り組みをサポートするために、IBMはNVIDIAのような業界のイノベーターと協業しました。IBM Researchは、Velaを自由にスケールアップできるように設計し、同様のインフラストラクチャーをIBM Cloudのデータセンターに展開しました。Velaは現在、IBMの研究者が基盤モデルに関する作業を含む最も高度なAI機能を作成するための主要な環境であり、パートナーと協力して多様な種類のモデルを学習する場でもあります。

GPUの要件にIBM Cloudを使用することで、Velaは科学、ヘルスケア、製造業など、さまざまな現実世界の問題に対する取り組みを支援できる可能性があります。例えば、IBMは最近、watsonx.aiの地理空間モデルをVelaで学習( https://research.ibm.com/blog/geospatial-models-nasa-aiModels )しました。IBMとNASAとの協業から構築されたwatsonx.aiモデル( http://watsonx.ai/ )は、衛星データを洪水、火災、その他の景観変化の高解像度マップに変換し、地球の過去を明らかにし、その未来を示唆するように設計されています。

Velaの成功を受けて、IBMはGPUベースのコンピューティングやGPUアクセラレーションによるwatsonxサービスへのアクセスを増やすことで、ビジネス向けAIの未来を強化していくことにさらに重点を置いています。IBMは本日、NVIDIAのGPUを搭載したGPUオファリングをIBM Cloud上で追加提供することを発表しました。これにより、企業ワークロード向けの基盤モデルを学習するために設計された革新的なGPUインフラストラクチャーが利用可能になり、また、watsonxサービスを通じてビジネス利用に適した基盤モデルを提供するためにも使用される予定です。IBMのGPUオファリングは、アナリティクス、学習、大規模言語モデル(LLM)の提供など、多くのワークロードで利用することができます。IBMは、今年後半、学習および基盤モデルの提供の両方の用途向けに、IBM Cloud上でサービスとして提供される、フルスタックのハイパフォーマンスと柔軟性を備え、AIに最適化されたインフラストラクチャーを提供開始する予定です。このフルスタック・アプローチ( https://research.ibm.com/blog/full-stack-foundation-models )は、ソフトウェア、ミドルウェア、インフラストラクチャーを包括する、エンタープライズ・グレードの基盤モデルの構築に向けたワンストップ・アプローチを提供することを目的としています。

お客様がスピードを武器にリードできるよう支援:成功のためのテクノロジーとパートナー
近年、PICaaSに対する市場の関心が着実に高まっていることを実感しています。しかし、多くの企業では、基盤モデルに関連するコストやパフォーマンス・ニーズ、拡張性の問題に苦慮しているようです。そこでIBMは、金融サービスなど規制の厳しい業界のお客様が求めるレジリエンシー、パフォーマンス、セキュリティーを備えたインフラストラクチャー上に構築された、エンドツーエンドのパフォーマンス・インテンシブ・コンピューティング・アズ・ア・サービスを提供します。

また、IBMのスタックにPyTorchを使用するように、成功を収めるために複数のパートナーを募っています。PyTorchは、ディープラーニング・モデルを構築するための機械学習フレームワークです。また、オープンソースの統合計算フレームワークであるRay.io( https://www.ray.io/ )とも連携しており、IBM ResearchがAIワークフローのデータ前処理と後処理のステップを合理化するのに役立っています。これには、データのクリーニングだけでなく、モデルの適応やモデルを学習した後の検証の簡素化も含まれます。

IBMのGPUインフラストラクチャーは、さまざまな業種のお客様にメリットを提供
規制の厳しい業界を含め、世界中のあらゆる業種・業界の企業は、IBMのAIアプリケーション向け基盤モデル・スタックを使用することで、顧客のニーズにさらに対応できるようになり、ビジネス成果の向上を図ることが可能となります。例えば、以下のような利用例が想定されます。

  • 金融サービス:金融サービス機関は、顧客とのやり取りに関する膨大な量のデータを所有しています。このデータを使用して基盤モデルを微調整することで、より良い顧客体験を提供したり、データ駆動型トレンド分析を用いて不正な取引を特定したりすることができます。また、過去のデータに基づいて運用やコンプライアンスを改善するために、基盤モデルを使用することも可能です。IBM Cloud for Financial Servicesは、規制の厳しい業界のお客様が、データのプライバシーやセキュリティー、レジリエンシー、コンプライアンス・ニーズの複雑さを管理できるよう構築されています。IBMのGPUインフラストラクチャーは、金融機関が複雑な取引をより迅速に処理したり、リスク回避型アプリケーションを活用しながら基盤モデルから顧客に価値を提供できるようにします。

  • 製造業:AIは製造業にポジティブな影響を与えるものであり、納期の短縮から検査品質まで、様々な分野の改善に役立ちます。製造業の企業は、競争力の高いサプライチェーンの運営を維持するために不可欠な、市場投入までの時間の短縮やイノベーションの迅速化に向けて設計されたIBMの基盤モデル・スタックから多くのメリットを得ることができます。


その他
ビジネス向けAIをより身近なものにするというIBMのミッションの一環として、IBM Cloud上のGPU機能を活用したwatsonxを発表しました。IBMのGPU機能の詳細については、こちら( https://www.ibm.com/cloud/gpu?utm_content=SRCWW&p1=Search&p4=43700074416267389&p5=e&gclid=Cj0KCQjw3a2iBhCFARIsAD4jQB0PbJHbGWOPIzeoGM3YRWF4bWUG0D9GslBnfNL2bXh_Z6C9pkvXG_oaAl2jEALw_wcB&gclsrc=aw.ds )をご参照ください。
 
IBMの将来の方向性や意図に関する記述は、予告なく変更または撤回されることがあり、目標や目的のみを表すものです。

当報道資料は、2023年5月9日(現地時間)にIBM Corporationが発表したブログの抄訳です。原文はこちら( https://newsroom.ibm.com/How-IBM-is-Helping-Clients-Deploy-Foundation-Models-and-AI-Workloads-with-New-GPU-Offering-on-IBM-Cloud )をご参照ください。


会社概要

URL
https://www.ibm.com/jp-ja
業種
情報通信
本社所在地
東京都港区虎ノ門二丁目6番1号  虎ノ門ヒルズ ステーションタワー
電話番号
03-6667-1111
代表者名
山口明夫
上場
未上場
資本金
1053億円
設立
1937年06月