Cloudera 、生成 AI の開発とデプロイメントを加速する組み込み型 NVIDIA NIM マイクロサービスを搭載したAI 推論サービスおよび、新機能を発表
AI 推論サービス「Cloudera AI Inference」は、NVIDIA アクセラレーテッド・コンピューティングとNVIDIA NIMマイクロサービスを活用し、LLM のパフォーマンス速度を 36 倍向上させることで、企業に対してパフォーマンスの強化、堅牢なセキュリティ、スケーラブルな柔軟性を提供
データ、アナリティクス、AI の活用から価値を引き出す真のハイブリッドプラットフォームを提供する Cloudera 株式会社(所在地:東京都中央区、社長執行役員:大澤 毅)は、Cloudera が 10 月 10 日に開催したデータおよび AI に関する年次カンファレンス「EVOLVE24 New York」にて、NVIDIA AI Enterprise プラットフォームの一部である NVIDIA NIM マイクロサービスを搭載した Cloudera AI Inference の提供開始および、今後リリースを予定する新機能を発表しました。
Cloudera AI Inference は、業界初のNIM マイクロサービス機能を組み込んだAI 推論サービスです。このサービスは、企業が大規模 AI モデルのデプロイや管理するプロセスを合理化し、パイロット段階から本番環境への移行を容易にすることで、データの本来の可能性を活用して生成AIを推進することができます。
デロイトの最新のデータによると、企業が生成 AI 導入における最大の障壁として、コンプライアンスリスクとガバナンスに対する懸念が挙げられています。一方で、生成 AI の導入は急速に進んでおり、2024 年 4 月から6 月にかけて、 3 分の 2以上の組織が生成 AIの予算を増やしています。こうした懸念を取り除くには、オンプレミスやパブリッククラウドに関わらず、企業はAI モデルとアプリケーションをプライベートで実行する必要があります。この移行には、複雑な DIY アプローチを避ける安全でスケーラブルなソリューションが必要です。Cloudera AI Inference は、企業の管理下で安全な開発とデプロイを提供することにより、非プライベートであるベンダーホスト型の AI モデルサービスによる機密データの漏洩を防ぎます。NVIDIA のテクノロジーを搭載したこのサービスは、高速かつ信頼性の高い AI で高精度なデータを構築することを支援し、生産性と新規ビジネスの成長を促進する AI 搭載チャットボット、バーチャルアシスタント、エージェント アプリケーションの効率的な開発を可能にします。
現代の産業界にとって、デジタルトランスフォーメーションと AI 統合における複雑性への対応が重要となっています。先日発表したNVIDIA との協業に続く今回の Cloudera AI Inference の発表は、企業の AI イノベーションを支援するCloudera のコミットメントを強化するものです。
Cloudera AI Inference の活用することで、開発者は、NVIDIA Tensor Core GPUs によって最大 36 倍の高速パフォーマンスの向上を実現し、CPU と比較して約 4 倍のスループットが向上が可能となることで、エンタープライズグレードの大規模言語モデル(LLM)構築、カスタマイズ、デプロイメントが実現できます。シームレスなユーザーエクスペリエンスにより、UI と API を直接 NVIDIA NIM マイクロサービスコンテナに統合できるため、コマンドラインインターフェース(CLI)や個別のモニタリングシステムが不要になります。また、Cloudera の AI Model Registry サービスとの統合により、モデルのエンドポイントとオペレーション両方のアクセス制御を管理し、セキュリティとガバナンスを強化します。LLM のデプロイメントでも従来モデルでも、すべてのモデルが単一サービスでシームレスに管理される統一プラットフォームで、ユーザーに利益をもたらします。
その他の Cloudera AI Inference の主な機能は次の通りです。
-
高度な AI 機能: NVIDIA NIM マイクロサービスを活用して Llama や Mistra などのオープンソース LLM を最適化し、自然言語処理(NLP)、コンピュータビジョン、その他の AI 領域における最新技術を利用できます。
-
ハイブリッドクラウドとプライバシー: セキュリティや規制コンプライアンスの強化のため、VPC にデプロイしてオンプレミスまたはクラウドでワークロードを実行できます。
-
スケーラビリティとモニタリング: 自動スケーリング、高可用性(HA)、リアルタイムでのパフォーマンス監視により、問題を検出・修正し、効率的なリソース管理を実現します。
-
オープン API と CI/CD 統合:モデルのデプロイ、管理、モニタリングのために標準準拠の API にアクセスして、CI/CD パイプラインや MLOps ワークフローとシームレスに統合します。
-
エンタープライズグレードのセキュリティ: サービスアカウント、アクセスコントロール、リネージ、監査機能で、モデルアクセスを強化します。
-
リスク管理されたデプロイ: A/B テストとカナリア・ロールアウトによって、新しいモデルのアップデートを管理します。
また、EVOLVE24 New York では、真のハイブリッド化加速に向けた Cloudera のビジョンと、今後リリース予定の新機能も発表しました。リリース予定の主な機能は次の通りです。
-
統合プラットフォーム: 単一コードベースで、クラウド環境とオンプレミス環境の境界を感じさせないインフラを構築します。機能、ワークロード、ガバナンスがどこでも同じように機能し、ニーズの変化に応じて調整も可能です。
-
ハイブリッドコントロールプレーン: あらゆるインフラのデプロイメントの管理、監視、統制する「シングルペインオブグラス(SPOG)」を実現します。これにより、コストやパフォーマンスなどのビジネスニーズに合わせた持続的な最適化が可能になります。
-
ハイブリッドアーキテクチャにおけるオープンデータレイクハウス: ハイブリッド環境とマルチクラウド環境にわたって、データレイクの柔軟性とデータウェアハウスのパフォーマンスを組み合わせます。
-
セキュリティとガバナンスの統合: ハイブリッド環境において、インフラ間での一貫したセキュリティ、ガバナンス、データリネージを提供することにより、インフラを切り替えてもコンプライアンスと信頼性が維持できます。
-
データフェデレーション: ユーザー、データ、アナリティクスが組織のニーズに合わせてインフラ間をシームレスに移動できる、統合ハイブリッド体験を提供します。
-
Graviton(ARMベース)のサポート: Cloudera は、 ARM ベースのシステム(AWS Graviton など)や従来の x86 環境へデプロイが可能になったことで、クラウド、ハイブリッド、オンプレミスの各インフラにおけるワークロードの柔軟性とポータビリティが実現します。
Cloudera AI Inference がどのように Cloudera のコミットメントを深め、生成 AI で企業データをパイロットから本番環境へと進めるかについて、詳細はこちらで確認できます。そして、Cloudera がどのようにデータ、アナリティクス、AI の未来をサポートするかについて、詳細はこちらで確認できます。
コメント
-
Cloudera AI Inferenceについて
-
Cloudera株式会社でソリューションズ エンジニアリング マネージャーを務める吉田 栄信は次のように述べています。「NVIDIA との提携により、Cloudera AI Inference を発表できることをうれしく思います。Cloudera がほぼすべてのモデルとユースケースをサポートする単一 AI・ML プラットフォームを提供することにより、企業が Cloudera のソフトウェアを活用して強力な AI アプリを作成し、ハイパフォーマンスな AI アプリを実行できるようになります。高度なパフォーマンスから、よりスマートな意思決定を促進する NVIDIA AI の統合により、Cloudera は信頼性の高いデータを用いて信頼できる AI アプリを大規模に構築し、顧客に代わってイノベーションを起こしています。」
-
業界アナリストであるサンジェブ・モハン(Sanjeev Mohan)氏は次のように述べています。「企業は生成 AI への投資を拡大させたいと考えていますが、それにはスケーラブルなデータだけでなく、安全でコンプライアンスに遵守した適切に管理されたデータも必要です。大規模な AI を作成するには、DIY アプローチでは対応が難しく複雑なものになってしまいます。Cloudera AI Inference では、高度なデータ管理技術と NVIDIA が持つ AI の専門知識を統合することでこの問題を解決し、データを保護しながらその可能性を最大限に引き出します。サービスアカウント、アクセス制御、監査などのエンタープライズグレードのセキュリティ機能によって、企業は自信を持ってデータ保護とオンプレミスやクラウドでのワークロードを実行し、必要な柔軟性とガバナンスを備えた AI モデルを効率的にデプロイすることができます。」
-
NVIDIA で AI ソフトウェア・モデル・サービス担当バイスプレジデントを務めるカリ・ブリスキ(Kari Briski)氏は次のように述べています。「今日の企業は、ビジネス成果を上げるために、生成 AI を既存のデータインフラとシームレスに統合させる必要があります。Cloudera AI Inference に NVIDIA NIM マイクロサービスを埋め込むことで、開発者が信頼できる生成 AI アプリケーションを容易に作成できるようにし、自立した AI データフライウィールを育成します。」
-
-
Cloudera のビジョンと、今後リリース予定の新機能について
-
Cloudera株式会社でソリューションズ エンジニアリング マネージャーを務める吉田 栄信は次のように述べています。「ハイブリッド環境の拡大に備える企業の増加に伴い、今後、柔軟でスケーラブルなデータアナリティクスと AI フレームワークが必要とされるでしょう。これは、企業に真のハイブリッドを提供するために継続的に投資を強化している Cloudera にとっては極めて重要な局面です。今がまさに変化のときです。ハイブリッド化は既に進行中であり、Cloudera は今後も、企業のあらゆる段階での成功を後押しする基盤を構築し続けていきたいと考えています。」
-
ビッグデータ分析サービスを提供する Blue Badge Insights のアナリストであるアンドリュー・ブラスト(Andrew Brust)氏は次のように述べています。「データ管理にハイブリッドアプローチを選択する企業が増えていますが、単にハイブリッドクラウドインフラを採用するだけでは十分ではありません。有益な結果を得るためには、オンプレミスと複数のクラウドで実行されるデータと分析アセットをまとめて管理し、データ間の関連づけを行う“真の”ハイブリッドクラウドアプローチによるデータ管理が必要です。真のハイブリッドとは、単なる多数の個別インフラへのデプロイメントではなく、データ、アナリティクス、AI をあらゆるインフラ間でシームレスに移動させることで変更への対応を可能にし、常に最適な方法でインサイトや価値をもたらすものです。この実現には、企業の成長に合わせて変更できるスケーラブルでフレキシブルなデータアーキテクチャが必要です。Cloudera は、データ管理とアナリティクスのあらゆる段階で企業の真のハイブリッド実現を支援するというコミットメントを果たしている市場で唯一のベンダーです。」
-
Cloudera について
Cloudera は、データ、アナリティクス、 AI の活用から価値を引き出す真のハイブリッドプラットフォームを提供しています。他のクラウド専用ベンダーよりも 100 倍以上のデータを管理し、グローバル企業がパブリッククラウドやプライベートクラウドで保持するあらゆるデータを、価値のある信頼できるインサイトに変換できるよう支援しています。 Cloudera のオープンデータレイクハウスは、ポータブルなクラウドネイティブのアナリティクスによるスケーラブルで安全性の高いデータ管理を提供し、ユーザーが生成 AI モデルをデータに取り込むことを可能にすると同時に、確実なプライバシー保護と信頼性の高い AI 展開を可能にします。金融サービス、保険、メディア、製造業などの世界大手企業や政府機関は、現在だけでなく将来にわたって、実現が難しい課題をデータを活用して解決するために Cloudera を利用しています。詳細については、ホームページ、 LinkedIn および X をご覧ください。
Cloudera および関連するマークは、 Cloudera, Inc. の商標または登録商標です。その他すべての会社名および製品名は、それぞれの所有者の商標です。
このプレスリリースには、メディア関係者向けの情報があります
メディアユーザー登録を行うと、企業担当者の連絡先や、イベント・記者会見の情報など様々な特記情報を閲覧できます。※内容はプレスリリースにより異なります。
- 種類
- 商品サービス
- ビジネスカテゴリ
- アプリケーション・セキュリティ