Kubernetes が AI/ML を支援する方法

URL をコピー

Kubernetes は、コードを多様な環境で一貫して再現可能で、可搬性があり、拡張性に優れたものにすることで、AI/ML のワークロードを支援することができます。また、コンテナ運用を自動化するため、AI/ML 開発でのアジリティ、柔軟性、可搬性、スケーラビリティが得られます。

機械学習 (Machine Learning) 対応アプリケーションを構築する場合、ワークフローは直線的ではなく、チームが CI/CD (継続的インテグレーション/継続的デリバリー) に取り組む中で、研究、開発、プロダクションの各段階は絶え間なく動き続けます。新しいデータ、アルゴリズム、アプリケーションのバージョンを構築、テスト、統合およびデプロイするプロセスでは、あらゆることが動き続け、管理も簡単ではありません。そこで役立つのがコンテナです。

Linux のテクノロジーであるコンテナでは、実行に必要なすべてのライブラリや依存関係とともにアプリケーションをパッケージ化して分離することができます。コンテナはオペレーティングシステム全体を必要とせず、動作に必要なコンポーネントだけを必要とするため、軽量で可搬性があります。これによって、運用面ではデプロイメントが容易になり、開発者は異なるプラットフォームやオペレーティングシステム上でもまったく同じようにアプリケーションが動作するという確信を得ることがでます。

その他のメリットとして、コンテナを使用すると責任範囲を分離できるため、開発チームと運用チーム間の対立が少なくなります。また、開発者がアプリケーションに集中し、運用チームがインフラストラクチャに集中できるようになれば、アプリケーションのライフサイクル全体で成長と進化に合わせて新しいコードを統合することが、よりシームレスで効率的になります。

Red Hat のリソース

Kubernetes は、コンテナ化されたアプリケーションのデプロイとスケーリングに伴う多くの手動プロセスを排除することで、Linux コンテナ運用を自動化するオープンソース・プラットフォームです。Kubernetes は機械学習のライフサイクルの最適化にとって重要です。このテクノロジーにより、データサイエンティストが ML モデルをトレーニング、テスト、デプロイするためのアジリティ、柔軟性、可搬性、スケーラビリティが得られるからです。

スケーラブル:Kubernetes により、ユーザーは必要に応じて ML ワークロードをスケールアップまたはスケールダウンできます。このため、プロジェクトの他の要素を妨害することなく、機械学習パイプラインで大規模な処理およびトレーニングに対応できます。 

効率:Kubernetes は、可用性と容量に基づいてワークロードをノードにスケジュールすることで、リソース割り当てを最適化します。コンピューティング・リソースを意図的に使用することで、ユーザーはコスト削減とパフォーマンス向上を期待できます。

可搬性:Kubernetes はプラットフォームに依存しない標準化された環境を提供するので、データサイエンティストは 1 つの ML モデルを開発して複数の環境とクラウド・プラットフォームにデプロイできます。互換性の問題やベンダーロックインを気にする必要はありません。

フォールトトレランス:組み込みのフォールトトレランスおよび自己修復機能により、ハードウェアやソフトウェアに障害が発生しても ML パイプラインの稼働を継続できるという信頼感を Kubernetes に持つことができます。

 

 

機械学習のライフサイクルは多くの異なる要素で構成されており、別々に管理すれば、運用と維持に多大な時間とリソースを要することになります。Kubernetes アーキテクチャにより、組織は ML のライフサイクルの一部を自動化することができ、手作業による介入の必要性を排除し、効率性を高めることができます。 

Kubeflow のようなツールキットを実装することで、Kubernetes で開発者が学習済み ML ワークロードを最適化して提供できるようになります。Kubeflow は、ML モデルのトレーニングや 広範にわたるデプロイを単純化する一連のツールと API を提供することで、機械学習パイプラインのオーケストレーションに関わる多数の課題を解決します。Kubeflow はまた、機械学習運用 (MLOps) の標準化と整理にも役立ちます。

 

業界をリードする Kubernetes ベースのハイブリッドクラウド・アプリケーション・プラットフォームとして、Red Hat® OpenShift® は、パブリッククラウド、オンプレミスのハイブリッドクラウド、またはエッジ・アーキテクチャで一貫したエクスペリエンスを提供しながら、テスト済みの信頼できるサービスを統合します。

OpenShift AI ポートフォリオの一部である Red Hat OpenShift AI は Red Hat OpenShift へのサービスで、データサイエンティストと開発者に対し、インテリジェント・アプリケーションを構築するための一貫性のある強力な人工知能および機械学習 (AI/ML) プラットフォームを提供します。コアモデルの構築と実験に加え、OpenShift Data Science はモデルの提供とモニタリングを含む MLOps 機能を提供するため、モデルをより迅速にプロダクションに移行できます。

 

ハブ

Red Hat 公式ブログ

Red Hat のお客様、パートナー、およびコミュニティのエコシステムに関する最新の情報を入手しましょう。

すべての Red Hat 製品のトライアル

Red Hat の無料トライアルは、Red Hat 製品をハンズオンでお試しいただける無料体験版です。認定の取得に向けた準備をしたり、製品が組織に適しているかどうかを評価したりするのに役立ちます。

関連情報

予測 AI と生成 AI

生成 AI と予測 AI には大きな違いがあり、それぞれにユースケースがあります。AI が進化する中、これらを異なる種類として区別することは、それぞれの能力を明確にする上で役立ちます。

エージェント型 AI とは

エージェント型 AI は、人間の介入を最小限に抑えながらデータやツールと対話するように設計されたソフトウェアシステムです。

Granite モデルとは

Granite は、IBM がエンタープライズ・アプリケーション向けに作成した LLM シリーズです。Granite 基盤モデルは、言語とコードを使用する生成 AI のユースケースをサポートできます。

AI/MLリソース

注目の製品

  • Red Hat OpenShift AI

    モデルと AI 対応アプリケーションを迅速に開発、トレーニング、提供、監視するツールを提供する人工知能 (AI) プラットフォーム。

関連記事