キーワードで検索

今日を知り、明日を変えるシステム運用メディア

Kubernetesリソース管理の黄金律!requestsとlimits設定でコスト・安定性を両立

Kubernetesリソース管理の黄金律!requestsとlimits設定でコスト・安定性を両立

Kubernetes環境において、アプリケーションの性能を最大限に引き出しつつ、インフラコストを最適化することは、多くのインフラエンジニアやSREにとって永遠の課題ですよね。

この記事では、その鍵を握るrequestsとlimitsの基本的な考え方から、Vertical Pod Autoscaler (VPA) を活用した動的な最適化アプローチまでを解説します。

この記事を読み終える頃には、Kubernetesクラスタにおけるリソース管理を、より効果的かつ効率的に行うための具体的な道筋が見えているはずです。ぜひご覧ください。

Kubernetesリソース管理の基礎「requests」と「limits」とは?

Kubernetesにおけるリソース管理の核となるのが、Podの各コンテナに設定するCPUとメモリのrequests(リクエスト)とlimits(リミット)です。これらは、クラスタの安定性とコスト効率を左右する重要なパラメータです。

requestsとは

requestsは、コンテナが安定して動作するために「最低限保証されるリソース量を定義」します。Kubernetesのスケジューラは、このrequestsで指定されたリソースを確保できるノードにPodを配置します。

これにより、他のPodの影響でリソースが不足し、アプリケーションが不安定になる事態を防ぎます。

limitsとは

limitsは、コンテナが使用できる「リソースの上限値を定義」します。もしコンテナがメモリのlimitsを超えてリソースを消費しようとすると、そのコンテナはOOMKilled(Out of Memory Killed)というステータスで強制的に終了させられます。

CPUのlimitsを超えた場合は、コンテナが終了させられることはありませんが、CPU時間が抑制(スロットリング)され、パフォーマンスが低下する可能性があります。

なぜ、requestsとlimitsの設定は難しいのか?

requestsとlimitsを適切に設定することは、安定稼働とコスト効率の両立に不可欠ですが、その値を見極めるのは簡単ではありません。アプリケーションの負荷は常に変動するため、「完璧な設定値」を一度で見つけることは非常に困難なためです。

低すぎるrequestsは、高負荷時にリソースが不足し、パフォーマンスの低下を招きます。逆に高すぎるrequestsは、リソースを過剰に確保してしまい、ノードのリソースが十分に活用されずコストの無駄につながります。

この課題を解決するためには、アプリケーションの実際のリソース使用状況を継続的に監視し、設定値を定期的に見直す必要があります。しかし、多くのワークロードを抱える環境でこれを手動で行うのは、現実的ではないでしょう。

VPAによるリソース設定の自動最適化

この手動調整の課題を解決する強力なツールが、Vertical Pod Autoscaler(VPA)です。

VPAは、Podのリソース使用状況を継続的に監視し、その実績に基づいてrequestsの推奨値を自動的に計算、あるいは適用してくれるKubernetesのサブプロジェクトの一つです。

VPAは主に3つのコンポーネントで構成されています。

コンポーネント役割
RecommenderPodの過去および現在のリソース使用量を監視し、CPUとメモリのrequestsの推奨値を算出します。
UpdaterupdateModeの設定に基づき、Podに新しいrequests値を適用するかどうかを判断します。AutoモードなどではPodの再作成を伴いますが、新しいバージョンではPodを再作成しないインプレース更新もサポートされつつあります。
Admission Controller新しく作成されるPodに対して、VPAが算出した適切なrequests値を設定します。

VPAにはいくつかの動作モードがあり、中でもOffモードは、Podの再作成を行わずに推奨値のみを提示してくれるため、現状のワークロードに影響を与えることなく、設定値の妥当性を評価する第一歩として非常に有効です。

Amazon Elastic Kubernetes Service (EKS)、Google Kubernetes Engine (GKE)、Azure Kubernetes Service (AKS) などの主要なマネージドKubernetesサービスでは、VPAがサポートされており、比較的容易に導入できます。

最適化への実践的アプローチ

VPAを活用してリソース管理を最適化していくためには、段階的なアプローチが推奨されます。

ステップ内容
1. 現状の監視まずはPrometheusや、各クラウドプロバイダーが提供する監視ツール(Amazon CloudWatch, Google Cloud Operations Suiteなど)を用いて、主要なワークロードのリソース使用率を可視化し、現状を把握します。
2. VPAをOffモードで導入次に、VPAをupdateMode: “Off”でデプロイします。これにより、既存のPodに影響を与えることなく、VPAからのリソース推奨値を確認できます。この推奨値と実際の使用状況を比較し、設定の見直しの方向性を判断します。 
3. 段階的な適用Offモードで得られた推奨値に納得できたら、まずは開発環境や影響の少ないワークロードからupdateMode: “Auto”(現状ではPodを再作成する“Recreate”モードとして動作)を適用し、自動調整の効果を検証します。

このアプローチにより、リスクを最小限に抑えながら、リソース設定の最適化と運用自動化を着実に進めることができます。

まとめ

Kubernetesにおける効果的なリソース管理は、requestsとlimitsの適切な設定から始まります。しかし、その最適値を手動で維持し続けることは大きな負担となります。

Vertical Pod Autoscaler (VPA) を活用することで、このプロセスを自動化し、コスト効率とシステムの安定性を高いレベルで両立させることが可能になります。

まずは、お使いの環境でVPAをOffモードで導入し、現状のワークロードに対する推奨値を確認することから始めてみてはいかがでしょうか。その一歩が、あなたのKubernetes運用をより洗練されたものへと導くはずです。

24時間365日のシステム運用監視サービス「JIG-SAW OPS」を提供する、JIG-SAW株式会社のOps Today編集部です。 サーバー運用監視実績50,000台の実績をもとに、システム運用監視に役立つ情報をお届けします!

最新情報をお届けします!

最新のITトレンドやセキュリティ対策の情報を、メルマガでいち早く受け取りませんか?ぜひご登録ください

メルマガ登録

最新情報をお届けします!

最新のITトレンドやセキュリティ対策の情報を、メルマガでいち早く受け取りませんか?ぜひご登録ください

メルマガ登録