
Bottlerocket が Kubernetes ワークロード向けの NVIDIA マルチインスタンス GPU (MIG) をサポートするようになりました
本記事は、2025 年 3 月 5 日にAWS公式サイトの What’s New with AWS? に掲載された英語記事を自動翻訳したものです。
ニュース内容
本日、AWS は、コンテナ専用の Linux ベースのオペレーティングシステムである Bottlerocket が NVIDIA のマルチインスタンス GPU (MIG) 機能をサポートするようになったことを発表しました。これにより、お客様は Kubernetes ノード上で NVIDIA GPU を複数の GPU インスタンスに分割できます。この機能により、システム管理者は、ワークロード間のハードウェアレベルの分離を維持しながら、単一の GPU で複数のワークロードを同時に実行することで、GPU リソースの使用率を最大化できます。
MIG サポートにより、お客様は、機械学習推論タスクなど、GPU のコンピューティング能力を十分に活用していないワークロードの GPU リソース割り当てを最適化できます。各 GPU パーティションは、完全なハードウェアレベルのメモリと障害分離で動作し、ワークロードの分離と信頼性の高いパフォーマンスを提供します。
Bottlerocket の NVIDIA マルチインスタンス GPU サポートは、互換性のある NVIDIA GPU 対応インスタンスが提供されているすべての商用および AWS GovCloud (米国) リージョンで利用できます。Bottlerocket NVIDIA バリアントでの MIG の詳細については、Bottlerocket ユーザーガイドを参照してください。また、Bottlerocket 製品ページにアクセスして、Bottlerocket GitHub リポジトリを調べて詳細を確認することもできます。
原文
Today, AWS has announced that Bottlerocket, the Linux-based operating system purpose-built for containers, now supports NVIDIA’s Multi-Instance GPU (MIG) feature, enabling customers to partition NVIDIA GPUs into multiple GPU instances on Kubernetes nodes. This capability allows system administrators to maximize GPU resource utilization by running multiple workloads simultaneously on a single GPU while maintaining hardware-level isolation between workloads.
With MIG support, customers can optimize GPU resource allocation for workloads that don’t fully utilize the GPU’s compute capacity, such as machine learning inference tasks. Each GPU partition operates with complete hardware-level memory and fault isolation, providing workload separation and reliable performance.
NVIDIA Multi-Instance GPU support in Bottlerocket is available in all commercial and AWS GovCloud (US) Regions where compatible NVIDIA GPU-enabled instances are offered. To learn more about MIG with the Bottlerocket NVIDIA variants, see the Bottlerocket User Guide. You can also visit the Bottlerocket product page and explore the Bottlerocket GitHub repository for more information.
引用元:Bottlerocket now supports NVIDIA Multi-Instance GPU (MIG) for Kubernetes workloads