今日を知り、明日を変えるシステム運用メディア

Amazon EC2 G6e インスタンスがストックホルムリージョンで利用可能に

Amazon EC2 G6e インスタンスがストックホルムリージョンで利用可能に

本記事は、2025 年 2 月 20 日にAWS公式サイトの What’s New with AWS? に掲載された英語記事を自動翻訳したものです。

ニュース内容

本日より、NVIDIA L40S Tensor Core GPU を搭載した Amazon EC2 G6e インスタンスが、欧州 (ストックホルム) リージョンでご利用いただけるようになりました。G6e インスタンスは、機械学習や空間コンピューティングの幅広いユースケースに使用できます。

お客様は、G6e インスタンスを使用して、最大 130 億のパラメータを持つ大規模言語モデル (LLM) や、画像、動画、音声を生成するための拡散モデルをデプロイできます。さらに、G6e インスタンスにより、お客様は空間コンピューティング ワークロード向けに、より大規模で没入感のある 3D シミュレーションやデジタル ツインを作成できるようになります。

G6e インスタンスは、GPU あたり 48 GB のメモリと第 3 世代 AMD EPYC プロセッサを備えた最大 8 個の NVIDIA L40S Tensor Core GPU を搭載しています。また、最大 192 個の vCPU、最大 400 Gbps のネットワーク帯域幅、最大 1.536 TB のシステム メモリ、最大 7.6 TB のローカル NVMe SSD ストレージもサポートしています。

開発者は、AWS Deep Learning AMI、AWS Deep Learning Containers、または Amazon Elastic Kubernetes Service (Amazon EKS)、AWS Batch、Amazon SageMaker などのマネージドサービスを使用して、G6e インスタンスで AI 推論ワークロードを実行できます。

Amazon EC2 G6e インスタンスは、AWS 米国東部 (バージニア北部、オハイオ)、米国西部 (オレゴン)、アジアパシフィック (東京)、および欧州 (フランクフルト、スペイン、ストックホルム) リージョンで現在利用可能です。お客様は、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、または Savings Plans の一部として G6e インスタンスを購入できます。

開始するには、AWS マネジメントコンソールAWS コマンドラインインターフェイス (CLI)、および AWS SDK にアクセスしてください。詳細については、G6e インスタンスページをご覧ください。

原文

Starting today, the Amazon EC2 G6e instances powered by NVIDIA L40S Tensor Core GPUs is now available in Europe (Stockholm) region. G6e instances can be used for a wide range of machine learning and spatial computing use cases.

Customers can use G6e instances to deploy large language models (LLMs) with up to 13B parameters and diffusion models for generating images, video, and audio. Additionally, the G6e instances will unlock customers’ ability to create larger, more immersive 3D simulations and digital twins for spatial computing workloads. G6e instances feature up to 8 NVIDIA L40S Tensor Core GPUs with 48 GB of memory per GPU and third generation AMD EPYC processors. They also support up to 192 vCPUs, up to 400 Gbps of network bandwidth, up to 1.536 TB of system memory, and up to 7.6 TB of local NVMe SSD storage. Developers can run AI inference workloads on G6e instances using AWS Deep Learning AMIs, AWS Deep Learning Containers, or managed services such as Amazon Elastic Kubernetes Service (Amazon EKS), AWS Batch, and Amazon SageMaker.

Amazon EC2 G6e instances are available today in the AWS US East (N. Virginia, Ohio), US West (Oregon), Asia Pacific (Tokyo), and Europe (Frankfurt, Spain, Stockholm) regions. Customers can purchase G6e instances as On-Demand Instances, Reserved Instances, Spot Instances, or as part of Savings Plans.

To get started, visit the AWS Management ConsoleAWS Command Line Interface (CLI), and AWS SDKs. To learn more, visit the G6e instance page.

引用元:Amazon EC2 G6e instances now available in Stockholm region

人気の記事

最新情報をお届けします!

最新のITトレンドやセキュリティ対策の情報を、メルマガでいち早く受け取りませんか?ぜひご登録ください

メルマガ登録