
Google Cloudで大規模障害発生─日本への影響と対策
2025年6月12日(米国時間)、Google Cloudにおいて広範囲にわたるシステム障害が発生した。
Googleの発表によると、この障害は複数のプロダクトおよびリージョンに影響を及ぼし、企業や開発者の業務に深刻な影響を与えており、日本時間2025年6月13日9時半時点で、一部のリージョンおよびプロダクトでは依然として断続的な障害が報告されている。
本稿では、事象の概要、日本の状況、影響を受けたプロダクト、ならびにこのような有事に備える対策をまとめる。
参考サイト:Multiple GCP products are experiencing Service issues
日本のリージョンへの影響
Google Cloudの東京(asia-northeast1)および大阪(asia-northeast2)リージョンも本障害の影響を受けた。両リージョンでサービス停止が確認され、国内の多くの企業が一時的にクラウドサービスを利用できない状況に陥った。
SNSのXの投稿を解析すると、特にクライアントとバックエンドサービスのコレクションの間に位置する API 管理ツールのAPI Gatewayやサーバーレスのコンテナ実行環境Cloud Runなど、ミッションクリティカルなアプリケーションを支えるプロダクトでの接続障害を嘆く声が目立った。
現在のサービス状況
日本時間2025年6月13日9時半時点で、一部のリージョンおよびプロダクトでは依然として断続的な障害が報告されている。特に、欧州(europe-west1)およびアジア太平洋(asia-southeast1)の一部リージョンでは、Cloud FirestoreおよびCloud Spannerの復旧が完全には進んでおらず、部分的なパフォーマンス低下が続いている。
ただし、東京および大阪リージョンについては、主要プロダクトの復旧が確認されており、通常運用に戻っていると考えられる。
ただし、Google Cloudの障害情報が確認できるService Healthページでは、軽微な障害や一部ユーザーに限定された問題(例:特定のVPC構成など)は載らないことがあるため、利用しているサービスなどの動作確認を推奨したい。
影響を受けたプロダクト
本障害は、Google Cloudの幅広いプロダクトに影響を及ぼした。Google Cloudの公式発表によると、以下のプロダクトでサービス停止またはパフォーマンス低下が確認された。
データベースおよびストレージ | Cloud Firestore、Cloud Spanner、Google BigQuery、Google Cloud Storage、AlloyDB for PostgreSQL |
---|---|
コンピューティングおよびコンテナ | Google Compute Engine、Cloud Run、Google Kubernetes Engine |
分析およびAI | Vertex AI(Online Prediction、Search、Gemini API、Imagen API)、Google Cloud Dataflow |
管理およびモニタリング | Cloud Monitoring、Cloud Logging、Google Cloud Console |
その他 | API Gateway、Cloud DNS、Identity and Access Management、Cloud Shell、Contact Center AI Platform |
このほか、モバイル・Webアプリケーション開発プラットフォーム「Firebase」やGmail、Google Driveなどの「Google Workspace」にも影響が波及し、広範なエコシステムで問題が報告された。
大規模障害への対策
このような大規模障害が発生した場合、企業や開発者は以下の対策を講じることで影響を最小限に抑えられる。
マルチリージョンアーキテクチャの採用
単一リージョンに依存せず、複数のリージョンにワークロードを分散させる。Google Cloudのマルチリージョンストレージやロードバランサを活用することで、特定リージョンの障害時にもサービス継続性を確保できる。
冗長化とフェイルオーバーの設計
データベースやアプリケーションの冗長化を徹底し、自動フェイルオーバー機能を設定する。例えば、Cloud Spannerのマルチリージョンレプリケーションや、Compute Engineのマネージドインスタンスグループを活用する。
リアルタイムモニタリングとアラート設定
Google Cloud MonitoringやPersonalized Service Healthを活用し、サービス状態をリアルタイムで監視。障害発生時に即座に通知を受け、迅速な対応を可能にする。
オフラインバックアップと代替プロバイダーの検討
クラウド依存度を軽減するため、重要なデータのオフラインバックアップを保持する。また、AWSやAzureなど他のクラウドプロバイダーを併用するマルチクラウド戦略を検討することで、リスクを分散できる。
インシデント対応計画の策定
障害発生時の対応手順を事前に定め、定期的なシミュレーションを実施する。Google Cloudのサポートポータルや公式FAQを参照し、障害時の連絡先やエスカレーションパスを明確化しておく。
まとめ
2025年6月12日のGoogle Cloud障害は、グローバルなクラウドインフラの脆弱性を改めて浮き彫りにした。日本のリージョンも含む広範な影響は、クラウド依存のビジネスモデルにおけるリスクを強調する。
今後、企業は冗長化やマルチクラウド戦略を強化し、障害に強いシステム構築を急ぐ必要がある。より詳細な障害レポート(Postmortem/RCA=原因分析レポート)は、後日Google Cloud公式ブログなどで別途公開されることが多いため、再発防止策の具体化が期待される。