
【解説】OpenAIが脅威レポートを発表:巧妙化するAIサイバー攻撃の手口
2025年10月、OpenAIはAIモデルの悪用を企む脅威アクターとの戦いの最前線に関する最新レポート「Disrupting malicious uses of AI: an update」を公開した。
このレポートは、同社が2024年2月に脅威の公開報告を開始して以来、40以上の悪意あるネットワークを無力化してきた経験から得られた、貴重な知見をまとめたものである。
この記事を読めば、AIを悪用する攻撃者の最新手口と、それに対抗するためのOpenAIの取り組み、そして我々運用担当者が得るべき教訓が3分で理解できる。
参考:Disrupting malicious uses of AI: an update
変化する攻撃者のAI利用法
レポートは、AIを悪用する攻撃者の動向に、いくつかの注目すべき変化が現れていると指摘する。
単にAIで新しい攻撃手法を開発するのではなく、既存の攻撃活動をより効率的かつ巧妙にするためのツールとしてAIを組み込んでいる実態が明らかになった。
傾向 | 内容 |
---|---|
既存ワークフローへのAI統合 | 攻撃者はAIのために全く新しいワークフローを構築するのではなく、マルウェア開発やフィッシング詐欺といった既存の作業にAIを組み込み、効率化とエラー削減を図っている。 |
複数モデルの併用 | ChatGPTだけでなく、DeepSeekなど他のAIモデルも組み合わせて目的を達成しようとする動きが活発化している。あるモデルで生成したプロンプトを別のモデルで利用するなど、巧妙な連携が見られる。 |
AI利用痕跡の隠蔽 | AIが生成した文章特有の表現(em-dashなど)を意図的に削除するなど、AIの利用を悟られないようにする適応と隠蔽の試みが見られる。 |
サイバー攻撃におけるAIの悪用事例
今回のレポートでは、特にサイバー攻撃における具体的なAIの悪用事例が複数報告されている。
これらの事例に共通するのは、AIが攻撃者に全く新しい画期的な攻撃能力を与えたわけではない、という点である。むしろ、既存の攻撃手法をより洗練させ、開発サイクルを短縮するための「補助ツール」として利用されているのが実情だ。
事例:ロシア語話者の犯罪グループ
ロシア語話者の犯罪グループは、ChatGPTを利用してマルウェアの改良を試みていた。具体的には、実行可能ファイルをシェルコードに変換したり、ブラウザの認証情報を解析したりといった、攻撃の構成要素となるコードを生成させ、それらを組み合わせて悪意あるツールを開発していた。
モデルの安全機能により直接的なマルウェア生成は拒否されるものの、攻撃者はAIとの対話を繰り返しながら、検知回避のための難読化コードなどを手に入れていた。
事例:韓国語話者の攻撃グループ
同様に、韓国語話者の攻撃グループは、マルウェアやコマンド&コントロール(C2)サーバーの開発にAIを利用していた。
Windows APIのフッキングやブラウザの認証情報窃取、さらには暗号資産をテーマにした韓国語のフィッシングメール作成など、多岐にわたる活動が確認されている。
事例:中国語話者のグループ
中国語話者のグループは、台湾の半導体セクターや米国の学術機関などを標的としたフィッシングキャンペーンとマルウェア開発にAIを活用していた。
多言語(中国語、英語、日本語)での説得力のあるフィッシングメールの作成や、C2通信を暗号化するためのコードデバッグなどに利用しており、言語の壁を越えて攻撃の品質と速度を向上させようとする意図がうかがえる。
国家が関与するAI乱用に、警鐘
レポートは、国家が関与するAIの乱用についても警鐘を鳴らしている。
レポートによると、特に中国では政府関係者と見られる個人が、大規模な監視システム開発にChatGPTを利用しようとした複数の事例が確認された。ソーシャルメディア上の特定の民族や政治的コンテンツを監視するツールの提案書作成や、警察記録と交通機関の予約情報を照合して特定人物の移動を警告するモデルの企画など、権威主義体制がAIを市民の監視と管理にどう利用しようとしているか、その一端が垣間見える。
また、国家が支援する影響力工作(IO)においてもAIの利用は活発だ。ロシアに起源を持つ「Stop News」キャンペーンは、AIで生成したニュースキャスターの動画を用いて、アフリカにおけるフランスや米国の役割を批判し、ロシアを賞賛するプロパガンダをYouTubeやTikTokで拡散していた。
中国発とみられる「Nine-emdash Line」と名付けられた活動では、南シナ海問題に関して中国の主張に沿った英語のSNS投稿を大量生成したり、香港の民主化活動家を中傷する広東語のコメントを拡散したりしていた。
詐欺と、そして防御
詐欺行為へのAI利用も深刻化している。カンボジア、ミャンマー、ナイジェリアなどに拠点を置く詐欺ネットワークは、投資詐欺のウェブサイトコンテンツ作成、ターゲットとのやり取りの翻訳、偽の専門家の経歴作成などにAIを駆使し、詐欺行為を大規模かつ効率的に展開している。
しかし、希望もある。レポートによれば、ChatGPTが詐欺を見抜くために利用されている回数は、詐欺に悪用される回数の最大3倍にのぼるという。AIは攻撃者だけでなく、防御する側にとっても強力な武器となり得ることを示唆している。
まとめ
OpenAIの最新レポートは、AIの悪用が「未来の脅威」ではなく、「現在の課題」であることを明確に突きつけている。攻撃者はAIを使い、より巧妙に、より効率的に、そして言語の壁を越えて攻撃を仕掛けてきている。彼らは既存のワークフローにAIを統合し、その能力を最大限に引き出そうとしている。
我々システム運用に携わる者にとって、これは対岸の火事ではない。AIによって生成された、より自然で説得力のあるフィッシングメールが、いつ従業員の元に届いてもおかしくない。AIによって開発サイクルが短縮されたマルウェアが、いつ我々の守るシステムに侵入してきても不思議ではない。
この脅威に対抗する鍵は、AIの悪用手口を正確に理解し、防御側もまたAIを積極的に活用することだ。OpenAIのようなAI開発企業、セキュリティベンダー、そして現場の我々が連携し、脅威インテリジェンスを共有し続けることが、巧妙化するAI時代のサイバー攻撃からシステムを守るための唯一の道筋である。