
AISIとIPA、「AIセーフティに関する評価観点ガイド」改訂版を発表(2025年4月2日)
2025年4月2日、政府のAI安全性検証機関であるAIセーフティ・インスティテュート(AISI)と独立行政法人情報処理推進機構(IPA)は、「AIセーフティに関する評価観点ガイド」の最新改訂版を公開した。
AI技術の急速な進化と社会への浸透が進む中、AIの安全性と信頼性を確保するための指針として注目されるこのガイド。今回の改訂では、最新の技術動向や国際的な事例を反映し、より実践的な評価基準が提示された。
AIセーフティに関する評価観点の必要性
AIセーフティとは、人間中心の視点からAIの活用に伴うリスクを最小限に抑え、安全性、公平性、プライバシー保護、セキュリティ確保、透明性を維持する状態を指す。例えば、生成AIが誤った情報を拡散したり、悪意ある利用で社会に混乱をもたらしたりする懸念が国内外で高まっている。
AISIは「AIが社会の持続的発展に寄与するためには、セーフティの確保が不可欠」と強調し、2024年9月に「AIセーフティに関する評価観点ガイド」の初版が公開された。背景には、生成AIや大規模言語モデル(LLM)の普及によるイノベーションの加速と、それに伴うリスクへの対応ニーズがある。
初版は、2024年4月に日本政府が発表した「AI事業者ガイドライン」を基に、画像解析などAIの活用の幅が広がっている動向をふまえ、マルチモーダル基盤モデルを評価対象とする場合のAIセーフティの評価観点や各観点における評価項目例を調査し、今回の改訂を行った。
2025年改訂のポイント
今回の改訂では、以下の点が強化された。
新たなリスクへの対応 | ディープフェイクやAIによるサイバー攻撃など、2024年以降に顕著化した脅威を評価項目に追加。 |
国際標準との整合性 | 米国NISTのAIリスクマネジメントフレームワークやEUのAI法との相互運用性を高めた。 |
実践的ユースケースの拡充 | 具体的な評価シナリオを増やし、企業が実務で活用しやすくした。 |
特に注目されるのは、AIの「説明可能性」や「ロバスト性」を評価する手法の詳細化だ。
例えば、AIが生成したコンテンツの根拠を技術的に検証する方法や、外部からの攻撃に対する耐性を測る基準が明確に示されている。
ユースケース
このガイドの主な対象は、AIシステムの開発者や提供者、特に「開発・提供管理者」や「事業執行責任者」だ。以下のような場面で活用される。
企業での導入時 | 例えば、金融機関が顧客向けチャットボットを開発する際、プライバシー侵害や誤情報のリスクを事前に評価。 |
政府の規制対応 | 公的機関がAIサービスの安全性を監査する際の基準として使用。 |
国際展開 | 日本企業が海外市場でAIを展開する際、グローバル基準に準拠した安全性を証明。 |
AISIは「中小企業から大企業まで、AIを扱う全ての組織が参照可能」とし、実務での活用を期待している。
世界で深刻化する、AIが引き金となった事件
AIの進化は利便性をもたらす一方で、社会的リスクも増大している。
2024年、生成AIに作成させた偽情報をSNSなどを通じて拡散、社会の混乱を狙うといった情報工作が世界で複数発覚していたことが、OpenAIが発表するリポートで明らかになった。
また、2023年以降、米国やベルギーではAIチャットボットが自殺や親殺しを助長する発言を行ったと報道され、一部事件では訴訟に発展。
2024年には、中国でAIによる監視システム(顔認識技術を用いた社会信用システム)が人権侵害として国連で問題視された。欧州ではディープフェイク動画が政治家の発言を捏造し、社会不安を引き起こした。
これらの事例は、AIセーフティの重要性を改めて浮き彫りにしている。
今後の展望
今回の改訂は、AIの安全性確保に向けた一歩に過ぎない。
技術の進化が止まらない中、AISIとIPAは「次なるリスクに備え、ガイドを進化させ続ける」と意気込む。AIが社会に深く根付くほど、その安全性は私たちの生活に直結する課題となる。
果たして、このガイドは未来のAI社会をどこまで守れるのか。その答えは、開発者と社会全体の手にかかっている。