AIシステムへのセキュリティ対応

2024年12月27日

企業におけるAIの利活用が進展する中で、セキュリティおよびリスク管理責任者は、システム運用やコンプライアンス上の懸念、AIアプリケーションを標的とした攻撃への対策など、数多くの課題に直面しています。
さらに、新たなAIアプリケーションを狙ったインシデントや潜在的な侵害を防ぐために、データおよびアプリケーションのセキュリティ対策の強化が急務となっています。
 
AIシステムの動作がブラックボックス化しやすく、その脆弱性を突く攻撃であるデータポイズニング(AIの学習データに悪意あるデータを混入させ、誤った学習結果を引き起こす攻撃)やモデル逆推定(AIモデルの出力から学習データやアルゴリズムの機密情報を推測する攻撃)のリスクは現実の脅威となっています。また、AIの利用には、バイアス(偏り)、説明可能性(Explainability)、モデルの脆弱性など、従来のITシステムとは異なる新たなリスクが伴うため、信頼性のあるAI開発・運用が求められています。
 
また、従来のリスクに加え、AIテクノロジーの活用には固有のリスクも存在します。
先進企業は、AIアプリケーションの構築と運用において、テクノロジーライフサイクル全体を通じて、AIコンテンツの異常検出やプライバシー、品質、信頼性、セキュリティ管理を徹底する必要があります。
 
これに対応するため、セキュリティベンダーはAIアプリケーションの安全性を確保し、AIの信頼性、リスク、セキュリティ管理を体系的に実現する「AI TRiSM(AIの信頼・リスク・セキュリティ管理)フレームワーク」に基づいた、革新的なソリューションを提供しています。
一方、企業のセキュリティ責任者は、以下の取り組みを通じてリスク軽減を図っています。
 
1. AIリテラシーの構築
セキュリティチーム内でのトレーニングや知識共有を通じて、AIに関する十分な理解を深めます。特にAIシステムに関与するチームは、新たな攻撃対象領域や既存の防御のギャップを把握できるようにすることが重要です。
 
2. パイロットテストの実施
専用のAIランタイム防御テクノロジー(AIシステムの実行時にリアルタイムで脅威を検出・防御する技術)が、AIの悪用や想定外の攻撃にどのように対応できるかを評価するために、パイロットテストを実施します。
 
3. 早期段階でのデータ保護
開発初期からデータ保護手法を統合し、CI/CD(Continuous Integration 継続的インテグレーション/ Continuous Delivery 継続的デリバリー、コードの変更を自動的にビルド、テスト、展開するプロセス)に沿ったAIセキュリティテストを組み込むことで、プライバシーおよびデータセキュリティの問題を未然に防ぎます。
 
さらに、先述のAI TRiSM(AI Trust, Risk, and Security Management)は、AIおよびサイバーセキュリティのリスクを包括的に管理するフレームワークとして注目されています。
AI TRiSMは、確実性、信頼性、公正性、セキュリティが確保されていないAIモデルやシステムに対して、安全かつ倫理的なAI活用を推進するための有効な指針であり、AIシステムの導入が進む現在、AIシステムの導入や検討を行う企業は、AI TRiSMに基づくフレームワークの導入を積極的に検討することが推奨されます。