Google は、AI の悪用リスクに対抗し、サイバー防御を強化するための新たな取り組みを発表しました。
これには、コードの脆弱性を自動的に修正する AI エージェント「CodeMender」や、AI に特化した脆弱性報奨金プログラム、セキュリティフレームワークのアップデートが含まれます。
AI の進化は科学とイノベーションを加速させる一方で、サイバー犯罪者や国家支援型の攻撃者が悪用する危険性も高まっています。Google は、AI をセキュリティ分野でも積極的に活用し、より安全なデジタル環境を実現する方針を示しました。
AI による自律的な防御「CodeMender」
Google が新たに発表した「CodeMender」は、同社の高度な AI モデル「Gemini」を活用して、コードに存在するセキュリティ上の脆弱性を自動的に修正する AI エージェントです。
これにより、ソフトウェアの安全性を大規模に、かつ迅速に向上させることが可能になります。CodeMender は、主に以下の機能を備えています。
- 根本原因分析: Gemini の高度な推論能力を利用し、ファジングなどの手法を用いて脆弱性の表面的な症状だけでなく、根本的な原因を正確に特定します。
- 自己検証パッチ: エージェントが自律的にパッチを生成・適用し、別の AI エージェントが正確性・セキュリティ影響・コード標準への適合を査読。最終的に人間が承認します。
AI 脆弱性報奨金プログラム (AI VRP)
Google は、世界中のセキュリティ研究者との連携をさらに強化するため、AI に特化した新しい脆弱性報奨金プログラム (AI VRP) を立ち上げました。
このプログラムは、これまで複数のプログラムに分かれていた AI 関連の問題報告を一本化し、対象となる問題の範囲や報奨金の体系を明確にすることで、報告プロセスを簡素化します。
これにより、研究者が影響の大きい欠陥を発見・報告するインセンティブを高めることを目指しています。
Secure AI Framework (SAIF) 2.0
自律的に動作する AI エージェントがもたらす新たなリスクに対応するため、Google は既存のセキュリティフレームワークを「SAIF 2.0」として拡張しました。
SAIF 2.0 には、エージェントのセキュリティリスクに関する新しいガイダンスと、それを軽減するための対策が含まれており、以下の 3 つの要素で構成されます。
- エージェントのリスクマップ: AI エージェントがもたらす脅威を体系的に把握し、対策を講じるためのマップ。
- Google エージェントへのセキュリティ機能展開: Google の AI エージェントが安全に設計されるための3つの基本原則(明確な人間による制御、権限の慎重な制限、行動と計画の可観測性)を適用します。
- リスクマップデータの業界への寄付: SAIF のリスクマップデータを業界団体「Coalition for Secure AI (CoSAI)」に寄付し、AI セキュリティの業界全体の発展を促進します。
今後の展望
Google は、今回の発表を通じて、AI をサイバーセキュリティにおける“守り”の武器として位置付け、より安全な社会の実現を目指す姿勢を示しています。
同社は今後も DARPA などの政府機関や、CoSAI をはじめとする業界団体との連携を深めながら、AI の力を防御側に活用する取り組みを継続していくとしています。
出典: Google Blog