Darktrace、ビヘイビアAIセキュリティ製品「Darktrace / SECURE AI」を発表

英サイバーセキュリティ企業のDarktraceは、新たなビヘイビア(振る舞い)AIセキュリティ製品「Darktrace / SECURE AI」を発表した。生成AIやエージェント型ワークフローの実運用環境における挙動を理解・監視し、異常な振る舞いに基づいてリスクを検知・介入することを目的とする。
目次
AIの“振る舞い”を継続的に監視
同製品は、AIシステムがどのように動作し、人間や他システムとどのように相互作用し、時間とともにどう変化するかを分析する。
具体的には、以下のようなケースで介入を可能にするという。
AIが異常な動作をする
意図された行動から逸脱する
許可されたアクセス権限を超える
ポリシーに違反する
不正に操作されている兆候がある
静的なガードレールやポリシーベースの対策とは異なり、プロンプトの内容やデータアクセスパターンといった“実際の挙動”をもとに異常を検知。従来型ツールでは見逃されがちなリスクを可視化する。
既存基盤との統合にも対応
「Darktrace / SECURE AI」は、「Darktrace ActiveAI Security Platform」の一部として提供されるほか、スタンドアロン製品としても利用可能。既存のセキュリティオペレーションに組み込むことで、AI活用に伴うリスクへのアクション可能な情報を提供する。
組み込み型SaaSアプリケーション、クラウド上のモデル、ローコード/ハイコード開発環境で構築された自律型・半自律型エージェントなど、幅広いAI活用形態を想定して設計されている。
主な機能
1. 生成AI利用のリアルタイム監視・制御
企業内AIアシスタントやローコード/ハイコード環境、SaaSアプリケーション内の生成AI利用をリアルタイムで可視化・分析する。
たとえば、
ChatGPT Enterprise
Microsoft Copilot
Salesforce製品群
Microsoft 365
Microsoft Copilot Studio
Amazon Bedrock
などで使用されるプロンプト、セッション、モデル応答に対する可視性を確保。機密データの露出や不審なプロンプト挙動、AI操作の試みを特定する。
2. AIエージェントの発見と権限制御
クラウド、社内システム、サードパーティ環境で稼働するAIエージェントを自動検出。アクセス可能なデータやシステムをマッピングし、他サービスとの相互作用を監視する。
過剰な権限、予期しない連携、不正利用の兆候を特定し、安全でないアクションが実行される前に介入できるとしている。
3. 開発段階から本番運用までのリスク評価
AIのアイデンティティ、権限設定、ビルドイベント、接続先システムなどを可視化。設定ミスや過剰権限、異常なビルド動作を検知する。
さらに、開発時の設定情報と本番環境での挙動を関連付けることで、リリース前とリリース後の両段階でリスクを把握可能にする。
4. シャドーAIの検出・管理
未承認のAIツールやエージェント開発、想定外のAI関連アクティビティを組織全体で検出。クラウド、ネットワーク、エンドポイントの挙動とユーザー活動を相関分析することで、ポリシー違反やリスクのある利用を制限する。
これにより、無秩序なAI導入による情報漏えいやセキュリティリスクの拡大を防ぐ。
生成AIや自律型エージェントの企業導入が進む中、AIの“振る舞い”そのものを監視対象とするアプローチは、次世代セキュリティの重要なテーマとなりそうだ。
引用元記事:https://enterprisezine.jp/news/detail/23784



