ダークトレース、AIの振る舞いを監視する「Darktrace / SECURE AI」を発表

ダークトレースは、新たなビヘイビア(振る舞い)AIセキュリティ製品**「Darktrace / SECURE AI」**を発表しました。
同製品は、AIシステムの“振る舞い”そのものを理解・監視し、異常や逸脱が発生した際にリアルタイムで介入できることを特長としています。
目次
製品の主な特長
■ AIの振る舞いを継続的に監視
従来の静的なガードレールやポリシーベースの制御とは異なり、生成AIやエージェント型ワークフローが実環境でどのように動作しているかを動的に分析します。
以下のようなケースに対応するとしています:
AIシステムが異常な動作をする
意図された行動から逸脱する
許可されたアクセス権限を超える
ポリシー違反を行う
外部操作により不正行動を取らされている兆候がある
プロンプトの変化やデータアクセスパターンなども含めて監視し、従来ツールでは見逃されがちなリスクを検知します。
既存プラットフォームとの統合
本製品は「Darktrace ActiveAI Security Platform」の一部として提供され、既存のセキュリティオペレーションに組み込み可能です。
新規ユーザーだけでなく、既存顧客にもアクション可能なインサイトを提供するとしています。
対象は以下のような環境です:
組み込みSaaSアプリケーション
クラウドホスティング型AIモデル
ローコード/ハイコード開発環境
自律型・半自律型AIエージェント
生成AI利用の可視化と制御
企業内AIアシスタントや業務アプリに組み込まれたAI機能をリアルタイムで監視・制御できます。
例:
ChatGPT Enterprise
Microsoft Copilot
SalesforceのAI機能
Microsoft 365
Microsoft Copilot Studio
Amazon Bedrock
プロンプトやセッション、モデル応答の変化を追跡し、
機密データの露出
不自然なプロンプト挙動
AI操作の試み
などを特定できるとしています。
AIエージェントの可視化と権限制御
クラウド、社内システム、サードパーティ環境に存在するAIエージェントを自動検出し、
アクセス可能なシステムやデータのマッピング
MCP(Model Context Protocol)サーバーとの連携監視
過剰権限や予期しない相互動作の特定
を行います。
エージェントが安全でない、あるいは未承認のアクションを実行しようとした場合に介入可能としています。
開発段階から本番環境までリスクを可視化
AIの開発・構築段階と、実際の本番稼働後の挙動を関連付けて分析します。
アイデンティティ設定
権限構成
ビルドイベント
エージェント機能追加
などをプロンプトロジックと相関させることで、設定ミスや過剰権限、異常なビルド挙動を早期に検出できるとしています。
シャドーAI対策
組織内で承認されていないAIツールやエージェント開発を検出し、
データの外部流出経路の特定
不適切なAI利用の可視化
ポリシーの強制適用
を実施。
クラウド・ネットワーク・エンドポイントの動作データとユーザー活動を相関分析することで、リスクが拡大する前に対処できるとしています。
まとめ
「Darktrace / SECURE AI」は、生成AIや自律型エージェントの普及によって拡大する新たなセキュリティリスクに対応するため、AIの“振る舞い”そのものを監視対象とする新しいアプローチを採用しています。
静的なルールベースの対策から、動的・行動ベースのAIセキュリティへ――。
企業が安全にAIを活用するための統合的な可視化・制御基盤として、今後の展開が注目されます。
引用元記事:https://enterprisezine.jp/news/detail/23784



