Darktrace、ビヘイビアAIセキュリティ製品「Darktrace / SECURE AI」を発表

英サイバーセキュリティ企業のDarktraceは、新たなビヘイビア(振る舞い)AIセキュリティ製品「Darktrace / SECURE AI」を発表した。生成AIやエージェント型ワークフローの実運用環境における挙動を理解・監視し、異常な振る舞いに基づいてリスクを検知・介入することを目的とする。


AIの“振る舞い”を継続的に監視

同製品は、AIシステムがどのように動作し、人間や他システムとどのように相互作用し、時間とともにどう変化するかを分析する。

具体的には、以下のようなケースで介入を可能にするという。

  • AIが異常な動作をする

  • 意図された行動から逸脱する

  • 許可されたアクセス権限を超える

  • ポリシーに違反する

  • 不正に操作されている兆候がある

静的なガードレールやポリシーベースの対策とは異なり、プロンプトの内容やデータアクセスパターンといった“実際の挙動”をもとに異常を検知。従来型ツールでは見逃されがちなリスクを可視化する。


既存基盤との統合にも対応

「Darktrace / SECURE AI」は、「Darktrace ActiveAI Security Platform」の一部として提供されるほか、スタンドアロン製品としても利用可能。既存のセキュリティオペレーションに組み込むことで、AI活用に伴うリスクへのアクション可能な情報を提供する。

組み込み型SaaSアプリケーション、クラウド上のモデル、ローコード/ハイコード開発環境で構築された自律型・半自律型エージェントなど、幅広いAI活用形態を想定して設計されている。


主な機能

1. 生成AI利用のリアルタイム監視・制御

企業内AIアシスタントやローコード/ハイコード環境、SaaSアプリケーション内の生成AI利用をリアルタイムで可視化・分析する。

たとえば、

  • ChatGPT Enterprise

  • Microsoft Copilot

  • Salesforce製品群

  • Microsoft 365

  • Microsoft Copilot Studio

  • Amazon Bedrock

などで使用されるプロンプト、セッション、モデル応答に対する可視性を確保。機密データの露出や不審なプロンプト挙動、AI操作の試みを特定する。


2. AIエージェントの発見と権限制御

クラウド、社内システム、サードパーティ環境で稼働するAIエージェントを自動検出。アクセス可能なデータやシステムをマッピングし、他サービスとの相互作用を監視する。

過剰な権限、予期しない連携、不正利用の兆候を特定し、安全でないアクションが実行される前に介入できるとしている。


3. 開発段階から本番運用までのリスク評価

AIのアイデンティティ、権限設定、ビルドイベント、接続先システムなどを可視化。設定ミスや過剰権限、異常なビルド動作を検知する。

さらに、開発時の設定情報と本番環境での挙動を関連付けることで、リリース前とリリース後の両段階でリスクを把握可能にする。


4. シャドーAIの検出・管理

未承認のAIツールやエージェント開発、想定外のAI関連アクティビティを組織全体で検出。クラウド、ネットワーク、エンドポイントの挙動とユーザー活動を相関分析することで、ポリシー違反やリスクのある利用を制限する。

これにより、無秩序なAI導入による情報漏えいやセキュリティリスクの拡大を防ぐ。


生成AIや自律型エージェントの企業導入が進む中、AIの“振る舞い”そのものを監視対象とするアプローチは、次世代セキュリティの重要なテーマとなりそうだ。

引用元記事:https://enterprisezine.jp/news/detail/23784