MONO BRAIN、AIセキュリティ検証環境「Model Security Range」をオープンソース化 実践的な脆弱性検証を可能に

株式会社MONO BRAINは、AIセキュリティ検証環境「Model Security Range」をオープンソースとして公開した。
同フレームワークは、意図的に脆弱性を持たせたAIアプリケーションを用い、攻撃・評価・復旧のプロセスを再現可能な手順で実行できるよう設計されている。プロンプトインジェクションや権限悪用、モデル汚染といった、実運用で問題となる攻撃を実装レベルで検証できる点が特徴だ。
リポジトリでは、アプリケーション本体と攻撃コードをセットで公開し、セットアップから攻撃実行、復旧までを標準化。RAG、エージェント、OCR、機械学習モデルなど複数のユースケースに対応し、横断的な評価を可能としている。これにより、開発者やセキュリティ担当者、研究者が共通の基盤で検証を行い、結果の再現性と比較可能性を確保できる。
近年、生成AIの業務活用が進む中で、従来のWebセキュリティでは対応しきれないリスクが顕在化している。内部情報漏えいを引き起こすプロンプトインジェクションや、外部ツール連携における過剰権限の悪用、学習データを狙った汚染攻撃など、AI特有の脅威が急速に拡大している。
一方で、こうした攻撃は再現性のある検証が難しく、対策の有効性評価や組織間での比較が困難という課題があった。「Model Security Range」は、攻撃シナリオと検証手順を明確化することで、誰でも同一条件で検証できる環境を提供し、AIセキュリティの実装と運用の前進を後押しする。
なお、本プロジェクトは教育・検証用途を前提としており、利用にあたっては法令や組織ポリシーを遵守し、管理された環境での活用が求められる。
同社はあわせて、AIの設計・開発・運用を統合的に管理するプラットフォーム「MODEL SAFE」も展開しており、AIサプライチェーンの可視化やガバナンス強化を支援。今回のオープンソース化を通じて、AIセキュリティの標準化と普及を加速させる考えだ。
引用元記事:https://voix.jp/business-cards/open-source-ai-security-framework/



