AIエージェントは深刻な脅威になり得る──OpenAIのサム・アルトマンCEOが認めたセキュリティ課題

米メディアのWindows Centralは1月6日(米国時間)、OpenAIの最高経営責任者(CEO)であるサム・アルトマン氏が、AIモデルに深刻なセキュリティ上の課題が存在することを認めたと報じた。

アルトマン氏は2025年12月28日、X(旧Twitter)に人材募集の投稿を行い、AIモデルの急速な進化に伴い、メンタルヘルスへの影響やセキュリティ面での新たな懸念が生じていると指摘した。特に問題視しているのは、AIそのものの脆弱性ではなく、AIが自律的に脆弱性を発見してしまう点だという。

同氏は、AIが見つけ出した脆弱性がどのように悪用され得るのか、また、その知見を誰が利用すべきなのかといった判断が極めて難しいと強調。攻撃者に有利な情報が渡らないよう、適切な形で「知恵」を扱える人材の必要性を訴えた。これは、現在のAIモデルが無秩序に脆弱性を発見し、結果として攻撃者に情報を与えかねない状況にあることを、OpenAI自身が認めた形とも受け取れる。

Windows Centralはこの状況について、「AIはハッカーの楽園になりつつあるようだ」と表現し、社会に悪影響を及ぼしかねないAI開発の進め方に対して厳しい視線を向けている。

一方で、AI開発のペースを落とすことが現実的でないという事情もある。現在は米国企業がAI分野で優位に立っているものの、中国のDeepSeekをはじめとする競合企業との開発競争は激化している。安全対策やガードレール整備に注力すれば、性能や技術面で後発企業に追い抜かれるリスクが高まるため、セキュリティに十分なリソースを割けないというジレンマが存在する。

OpenAIが「コードレッド」を宣言したとされる動きからも分かるように、AI開発は止まることのできない競争フェーズに突入している。その一方で、急速な進化がもたらす重大なセキュリティリスクが、いま改めて浮き彫りになりつつある。

引用元記事:https://news.mynavi.jp/techplus/article/20260107-3936403/