CYBERNET

コラム

AIは“サイバー脅威を助長する存在”なのか?AnthropicのClaude Mythosを巡る過剰な不安と現実のギャップ

AIはサイバー攻撃を加速させるものの、攻守の優劣を決定づけるのはAIの性能ではなくシステムの内部コンテキストであり、その点で企業側に依然として優位性があることを解説します。

本記事は、Aikido Security社が発信する以下のアプリケーションセキュリティに関する公式コンテンツを、日本市場向けに翻訳・再構成したものです。

The cybersecurity doomerism around Mythos doesn't match what we see on the ground

 

この記事で学べること:

  • AIがサイバー攻撃を劇的に有利にするという見方の実態
  • 攻撃・防御の優劣を分ける本質的な要因(コンテキスト)の重要性
  • 企業が持つ“見えない優位性”と、これからのアプリケーションセキュリティ戦略

Anthropicの最新モデル「Mythos」に関する最近の報道は、その多くが「攻撃者に何をもたらすか」に焦点を当てています。Fortuneが確認したリーク済みのブログドラフトでは、このモデルが「防御側の努力をはるかに上回るスピードで脆弱性を悪用できる」と説明されています。そのためAnthropicは、「サイバーセキュリティ領域における短期的リスク」を十分に理解するまでは慎重に進めたいとしています。

その後の展開は予想通りでした。「迫り来るAIによるサイバー悪夢」といった見出し、サイバー攻撃の民主化を警告するセキュリティベンダー、そして攻守のバランスが崩れたという一般的な認識が広がりました。不穏に感じますよね。

確かに表面的にはそう見えるかもしれません。しかし実際には、バランスは崩れていません。この終末論的な見方は、「モデルの能力=攻撃者の優位性」と単純に結びつけている点に問題があります。しかし、私たちのデータはそれとは異なる結果を示しています。

Mythos神話の前提を分解する

確かに、AIモデルが攻撃のワークフローを高速化することは間違いありません。しかし、その効果はシステムの深いコンテキストに大きく依存します。そして、そのコンテキストこそ、攻撃者がほとんど持ち得ないものです。

Mythosのようなモデルに期待されているサイバーセキュリティ能力は、すでに制御されたセキュリティテスト環境でAIが実行している内容と大きく重なります。脆弱性の発見、コードの理解、多段階攻撃の推論などです。私たちは1,000件の実環境でのAIペネトレーションテストの経験から、条件ごとのパフォーマンスの変化を分析しています。

その結果は一貫しています。対象アプリケーションのソースコードにアクセスできるホワイトボックステストでは、限定的なアクセスしか持たないグレーボックステストと比較して、重大・高リスクの問題を7倍多く発見し、効率も約2倍でした。これは、AIの有効性が単なる性能ではなく「コンテキスト」に強く依存していることを示しています。

実務では、このコンテキストは静的解析と動的解析の組み合わせから得られます。コードだけ、あるいは挙動だけを見ても部分的な理解にとどまります。両方を組み合わせることで、コードと実行時の振る舞いが結びつき、発見の質が大きく向上します。同時に、試行回数(トークン消費)も削減され、経済性も改善されます。

現在のMythosに関する議論は、最新のAIモデルが攻撃者により大きな恩恵をもたらすと前提にしています。しかし実際には、攻撃者はコンテキストが不足している側です。彼らは外部からシステムを推測するしかない一方で、防御側はシステムの内部構造を把握しています。

鍵を握るのは「能力」ではなく「コンテキスト」

モデル開発者による性能説明には大きな価値が置かれがちです。これは、AnthropicがClaude Opus 4.6でオープンソースライブラリの高リスク脆弱性を500件以上発見したと発表した際にも同様でした。これらは理想的な条件下での性能を示していますが、システム全体の可視性がない場合のパフォーマンスについてはほとんど語られていません。

ここでの主要な変数はコンテキストです。ソースコードやアプリケーション内部ロジックへのアクセスが、テストエージェントが何を評価できるかを決定します。能力だけでは成果にはつながりません。静的・動的なコードコンテキストが不足している場合、最先端モデルであっても、軽量なオープンソースモデルを上回れないことすらあります。

最近のNPMレジストリで広く利用されているパッケージ「Axios」の侵害を考えてみてください。この攻撃ではソースコードは変更されていません。代わりに、メンテナーアカウントが侵害され、新しい依存関係が追加された上でアップデートが公開されました。この攻撃が成立したのは、既知のCVEもなく、悪意あるコードパターンも存在せず、検知シグネチャもなかったためです。つまり、ツールチェーン全体が「何が変わったのか」を理解するコンテキストを欠いていたのです。

一方で、自社の依存関係ツリーを深く可視化できている組織であれば、単に利用パッケージを把握するだけでなく、それらが何をし、どのように振る舞い、正当なアップデートがどのようなものかを理解しています。その場合、この変更に疑問を持つことができたはずです。コンテキストがなければ、どれだけ速度や能力があっても意味を持ちません。これこそが「AIは攻撃者に有利」という単純な構図が本質を捉えていない理由です。

ここで、AI駆動のテストアプローチに差が生まれます。コードと実行時の振る舞いの両方にわたる完全なコンテキストがある場合、高度なエージェント型ツールは表面的なテストでは見逃される問題を特定できます。

もちろん、防御側のコンテキスト優位が永続するわけではありません。AIはコンテキスト取得のコストも下げていきます。しかし、現在の議論は「一夜にしてバランスが崩れた」と示唆しています。実際には、システム理解の構築は時間と労力を要する複雑な作業です。AIが一部のコンテキストを推測できるようになっても、実際のソースコード、API、認証情報、内部ロジックへのアクセスから得られる明確さには到底及びません。

振り返れば、これらは明白に思えるかもしれません。特にセキュリティ分野では悲観的な論調が好まれる傾向があります。しかし、提示されている情報を精査することで、実際の影響を冷静に見極める必要があります。

確かに、新しいAIモデルは攻守のバランスに影響を与えます。攻撃者に速度・範囲・能力をもたらし、防御側にとって一定の負担増となるのも事実です。

しかし重要なのは、その有効性がコンテキストに依存し、そのコンテキストが不均等に分布しているという点です。そして幸いにも、その優位性は防御側にあります。MythosやCapybaraのような先進的AIの恩恵は攻撃者が先に享受するかもしれませんが、防御側はすでに「自社コードの構造的理解」という強力な武器を持っています。

AIは、アプリケーションセキュリティにおけるコンテキストの価値をこれまで以上に高めています。問われているのは、その優位性を防御側が活用できるかどうかです。

カテゴリ別
製品別
ソリューション別