AIエージェントの自律的なインシデントは、誰の行為として扱うべきか

ニュース原文:https://www.techradar.com/pro/ai-agents-now-commit-and-conceal-cybercrimes-on-their-own

メールの文面作成やコードの自動生成など、人間の作業を補助するツールとして普及してきた生成AIは今、自ら外部ツールを呼び出し、ファイルシステムを操作し、人間の指示を待たずに一連のタスクを完結させる「自律型AIエージェント」へと進化を遂げています。

業務効率化の大きなブレイクスルーとして期待される一方で、この技術的な飛躍は、サイバーセキュリティと企業ガバナンスに未知の課題を突きつけています。

海外メディアTechRadarの最新レポートでは、AIエージェントが単なる攻撃者の「補助ツール」を脱し、サイバー攻撃の工程(キルチェーン)を自律的に実行する段階に入りつつあると警鐘を鳴らしました。本記事では、この動向を単なる「AIの脅威論」として消費するのではなく、AIエージェントが行為主体となった時代において、企業は「その行為をどう識別し、どう権限づけ、どう監査するのか」というデジタルIDの根源的な課題について考察します。

ツールから「自律的な実行主体」への変貌と最新事例

フィッシングメールの生成やマルウェアのコード改変など、サイバー犯罪における生成AIの悪用はすでに広く知られています。しかし、今回のTechRadarのレポートで注目すべきは、AIが「攻撃の一連の流れを自律的に進めるエージェント」として機能し始めている点です。


記事内では、2025年に発生した「Claude Code」関連のインシデントが事例として挙げられています。このケースでは、標的の偵察からシステムの侵入、認証情報の収集、そしてデータ窃取に至る攻撃チェーンの大部分を、AIが高い割合で自律的に担っていたことが報告されました。

一方、企業の現場においても、開発、調査、運用などの領域でAIエージェントへの業務委譲が急速に進んでいます。ここで深刻なリスクとなるのが、AIエージェントに社内データや外部APIへのアクセス権を付与した際、その自律的な挙動が「人間の操作ログ」の中に埋もれてしまうことです。

システム上で実行されたその操作は、人間が直接ボタンを押したものか。人間の指示通りにAIが動いた結果か。あるいは、AIが自律的に判断して実行したものか。
主体が曖昧なままでは、インシデント発生時に原因を特定することも、責任の所在を明らかにすることも極めて困難になります。

従来の監査ログ(いつ・誰が・どこで)が機能しなくなる理由

従来の企業システムにおける内部統制や監査は、ユーザーID、IPアドレス、アクセス時刻といった「セッション情報」に依存してきました。システムは「ログイン済みのこのアカウントが操作した」という前提でログを記録します。

しかし、AIエージェントが業務に介在すると、この前提は崩壊します。 AIエージェントは人間のアカウントを「借りて」操作を実行することもあれば、独自のサービスアカウントやAPIキーを使用することもあります。さらに、複数のSaaSを横断して作業し、途中で外部データを取り込み、場合によっては別のプラグインを連鎖的に呼び出すことも可能です。

この複雑な挙動に対して、従来の「ログを残す」だけのアプローチは限界を迎えています。どのエージェントが、誰の委任に基づき、どの権限範囲で、どのようなコンテキスト(文脈)のもとにその操作を行ったのかを、事後的に検証可能な形で記録する新しい仕組みが不可欠です。

AIエージェントに求められる「権限の証明」

人間のデジタルIDにおいて最も重要なプロセスは、それが誰であり実在するのかを確認する「本人確認」です。
対して、AIエージェントに対するID設計のアプローチは根本的に異なります。

AIエージェントのシステムに問うべきは、「そのエージェントは誰か」ではなく、「誰によって作られ、誰の委任を受け、どの権限範囲で、何をしてよいのか」という厳格なルールの定義です。

例えば、経理エージェントに「請求書の読み取り権限」を与えたとして、「銀行APIへの支払い実行」まで許可してよいのか。開発エージェントに「コードの修正権限」を与えたとして、「本番環境へのデプロイ」まで単独で実行させてよいのか。 人間よりも遥かに高速で、疲れを知らず、並列処理を行うAIエージェントに対してこの境界線を曖昧にすることは、企業にとって致命的なセキュリティホールとなります。

「AIが勝手にやった」では済まされない企業の説明責任

万が一AIエージェントがインシデントを引き起こした際、「AIが勝手にやったことだ」という言い逃れは当然ながら通用しません。企業には、そのエージェントにどのような権限を与え、どのような環境で稼働させ、どのように監視体制を敷いていたのかという重い説明責任が問われます。


これを果たすためには、AIエージェントの行為を、人間の行為からシステム的に完全に分離・独立させて可視化する必要があります。

  • 開発エージェントがコードを修正した場合: 「どのAIエージェントが、どの管理者の承認のもと、どのリポジトリに対する権限を行使してコミットしたか」を記録する。
  • 調達エージェントが見積もりを取得した場合: 「どのような業務目的で、どこまでの社内情報の外部送信が許可されていたか」を通信単位で記録する。

このような、行為の文脈と権限をセットにした粒度の高い記録がなければ、AIエージェントの自律的な処理スピードに企業の監査能力は確実に置いていかれます。

次世代のID設計は「行為の検証」へ向かう

これまでのデジタルIDは、本人確認や資格証明など、主に「誰であるか(識別)」を確立するために発展してきました。しかしAIエージェントが普及するこれからの時代、IDの中心的な役割は「この行為は正当な権限に基づいているか(検証)」へとスライドしていきます。

誰が(何が)操作したかだけでなく、その操作は適切な委任関係のもとで行われているか。許可された範囲を逸脱していないか。そして、その一連のプロセスを事後的に否認できない形で証明できるか。

この課題に対する技術的なアンサーとして、弊社が取り組むDID(分散型アイデンティティ)やVC(Verifiable Credential:検証可能なデジタル証明書)のアーキテクチャが極めて重要な役割を担うことになります。

DIDは特定のAIエージェントを指し示す一意の識別子として機能し、VCは「そのエージェントが、誰から、どのような業務権限を、いつまでの期限付きで委任されているのか」を示す、暗号学的に検証可能な権限証明として機能します。

AIの進化に伴うサイバーリスクは、人間のアカウントを強固に守るだけでは防ぎきれません。AIエージェントという新しい「労働力」を安全に企業システムへ迎え入れるためには、行為そのものを識別し、権限を制限し、監査可能にするための「IDと権限管理の再設計」が急務となっています。


★特別なお知らせ★

デジタルアイデンティティの最新トレンドを毎週お届け!
業界の最前線をまとめた「DID/VC Weeklyレポート」を毎週無料で配信中です。こちらから簡単に登録できますので、ぜひ情報収集や新規事業のタネ探しにご活用ください。