高度化するAIエージェントは新たな脅威に
AIがビジネスの効率化や新しい価値の創造を牽引する一方で、攻撃者の手段としても急速に高度化しつつあります。AIエージェントがサイバー攻撃に利用されることで、企業の機密情報やアカウント情報に対する脅威は飛躍的に高まっているのです。ガートナーが発表したレポートによると、AIエージェントの活用はアカウント乗っ取り(Account Takeover: ATO)の成功までにかかる時間を2027年までに50%短縮するといわれています。これは従来の攻撃手口を大幅にスピードアップさせることを意味し、多くの企業が脆弱性を抱えたままでは攻撃を阻止できない事態に陥る可能性があります。今回は、このAIエージェントによる攻撃の進化と、それに対抗するためのポイントを取り上げたいと思います。
Gartner Predicts AI Agents Will Reduce The Time It Takes To Exploit Account Exposures by 50% by 2027
AIエージェントがもたらす攻撃の進化
AIエージェントがもたらす最大の脅威は、自動化と高度学習能力の組み合わせにあります。従来の攻撃では、人間の手によるアカウント情報の収集や総当たりログインなどに時間と手間がかかっていました。しかし、AIエージェントは短時間で膨大なデータを解析し、攻撃パターンを柔軟に組み替えられます。
たとえば、流出したパスワードリストと個人情報がセットになっている場合、AIエージェントは対象の趣味嗜好や行動履歴を推定し、使用されがちなパスワードをピンポイントで狙うことができます。さらに攻撃途中で失敗が続けば、自ら攻撃パターンを学習して精度を高めていくことができます。
ディープフェイク技術の統合も見逃せません。本人そっくりの声や映像をつくりだせるため、電話やビデオ会議の場で幹部や上司になりすまし、部下に資金送金を指示する事例が報告されています。このように、AIエージェントの存在は攻撃スピードを上げるだけでなく、人間の目や耳を巧みに欺く高度な戦略を可能にしているのです。
アカウント乗っ取り(ATO)の実態
最も多い被害として挙げられるのが、パスワード漏えいに起因するアカウント乗っ取りです。攻撃者はフィッシングサイトやマルウェアを使ってパスワードを抜き取ったり、すでに流出しているパスワードリストを入手したりして、ターゲットと同じパスワードを使い回している別のサービスへ総当たり攻撃を行います。
ガートナーによると、この攻撃プロセスがAIエージェントによりさらに高速化される可能性が高いといわれています。総当たりの段階だけでなく、パスワード推測の精度向上や検知を回避するためのステルス化など、AIが関与できるポイントは数多く存在します。
企業にとっては、1つのサービスが侵害されただけでなく、使い回しによって社内システム全体へ波及するリスクを抱えることになります。認証システムや運用ルールの甘さを放置すると、攻撃者にとって「都合の良い環境」が整ったままになりかねません。特にクラウドサービスを多用している場合、1つのアカウントが突破されるだけで幅広い業務システムへアクセスされる恐れがあるため、より厳重なセキュリティ対策が求められます。
ディープフェイクとソーシャルエンジニアリングの脅威
AIエージェントの活用は、ソーシャルエンジニアリング全体のレベルを引き上げます。従来のソーシャルエンジニアリングは、攻撃者が電話やメールで嘘の情報を伝え、相手を信用させる手法が中心でした。しかし、AIが生成したディープフェイクによって本人そっくりの声や映像が作成できるようになると、攻撃の信憑性が格段に増してしまいます。
ガートナーは2028年までに、こうしたソーシャルエンジニアリング攻撃のうち40%が幹部や経営層だけでなく、一般の従業員にも波及すると警鐘を鳴らしています。これは「上司っぽい声や映像で連絡がきたら疑わない」という心理を逆手に取ったものです。リアルタイムでのなりすまし通話を判別する技術はまだ発展途上とされ、企業の緊張感は高まる一方です。
さらに、ディープフェイク技術は音声や映像だけでなく、文章の筆跡やチャットの文体を模倣するケースにも拡張されつつあります。本人になりすましたメッセージを使い、社内外の関係者を誤認させることで、機密情報を引き出す手口が今後ますます巧妙化していく可能性があります。
パスワードレス認証と企業が取るべき施策
こうした脅威への対抗策として、ガートナーは「パスワードレスかつフィッシング耐性のある多要素認証」を推奨しています。生体認証や物理キーを使ったログインを導入し、パスワードをそもそも利用しないことで、漏えいや総当たり攻撃のリスクを大きく削減できるためです。
さらに、複数のデバイスを連携させ、認証フローを二段階や三段階に分けることで安全性を高める仕組みも有効です。たとえば、社用PCでログインを試みた際に、従業員のスマートフォンに通知が飛び、生体認証で最終承認を行う方法などが挙げられます。万一PC側の情報が攻撃者に盗まれても、スマートフォン側の生体認証が突破されない限り、ログインは成立しません。
導入には一定のコストや運用の複雑化が伴うため、利用者への周知や技術サポート体制の整備が欠かせません。各企業は利便性とセキュリティのバランスを取りつつ、段階的に新しい認証方式へ移行するロードマップを描く必要があります。加えて、経営層や従業員へ定期的な教育を行い、「なりすまし」による指示や依頼を安易に受け入れない風土を醸成することも重要です。AIエージェントによる攻撃に立ち向かうには、技術的対策と組織文化の両面を強化することが重要となります。
今後の展望
AIエージェントによるサイバー攻撃は、今後さらに多角化すると見込まれます。ディープフェイク技術は音声や映像だけでなく、チャットや文章の自動生成などへも広がる可能性があります。こうしたなりすまし行為に対抗するには、AIを"守る側"も積極的に活用し、リアルタイムでのディープフェイク検知や不審行動の早期察知を行うことが重要です。
また、従業員への啓発や教育も重要となります。見慣れない送信元からのメールや電話、急な資金移動依頼があった場合は必ず二重チェックを行うなど、組織として疑う文化を根付かせる必要があります。また、認証システムの高度化だけでなく、ログの監視体制やレスポンスチームの拡充など、万が一の侵害に迅速に対処する仕組みを整えることも欠かせません。これらの施策を並行して推進し、技術と人の両面から防御力を高めることで、AIエージェントへの脅威を抑えていくことが求められていくでしょう。