• ホーム
  • 記事
  • 2028年、インシデントの5割がAI由来に?ガートナーが警告する「AIリスク激変」の正体

2028年、インシデントの5割がAI由来に?ガートナーが警告する「AIリスク激変」の正体

2028年、インシデントの5割がAI由来に?ガートナーが警告する「AIリスク激変」の正体slide-img
2026年03月31日 03:102026年03月25日 07:36
共通
レベル★
AIニュース
データプライバシー
リスク管理
情報セキュリティ
IT戦略
この記事でわかること
  • 2028年にインシデントの5割がAI由来になる予測
  • AIエージェント悪用によるゼロクリック攻撃の脅威
  • 放置すると危険なAIデータ負債と法的罰金リスク
この記事の対象者
  • AI導入の安全性に責任を持つCISOやIT担当者
  • DX推進に伴う潜在的リスクを把握したい経営層
  • AI利用のガバナンス構築を急ぐ法務・企画部門
効率化できる業務
  • 開発初期からのセキュリティ組み込みによる手戻り防止
  • AIセキュリティプラットフォームによる一元監視
  • ID管理の自動化によるAIエージェントの権限制御

「AIを導入すれば、業務は劇的に効率化し、セキュリティも強固になる」 もしあなたがそう信じているなら、今すぐその認識をアップデートする必要があるかもしれません。

2026年3月、ガートナーが発表した「サイバーセキュリティの展望」は、多くの経営者やIT担当者に衝撃を与えました。その予測によれば、2028年には企業のインシデント対応の50%が、カスタム構築されたAI駆動型アプリケーションに関連するものになるというのです。

つまり、あとわずか2年後には、セキュリティチームが扱うトラブルの半分が「AI由来」になります。これは単なる予測ではなく、私たちが今まさに足を踏み入れている「AIファースト時代」の必然的な帰結です。

この記事では、経営企画、DX推進、情報システム、そして人事といった各部門のリーダーが、この「2028年の壁」をどう乗り越えるべきか、ガートナーの最新データを基に深掘りしていきます。

【衝撃の2028年予測】なぜインシデント対応の半分が「AI関連」になるのか

ガートナーが解き放った『2026年以降のセキュリティ展望』の衝撃

ガートナーのバイスプレジデント、クリストファー・ミクスター氏の言葉は痛烈です。「AIは急速に進化していますが、多くのカスタム構築AIアプリケーションは、十分なテストが行われる前に現場へ投入されています」。

現在、多くの企業が競うように独自AIを開発し、社内業務や顧客対応に組み込んでいます。しかし、その「スピード」と「利便性」の裏側で、セキュリティの検証が追いついていないのが実態です。2028年にインシデントの5割がAI関連になるという予測は、これら「未成熟なAI」が爆発的に普及した結果、トラブルが常態化することを意味しています。

「便利さ」の裏側に潜む、カスタムAIアプリの未成熟なリスク

なぜ既存のアプリケーションよりもAIアプリの方が危険なのでしょうか?それは、AIが「動的」で「複雑」だからです。

従来のシステムは、Aと入力すればBが返ってくるという「決定論的」な動きをします。しかし、AI(特にLLMを用いたもの)は、同じ入力でも環境や学習データによって異なる回答を生成します。この「予測不能さ」こそが、セキュリティ上の脆弱性となります。

例えば、意図しない情報の漏洩や、プロンプトインジェクションによるシステム乗っ取りといったリスクは、従来のファイアウォールやウイルス対策ソフトでは防ぎきれません。ガートナーは、多くのセキュリティチームが依然として「AI特有のインシデント対応プロセス」を確立できていないと警告しており、これが解決時間の長期化と被害の拡大を招く要因となっています。

ゼロクリック検索の裏で進む、AIエージェントの暴走と悪用

さらに深刻なのが「AIエージェント」の普及です。2028年には、企業のブリーチ(侵害)の25%がAIエージェントの悪用に起因すると予測されています。

AIエージェントは、人間に代わって意思決定し、実行する能力を持っています。しかし、このエージェントが外部の悪意ある攻撃者に操られたり、あるいは内部のユーザーによって誤った指示を与えられたりした場合、その影響は甚大です。ユーザーがリンクをクリックしなくても、背後でAIエージェントが自律的に脆弱なサーバーを探索し、データを持ち出す……そんな「ゼロクリック攻撃」が、2028年のスタンダードになってしまうかもしれません。

経営を揺るがす3つの時限爆弾:規制・データ・ID管理の崩壊

AIの普及は、セキュリティ担当者だけの問題ではありません。経営そのものを根底から揺るがす「3つの時限爆弾」が潜んでいます。

AIデータ負債:2030年にはIT業務の33%が『過去の遺産』の片付けに?

今、私たちが無秩序にAIへ読み込ませているデータは、将来の「負債」になる可能性があります。ガートナーによれば、2030年末には、IT業務の3分の1が「AIデータ負債」の対策に費やされる見込みです。

適切に構造化されず、機密管理も曖昧なままAIに学習させたデータは、後から「どのデータがどこに影響しているか」を追跡することが極めて困難です。この「データのスパゲッティ化」を解消するために、将来の貴重なリソースが食いつぶされることになるのです。今、データのガバナンスを疎かにすることは、未来の利益を前借りしているに過ぎません。

ID管理の迷宮:人間とマシンの境界が消え、攻撃表面が拡大する

「誰がこのアクションを起こしたのか?」 2028年、この単純な問いに答えることが非常に難しくなります。

従業員だけでなく、数千、数万の「AIエージェント(マシンID)」が自律的に社内システムにアクセスするようになります。これまでのID・アクセス管理(IAM)では、人間を識別することに特化していましたが、今後は「AIという名の非人間」の権限をどう制御するかが鍵となります。

ガートナーは、2028年までに70%のCISOが、IDの可視化とインテリジェンス機能を強化してIAMリスクを低減すると予測しています。つまり、ID管理を制する者が、AI時代のセキュリティを制するのです。

規制対応の遅れが招く、グローバル売上5%超の巨大罰金リスク

欧州のAI法(EU AI Act)を筆頭に、AIに関する法的規制は世界中で急速に整備されています。ガートナーの予測では、2027年までに、手動でのAIコンプライアンス対応を続けている組織の75%が、グローバル収益の5%を超える高額な罰金リスクにさらされます。

「知らなかった」では済まされない時代が来ます。AIが生成したデータの著作権、プライバシー侵害、アルゴリズムの透明性……これらを自動化されたツールで継続的に監視・証明できる体制がなければ、企業の社会的信用は一瞬で崩れ去るでしょう。

インシデント対応の「現場」で今起きていること、これから起きること

「原因不明」の恐怖:ブラックボックス化したAIモデルのトラブル

現場のエンジニアを最も悩ませるのは、AIの「ブラックボックス性」です。AIがなぜその判断を下したのか、なぜそのタイミングで誤作動を起こしたのかを解析するのは、容易ではありません。

ガートナーが指摘するように、現在のセキュリティ・プレイブック(対応手順書)の多くは、AI関連のインシデントを想定していません。エンジニアがログを追いかけても、AIの推論プロセスにおける微細な変調を特定できず、原因究明までに数週間、数ヶ月を要するケースが増えていくでしょう。

既存のセキュリティ・プレイブックが通用しない理由

従来のインシデント対応は「隔離」と「復旧」が基本でした。しかし、AIインシデントの場合、システムを隔離しただけでは解決しません。

例えば、AIが「汚染されたデータ」を学習してしまった場合(データポイズニング)、システムを再起動しても問題は解決しません。モデルそのものを再トレーニングするか、学習データセットを浄化する必要があります。これは従来のIT運用の枠組みを超えた、データサイエンス領域の高度な対応が求められることを意味します。

G20諸国でインフラ停止も?誤設定AIが招く物理的脅威

AIのリスクは、デジタル空間に留まりません。ガートナーは、2028年までにG20諸国のいずれかで、「誤設定されたAI」が原因で国家の重要インフラが停止するという衝撃的な予測を立てています。

電力網の調整、工場のライン制御、自動運転システムの管理……これらに組み込まれたAIが、悪意ある攻撃ではなく「単純な設定ミス」によって暴走し、物理的な被害をもたらす。この予測は、AIがもはや「便利なツール」ではなく、社会を支える「インフラそのもの」であることを再認識させます。

2028年を生き抜く「攻めの防御」:CISOと経営陣が今すぐ着手すべき3つのアクション

「2028年なんて、まだ先の話だ」と思われましたか? しかし、AIの導入サイクルを考えれば、今この瞬間が「運命の分岐点」です。ガートナーが推奨する対策を軸に、企業が取るべき3つの具体的なアクションを提案します。

1. シフトレフトの徹底:AI開発プロセスの初期段階からセキュリティを組み込む

最もコストが低く、効果が高いのは「開発の初期段階(上流)」で対策を打つことです。

AIプロジェクトを企画する段階で、セキュリティチームを参加させてください。モデルの選択、データの収集方法、プロンプトの設計……これらすべてのプロセスに「セキュリティ・ガードレール」を設けるのです。開発が終わった後に「セキュリティチェックをお願いします」と持ってくる旧来のスタイルは、AI時代には通用しません。

2. AIセキュリティプラットフォームの導入と一元管理

社内のあちこちで「勝手AI」が乱立していませんか? 誰が、どのAIに対して、どんなデータを入力しているのか。これを可視化できない状態は極めて危険です。

2028年までに、半数の組織がサードパーティ製AIサービスやカスタムAIアプリを保護するために、専用の「AIセキュリティプラットフォーム」を導入すると予測されています。個別のアプリごとに対応するのではなく、全社的なAI利用状況を監視し、一元的にポリシーを適用できる基盤を整えることが急務です。

3. 『アイデンティティ・ファースト』への転換:7割のCISOが進める新戦略

これからのセキュリティの境界線(ネットワーク境界)は、「ID」です。

「正しい権限を持った人間(またはAIエージェント)が、正しい目的でアクセスしているか」を動的に検証するゼロトラスト・アーキテクチャへの移行を加速させてください。特にAIエージェントに対しては、最小権限の原則(Least Privilege)を厳格に適用し、万が一の暴走時に被害を最小限に抑える仕組みが必要です。

FAQ:AIセキュリティに関するよくある懸念と正解

Q1:AI生成コンテンツに「AIが作成した」と明記すべきでしょうか? A:はい、透明性は信頼構築の第一歩です。ガートナーも、AI生成コンテンツであることを開示することを推奨しています。特に、ユーザーがAIと対話しているのか人間と対話しているのかを明確にすることは、倫理的リスクだけでなく、インシデント発生時の責任所在を明確にする上でも重要です。

Q2:AIインシデントへの対応力を高めるには、どのような人材が必要ですか? A:従来のセキュリティエンジニアに加えて、「AIエンジニアリング」と「データサイエンス」の基礎知識を持つ人材の融合が必要です。あるいは、既存のセキュリティチームにAIの挙動を理解するためのトレーニングを提供することが現実的な第一歩となります。

Q3:小規模なプロジェクトであれば、ここまでの対策は不要でしょうか? A:いいえ。AIのリスクは、プロジェクトの規模ではなく「扱うデータの重要性」と「自律性の高さ」に比例します。たとえ小規模なツールであっても、顧客データにアクセスしたり、自律的に判断を下す機能がある場合は、同様のセキュリティ基準を適用すべきです。

まとめ:AIを「脅威」にしないための、2026年からのロードマップ

2028年、インシデント対応の5割がAI関連になる。 この未来を「予測」として受け流すか、「警告」として受け止め、今すぐ行動を変えるか。その選択が、数年後の企業の明暗を分けます。

最後に、これからの2年間で意識すべき3つのポイントをまとめます。

 

  1. AIは「不完全なもの」という前提で付き合う: 完璧なセキュリティは存在しません。AIが間違えること、暴走することを前提とした「レジリエンス(回復力)」を重視した設計を行いましょう。

     

  2. データとIDを経営資源として守り抜く: AIの原動力であるデータと、そのアクセスを司るID。この2つの「聖域」を守ることが、AIリスク対策の本質です。

     

  3. 部門の垣根を超えた共創体制を築く: 情シス、DX、経営企画、法務。AIセキュリティは、もはや一つの部門で完結できる問題ではありません。

AIは、正しく使えば企業に計り知れない成長をもたらす「最強の翼」になります。しかし、その翼を制御する術(セキュリティ)を持たないまま飛び立つのは、あまりにも無謀です。

2028年、あなたの企業が「AIインシデントの泥沼」に沈むのではなく、AIの力を最大限に引き出して飛躍していることを願っています。

 

引用

ITmedia エンタープライズ「2028年にインシデント対応の5割はAI関連に ガートナーが予測」

関連記事

記事ランキング

AIツールランキング

記事ランキング

thumbnailslide-img

“推しCP”の妄想小説をAIで実現!命令の出し方と注意点

2025/07/29

共通

レベル

★
thumbnailslide-img

星野リゾート、18億円投じAI予約時代へ 独自システム「フレボル」始動

2025/11/01

経営・企画
人事
CS (カスタマーサポート)

レベル

★
thumbnailslide-img

生成AIチェッカーにバレずに文章を書くには?AI使用だと思われないための5つの対策

2025/07/02

共通

レベル

★

AIツールランキング

thumbnailslide-img
iconslide-img

Adobe Firefly

1. 製品/サービス概要目的テキストや画像から高品質なビジュアルコンテンツを生成し、クリエイティブワークフローを革新的に効率

デザイナー
thumbnailslide-img
iconslide-img

ClipDrop

1. 製品/サービス概要目的AIを活用して画像編集・生成プロセスを効率化し、クリエイティブな表現を誰もが簡単に実現できるよう

共通
thumbnailslide-img
iconslide-img

PRUV

1. PRUVの製品/サービス概要目的文章中の誤字脱字、文法ミス、表記ゆれを検出し、正確で一貫性のある文章作成を支援

共通
WA²とはプライバシーポリシー利用規約運営会社
WA²とはプライバシーポリシー利用規約運営会社
navホームnav記事navAIツール