AI 活用におけるデータ・セキュリティの 7 つの課題:レジリエンスを高める実践的なヒント

サイバーセキュリティにおいて、AI は防御の助けになる一方で、攻撃者側に手を貸す可能性があります。セキュリティのために AI を活用する際に考慮すべき 7 つのポイントと、解決に必要な対策をご紹介します。

Challenges with Applying AI to Data Security

※このページの内容は、機械翻訳システムで翻訳したものです。

AI は、現代のサイバーセキュリティにおいて、剣であると同時に盾でもあります。膨大なデータセットを数秒で分析し、異常を早期に検知することで、防御側が対応するための時間を確保します。また、Ponemon Institute の最新の調査によると、米国の組織の 47% が、最も重要な資産であるデータの保護を目的に、既に AI を活用しています。

ストレージにおけるデータのレジリエンスをどのように構築しているのかを把握するため、Ponemon Institute は、ピュア・ストレージの協賛のもとに実施した調査レポート「The State of Cyber Resilience」において、IT セキュリティ担当者 610 名を対象に調査を行いました。その結果、回答者の 45% が、AI ベースのセキュリティ技術によってストレージにおけるデータ・セキュリティが強化されると期待していることが明らかになりました。また、53% は、これまで人作業で行っていたタスクを AI がより効率的かつコスト効果の高い形で担うことで、保護の簡素化につながると回答しています。

しかし、AI は新たなデータ・セキュリティ・リスクをもたらします。Ponemon Institute の調査では、回答者の半数が、AI 駆動のストレージにおける最大の脅威としてデータ・ポイズニングを挙げました。また、サイバーリスク管理において AI への過度な依存が、システム設定の不備や誤設定を招くとの指摘もあります。

これらの調査結果から得られる重要なポイント:AI ツールは問題の早期発見に役立つ一方で、真のサイバー・レジリエンスを実現するには、データの保護とリカバリがカギとなります。これを踏まえ、AI とデータ・セキュリティにおける 7 つの課題と、レジリエンスを高めるための実践的なアプローチを見ていきます。

1. AI がサイバーセキュリティにおける人の関与を不要にすることはない

AI はパターンの検出やトリアージの迅速化に貢献しますが、何を調査するか、いつエスカレーションするか、どのように脅威を封じ込めるかといった判断は、依然として人が担います。攻撃者が生成 AI を利用して、より巧妙な誘導手法を生み出している現状では、データ・セキュリティにおける真のリスクは「AI が人に取って代わること」ではなく、十分なトレーニングや判断基準、インシデント対応のプレイブックを備えないまま、チームが自動化を過信してしまう点にあります。

レジリエンスを高める実践的なヒント

  • 結果の最終責任は人が担う:AI 監視を使用して、予期しない削除や通常とは異なるデータ移動などの異常なアクティビティを検知しますが、封じ込め措置や大規模な対応を実行する前には、必ず人による確認を義務付けます。
  • エスカレーションに備えた訓練を行う:アラートをエスカレーションするタイミング、AI 主導のインサイトの解釈と使用方法、インシデント発生時に最終的な権限が誰にあるのかを、担当者が明確に理解できるようにします。
  • インシデント対応のリハーサルを行う:AI アラートと人による判断を組み合わせた机上演習を実行することで、チームが実際の状況下で封じ込めとコミュニケーションを実践できるようにします。

2. AI があっても、セキュリティに万能策はない

AI は、異常な読み取り、削除、転送を検知するといった早期警告に有用ですが、それ自体ではデータの安全を確保したり、安定した状態へ復旧させたりできるわけではありません。強固なデータ・セキュリティ対策が損失の可能性を低減し、規律あるサイバー・レジリエンスの実践がインシデント発生時の迅速な復旧を保証します。

レジリエンスを高める実践的なヒント

  • データ・レイヤーを強化する:現代のサイバーセキュリティは、多層防御が前提です。最小権限のアクセス制御を適用し、キー・ボールトを保護し、ストレージ・コンソールを厳格にロックダウンすることで、不正利用や改ざんを防止します。
  • クリーンで改ざん耐性のある不変コピーを維持する:重要なデータセットや構成の保護コピーを保持し、リストア手順を定期的にリハーサルすることで、目標復旧時点(RPO)および目標復旧時間(RTO)を確実に満たせるようにします。これにより、バックアップの改ざん、ランサムウェアによる暗号化、誤操作や内部不正による削除への耐性が高まります。
  • 設計段階から被害を封じ込める:ネットワークをセグメント化し、厳格な職務分離を強制することで、単一の侵害が環境全体に拡大するのを防ぎます。

多層的なレジリエンスがデータの整合性を保護し、あらゆる規模での迅速なリカバリを可能にする仕組みを解明します。 

3. AI は依然として予防よりも事後対応に強い

AI は、異常な読み取りや削除、データ移動といったストレージに関するリスクの可視化に強みを発揮します。しかし、最初のフィッシングへのクリックやトークンの盗難といった根本原因を防ぐことはできません。一方で、「The State of Cyber Resilience」の調査によると、AI はセキュリティ・チームの手作業による負荷の軽減に寄与していることが明らかになっています。これにより、より強固な設定の適用、従業員教育、定期的なシステムのハードニングといった予防策に、より多くのリソースを投入できるようになります。

レジリエンスを高める実践的なヒント

  • 容易な侵入経路を遮断する:システムのパッチを適用し、不要になったアカウントを削除し、未使用のアクセス・パスを遮断することで、単純な攻撃が拡大するのを防ぎます。フィッシングや悪意のあるリンク、その他のソーシャル・エンジニアリングの手口を識別するセキュリティ意識向上トレーニングを実施し、従業員を最前線の防御者にします。
  • リスクの高い変更の前にブレーキをかける:バックアップの削除や保持期間・キーの変更など、データの消去や保護の弱体化につながりかねない操作には、短い待機時間と迅速なレビューを設けます。明確なラベル表示と簡潔なチェックリストにより、リスクの高い操作であることを認識できるようにします。
  • 人の承認を前提に自動でリカバリを行う:大規模な更新やポリシー変更を実施する前に、不変スナップショットを取得し、1 ページのロールバック計画を維持します。さらに、サンプル・データを用いた迅速なリストア訓練を実施し、安全な状態へ戻す手順を全員が理解できるようにします。

4. AI モデルは進化し続けなければ、誤った判断を招くリスクがある

AI は、クリーンで最新のデータから学習してこそ効果を発揮します。適切に管理されなければ、AI モデルはドリフトを起こし、通常の挙動を不審と誤検知したり、新たなパターンを見逃したりする可能性があります。さらに、Ponemon Institute の調査で明らかになっているように、IT セキュリティ担当者は、学習データやラベルを意図的に汚染するデータ・ポイズニングを、AI 駆動のストレージにおける最も重大なリスクと捉えています。

レジリエンスを高める実践的なヒント

  • 信頼できるデータでモデルを更新する:検証済みの代表的なデータセットを使用してモデルを定期的に再トレーニングし、データの出所を明記します。信頼できないデータは使用しません。
  • シグナルを監視する:誤検知や検知漏れを継続的に監視します。ノイズが増加した場合は、アラートを微調整するか再トレーニングを行い、変更が想定どおりに機能しなかった場合に備えて、常にフォールバック用のモデルを用意しておきます。
  • パイプラインを保護する:学習データやラベル、検知ルールを変更できる権限を限定します。大量更新を行う場合は、簡易的なピアレビューを必須とし、シンプルな変更ログを保持します。

5. 「監視のない自動化」を防ぐための適切な監視が不可欠

AI は、セキュリティ・ルールをリアルタイムで生成・調整できます。しかし、適切なガードレールがなければ、業務に不可欠なアクセスを遮断してしまう過剰防御や、実際の脅威を見逃す不十分な防御につながりかねません。ピュア・ストレージの委託により実施された Ponemon Institute の調査では、設定ミスのあるシステムが、AI 駆動のストレージにおける 2 番目に大きなリスクとして挙げられており、適切な監督を欠いた自動化の危険性が浮き彫りになっています。

レジリエンスを高める実践的なヒント

  • 境界を最初に定義する:AI が自律的に調整できる範囲(例:アラートのしきい値)、人による確認が必要な操作、実行不可とする範囲(例:削除ポリシー)を明確に定めます。
  • 信頼の前に検証する:AI が提案した変更は、まずシャドウ・モード(推奨・アラートのみ)で運用します。人の承認がない限り期限切れとなる時限付きの変更を採用し、未検証のルールが残り続けないようにします。
  • 安全に展開し、その後に見直す:更新は小規模なユーザー群で段階的に実施し、エラーが急増した場合は自動的にロールバックします。AI によって実施または調整された変更について、週次で簡易レビューを行い、必要な調整を判断します。

6. 効果的な異常検知には(非常に)広範なコンテキストが必要

「干し草の山から針を探す」ように大量の情報の中から攻撃を検知するには、ユーザー、システム、データストア全体にわたるコンテキストが AI に必要です。言い換えれば、多様なソースからの膨大なデータが求められます。しかし、規模は諸刃の剣でもあります。適切なガードレールがなければ、データの洪水によってツールや人が容易に圧倒されてしまいます。

レジリエンスを高める実践的なヒント

  • 重要なポイントを監視する:異常な削除や大規模な転送など、限られた重要な兆候に絞って追跡します。意思決定を迅速化するため、全てのシステムやデータセットに責任者を明確に定めます。
  • データの管理性を維持する:データ受信時に重複排除を行い、詳細な記録は短期間保持し、要約情報は長期間保持し、通常時の挙動に関する明確なベースラインを維持します。
  • アラートを有効に活用する:関連するイベントを相関させ、適切なしきい値を設定し、優先度の高いアラートのみを人に通知します。特に、データの破壊や漏えいにつながる可能性のある変更については注意します。

ピュア・ストレージが、脆弱性の理解と軽減に必要な、実用的な CVE 情報をどのように提供しているのかをご紹介しています。

7. AI のデータ需要の高まりがプライバシーとコンプライアンスのリスクを高める

生成 AI システムは、適切な成果を得るために機微なデータへのアクセスを必要とする場合があります。その結果、偶発的な情報漏えいやコンプライアンス違反のリスクが高まります。特に、一般データ保護規則(GDPR)やカリフォルニア州消費者プライバシー法(CCPA)、さらに新たに整備が進む AI に関する説明責任のルールの下では、注意が必要です。目標は、プライバシーに対する攻撃対象領域を拡大することなく、AI の活用を可能にすることです。

レジリエンスを高める実践的なヒント

  • AI が参照できる範囲を制限する:機微なデータにラベルを付与し、モデルには必要最小限の情報のみを提供します。既定では個人情報をマスキングまたは除去し、可能な場合は疑似データや小規模なサンプル・データでテストを行います。
  • プライバシーをストレージに組み込む:強力なアクセス制御、期限付きの権限、不変かつ変更不能なコピー(イミュータブル/保持ロック)を使用し、機微なデータが改ざんや露出されないようにします。加えて、保存時および転送時の双方でデータを暗号化します。
  • 利用と共有にガードレールを設ける:プロンプト、結果、ログの保存先、アクセス可能者、保持期間を明確に定めます。最小権限の原則に従い、認可されたユーザーやシステムのみが機微な出力を参照できるようにします。監査証跡を保持し、本当に必要でない限り、プロンプトや結果を保存する機能は無効化します。

レジリエンスこそが AI とデータ・セキュリティの進むべき道

AI は、反復的な作業の自動化やコスト削減、チームに貴重な時間を取り戻すことで、既にデータ・セキュリティの簡素化に貢献しています。一方で、新たなリスクをもたらします。AI と向き合う上での現実的な前進の道は、あらゆる局面でレジリエンスを最優先することです。多層防御、不変データリカバリに備えた階層型インフラを基盤に組み込み、セキュリティを土台から構築します。ピュア・ストレージは、データ・レイヤーにおける運用の簡素化と、最も重要な場面で迅速かつ予測可能なリカバリを可能にすることで、組織のレジリエンス実現を支援します。

上記で取り上げた AI とデータ・セキュリティの課題は、年間を通じて存在します。しかし、サイバーセキュリティ意識向上月間は、セキュリティ態勢を評価し、リカバリ戦略を見直し、AI 活用の取り組みが、ピュア・ストレージのような安全性・コンプライアンス・レジリエンスを備えたデータ・プラットフォームの上に構築されているかを確認するための、適切な機会となります。2026 年以降を見据えると、これらの課題は一層深刻化していくと考えられます。今こそ、備えるべき時です。

Ponemon Institute