※本記事は、AWS re:Invent 2024のセッション「The good, the bad, and the ugly of AI and cybersecurity (PEX207)」の内容を基に作成されています。セッションはAWSパートナー向けに提供され、大規模ネットワークにおけるAIを活用したサイバーセキュリティの意思決定、産業横断的なユースケース、インシデントやサイバー脅威レポートからの機械学習による脅威の特定・分類、そしてAWSパートナーによるインテリジェントなサイバーソリューションの構築について解説しています。
本記事では、セッションの内容を要約しております。なお、本記事の内容は発表者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルのセッション動画をご覧いただくことをお勧めいたします。
セッションの詳細情報はAWS re:Invent(https://go.aws/reinvent )でご覧いただけます。その他のAWSイベント情報は https://go.aws/3kss9CP で、AWSの動画コンテンツは http://bit.ly/2O3zS75 および http://bit.ly/316g9t4 でご覧いただけます。
1. イントロダクション
1.1. 経歴と専門性
Gilson Wilson:Swamiのキーノートの後の登壇となりますが、なぜこのタイミングでの登壇となったのかは私にもわかりません。現在、私はAWSのセキュリティコンピテンシーをグローバルで統括しており、GSIとISVパートナーの両方を含むすべてのセキュリティパートナーを担当しています。
テクノロジーとサイバーセキュリティの分野で25年の経験を持っています。キャリアの出発点はプログラマー、エンジニア、そしてアマチュアハッカーとしてでした。その後、様々な組織のセキュアなシステム構築に携わり、現在も使用されている複数のeコマースプラットフォームの開発も手がけてきました。
現在の私の主な責任は、アドバイザリーサービスを通じて、お客様やパートナー企業の戦略的なサイバーセキュリティプログラムの開発を支援することです。この役割では、AIワークロードに対する現在の攻撃の実態、そしてAIの不動産に対する攻撃について深い知見を持っています。また、組織がサイバー脅威から身を守るためにAIとMLがどのように活用されているか、そして脅威アクターによる組織への攻撃にAIがどのように使用されているかについても精通しています。
特に近年では、セキュリティ企業の製品やサービスにおいて「AIを活用した」という表現が頻繁に使用されていることに注目しています。この講演では、そうした主張の真偽を明らかにし、実際のAIの活用事例について解説していきたいと考えています。
1.2. セキュリティと事業の関係性
セキュリティがビジネスにとって重要な意味を持つことについて、私たちの理解は大きく変化してきました。従来、多くの組織において、セキュリティ機能は事業開発の障害として認識されてきました。「セキュリティ部門がまた来た」「コンプライアンスの問題がある」「制御の問題がある」という声をよく耳にし、「新製品を本番環境にリリースできない」「開発プロセスが予定通りに進まない」といった不満が頻繁に聞かれました。
しかし、近年のデータが示す重要な事実があります。強力なサイバーセキュリティのポジション、プログラム、戦略を持つ組織は、むしろ革新的な取り組みを加速させ、より速くマーケットに参入できているのです。これは単なる理論ではなく、実際のデータによって繰り返し証明されています。
私はセキュリティを自動車のブレーキに例えて説明することがあります。一見、ブレーキは車の速度を落とすためのものと考えがちです。しかし、それは本質的な目的ではありません。ブレーキは、むしろ組織がより速く前進することを可能にする技術なのです。なぜなら、適切な保護のガードレールが整備されていることで、不適切な行為を防ぎ、安全に前進できる信頼を得られるからです。コードのセキュリティが確保され、適切なガードレールが設置されているという確信があれば、より迅速に、より自信を持って事業を推進できるのです。
このように、セキュリティは事業の足かせではなく、むしろ事業を加速させる重要な要素として認識されるべきです。実際のビジネスにおいて、適切なセキュリティ対策は、より迅速で安全な事業展開を可能にする基盤となっているのです。
1.3. セキュリティの実態とコスト
今日でも約80%の企業がセキュリティを最大の課題として認識しています。この認識は、特にクラウドへのワークロード移行やクラウドでのアプリケーション展開を検討する際に顕著に表れています。私たちは繰り返しこの課題に直面しており、セキュリティが依然としてクラウド採用の大きな障壁となっている実態があります。
データ漏洩のコストについて、特に深刻な影響を受けているのが規制の厳しい業界です。医療、ライフサイエンス、金融サービスなどの分野では、データ漏洩が発生した場合の平均コストが約500万ドルに達しています。しかし、これは単なる初期コストに過ぎません。
より重要なのは、漏洩データの長期的な影響です。データが一度ダークウェブに流出し、再利用され、売買されるなどの波及効果を考慮すると、漏洩したデータ1レコードあたりの実際のコストは、時間の経過とともに約100万ドルにまで膨らむことが研究によって示されています。この数字は、データ漏洩が企業に及ぼす本当の経済的影響を示しています。
このような現状に対して、AIを活用したセキュリティソリューションが新たな希望をもたらしています。これらのソリューションを導入することで、データ漏洩の特定から封じ込めまでの期間を約100日短縮できることが実証されています。これは、生成AIと自動化技術を組み合わせることで、脅威の特定、修復、そして場合によっては自律的な対応までを実現できるようになった成果です。
2. AIとサイバーセキュリティの現状
2.1. AIを活用したセキュリティソリューション
AIとMLのサイバーセキュリティにおける現在の活用状況について、いくつかの明確な実績が出てきています。確かに、精度やデータ品質に関してまだ課題は残されていますが、サイバーセキュリティに特化したAI機能を重点的に開発する新しいプロジェクトが、十分な資金を得て進められています。
最も一般的なAIセキュリティツールは、機械学習とディープラーニングを活用して膨大なデータを分析します。セキュリティの専門家として私たちは、エンドポイントや認証から生成される大量のログ、テレメトリ、センサー情報の量を理解しています。多くの組織では、これらは数百万件規模に達することもあります。これには、膨大なトラフィックの傾向、アプリケーションの使用状況、ブラウジング習慣、その他のネットワークアクティビティデータが含まれます。
このような分析により、AIは組織固有のパターンを発見し、ベースラインを確立することが可能になります。これが有用な理由は、ベースラインが確立されると、そこから外れる活動は即座に異常として検出され、潜在的なサイバー脅威として認識されるためです。これにより、即時かつ迅速な対応が可能になります。
生成AIを活用したセキュリティツールと製品は、人間の介入を最小限に抑えるか、まったく必要とせずに、多くのサイバー脅威を検出し対応することができます。特定の脅威に直面した際に自律的にアクションを取ることができ、組織内で発生する事象から自律的に学習することができます。ブラウジング習慣、ネットワークの振る舞い、URLのクリックスルーなどを学習し、システムとの正当なアプリケーションの相互作用を学習した上で、通常とは異なる事象が発生した場合にバックエンドで防御を展開することができます。
セキュリティアナリストの作業効率化の具体例として、ゼロデイ脆弱性や1日脆弱性が発見された場合の対応があります。今日では、AIとMLを使用して「修復スクリプトを生成する」や「この脆弱性をパッチするためのコードを提供する」といった要求に対して、90-95%の作業を自動化することが可能になっています。
また、AIは大量の脅威やサイバーインシデントの指標によって引き起こされるアラート疲れにも効果的に対処します。これらを集約して「これらが優先して対応すべき脅威です」と示すことで、セキュリティ専門家に届くアラートや脅威の数を削減することができます。
このように、AIを活用したセキュリティソリューションは、データ漏洩の特定から封じ込めまでの期間を約100日短縮できることが実証されており、生成AIと自動化の組み合わせによって、脅威の特定、修復、そして場合によっては自律的な対応までを実現しています。
3. サイバー攻撃におけるAIの悪用
3.1. 高度化する攻撃手法
攻撃者たちは決して手をこまねいているわけではありません。AIとMLに関するセキュリティについて考えるとき、実は攻撃者たちの方が一歩先を行っているのです。なぜなら、彼らには何の制約もないからです。ダークウェブ上やその他で入手可能なあらゆるツールを利用して、フィッシングキャンペーンや悪意のあるスクリプトを組織に対して実行することができます。
特に懸念されるのは、HackGPTやWormGPTといったハッキングプラットフォームの出現です。これらのプラットフォームは、マルウェアの生成、ID窃取、データ流出など、さらにそれ以上の攻撃を公然と支援しています。
さらに深刻な問題として、AIとMLを使用した多形性マルウェアの出現があります。これは、検出を回避するために自身のソースコードを適応させ、変異させるマルウェアです。環境から学習し、検出を回避することで、システムに気付かれることなく侵入することができます。セキュリティ業界に携わる私たちは、シグネチャベースの識別を使用する従来の対ウイルスシステムでは、このような進化型マルウェアへの対処が極めて困難であることを理解しています。
このように、AIの悪用は、従来の防御手法では対応が難しい新たな脅威を生み出しています。攻撃者たちは制約なくAIを活用し、より洗練された攻撃手法を開発し続けているのです。これは、私たち防御側も同様にAIを活用した対策を進化させていく必要があることを示唆しています。
3.2. AIシステムへの攻撃
AIシステムへの攻撃は、入力と出力の両方の観点から考える必要があります。まず入力の側面では、プロンプトインジェクションという攻撃手法があります。これは悪意のあるプロンプトを使用してAIをだまし、データの漏洩や重要な文書の削除などの有害な行動を取らせる手法です。
出力の観点からは、データポイズニング攻撃によってAIシステムの出力を意図的に操作することができます。これは、意図的に不正なトレーニングデータを与えることでAIシステムを攻撃する手法です。トレーニングデータセットを故意に操作して、意図的にバイアスをかけることが可能です。
具体的な例を挙げると、午前2時にシステムに定期的にログインし、給与データベースや財務データベースに対して、本来アクセスすべきでない無害な活動を継続的に行うといったケースがあります。このような行動を続けることで、AIシステムは時間の経過とともにこれを正常な行動パターンとして学習してしまいます。その結果、実際に悪意のある活動を行う時が来たとき、それがAIによって検出されることなく実行できてしまうのです。
このように、AIシステムは学習データの操作によって、本来検知すべき不正な活動を正常な活動として認識してしまう可能性があります。システムの学習プロセスを悪用した、これらの高度な攻撃手法は、従来の防御手法では対応が困難な新たな脅威となっています。
3.3. フィッシング攻撃の進化
AIを活用したフィッシング攻撃は、従来の手法とは比較にならないほど高度で洗練されたものになっています。今日の課題として最も深刻なのは、セキュリティチェーンにおいて最も弱い部分である人間を標的としたフィッシング攻撃が、より複雑で文脈に即したものになっているということです。
従来のフィッシング攻撃は、私たちの経験と組織による啓発活動のおかげで、かなり検出が容易になっていました。それらは通常、「こんにちは、友達」といった一般的な言葉で始まり、不自然な文章で書かれ、緊急性を持たせて何かを要求するといった特徴がありました。
しかし現在では、英語を母国語としない世界中の攻撃者たちが、AIとMLの機能を活用して、より巧妙なフィッシングキャンペーンを展開しています。例えば、「パスワードのリセットを促すリンクをクリックさせる」というキャンペーンを特定の地域向けに、その地域の言語で生成することが可能になっています。
具体的には、ダークウェブやソーシャルメディアから収集した情報を活用して、受信者の名前を含めた個人的な挨拶から始まるメールを作成します。さらに、「アトランタの特定のユーザー群において、この特定の銀行取引でパスワードが侵害されたことが判明したため、パスワードのリセットが必要です」といった、より説得力のある文脈を提供します。
このような高度化の効果は、ハーバードビジネスレビューの研究によって数値的にも実証されています。AIと合成データを使用したフィッシングキャンペーンは、従来の手法と比較して60%も多くの参加者を騙すことに成功したのです。
さらに、内部脅威の観点からも新たな展開が見られます。AIは公開されているデータ、ソーシャルメディアのプロフィール(LinkedInを含む)、オンライン活動を分析することで、組織内のどの個人がハッキングの標的として最適かを特定することができます。これにより、より正確なターゲティングが可能になり、発見されるリスクを低減させています。実際、この手法は国家レベルの攻撃者や組織に対する大規模なキャンペーンを仕掛けようとする脅威アクターの作業の90%を担っているのです。
このように、AIを活用したフィッシング攻撃は、個人情報の活用、地域性の考慮、文脈の理解といった要素を組み合わせることで、かつてないほど精巧なソーシャルエンジニアリング手法として進化を遂げているのです。
4. AIセキュリティの4本柱
4.1. AI/MLシステムの保護
AIとMLに関するセキュリティを考える際、私たちは4つの重要な柱に分けて考えています。その最初の柱が、AIとMLシステム自体の保護です。これは大規模言語モデル、AIシステム、そしてそのデータの完全性を保護することを意味します。
具体的には、AIの不動産、つまりAIシステムそのものとその周辺環境の保護が重要です。大規模言語モデルのセキュリティを確保し、データの完全性を維持することは、AIシステムの信頼性を担保する上で不可欠です。
この保護には、システムへのアクセス制御、データの暗号化、そして定期的なセキュリティ評価が含まれます。これらの対策は、従来のITシステムの保護と同様に重要ですが、AIシステムの特性を考慮した独自の保護手法も必要となります。
特に重要なのは、学習データの保護です。AIシステムはその学習データに大きく依存するため、データの改ざんや汚染を防ぐための措置が不可欠です。これには、データの出所の確認、整合性のチェック、そして不正なデータの混入を防ぐための監視システムの構築が含まれます。
このように、AI/MLシステムの保護は、システム自体の保護とデータの保護という二つの側面から総合的に取り組む必要があります。これは他の保護対策の基盤となる重要な要素なのです。
4.2. AI活用型攻撃からの防御
AIセキュリティの第二の柱は、AI活用型攻撃からの防御です。従来型の攻撃手法は依然としてAIモデルに対して有効である一方で、新たにAIを活用した攻撃手法も出現しています。我々はこの二つの脅威に同時に対応しなければなりません。
従来型の攻撃は、シグネチャベースでの検出や既知のパターンに基づく防御が可能でした。しかし、AI活用型の攻撃は、その動的な性質と適応能力により、従来の防御手法では対応が困難です。例えば、多形性マルウェアは従来の対ウイルスシステムでは検出が難しく、AIシステムを標的としたデータポイズニング攻撃は、システムの学習プロセス自体を歪める可能性があります。
効果的な防御戦略として、私たちは防御側のAIシステムも継続的に学習と適応を行う必要があります。具体的には、異常検知のためのベースラインを確立し、そこからの逸脱を即座に検出できるシステムの構築が重要です。さらに、AIによる自動化された対応と、人間の専門家による判断を適切に組み合わせることで、より強固な防御体制を構築することができます。
これらの防御は、単一のソリューションではなく、複数の防御層を組み合わせた包括的なアプローチが必要です。特に、AI活用型攻撃に対しては、攻撃者と同等以上の技術力を持って対応する必要があります。
4.3. セキュリティ運用でのAI活用
セキュリティ運用におけるAIの活用は、AIセキュリティの第三の柱として重要な位置を占めています。検知、対応、予測のための活用において、AIは従来の手作業では不可能だった規模と速度での分析を可能にしています。
私たちは、最も一般的なAIセキュリティツールとして機械学習とディープラーニングを活用し、膨大なデータを分析しています。これには、エンドポイントや認証から生成される何百万件ものログ、テレメトリ、センサー情報が含まれます。組織内のトラフィックの傾向、アプリケーションの使用状況、ブラウジング習慣、その他のネットワークアクティビティデータなど、あらゆる情報を分析対象としています。
実務での具体的な適用例として、AIは組織固有のパターンを発見し、ベースラインを確立することができます。これにより、ベースラインから外れる活動を即座に異常として検出し、潜在的なサイバー脅威として認識することが可能になります。このような異常が検出された場合、AIは自律的に対応アクションを実行することもできます。
特に、セキュリティアナリストの業務効率化において大きな成果を上げています。例えば、ゼロデイや1日脆弱性が発見された場合、AIを使用して修復スクリプトを生成したり、脆弱性のパッチを作成したりすることができます。これらの作業の90-95%を自動化できることが実証されています。
さらに、AIは膨大な量の脅威やサイバーインシデントの指標によって引き起こされるアラート疲れの問題にも対処しています。AIが脅威を優先順位付けし、圧縮することで、セキュリティ専門家が対応すべきアラートと脅威の数を大幅に削減することができます。これにより、セキュリティチームは本当に重要な問題に集中することが可能になっています。
4.4. 自動化と意思決定におけるGenAIの役割
生成AIとセキュリティの自動化は、AIセキュリティの第四の柱として重要な位置を占めています。現在、生成AIを活用したセキュリティツールと製品は、人間の介入を最小限に抑えるか、まったく必要としない形で多くのサイバー脅威に対応できるようになっています。
自動化可能な意思決定の範囲として、特定の脅威に直面した際の自律的なアクション実行が挙げられます。例えば、組織内でのブラウジング習慣、ネットワークの振る舞い、URLのクリックスルーなどを学習し、システムとの正当なアプリケーションの相互作用を理解した上で、異常が検出された場合に自動的に防御を展開することができます。
また、脆弱性への対応も自動化の重要な領域です。ゼロデイや1日脆弱性が発見された場合、生成AIは修復スクリプトの生成やパッチコードの提供において、作業の90-95%を自動化することが可能です。
しかし、人間の判断が必要な領域も明確に存在します。例えば、新たな種類の攻撃パターンの評価や、誤検知の可能性が高いケースでの最終判断、組織のセキュリティポリシーに関わる重要な決定などは、依然として人間の専門家による判断が不可欠です。特に、コンテキストの理解や組織固有の状況を考慮した判断が必要な場合は、AIによる自動化には限界があります。
このように、生成AIと自動化は、定型的で大量の処理が必要な業務を効率化する一方で、戦略的な判断や複雑なコンテキストの理解が必要な領域では、人間の専門家との適切な役割分担が重要となっています。
5. 実例:自律型セキュリティとコンプライアンス
5.1. Amazon Bedrockを活用したソリューション
これまでの理論的な説明を実践的な例で示すため、私たちのパートナーが開発した実際のソリューションについてご紹介します。このソリューションは「自律型セキュリティとコンプライアンス」と呼ばれ、Amazon Bedrockを活用して構築されています。
このソリューションの主な特徴は、移行中および移行後の顧客ワークロードが必要なセキュリティとコンプライアンス基準を満たすことを支援する、カスタマイズされた制御フレームワークとロードマップを提供することです。具体的には、世界中から収集された膨大なデータを活用しています。これには、MITREのデータベース、共通脆弱性および露出(CVE)データベースの情報、CISAの既知の脆弱性カタログ、さらには世界中のセキュリティオペレーションセンターから受信したセンサーやテレメトリからの実世界のデータが含まれます。
このソリューションは、ペタバイト規模の情報を処理することが可能です。例えば、APACリージョンやEMEAで検出されたマルウェアシグネチャに関する情報を、アメリカ地域と共有することができます。これにより、グローバルな脅威インテリジェンスのリアルタイムな共有と活用が可能になっています。
機械学習とディープラーニングを活用して、組織内のトラフィックの傾向、アプリケーションの使用状況、ブラウジング習慣、その他のネットワークアクティビティデータなど、膨大なデータを分析します。この分析により、AIは組織固有のパターンを発見し、そのベースラインを確立することができます。これは、組織にとって何が優先事項であるかを理解する上で重要な役割を果たしています。
このように、Amazon Bedrockを活用したソリューションは、グローバルな脅威インテリジェンスと組織固有のパターンを組み合わせることで、より効果的なセキュリティとコンプライアンスの管理を実現しています。
5.2. グローバルなインシデントデータの活用
私たちのソリューションは、世界中の様々なソースから大規模なデータを収集し活用しています。具体的には、MITREのデータベース、共通脆弱性および露出(CVE)データベースの情報、CISAの既知の脆弱性カタログからの情報を統合しています。これに加えて、世界中のセキュリティオペレーションセンター(SOC)から受信したセンサーやテレメトリからの実世界のデータも取り込んでいます。
このデータ統合の規模を理解するために、私たちはこれをペタバイト単位の情報として扱っています。例えば、APACリージョンやEMEAで検出されたマルウェアシグネチャに関する情報を、アメリカ地域のシステムと共有することができます。これは、世界中の異なる地域で発生している脅威に関する情報をリアルタイムで共有し、活用できることを意味します。
このグローバルな情報共有の仕組みにより、新たな脅威が発見された場合、その情報は即座に世界中のシステムに展開されます。これにより、ある地域で発見された脅威に対して、他の地域が事前に準備を整えることが可能になります。このような予防的なアプローチは、サイバーセキュリティの効果を大きく向上させています。
5.3. 実際のインシデント対応事例
私たちの自律型セキュリティソリューションの実際の有効性を示す具体的な事例をお話ししたいと思います。これは実際に起きた事例なのですが、インドネシアにある顧客のウェブサイトで発生したインシデントへの対応です。
このケースでは、ウェブサイトが改ざんされ、マルウェアが展開されました。このマルウェアは、コマンド&コントロールサーバーとして機能し、データの流出を試みると同時に、組織内で水平方向への展開を図ろうとしていました。このインシデントは、AIシステム導入以前に検出されましたが、その後の対応においてAIシステムが重要な役割を果たしました。
シグネチャが認識され、その情報が組織全体に共有されると、AIシステムは即座に行動を開始しました。AIは組織の分析を行い、インドネシアの子会社で発生した問題と同様の脆弱性を持つサーバーが、組織全体の24%に存在することを特定しました。
AIシステムは、この分析結果に基づいて自律的に対応を実施しました。具体的には、これらのサーバーを適切なレベルまでパッチ適用するための措置を自動的に実行しました。さらに、すでにマルウェアに感染している可能性のあるサーバーを特定し、自動的に隔離措置を実施しました。
このケースで特筆すべきは、最初の検出は従来の方法で行われましたが、その情報がAIシステムに入力されると、AIは自律的に意思決定を行い、必要な対策を実施できたという点です。これにより、同様の脆弱性を持つ他のシステムへの予防的な対策が、人間の介入を最小限に抑えながら迅速に実施されました。これは、AIによる自動化された対応の効果を示す良い例となっています。
6. AIセキュリティの課題
6.1. ブラックボックス化の問題
AIセキュリティの課題に関して、私の個人的な見解として、最も懸念されるのはAIシステムのブラックボックス化の問題です。現在、多くの企業がAIシステムやアプリケーションを構築していますが、それらを一種のブラックボックスとして扱い、「このAIシステムが特定の決定をどのように下したのか、私たちにもわかりません」と公に説明しています。
これは完全に誤りであり、不正確な主張です。コンピュータが行うすべての処理をログに記録することは、基本中の基本です。約1年前にも、多くの大手企業が同様の主張を行い、「情報を入力しているが、AIがどのように偏った情報を出力したのかわからない。これがAIとLLMの仕組みだ」と説明していました。
しかし、これは完全な誤りです。企業は本当に透明性を確保することができますし、むしろそうすべきです。私たちはAIシステムがどのような判断を下したのか、その判断が意図的に偏っていたのかどうかを説明できるように、企業の責任を追及すべきです。
企業はAIによる意思決定プロセスの透明性を確保できます。そのためには、適切なログ記録と監査の仕組みを実装することが不可欠です。これはAIシステムの信頼性を確保し、説明責任を果たす上で極めて重要な要素となります。
6.2. セキュリティ基礎軽視の傾向
現在、セキュリティ分野における懸念すべき傾向として、企業がAIを最優先事項として捉え、基本的なセキュリティを軽視してしまう問題があります。毎日のように新しいセキュリティスタートアップが誕生していますが、多くの企業がセキュリティの基礎を適切に構築する前に、AIでの先行を目指しています。
これは非常に大きな問題です。なぜなら、AIは確かに素晴らしいツールですが、まずはセキュリティの基本を適切に実装することが不可欠だからです。AIはあくまでも既存のセキュリティ機能を強化し、リアルタイムの防御能力を向上させ、より迅速な対応を可能にするための補完的なツールとして活用されるべきです。
適切なAIの活用とは、セキュリティの基礎をしっかりと固めた上で、その機能を拡張し、効率を高めるために導入することです。基本的なセキュリティ対策を軽視したまま、AIだけに依存することは、かえってリスクを高めることになりかねません。
私たちは、AIの活用を検討する企業に対して、まずは基本的なセキュリティ基盤の整備を優先するよう助言しています。その上で、組織の特性やニーズに応じて、適切なAIソリューションを段階的に導入していくアプローチを推奨しています。
6.3. AI活用の誇大広告
セキュリティ業界において、「AI活用」を謳う製品やサービスの誇大広告が深刻な問題となっています。特に懸念されるのは、今日のセキュリティ企業が「AIを活用した」という表現を、実際のAI活用の有無に関わらず、あらゆる製品やサービスの前に付けている現状です。
私は、このような誇大広告に直面した際の具体的な事例をお話ししたいと思います。セキュリティ企業に対して、AIの活用についてより詳しく調査したところ、「AIを活用している」と主張する製品の実態が、単にカスタマーサポートの質問に対応するチャットボットを導入しているだけというケースがありました。これは冗談ではなく、実際に起こった事例です。このような企業に対して、「それは製品全体がAIを活用しているとは言えないのではないか」と指摘しましたが、これは業界全体で見られる問題です。
このような状況に対して、私は全ての皆様にセキュリティ企業のAI活用に関する主張を慎重に評価することをお勧めします。AIを活用していると主張する製品やサービスを見かけた際は、必ずダブルクリックして、実際のユースケースを確認してください。AIがどのように活用されているのか、具体的にどのような価値を提供しているのかを詳細に確認することが重要です。
このような評価を通じて、真にAIを効果的に活用している製品やサービスと、単にマーケティング用語としてAIを利用している製品やサービスを区別することができます。セキュリティ製品の選定においては、このような詳細な評価が不可欠です。
6.4. ゼロトラストの重要性
最後に、今日のセキュリティにおける重要な原則として、ゼロトラストについてお話ししたいと思います。従来の「Trust but Verify(信頼するが、検証する)」という考え方は、もはや時代遅れとなっています。今日の私たちのモットーは「Never Trust, Always Verify(決して信頼せず、常に検証する)」です。このゼロトラストの実践が、AIの膨大で関連性の高いデータセットを活用することで、より容易になってきています。
特に、組織の行動パターンを学習したAIシステムを活用することで、より効果的なゼロトラストの実装が可能になっています。これにより、常に検証を行いながらも、業務の効率性を損なうことなくセキュリティを確保することができます。
インシデント対応に関して、私は重要な認識を共有したいと思います。セキュリティ専門家として、私たちは「ブリーチ疲れ」が現実のものであることを理解しています。組織は、すでに侵害を受けて対応中か、まだ侵害を受けていることに気付いていないかのどちらかの状態にあります。しかし、重要なのはブリーチ自体は災害ではないということです。災害となるのは、それを適切に処理できなかった場合です。
このような認識のもと、自律型セキュリティとコンプライアンスシステムのような新しいツールと機能が、これらの攻撃からの防御を支援し、インシデントの影響を迅速に軽減することができると私たちは考えています。AIを活用したゼロトラストアプローチは、インシデントの予防と、発生した場合の迅速な対応の両方に貢献します。
このように、ゼロトラストとAIの組み合わせは、現代のサイバーセキュリティにおける重要な戦略となっています。これは単なる技術的な対策ではなく、組織全体のセキュリティ文化として定着させる必要があります。