- 2026/03/31 掲載
ガートナー流、生成AIの安全活用を実現する「4つの戦術」…有効なツールも解説(3/4)
戦術3:「続々登場」のリスクへの“処方箋”
次にジャオ氏は、少しアングルを変えて「新たなアタックサーフェスに対処する」という3つ目の戦術を紹介する。同氏によると、生成AIの活用が急速に広がる中、従来には存在しなかったリスクが次々と顕在化しているという。まず懸念されるのは承認されていないアプリケーションの利用だ。個人的に使用しているChatGPTに社内の機密データを入力してしまうと、意図せず外部に情報が流出する可能性がある。さらに「RAG(Retrieval-Augmented Generation)」を導入すれば、社内データベースへのアクセスが容易になり、顧客データを含む重要情報が漏洩する恐れもある。
また、オープンソースLLMを利用する際には、見えにくい脆弱性やライセンス面の不確実性が潜んでおり、思わぬリスクを招くと指摘する。加えて、著作権侵害による訴訟リスクや、不正確な出力やハルシネーションに基づく誤った意思決定も、企業経営に大きな打撃を与えかねない。ジャオ氏は「技術上のリスクは、取締役会が最も注視しているビジネスリスクと直結しています」と強調する。
こうした生成AIに関連するセキュリティ脅威は、AIを使う立場ごとに性質が異なる点にも注意が必要だ。
「ユーザーはしばしばリスクの高いシャドウAIを利用し、開発者はセキュリティ面の検証が不十分なモデルやアプリケーションを構築してしまいます。一方でセキュリティ担当者は、断片的で未成熟なツールを使って防御を試みるに過ぎない。結果として、攻撃者が新しい技術をいち早く使いこなす構図が生まれ、守る側が常に後手に回ることがあります」(ジャオ氏)
では、こうした新たなアタックサーフェスにどう対応すべきか。ジャオ氏は「まずはガバナンス体制とワークフローを定義することから始めてください」と説明する。自社のAI利用実態を把握することが出発点であり、「AIは誰が何に使っているのか」「どの種類のデータにアクセスし、処理しているのか」を明確にする必要があるとのことだ。
その上で、すべてのユーザーが目にできる「AI許容使用ポリシー」を策定することを推奨した。その際には、内容は簡潔かつ具体的であることが重要だという。
たとえば「顧客データを公開チャットボットに貼り付けてはいけない」といった明確な指針を示すだけでも、リスクは大きく低減できる。さらに一歩進んだ企業では、事業部ごとに想定されるリスクを定義し、部門や職務に応じて利用範囲を細かく規定するマトリックス型のポリシーを整備しているとのことだ。
これにより「このロールはこの条件で利用可能」「このケースではプライベート環境を利用すべき」といった具体的な運用ルールを定義でき、モニタリングやユーザー行動分析の基盤を形成可能になる。短期的には被害の抑制に、長期的には統制の強化に寄与する仕組みである。
さらに将来的には、プロンプトエンジニアリングやAPI連携に関する対策が不可欠になると説く。
「APIのセキュリティは妥協できない分野であり、近年は特に注目度が高まっています。すべてのAI接続を検証し、アクセス先や利用範囲を細かく確認する体制が求められる。より機密性の高いデータに関してはプライベートホスティングを選択することが望ましいです」(ジャオ氏)
ただ、「社内環境にホストしているからといって100%安全だと思ってはいけません」と警告する。今後は、生成AI固有のリスクに既存の対策が対応できているのかを事前に精査し、適切に補強しておくことが欠かせないと言えるだろう。
戦術4:効果バツグンの「セキュリティツール」とは
では、どういったセキュリティツールがAIのセキュリティ体制の構築に有効なのだろうか。生成AIの活用が急速に進む今、セキュリティリーダーは複雑なツール群とアーキテクチャを前に、どこから投資すべきかを冷静に判断しなければならないという。そこで重要になるのが、3つ目の戦術「さまざまなセキュリティツールからどのような価値を得られるかを判断する」である。ジャオ氏は、AIセキュリティ・プロダクト/ベンダーのエコシステムの図を示す。
ジャオ氏によると、まず取り組むべきは基本の確認だという。従来型のセキュリティツールにも有効なものは多い。たとえば、SSEを用いれば悪意あるプロンプトをフィルターでき、CSPM(クラウドセキュリティポスチャマネジメント)によってクラウド上のAI環境を守ることも可能だ。既存のツールで十分に保護できているかを見極め、不足があればAIゲートウェイやAIセキュリティプラットフォームの導入を検討すべきだと同氏は指摘する。
AIセキュリティプラットフォームは、急速に立ち上がってきている新しい市場であり、利用と構築の両方を支援する。AIツールのインベントリー管理、シャドウAIの発見、セキュリティテストを提供するほか、利用面ではユーザーのプロンプトに含まれる機密データや未承認サービスをブロックする機能を持つ。
また、自社構築のケースでは、プロンプトインジェクションやジェイルブレイク、出力データの漏えいを防ぐガードレールを提供するという。さらにRAGの利用においては、認可されたアクセスかどうかを確認し、取得コンテンツの妥当性を検証できる。モデルスキャンではサプライチェーンリスクに関わる脆弱性や悪意のあるコードを検出することも可能だ。
「AIを守るには、セキュリティツールそのものも進化する必要があります。つまり『AI対AI』なのです」とジャオ氏は強調する。
ただしツールは万能ではない。「AIはあくまでシートベルトであって自動運転ではありません」とジャオ氏は強調する。セキュリティにおけるAI活用は補強であって、決して人間の役割を置き換えるものではなく、ツール選定の際は、自社に最適なものを見極め、チームの能力を補強する視点が不可欠であると説く。
では、どのように判断すればよいのか。ジャオ氏は4つのポイントを示した。
- 自社におけるAI導入パターンを見極めること。サードパーティ製か、SaaSアプリケーションか、自社開発か、あるいはその組み合わせかを把握する。
- AIセキュリティのリスクをユースケースに対応させること。業務プロセスやデータの性質に基づいて具体的なリスクをマッピングする。
- 「可視性」と「関与の深さ」を考慮すること。導入済みツールの機能やモデル提供側のガードレールを確認し、どの程度の可視性と制御を得られるかを評価する。
- 自社の運用能力を客観的に評価すること。ブラウザ拡張機能やAIエージェント、プロキシ、APIなどに対し、どのレベルの制御が必要かを判断することが重要である。
「ツールは数多く存在しますが、それぞれの価値を正しく見極め、セキュリティチームを強化するために活用してください」(ジャオ氏) 【次ページ】戦術5:経営層の説得に必要な「測定」実践法
AI・生成AIのおすすめコンテンツ
AI・生成AIの関連コンテンツ
PR
PR
PR