- 会員限定
- 2026/02/18 掲載
【ガートナー解説】AI時代のデータ保護「必須アプローチ3選」とは?推奨ツールも紹介
なぜ生成AI「情報漏洩リスク」が警戒されるのか
生成AIの企業利用が急伸する中、そのことに起因する情報漏洩リスクを指摘する声が日増しに高まっている。ガートナー2025年2月に国内で行った調査結果を見ても「不安を抱えている」との回答は全体の56.6%と過半数に達している。では、生成AIによる情報漏洩を危惧する声がこれほど多いのはなぜなのか。理由はデータのユーザーの“人”から“生成AI”に置き換わる点に集約される。
たとえばファイルサーバだ。そこには多様な情報が情報共有のため格納されている。ただし、人が探せる範囲は限界があり、保存場所を知らなければ重要情報にたどり着くのは困難だった。
だが、ユーザーが生成AIに置き換わることで状況は一変する。機械による高速な自動探索により探索範囲が大きく拡大し、そこでの学習、さらに回答生成を通じ、重要情報の拡散性が一気に高まる。
こうした状況に対し、「生成AIでもセキュリティと使い勝手のバランスを検討する動きがすでに出始めています。ただ、対策を進めるにあたっては、データ管理に関する別の視点も必要となるはずです」と語るのは、ガートナー シニア ディレクター,アナリストの 矢野薫氏である。
矢野氏が対策を進めるにあたり、新たに目を向けるべき対象として挙げるのが“人”だ。業務で生じるデータの多くは今でも人手で管理されており、その厳格化は生成AI活用を問わずデータ管理において重要だ。
そこでの矢野氏の仮説が「業務への忠誠心が高い人ほど、取り扱うデータの扱いがていねい」である。
「日本企業では本来の仕事以外のことを一時的に任されることが少なくありません。仮説が正しいとすれば、その際の情報管理はずさんになっていると容易に推察できます」(矢野氏)
では、この考えを踏まえた上で、「人」にフォーカスした適切なセキュリティ対策を講じていくにはどうすればよいのだろうか。 【次ページ】当事者意識が「みんな低い」ワケ
セキュリティ総論のおすすめコンテンツ
セキュリティ総論の関連コンテンツ
PR
PR
PR