• 2026/03/31 掲載

ガートナー流、生成AIの安全活用を実現する「4つの戦術」…有効なツールも解説

2
会員(無料)になると、いいね!でマイページに保存できます。
生成AIの組織内で活用が活発になる中、セキュリティリーダーは、生成AIのさまざまなビジネス向けのユースケースの安全な拡大に向けて強固なガバナンスを提供するという課題を抱えている。生成AIの活用と利用拡大を安全に進めるにはどうすればいいのだろうか。ガートナーのアンジェラ・ジャオ氏が、効果的な4つの戦術を解説する。
執筆:翁長 潤
photo
CISOの役割の4つのフェーズ

不正なAIトランザクションの多数を占める「ある割合」

 まず、ジャオ氏は「AIというのは日本ではまだ広範囲に使われていないと聞いていました。しかし今回、多くの方とお会いして、かなり進んでいる、新しいテクノロジーを先に行こうという意思を感じました。セキュリティリーダーとしては、まず堅牢な基盤整備が出発点となります」と説明した。

 ジャオ氏によると、そこで重要となるのが「AI TRiSM(AIトラスト・リスク・セキュリティ・マネジメント)」である。AI TRiSMとは、ガートナーが近年定義した概念だ。AIモデルやアプリケーションを放置すれば重大なリスクが生じかねない。AI TRiSMはそうしたリスクを能動的に特定・軽減し、確実性・信頼性・セキュリティを担保するフレームワークを指す。

 
画像
【画像付き記事全文はこちら】
ガートナー
シニア ディレクター, アナリスト
アンジェラ・ジャオ氏

 また、ガートナーの予測では「2026年末までに不正なAIトランザクションの少なくとも80%は、外部攻撃ではなく、情報の過剰共有や不適切利用、誤ったAIの振る舞いに関する社内ポリシー違反から発生する」とされている。ジャオ氏は、最大のリスクは外部のハッカーではなく内部に存在すると指摘した上で、教育、ポリシー策定、そして監督体制の強化が不可欠だと話す。

 さらにジャオ氏は、生成AIには「不透明なガバナンス」「膨大なビジネスニーズ」「ツールごとに異なる価値」「新たなアタックサーフェス」「明確な評価指標の欠如」という5つの主要な課題があると指摘。「これらの課題に対応する戦術を講じ、セキュアでイノベイティブなAIドリブン未来に備えることが、今まさに私たちに求められているのです」と強調する。では、その戦術とは、具体的に何を指すのだろうか。 【次ページ】戦術1:まず意識したい「連携戦術」とは
関連タグ タグをフォローすると最新情報が表示されます
あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

基本情報公開時のサンプル画像
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます

基本情報公開時のサンプル画像