• 会員限定
  • 2026/02/24 掲載

誤回答で訴訟に発展?ガートナー流「生成AIリスク」を回避する“4つのチェック項目”

会員(無料)になると、いいね!でマイページに保存できます。
生成AIは今や、ITベンダーが提供する多様なサービスに組み込まれつつある。ただし、この状況にあって、多くの企業でAIサービスの利用ルールが未整備なのが実態だ。状況を放置していては、生成AIに起因するトラブルが生じる可能性が高い。ガートナーの土屋隆一氏が、生成AI利用のリスク回避法について指南する。
執筆:畑邊 康浩
photo
ベンダーのリスクを有効に管理するステップを解説する
(出典:ガートナー(2025年7月))

生成AI利用「ルールあり」企業は23%

 生成AIサービスの利用の伸びが著しい。ガートナーが今年3月に行った調査によれば、「ベンダーが提供する生成AIサービスを利用中」との回答は全体の63%に達している。

 ただし、その中で課題として指摘されるようになったのが生成AI利用のガバナンスだ。生成AIのリスクは、入力情報がAIの学習に用いられることでの情報漏洩や、生成物の著作権侵害などの例で一般に知られるようになった。

 この具体例として、「海外ではハルシネーションなどを原因とするAIチャットボットの誤回答が顧客からの訴訟に発展するケースも出ています」と話すのは、ガートナー シニア ディレクター,アナリストの土屋隆一氏だ。

photo
ガートナー
シニア ディレクター,アナリスト
土屋隆一氏

 土屋氏によると、そうした事態の回避に向け、サービス利用に関する何らかのルール整備が不可欠だという。だが、現実に目を転じれば、「社内共通ルールや基準がある」との回答は全体のわずか23%にとどまる。生成AIサービスは事務管理や顧客対応、さらに経営戦略の立案など、基幹業務での利用が始まりつつあり、このままでは重大な事故が発生しかねない。

「生成AIサービスは多くの企業でトライアルを終え、本格利用が始まろうとしています。一方で、国内では『AI事業者ガイドライン』『行政向け生成AI調達・利活用ガイドライン』などの整備も進んでいます。それらはリスク対策の検討で大いに参考となり、判断基準が整備された今こそ対策に乗り出す絶好のタイミングと言えます」(土屋氏)

 では、その対策は具体的にどんなステップで進めていけばよいのだろうか。 【次ページ】情報漏えい対策に必須「4つのステップ」
関連タグ タグをフォローすると最新情報が表示されます
あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

基本情報公開時のサンプル画像
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます

基本情報公開時のサンプル画像