- 会員限定
- 2024/01/04 掲載
生成AI活用で「必須すぎる」セキュリティ対策、事例に学ぶ具体的な対策手法とは
新たなAIツールはすでに社員が利用している
CISOとCIO(最高情報責任者)は、生成AIの登場を期待と懸念の両方も持って迎えています。生産性向上やスキル不足に悩むITチームとセキュリティチームの補強につながるといった生成AIの機能については十分承知しているものの、こうしたメリットとこの革新的なテクノロジーがもたらす新たなリスクを天秤に掛けて慎重に比較しています。ここでは、生成AIの自社環境への導入(自社の業務で活用する視点と自社のソフトウェアなどのプロダクトに組み込む視点)について、ITリーダーやセキュリティリーダーからよく寄せられる質問とその答えの一部を紹介します。
まず、企業のセキュリティリーダーに現実をお伝えします。生成AIツールはすでに社内で利用されている可能性があります。だれでも非常に手軽に利用でき、日常的なタスクを簡素化できるからです。
たとえば、営業担当者は見込み顧客に送るメールの優れた文面を必要としており、生成AIを使えばあっという間に書き上がります。サポートチームが必要とする組織のナレッジベース用の説明も同様です。
マーケティングチームが必要とするパンフレット用の画像も、AIモデルにプロンプトで指示するだけで、ストック画像から最適なものを探し出すよりもずっと早く用意できます。
急いでコードを記述しなければならないソフトウェアエンジニアにも、作業を肩代わりできる専用のモデルがあります。 こうしたユースケースがなぜ生まれているのか。それは生成AIによって、時間を節約し、生産性を高め、あらゆる部署の日常業務がもっと便利になる、という生成AIの抗えない魅力があるからにほかなりません。
生成AIのデメリット「ハルシネーション」とは?
では、デメリットはどこにあるのでしょうか。第1に、こうしたツールの多くは、インターネット上でホスティングされているか、オンラインコンポーネントを使用しています。組織の専有データや顧客データを送信する場合、そうしたツールの利用規約には機密性、セキュリティ、コンプライアンスに関する記述がほとんどありません。さらには、送信されたデータがAIのトレーニングに使用され、見込み顧客の名前や連絡先が永久にモデルの重み付け用に残される可能性があります。つまり、生成AIツールを検討する際には、他社ベンダーが提供するツールを検討する際と同じ慎重さが必要なのです。
重要な懸念の2つ目は、AIモデルが間違った情報をもっともらしく提供する「ハルシネーション」を起こす傾向があるという問題です。こうしたモデルは、トレーニングの過程で「正確な回答」ではなく、「正確そうに見える回答」を提供するよう条件付けされます。この問題が実際に起きた例として、裁判所に虚偽の判例を引用した書面を提出し、ChatGPTにだまされたと述べた弁護士の例が挙げられます。
さらに、著作権に関するさまざまな問題もあります。最近の事例をひとつ挙げると、Getty Imagesは、同社の1200万点の画像を許可なくAIモデルのトレーニングに使用したとして、StabilityAIを提訴しました。 【次ページ】自社ソフトウェアに生成AIのコードを組み込む場合の注意点
関連コンテンツ
関連コンテンツ
PR
PR
PR