- 会員限定
- 2024/03/13 掲載
ChatGPTの情報漏えいをどう防げばいいのか? 続々登場する新ソリューションの仕組み
生成AI活用による生産性向上、40%のパフォーマンス向上も
コンシューマ向けにリリースされたChatGPTだが、企業向けのChatGPT Enterpriseの登場により、企業における利用も増えている。OpenAIは2023年8月の発表で、米大手企業フォーチュン500(全米総収益企業ランキング上位500社)のうち80%の企業がChatGPTを利用していることを明らかにした。
マッキンゼーが同月に発表した調査では、ビジネス機能別に見た企業における生成AI利用は、マーケティングが14%で最も多いことが判明。このほかのビジネス機能では、プロダクト/サービス開発が13%、サービスオペレーションが10%、リスク管理が4%、戦略・コーポレートファイナンスが4%などだった。
それからおよそ半年。Statistaが2024年2月19日に発表したグローバル企業における生成AI利用の現状をまとめたレポートは、昨年に比べ企業における生成AI利用がかなり進んでいる状況が反映されたものとなっている。
ビジネス機能別の生成AI利用割合は、IT/サイバーセキュリティ46%、マーケティング/セールス/カスタマーサービス41%、プロダクト開発/研究開発41%、戦略/オペレーション35%、サプライチェーン29%、ファイナンス25%、人事23%、法務21%と軒並み高い割合が示された。
生産性改善やコスト削減につながるとの期待が企業の生成AI利用を後押ししている。
AIトレーニングとデータ漏えいリスク
生産性改善やコスト削減の可能性を裏付ける調査は多数発表されており、企業における生成AI活用機運は拡大の一途だ。しかし、生成AIに関するリスク懸念が完全に払拭された訳ではなく、生成AIを活用する上でのリスクを下げるための取り組みを模索する動きも活発化しつつある。たとえば、生成AIが嘘をつく「ハルシネーション」問題に対しては、RAG(Retrieval Augmented Generation)アプローチを用いるなどの対策が講じられている。
企業が懸念する主要リスクの1つとなるのが「データ漏えい」だ。生成AIに機密情報を入力してしまうと、その情報がAIのトレーニングに利用され、他のユーザーが利用した際のアウトプットとして生成される可能性がある。
ChatGPTが登場した当初、いくつかの企業で社内におけるChatGPT利用を禁止する動きがあったが、その主な理由となっていたのがこのデータ漏えいだった。2023年1月、アマゾンはChatGPTに、社員がコードや機密情報を入力することを禁止。アマゾン社内の機密データに似た情報がChatGPTのアウトプットとして生成されたことが理由という。
こうした懸念を受け、OpenAIはChatGPT Enterpriseを展開するにあたり、インプットデータをAIのトレーニングに利用しないポリシーを設定、また暗号化などエンタープライズグレードのセキュリティ/プライバシー対策を導入したことをアピールし、懸念の払拭を試みている。 【次ページ】センシティブデータを検出するAIツール
関連コンテンツ
関連コンテンツ
PR
PR
PR