0
会員(無料)になると、いいね!でマイページに保存できます。
共有する
マイクロソフトは2026年2月13日、同社のコミュニティサイト「Microsoft Community Hub」への投稿を通じて、企業向けAI機能「Microsoft 365 Copilot Chat」においてコードの不具合があり、機密メールの内容が表示された事象があったことを明らかにした。投稿では、問題の原因がソフトウェア内部のコードエラーにあったと説明し、マイクロソフトが修正対応に取り組んでいると記している。なお、この件についてマイクロソフトがニュースリリースやセキュリティアドバイザリとして独立した公式声明を公表している事実は、現時点で確認できていない。
Copilot Chatは、Microsoft 365環境内のデータを基に、自然言語による指示に応じて回答や要約を生成する機能を持つ。マイクロソフトが公開している技術資料では、Copilotはユーザーに付与されたアクセス権限の範囲内で動作し、組織のセキュリティ設定やデータ保護ポリシーに基づいて情報を処理する仕組みであると説明されている。
当該コミュニティ投稿では、Microsoft 365テナントにおいてAIへのアクセス制限機能を適切に利用することの重要性にも言及しているが、影響範囲や発生件数などの詳細な情報は示されていない。また、投稿は技術コミュニティ内のディスカッションとして公開されているものであり、公式の製品リリースノートやセキュリティ更新情報として発表されたものではない。
Microsoft 365における情報保護については、データ損失防止(DLP)や機密ラベルの設定などにより、CopilotやCopilot Chatによる機密情報の処理を制御できると公式資料で説明されている。企業が生成AI機能を活用する際には、こうした既存のアクセス制御やデータ保護設定を適切に構成することが前提となる。
評価する
いいね!でぜひ著者を応援してください
会員(無料)になると、いいね!でマイページに保存できます。
関連タグ