- 2023/08/19 掲載
アングル:職場に広がるチャットGPT、セキュリティー面で懸念
世界各国の企業は、チャットGPTをどう活用するのが最善か、検討を進めている。チャットGPTは、生成AIを利用してユーザーと会話し、さまざまな質問に答えを返す「チャットボット」プログラムだ。だがセキュリティー関連企業からは、知的財産や戦略の漏洩につながりかねないという懸念の声が上がっている。
日常業務の支援におけるチャットGPTの活用例としてよく挙げられるのは、メールの下書きや文書の要約、予備的な調査などだ。
ロイター/イプソスでは7月11日から17日まで、オンラインで人工知能(AI)に関するアンケートを実施した。回答者の約28%が日常的にチャットGPTを業務で活用していると答える一方で、勤務先がそうした外部ツールの利用を明確に認めているという回答は22%に留まった。
今回の調査は全米の成人2625人を対象とし、その精度は、誤差プラスマイナス約2%ポイントとなっている。
回答者の約10%は、上司から明確に外部のAIツールの利用を禁止されていると述べたが、約25%は、勤務先が生成AI技術の使用を許可しているか否かを知らないと答えた。
11月の提供開始以来、チャットGPTのアプリは史上最速の成長を見せている。チャットGPTは興奮と警戒を同時に呼び起こし、開発元のオープンAIは特に欧州で規制当局との対立に巻き込まれた。欧州では、プライバシー保護当局がチャットGPTによる大規模なデータ収集をやり玉に挙げている。
他企業から派遣された人間のレビュアーが、生成されたチャットを閲覧できる可能性があり、また研究によれば、類似のAIが学習を行う際にチャットGPTが吸収したデータを複製する可能性があり、機密情報に関する潜在的なリスクが生じることが分かっている。
企業セキュリティーを専門とするオクタで顧客信頼担当バイスプレジデントを務めるベン・キング氏は、「生成AIサービスを利用する際にデータがどのように扱われるのかが理解されていない」と語る。
「企業にとって、これは非常に危険だ。多くのAIは無料サービスで、ユーザーが契約を結んでいるわけではない。企業としては、通常の評価プロセスを踏まえてリスクを負うということにはならない」
個々の従業員がチャットGPTを使う際の問題についてオープンAIに問い合わせたが、同社はコメントを控えるとした。しかし、最近の同社ブログへの投稿では、パートナー企業に対して、明示的な許可を得ずに各社のデータをチャットボットの再訓練に利用することはないと強調している。
アルファベット傘下のグーグルが提供する生成AI「バード」を使用すると、入力したテキストや位置情報など、利用状況に関するデータが収集される。グーグルのサービスの利用者は、自分のアカウントから過去のアクティビティーの消去や、AIに入力した内容の削除を要求できるようになっている。グーグルにさらなる詳細を問い合わせたが、コメントを控えるとしている。
マイクロソフトにもコメントを求めたが、今のところ回答は得られていない。
<「害のない業務」>
米国を拠点とするデートアプリ運営会社ティンダーの従業員によれば、同社従業員は、経営側からの正式な許可はないものの、メールの作成など「害のない業務」でチャットGPTを活用しているという。
この従業員は、取材に応じる権限がないとして匿名を希望しつつ、「日常的なメールの作成だ。重要性はとても低い。チームイベントに向けて招待用の愉快なカレンダーを作ったり、退社するスタッフのための送別メッセージを作ったり。一般的なリサーチにも使っている」と語った。
ティンダーにはチャットGPTに関する規則はないが、それでも従業員らは「自分たちがティンダーの人間であると特定されないよう、一般的な形で」チャットGPTを使っているという。
ティンダー従業員によるチャットGPTの利用方法について、ロイターでは独自の裏付けを得ることはできなかった。ティンダーでは、「従業員に対して、セキュリティーとデータに関するベストプラクティスについて定期的な指導を行っている」としている。
サムスン電子は5月、ある従業員が機密性の高いプログラムコードをチャットGPTにアップロードしていたことが判明したことを受け、従業員によるチャットGPTや類似のAIツールの利用をグローバル規模で禁止した。
サムスンは8月3日に発表した声明で、「従業員の生産性と効率の向上に向けて、生成AI活用に関する安全な環境を構築する措置を検討している」と述べた。
「だが、そうした措置が用意できるまでは、一時的に、社内の機器を通じた生成AIの利用を制限している」
ロイターは6月、アルファベットが、グーグルの提供するバードを含むチャットボットの利用について従業員に注意喚起したことを報道したが、まさに同じ時期に、同社はバードを全世界的に売り込んでいた。
グーグルでは、バードは不適切なコードを提案することもあるが、プログラマーにとっては有用な存在だと述べている。またグーグルは、同社の生成AI技術の限界について透明性を確保していきたいとしている。
<全面禁止の企業も>
一部の企業はロイターの取材に対し、セキュリティーを念頭に置きつつ、チャットGPTや類似のサービスの利用に前向きであると語っている。
ジョージア州アトランタのコカ・コーラでは、広報担当者が「AIによる業務効率化の可能性について検証と学習を開始した」と述べつつ、ただしそのデータは社内のファイアウォールの内部に留められると説明した。
この広報担当者は、「社内では先日、生産性向上をめざしてコカ・コーラ版チャットGPTを起動した」として、同社がチームの効率向上、生産性改善に向けたAI活用を計画していると述べた。
一方で、グローバルな食品材料メーカーであるテート&ライルのドーン・アレン最高財務責任者(CFO)は、同社がチャットGPTの試験的な運用を行っており、「チャットGPTを安全に利用する方法を見出している」とロイターに語った。
「さまざまなチームに、一連の試験的な運用を経た上で、どのようにチャットGPTを使いたいか判断させた。投資家向け広報に使うのか、ナレッジ・マネジメントに使うのか。業務をより効率的に処理するためには、どのような活用ができるかを考えている」
企業によっては、従業員が社内のコンピューターからチャットGPTにまったくアクセスできないというところもある。
プロクター・アンド・ギャンブル(P&G)のある従業員は、取材対応の権限がないため匿名を希望しつつ、「オフィスのネットワークでは完全に禁止されている」と語る。
P&Gはコメントを控えるとしている。同社従業員がチャットGPTを使えないという点について、ロイターでは独自の裏付けを得られなかった。
セキュリティー企業ノミネットで最高情報セキュリティー責任者を務めるポール・ルイス氏は、企業が神経を尖らせるのは当然だと語る。
ルイス氏は、「誰もがこうした能力拡張の恩恵を受けているが、情報は完全に安全ではなく、外部から利用される可能性がある」として、AIチャットボットに情報を開示させるために使われる「悪意あるプロンプト」の例を挙げた。
「全面禁止が必要だとはまだ言えないが、慎重に扱う必要がある」
(Richa Naidu記者、Martin Coulter記者、Jason Lange記者 翻訳:エァクレーレン)
関連コンテンツ
関連コンテンツ
PR
PR
PR