- 2021/07/14 掲載
PwCコンサルティング、責任あるAIのガバナンス態勢構築を支援するサービスを提供開始
外部環境が大きく変化する中、企業が迅速かつ適切な意思決定を行うためには、経営の中枢にAIやデータを戦略的に活用する「AI経営」の実現が求められています。一方で、AIの意思決定によるさまざまなインシデントや倫理違反、人種や性別などによる差別的バイアス、プライバシーの侵害といったリスクを回避するための取り組みが不可欠となっています。これまでにもOECDやG20によるAI原則のとりまとめが行われていましたが、2021年に入り、EUがリスクベースのAI規制枠組案を提示し、米国の連邦取引委員会(FTC)がAI規制による摘発を開始するなど、欧米では法規制の強化が活発化しています。各国政府もAIリスクを制御し、AIアルゴリズムに説明責任を負わせるための法的枠組みの構築に着手しており、日本においても政府による議論が進んでいます。
このような背景の下、企業には、AIの開発や利活用にはリスクがあることを十分に理解し、AIの信頼性と説明可能性を担保することが求められています。リスクを適切に制御したうえでAI利活用による効果を最大化する、AIガバナンスの態勢構築が喫緊の課題となっています。
■「Responsible AI導入サービス」の6つの支援領域
本サービスは、AIの開発や利活用を進める企業すべてを対象に、さまざまなAIリスクに対応したガバナンス態勢の構築を包括的に支援するものです。日本を含む世界各国のPwCグローバルネットワークで、クライアントが抱えるAIリスクへの対応を支援した実績をベースに開発しており、以下6つのサービス領域から成ります。
(1)Responsible AI診断:AIガバナンスやAI倫理への対応状況を評価
(2)Responsible AI構築:Responsible AI診断後のリスク対応方針を検討
(3)Responsible AI態勢構築:AIガバナンスの実行プロセスを構築
(4)対策ツール導入:説明可能性やバイアス、公平性など、強化が必要な個別のリスクに対応するためのAI運用支援や技術支援
(5)MLOps導入:機械学習の開発・運用チーム/プロセスを構築
(6)Responsible AI教育:責任あるAIの利活用実現に向けた教育
Responsible AI診断にて、AIの開発および利活用に関わる6つのリスク(下図参照)を軸に、クライアント企業の組織上の課題から個別のユースケース別課題まで幅広くAIリスクを特定し、企業のAI利活用やAIガバナンスへの取り組み状況に応じた施策を検討します。また、AIの開発や利活用のライフサイクルに応じて、リスクへの対応だけでなく、技術的側面や法規制の動向、AIガバナンスの先行事例を踏まえたサービスを提供します。
当社は、本サービスを通じて、企業の倫理的で公平かつ安全なAIシステムの開発・導入、そして活用拡大を支援することで、AIがさらに社会やビジネス界に浸透し、責任ある方法で活用されることを目指します。
関連コンテンツ
PR
PR
PR