- 2025/05/22 掲載
【10分完全攻略】AI規制をわかりやすく解説:日本・EU・主要6ヵ国の“注意点”とは(5/5)
【日本】成立間近の「AI法案」のポイントは?背景も解説
日本政府はAI規制を検討するためにAI戦略会議内にAI制度研究会を設置し、AI規制と技術革新の両立を目指し、また既存の法令やガイドラインなどを生かしながら、主に政府調達における制度や仕組み、医療機器、自動運転など既存の業法の見直し、広島AIプロセスに基づくAI規制枠組の構築と政府の司令塔機能の強化など、具体的な対応の必要性を検討してきました。その結果として「AI関連技術の研究開発・活用推進法案(AI法案)」をまとめ、国会に提出し、6月22日までの今国会で成立する見通しです。この法案は、AIの開発者、提供者、利用者に対し、リスクに応じた対応を求める内容となっており、AIの利活用を促進しつつ適切な規律を図ることを目的としています。そのため、技術革新を妨げないために事業者への罰則は見送られています。
一方、上記AI法案に先立ち、日本政府は2017年の総務省「国際的な議論のためのAI開発ガイドライン案」、2019年の「AI利活用ガイドライン」や、2022年の経済産業省「AI原則実践のためのガバナンス・ガイドライン Ver. 1.1」などを整備してきました。
2023年5月のG7広島サミットにおける「広島AIプロセス包括的政策枠組み」のような国際的コンセンサスの取りまとめを経て、2024年4月に経済産業省と総務省はAIの開発者、提供者、利用者それぞれを対象に「AI事業者ガイドライン(第1.0版)」を策定しました。
AI事業者ガイドラインは、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」「アカウンタビリティ」「教育・リテラシー」「公正競争確保」「イノベーション」の10原則に基づいています。リスクを抑え適切に利用するためのガードレール的な内容となっており、グローバルの動向と一致しています。
- 人間中心
- 安全性
- 公平性
- プライバシー保護
- セキュリティ確保
- 透明性
- アカウンタビリティ
- 教育・リテラシー
- 公正競争確保
- イノベーション
AI制度研究会においても頻繁に言及されている通り、個人情報保護法など既存の法令によるAI規制は可能であり、その法執行の強化は考えられます。一方、各業法への依存のみならず、AI産業の発展に合わせて柔軟に運用可能な包括的なベースラインとなる法制度の構築が必要になります。
企業に求められる対応
AI規制は複雑化しており、企業は、AIの開発や利活用において多層的な法令準拠を実施する必要があります。一方、上記の通りグローバル各国におけるAI規制への対応策は、「信頼できるAIのための倫理ガイドライン」や「広島AIプロセス包括的政策枠組み」のような、国際的コンセンサスでもある信頼できるAIのための諸原則に沿ってコンプライアンス枠組を構築した上で、自社AIに対して規制となる各国の既存法を確認・準拠するという二重構造とする必要があります。
既存法については、安全コンポーネントや人事労務などAIを利活用する分野や場面によってコンプライアンス要件の差異が生じるため、自社AIに適用される分野別既存法に基づく詳細な社内制度、規定などを通じたコンプライアンス対応を考えなくてはいけません。
特に、個人情報を含むデータの利活用を前提としている場合、各国の個人情報保護法への準拠が必須です。AIシステムのサイバーセキュリティについては、たとえば欧州サイバーレジリエンス法など製品セキュリティ法規制などに準拠する必要もあります。
AIにまつわるリスクは「技術リスク」にとどまることなく、「法律リスク」や「倫理リスク」と広範にわたるため、複雑で多層的なAI規制に対するコンプライアンス要件の実施など、これらのリスクへの対応状況について設計、実装、運用にわたって入念に検証する必要があります。
関連コンテンツ
関連コンテンツ
PR
PR
PR