- 2025/05/22 掲載
【10分完全攻略】AI規制をわかりやすく解説:日本・EU・主要6ヵ国の“注意点”とは(4/5)
【英国】イノベーション優先の方針、「AI規制法案」を審議中
その他の国におけるAI規制の動向についても、簡単に紹介していきます。英国は、AI技術開発、イノベーションを優先した規制枠組を構築しています。
2023年3月に英国政府は、AI技術の発展を優先することを前提に、AIに関して次の5つの原則のもと、個人情報保護法(UK GDPR)、2018年データ保護法、英国オンライン安全法(Online Safety Act)、2010年平等法、消費者保護法などの既存法令との組み合わせで規制することを示唆する「AIイノベーション優先の規制アプローチ(A pro-innovation approach to AI regulation)」を公表しました。
- 安全性、セキュリティ、堅牢性
- 適切な透明性と説明可能性
- 公平性
- 説明責任とガバナンス
- 争議可能性と是正
既存法においても、特に個人情報保護がより注目されており、英国の個人情報保護機関であるInformation Commissioner’s Office(ICO)は個人情報とAIとの関連でAIによる個人情報の乱用を防ぐためのガイドライン、ツールキットなどを公表しています。
さらに、英国は2023年11月に上記AI規制に関する5原則を法制化する「AI規制法案(Artificial Intelligence(Regulation)Bill)」を提出し、審議しています。
【カナダ】AIとデータに関する法案「AIDA」が廃案に
カナダは、英国と同様にAI技術開発やイノベーションを優先とする「責任あるAIフレームワーク」の構築を宣言しています。AI規制については、既存法令である消費者製品安全法、食品医薬品法、自動車安全法、銀行法、カナダ人権法および各州人権法などによる規制を強調しています。一方、2022年6月に提出された「AIとデータに関する法律(The Artificial Intelligence and Data Act(AIDA))」案は、欧州同様に、雇用、個人へのサービス、生体認証、医療、司法など7つの分野で利活用されるAIシステムについて「高い影響のあるAI」として分類し、厳格なコンプライアンス要件と重い罰則を規定していました。
しかし、AIDAを含む包括的な法案「Bill C-27」は、2025年1月のカナダ議会閉会により廃案となり、正式に審議は終了しています。
AIDAでは、「高い影響のあるAI」に該当する場合、違反行為に対して、法人へのペナルティーは最高27億円強(執筆時点の為替レート)あるいはグループ全体の前年度売上の5%となっていましたが、現在この規制枠組みは存在していません。現時点では、連邦レベルで拘束力のあるAI規制法は未整備であり、政府は自主行動規範や研究機関の設立など、ソフトローによる対応を進めています。
【ブラジル】「過度なリスクのあるAI」は開発自体を禁止
2024年末に、ブラジル国会上院は包括的AI規制法案を可決し、下院での審議に送付しました。審議中のブラジルAI法規制の大原則は、人間中心、人権と民主主義の尊重、人格の自由、サステナビリティ、技術イノベーションの促進、自由競争、個人情報保護、情報提供などです。欧州AI法同様にリスクベースの規制アプローチを採用し、自動運転、人の安全や健康に害がある場合、教育、雇用、司法、生体認証など特定分野におけるAIシステムをハイリスクとして特に規制しています。
一方、欧州AI法がAIを悪用する行為を禁じていることに対して、ブラジルは「過度なリスクのあるAI」に分類されるAIそのものの開発を禁止すると明確に規定しています。法案は、AIに関するリスクアセスメント、重要インシデントの報告、既存の個人情報保護法などに対する遵守義務についても強調しています。
法令違反行為については、1件につき最高13億円強(執筆時点の為替レート)まで、法人の場合グループ全体の前年度売上の2%までのペナルティーを科しています。
【韓国】欧州に続く2番目の包括的なAI法「AI基本法」とは?
2024年12月26日に韓国の包括的なAI法「AI発展および信頼の確立に関する法律(AI基本法)(Basic Act on the Development of Artificial Intelligence and the Establishment of Trust)」が成立しました。韓国AI基本法は、欧州に続く2番目の包括的なAI法となります。主な内容は、AI産業を発展させるための国家制度の構築、産業政策の基礎作りを規定した上で、安全性、信頼性、アクセシビリティ、人間中心などの倫理原則を設けています。
「高い影響のあるAI」という分類があり、該当する場合に透明性の確保に努める必要があります。透明性の要件として、ユーザーに対してAIが使用されていることを事前通知する、AIによるアウトプットであることを明示するなどを義務付けています。
エネルギー、水道、医療、司法、生体認証、雇用、交通、教育などの分野については、欧州AI法と同様に高い影響のあるAIとして規定しており、該当する場合はAIのライフサイクルにおいてそのリスクを評価する必要があります。
韓国にAIシステム・サービスを展開しているが拠点を持たない事業者は、同国内に代表者を置かなければなりません。いくつかの特定の違反行為に対して300万円強(本稿執筆現在の為替レート)の罰金が科せられており、他の国地域に比べてかなり低い金額となっています。
AIの個人情報保護法への準拠方法について、2024年12月に韓国個人情報保護委員会が「安全なAI・データ活用のためのAIプライバシーリスク管理フレームワーク」を公開しており、AIに関する個人情報リスク管理制度の構築、個人情報リスクの分類およびリスク緩和措置などについて提言しています。 【次ページ】日本でのAI規制動向まとめ、企業がすべき対応は?
関連コンテンツ
関連コンテンツ
PR
PR
PR