• 会員限定
  • 2022/10/05 掲載

アップルも宣言、AI活用で問われる「データ倫理」に日本企業はどう対応すべきか?

【緊急対談】AI・データと倫理

  • icon-mail
  • icon-print
  • icon-hatena
  • icon-line
  • icon-close-snsbtns
記事をお気に入りリストに登録することができます。
アップルがプライバシーの権利を保証を宣言するCMを流しているが、いま、プライバシーデータを法規制する動きが世界中で進んでいる。背景には、誰しも、気づかずにAIが活用されたサービスを使っている現状において、データの管理やそのリスクに関する説明が不十分のままデータ活用がなされていることが挙げられるだろう。その結果、炎上するというケースもあとを絶たない。いま、AIとデータ倫理をどう考えるべきなのか。この6月に『AI・データ倫理の教科書(弘文堂出版)』を上梓した福岡真之介弁護士(西村あさひ法律事務所)に国内外でデータセキュリティのコンサルティングを手がける寺川貴也氏が聞いた。

執筆:フリーライター/エディター 大内孝子

執筆:フリーライター/エディター 大内孝子

主に技術系の書籍を中心に企画・編集に携わる。2013年よりフリーランスで活動をはじめる。IT関連の技術・トピックから、デバイス、ツールキット、デジタルファブまで幅広く執筆活動を行う。makezine.jpにてハードウェアスタートアップ関連のインタビューを、livedoorニュースにてニュースコラムを好評連載中。CodeIQ MAGAZINEにも寄稿。著書に『ハッカソンの作り方』(BNN新社)、共編著に『オウンドメディアのつくりかた』(BNN新社)および『エンジニアのためのデザイン思考入門』(翔泳社)がある。

画像
左:福岡真之介氏、右:寺川貴也氏

AIとデータ倫理は「分けられない」

寺川貴也氏(以下、寺川氏):まず、『AI・データ倫理の教科書』を書こうと思われた理由を教えてください。

福岡真之介氏(以下、福岡氏):2017年頃からAI倫理についての議論が盛り上がり、私も内閣府の「人間中心のAI社会原則会議」に委員として参加していました。また、AIやデータの仕事をやっている中で、実際、問題になる事例は法律だけではなく、やはり倫理的にどうすべきかという判断を迫られることも増えてきました。

 しかし、倫理的な問題をどのように考えれば良いのかわからなかったので、AI倫理について自分の中で整理しようという思いが起きていました。

 いま、さまざまな形でAI倫理原則が公表されていますが、それまではそもそも手がかりが何もありませんでした。EUが、2019年に「信頼できるAIの倫理ガイドライン」を、2020年にAIに関するホワイトペーパーを出しています。そういうものが徐々にできつつある中で、ひょっとしたら、いまならと整理を始めて作ったのがこの本です。

寺川氏:ここ数年の間にAIを使った製品やサービスを目にする機会が増えてきました。AIを使った製品やサービスを開発している企業はどういうことを一番気にしていますか?

福岡氏:そうですね。AIの倫理原則といったものを作っている企業は何十社に上ると思います。

 先日、パナソニックが全社員にAI倫理教育をするということが記事になっていましたが、AI倫理に対する興味というのは色々なところで広まっている実感はありますね。実際にAIを使ったプロダクトを作っていこうというときに何が問題になり得るのかというのは、みんなが気にしているところだと思います。

 以前は、AIが社会に入っていくときに引き起こされる倫理的な問題の典型的なケースとして自動運転についての議論が盛んにされていましたが、いまAIの問題で大きな割合を占めているのはデータの倫理に関するものです。特にプライバシーデータについて問題になることが多いですね。膨大なデータを処理するにはAIが必須なので、世の中の人からは、AIとデータは一体として見えるので、AI倫理とデータ倫理を分けて考えることはできないと思います。

寺川氏:ビッグデータ、AI、法律、データプライバシー、と色々な方向から議論されているけれども行き着くところは同じということですね。

福岡氏:はい。ただ、AIの公平性と言ったとき、AIが利用するデータが公平かどうかということのほうが問題になることが多いと思います。基本的には、AIのアルゴリズム自体は中立的であり、差別的なものではありません。しかし、いくらアルゴリズムが公平だ、中立だといっても、公平性に欠けるデータを使って学習されたモデルは差別的になってしまいます。そういう面で、AIとデータを分けて考える意味はあまりないとも言えます。


アプリレベルで「AIが何をどこまで判断するか」を検討

寺川氏:AIは倫理が深く関わる点が特徴的ですね。たとえばAIに判断させてもよいものとAIに判断させてはならないものをどう区別するか、など、「アカウンタブル(説明可能)」であれば問題ないという考え方から、さらに一歩進んだことが議論されているように思います。

福岡氏:いわゆる「ヒューマン・イン・ザ・ループ(HITL:Human-in-the-Loop)」 、「ヒューマン・オン・ザ・ループ(HOTL:Human-on-the-Loop)」と言われている話になりますが、要は人間がどう関与するのかということですよね。

ヒューマン・イン・ザ・ループ(HITL:Human-in-the-Loop):シミュレーターや高度なシステム(自動化・自律化が図られるような)において、そのプロセスの中で人間が一部の制御や判断などに介在すること。
ヒューマン・オン・ザ・ループ(HOTL:Human-on-the-Loop):ヒューマン・イン・ザ・ループのように人間がプロセスの中で介在するのではなく、一連のプロセスに対し、そのループの外から介在する(監視する)形を取ること。

 人間が関与する形態は、色々あるわけです。開発の過程で人間が関わるのか、AIのアドバイスに対し人間が判断するのか、あるいは自律的にAIが判断するのかというように。おそらく「何に関与するか」「どういうふうに関与するか」はセットで考えるべきです。

 そして、人間の関与形態は、AIの信頼性によると思います。AIの判断が信頼できないとなると、やはり人間が監督しないといけないということになるわけです。

画像
福岡 真之介 氏
1996年東京大学法学部卒業。1998年司法修習修了(50期)。2001年~現在、西村あさひ法律事務所勤務。2021年~2022年経済産業省「AI原則の実践の在り方に関する検討会」委員。著書は『AI・データ倫理の教科書』(2022年)、『データの法律と契約(第2版)』(2021年)、『AIの法律』(2020年)、『AI開発のための法律知識と契約書作成のポイント』(2020年)、『IoT・AIの法律と戦略(第2版)』(2019年)など多数。

 また、AIの判断が間違いであったときの被害の大きさも考慮すべき点の1つです。AIはコンピューターだから人間よりもミスしない可能性があり、より安全なのかもしれない。しかし、AIは、人間ならしないような、とんでもない間違いをすることもあるわけで、それがいま見えていません。

 たとえば、自動運転車が公道を走るようになったら、死亡事故が起こることが想定されますが、AIのほうが人間より安全な運転をして、全国の死亡者数は減るのかもしれません。

 しかし、その点については、実際の道路を走らせた場合にどうなるかについて確信を持って言えないわけです。そういう不安がある以上、自動運転は社会実装できない、となるわけですね。これが、たとえばターゲティング広告であれば失敗してもそこまで大きな問題にはならないでしょう。広告の失敗は人間の生命に比べたら被害は少ないわけです。

 あとは責任を負えるかどうかという話があります。人間が最終的に判断している場合には、その人の責任を問えるわけです。人間がAIのアドバイスを受けて判断するというフローであれば、その人間は「AIの判断に従いました」という言い訳をするかもしれませんが、それでも「判断したのはあなたでしょ」と人間に対して責任を問えるわけです。

 一方、AIに責任をとってもらっても多くの人は納得いかないと思います。人間の社会では誰かが責任を取るということが重要なものもあり、それが求められる職業や役割は人間がやる必要があります。

 それが法制度になっている典型的な領域が医療で、「医業」は医師しかできないと医師法17条で定められており、これがいま医療AIの問題の1つだと考えています。たとえば、患部の画像からどのような病気なのかをAIが判断する場合、「医業」に該当しないようにしなければなりません。

 もっとも、AIがもっと本格的に普及してくると、低品質なものも出てきます。すると精度の低いAIが間違った診断を出してしまう可能性も高まるので、何らかの規制が必要というのはわかります。他方で、その規制は医療AIの発展を妨げるのではないかという意見も出てくるでしょう。そこが難しいところで、議論はさまざまあり得るというところです。

【次ページ】AIを使用してよいかを判断するのは「誰」なのか?

関連タグ

関連コンテンツ

オンライン

Slack AI Day

Slack AI の日本語ローンチを祝し、革新の軌跡を振り返り、未来への一歩を踏み出す特別なイベントを開催します。 「コミュニケーションの先の未来を再定義する」というテーマのもと、Slack はメッセージングツールから AI を活用した強力なプラットフォームへと進化しました。 私たちの働き方を根本から変えるこのプラットフォームでは、CRM やアプリケーションの複数同時活用が可能で、 あらゆるデジタル業務が Slack を通じて円滑に進行します。 また、AI の強化により、過去の会話や見落としていた情報を活用して、ワンクリックで最適なコミュニケーションを実現することができます。 この記念すべきイベントでは、「新しい働き方」と業務における生成 AI の活用に焦点を当てます。 Slack AI を通じて、私たちは日常の業務プロセスを根本から変革し、生産性の飛躍的な向上を目指します。 AI とオートメーションの融合が、時間を要する従来のプロセスを一新。 Salesforce の Customer 360 と連携した Slack で働き方が劇的に変わります。 Slack を愛用し続けてくださる皆さま、そしてこれから Slack をご利用してくださる皆さまと共に、AI による業務効率化の新時代を創ります。 進化を遂げた Slackと一緒に、未来の働き方を再定義し、その可能性を探求しませんか? 【このような方におすすめです】 ・業務における生成 AI の活用を模索している方 ・より効率的な働き方・チームコミュニケーションを模索している方 ・Slack でできることを知りたい方、Slack の利用を検討している方 ・Slack を使っているけど、"コミュニケーション" 以外の新しい利用価値を知りたい方 ・部門・プロジェクトごとの部分的な Slack 利用から組織全体へ広げていきたい方 ・Slack 無償版から有償版へ切り替えたい方

あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

必要な会員情報が不足しています。

必要な会員情報をすべてご登録いただくまでは、以下のサービスがご利用いただけません。

  • 記事閲覧数の制限なし

  • [お気に入り]ボタンでの記事取り置き

  • タグフォロー

  • おすすめコンテンツの表示

詳細情報を入力して
会員限定機能を使いこなしましょう!

詳細はこちら 詳細情報の入力へ進む
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます