0
会員になると、いいね!でマイページに保存できます。
自動運転車、医療における診断、子どもの教育など、人工知能(AI)が浸透するにつれ、社会は大きく変貌しつつある。AIが、さらに健全に進化し続けるためには何が必要だろうか。AI研究の最前線に立つケンブリッジ大学・北京大学・慶應大学の3人の研究者によるパネルディスカッションから、AIが急速な勢いで人々の暮らしに浸透してきた「今」を起点に、「短期的な視点」での課題と解決策を明らかにする。
バイアスのかかったデータでAIは偏見を持つ?
このほど開催されたAIの国際シンポジウム「AI and Society」では、「今考えるべき問題と社会へのインパクト」をテーマに、3人のパネリストが、AIによって起こりうる社会変革、それを踏まえて今考慮すべきことについて議論した。
「AIにいかに倫理感を持たせるか」、AIによる事故やトラブルが発生したときの「責任の所在と補償」をどうすべきか、そしてAIの開発を巡る「国家間の競争」をいかに調整するのか。これら3つのテーマについて、パネリストが課題を明確化しその解決の糸口を示していく。モデレータは、スタートアップ企業Element AIのDenis Thérien氏が務めた。
最初にスピーチしたのはケンブリッジ大学・CFI エグゼクティブ・ディレクターのStephen Cave氏だ。
「AIは素晴らしいものなのか、それとも恐ろしいものなのか。同時に両方の特徴を持つこともありえます。素晴らしいものにしたいなら、解決しなくてはいけない問題があります」(Cave氏)
Cave氏は、AIに関するガバメントをテーマに話を始めた。Cave氏が指摘したのは、知能、自律性をはじめとするAIの倫理の問題だ。現在のAIの繁栄は、マシンラーニング(機械学習)、すなわち大量のデータを扱うことでAIの性能を高めることでもたらされた。
「赤ん坊も成人も、経験を通して成長するにつれ知能と自律性を持つようになります。そして成人になれば倫理的な立場も変わってきます。それはAIも同じ。データをもとに成長してパワフルになり、我々もまた、AIに対してより多くのものを求めるようになりますが、同時に新しい課題も生じます」(Cave氏)
まず挙げられるのはデータの課題だ。Cave氏は、データのバイアスを指摘する。AIに学習させるデータにバイアスがかかっていると、AIはバイアスのかかったデータをもとに学習することになる。
「データの倫理は、どういうデータを入れるかだけでなく、そのインプットをどのようにするのかを考慮する必要があります。アルゴリズムでバイアスを排除できるかもしれないし、より強くバイアスがかかってしまうかもしれません」(Cave氏)
続いてCave氏は自律性について言及した。AIは人間の代わりにさまざまなタスクをこなしてくれる。たとえば、同じことを繰り返す退屈なタスク、生命のリスクが伴うような危険なタスク。それらを問題なくこなすにはAIの自律性が必要だ。たとえば自動運転車がちょっと進むたびに「前に進むべきか」と確認を求めてきたら、人間はAIに運転を任せないだろう。AIが自律性を持つから、タスクを任せられる。
「AIの自律性によって新たな課題が生まれます。自動運転車の前に2人の歩行者が現れたとき、どうするのか。どちらかしか助けられない場合、何を基準に判断するのか。また、医療で使う場合は、誰がケアを受けるべきかの優先度もAIが判定するかもしれません。住宅ローンが受けられるかどうかもAIが判断するでしょう。これら人生に大きくかかわる問題をAIに任せられるのでしょうか」(Cave氏)
AIが知能と自律性を持つことは人間の生き方にも影響を及ぼす。AIが浸透すれば、人間がやるべきことがなくなる可能性がある。人間は経験によって学ぶ。しかし経験の機会がなくなれば人間の成長もなくなるのではないか。
Cave氏は最後に、「AIに依存するようになると、『なんでもAIに任せておけばよい』『AIの判断は正しい』となってしまい、物事を批判的にみる視点が失われてしまうかもしれない」との懸念を示した。
そして、「AIの技術をよりよく発展させていくには、これらの課題を検討していかなくてはならない。それにはグローバルな協力も必要だ」との見解を示し、講演を終えた。
AIが起こした事件や事故の責任は誰が負うのか
続いて、慶応義塾大学の大屋雄裕氏が、AIの進展に伴い発生する事故やトラブルについて「誰がどう責任をとるべきなのか」を法学の立場から述べた。大屋氏は、まず、AIを搭載して暴走する路面電車のたとえ話を紹介した。これは、進行方向に複数の路線があり、それぞれに通行人や作業員がいるという状況での話だ。AIがどの路線を選んだとしても誰かが犠牲になる。
「こうした状況に陥ったとき、AIに『どう対処すべき』とプログラミングすればいいのか。おそらく人間の尊厳や人の生命について自動的にAIに判断をさせるのは困難です。これはAIに限らず人間にとっても容易ではないことです」(大屋氏)
このような状況下で重要となるのは「責任の分配だ」と大屋氏はいう。たとえば上述の路面電車の例でも、「運転手がいて、運転中に事故を起こし、しかも何らかの過失がある」のであれば責任を課すことができる。
「結果を制御する人に課されるのが責任というもの。これは過失責任と呼ばれています。製品に瑕疵がある場合はメーカーが製造物責任を負うことになります。しかし、完全自動運転であるレベル4の自動運転車に、事故の責任があるとみるのは難しい。AIには学習プロセスがありますが、そのプロセスの条件や枠組みにはメーカーがかかわります。しかし、学習の結果、AIがどう判断するようになるかは、メーカーにもわかならいとなれば、メーカーにも過失責任はないことになります」(大屋氏)
誰も被害者を補償しないとなれば、一般の人は不満を覚える。このような場合、「強制保険に加入するという方法や、補償について法律で定めることもできる」と大屋氏は述べる。
大屋氏は、技術的な進展に伴い発生する新たなタイプの事故やトラブルに対し、「社会が受容できるようにするための枠組みが必要」だと指摘した。そして、「既存の法的な制度が、新しい技術による問題を解決できないと人は驚き、欲求不満、パニックを起こす」と指摘。安定的に健全な技術の発展を守るには、何らかの解決策を持たなくてはならないと、法制度を含めた新たな枠組みの整備の重要性に触れた。
【次ページ】 北京大学Gal氏が明かす、中国が計画するAI立国のための「3段階の戦略」
関連タグ