- 2023/10/25 掲載
AIの安全性・倫理性確保に投資拡大を=著名研究者らの論文
[ストックホルム 24日 ロイター] - 人工知能(AI)企業と各国政府は、AI関連の研究・開発費の少なくとも3分の1をAIシステムの安全かつ倫理的な使用を確保するために振り向けるべきだ──。世界有数のAI研究者らが24日、こうした共同論文を発表した。
論文は、来週ロンドンで開く「AI安全性サミット」に先立ち発表されたもので、AIのリスクに対処するため企業と政府が講じるべき措置を列挙している。執筆者は計算機科学分野の国際賞であるチューリング賞の受賞者3人、ノーベル賞の受賞者1人、世界有数のAI学者十数人。著名な歴史学者のユバル・ノア・ハラリ氏や行動経済学者のダニエル・カーネマン氏などが含まれる。
論文は「予見と予防が十分可能な最先端AIシステムによる害について、政府は企業に法的責任を負わせるべきだ」と提言した。
「AIの父」と呼ばれるヨシュア・ベンジオ氏は「最近の最先端AIモデルは、民主的な監視を行わず発展を放任するには、あまりに強力で、あまりに重大だ」と指摘。「AIは予防措置を講じるスピードよりずっと急速に進歩しているため、(AIの安全性確保への投資を)素早く行う必要がある」と訴えた。
英国のコンピューター科学者、スチュアート・ラッセル氏は「AI企業よりもサンドイッチ店に課せられている規制の方が多い」とし、「規制がイノベーションを阻害する」といった不平が企業から出るとすればお笑い草だと述べた。
PR
PR
PR