• 2023/10/25 掲載

AIの安全性・倫理性確保に投資拡大を=著名研究者らの論文

ロイター

photo
  • icon-mail
  • icon-print
  • icon-hatena
  • icon-line
  • icon-close-snsbtns
会員になると、いいね!でマイページに保存できます。
Supantha Mukherjee

[ストックホルム 24日 ロイター] - 人工知能(AI)企業と各国政府は、AI関連の研究・開発費の少なくとも3分の1をAIシステムの安全かつ倫理的な使用を確保するために振り向けるべきだ──。世界有数のAI研究者らが24日、こうした共同論文を発表した。

論文は、来週ロンドンで開く「AI安全性サミット」に先立ち発表されたもので、AIのリスクに対処するため企業と政府が講じるべき措置を列挙している。執筆者は計算機科学分野の国際賞であるチューリング賞の受賞者3人、ノーベル賞の受賞者1人、世界有数のAI学者十数人。著名な歴史学者のユバル・ノア・ハラリ氏や行動経済学者のダニエル・カーネマン氏などが含まれる。

論文は「予見と予防が十分可能な最先端AIシステムによる害について、政府は企業に法的責任を負わせるべきだ」と提言した。

「AIの父」と呼ばれるヨシュア・ベンジオ氏は「最近の最先端AIモデルは、民主的な監視を行わず発展を放任するには、あまりに強力で、あまりに重大だ」と指摘。「AIは予防措置を講じるスピードよりずっと急速に進歩しているため、(AIの安全性確保への投資を)素早く行う必要がある」と訴えた。

英国のコンピューター科学者、スチュアート・ラッセル氏は「AI企業よりもサンドイッチ店に課せられている規制の方が多い」とし、「規制がイノベーションを阻害する」といった不平が企業から出るとすればお笑い草だと述べた。

評価する

いいね!でぜひ著者を応援してください

  • 0

会員になると、いいね!でマイページに保存できます。

共有する

  • 0

  • 0

  • 0

  • 0

  • 0

  • 0

  • icon-mail
  • icon-print
  • icon-hatena
  • icon-line
関連タグ タグをフォローすると最新情報が表示されます
あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

必要な会員情報が不足しています。

必要な会員情報をすべてご登録いただくまでは、以下のサービスがご利用いただけません。

  • 記事閲覧数の制限なし

  • [お気に入り]ボタンでの記事取り置き

  • タグフォロー

  • おすすめコンテンツの表示

詳細情報を入力して
会員限定機能を使いこなしましょう!

詳細はこちら 詳細情報の入力へ進む
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます