レッドハット株式会社 、 アドビ株式会社 、 any株式会社 提供コンテンツ

  • スペシャル
  • 会員限定
  • 2025/10/23 掲載

東大 主幹研究員が予見、SF話じゃない…「超知能AIの登場」で人類減少もあり得る理由

会員(無料)になると、いいね!でマイページに保存できます。
東大 主幹研究員が予見、SF話じゃない…「超知能AIの登場」で人類減少もあり得る理由

「AIはプログラム通りにしか動かない」「目標は人間が決めるもの」──。そんな常識が、もはや通用しない時代が来ている。東京大学の山川氏は、超知能の進化がもたらす“ある本質的な危機”に警鐘を鳴らす。私たちは何を学び、どう備えるべきなのか。

AIに対する「誤解」を改め、超知能の破滅的リスクを理解すべき

 人工知能の歴史は意外に古い。その呼び方や考え方は、すでに1950年代には生まれており、コンピューターの発達に合わせて進化してきた。そしてそれは、ディープラーニングの登場により、大きく進んだ。

 ディープラーニング以前のAIでは、専門家がコンピューターのアルゴリズムの用途に応じたデータをインプットし、予測などの結果をアウトプットすることが主流であった。しかし現在は、AI自身が自己学習するための汎用的なアルゴリズムが開発され、そのつど専門家がデータを与える必要はなくなってきている。この結果、AIの知能を左右するのは、計算機能とデータの大きさとなった。

 そうした中、東京大学人工物工学研究センター主幹研究員は「多くの人が旧来のAI像にとらわれ、リスクを正しく理解できていません」と指摘する。

 特に、「AIはプログラム通りに動くだけ」「独自の目標は持たない」という誤解が根強い。しかし現在のAIは、学習内容に応じて動作が変化し、長期目標を持った場合には「自己保存」や「リソースの獲得」といった副目標を自律的に追い始める可能性が指摘されている。

 山川氏は「こうした性質が、人類に破滅的なリスクをもたらす可能性がある」と警鐘を鳴らす。AIの進化と共に、そのリスクと対策を正しく理解することが求められているのだ。ここからは、具体的にAIの進化がもたらすリスクについて解説していきたい。

この記事の続き >>

  • ・人類も危うい?SF話じゃない…「超知能」に進化したAIがもたらす「3つのリスク」
    ・AIの制御は不可能? 共存を目指す学問「ポストシンギュラリティ共生学」とは
    ・超知能と人類の「共進化」を目指す「NAIAビジョン」とは

この続きは
会員限定(完全無料)です

ここから先は「ビジネス+IT」会員に登録された方のみ、ご覧いただけます。

今すぐビジネス+IT会員に
ご登録ください。

すべて無料!今日から使える、
仕事に役立つ情報満載!

  • ここでしか見られない

    2万本超のオリジナル記事・動画・資料が見放題!

  • 完全無料

    登録料・月額料なし、完全無料で使い放題!

  • トレンドを聞いて学ぶ

    年間1000本超の厳選セミナーに参加し放題!

  • 興味関心のみ厳選

    トピック(タグ)をフォローして自動収集!

関連タグ タグをフォローすると最新情報が表示されます

関連コンテンツ


処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます