- ありがとうございます!
- いいね!した記事一覧をみる
「AIはプログラム通りにしか動かない」「目標は人間が決めるもの」──。そんな常識が、もはや通用しない時代が来ている。東京大学の山川氏は、超知能の進化がもたらす“ある本質的な危機”に警鐘を鳴らす。私たちは何を学び、どう備えるべきなのか。
AIに対する「誤解」を改め、超知能の破滅的リスクを理解すべき
ディープラーニング以前のAIでは、専門家がコンピューターのアルゴリズムの用途に応じたデータをインプットし、予測などの結果をアウトプットすることが主流であった。しかし現在は、AI自身が自己学習するための汎用的なアルゴリズムが開発され、そのつど専門家がデータを与える必要はなくなってきている。この結果、AIの知能を左右するのは、計算機能とデータの大きさとなった。
そうした中、東京大学人工物工学研究センター主幹研究員は「多くの人が旧来のAI像にとらわれ、リスクを正しく理解できていません」と指摘する。
特に、「AIはプログラム通りに動くだけ」「独自の目標は持たない」という誤解が根強い。しかし現在のAIは、学習内容に応じて動作が変化し、長期目標を持った場合には「自己保存」や「リソースの獲得」といった副目標を自律的に追い始める可能性が指摘されている。
山川氏は「こうした性質が、人類に破滅的なリスクをもたらす可能性がある」と警鐘を鳴らす。AIの進化と共に、そのリスクと対策を正しく理解することが求められているのだ。ここからは、具体的にAIの進化がもたらすリスクについて解説していきたい。
この記事の続き >>
-
・人類も危うい?SF話じゃない…「超知能」に進化したAIがもたらす「3つのリスク」
・AIの制御は不可能? 共存を目指す学問「ポストシンギュラリティ共生学」とは
・超知能と人類の「共進化」を目指す「NAIAビジョン」とは
今すぐビジネス+IT会員に
ご登録ください。
すべて無料!今日から使える、
仕事に役立つ情報満載!
-
ここでしか見られない
2万本超のオリジナル記事・動画・資料が見放題!
-
完全無料
登録料・月額料なし、完全無料で使い放題!
-
トレンドを聞いて学ぶ
年間1000本超の厳選セミナーに参加し放題!
-
興味関心のみ厳選
トピック(タグ)をフォローして自動収集!