- 会員限定
- 2026/03/23 掲載
AIの危険は「暴走」ではない…研究者が恐れる「合理的すぎるAI」が生む、ヤバい未来
連載:野口悠紀雄のデジタルイノベーションの本質
1940年、東京に生まれる。 1963年、東京大学工学部卒業。 1964年、大蔵省入省。 1972年、エール大学Ph.D.(経済学博士号)を取得。 一橋大学教授、東京大学教授(先端経済工学研究センター長)、スタンフォード大学客員教授、早稲田大学大学院ファイナンス研究科教授などを歴任。一橋大学名誉教授。
noteアカウント:https://note.com/yukionoguchi
Xアカウント:@yukionoguchi10
野口ホームページ:https://www.noguchi.co.jp/
★本連載が書籍化されました★
『どうすれば日本経済は復活できるのか』 著者:野口悠紀雄
購入サイトはこちら:https://www.sbcr.jp/product/4815610104/
いまだ拭えぬハルシネーションの危うさ
AIは誤った回答を出すことがある。しかも、かなり頻繁に。これは「ハルシネーション」と呼ばれる問題だ。だから、AIの出力をすべてそのまま受け入れると、重大な問題が生じる危険がある。十分に注意しなければならない。「AIの答えには間違いが含まれていることがあります」という警告文を決して無視したり軽視したりしてはならない。
ハルシネーションがなぜ生じるのか?そのメカニズムは、十分に解明されていない。学習データの誤りもあるだろうが、それだけではなく、答えを生成するプロセスそのものに問題があるのかもしれない。
ハルシネーションは、生成AIが登場した直後から、大きな問題として意識されてきた。「そのうち改善するだろう」という考えもあった。実際、ハルシネーションが出現する度合いは、以前に比べれば減ったとの見方もある。しかし仮にそうであるとしても、完全にゼロにならなければ、AIを安心して使うわけにはいかない。AIは事実上、安全性が完全に保証された道具とはなっていないのである。
これまでも、いくつかの深刻な問題が生じたことが報告されている。たとえば、偽の判例を生成AIが出力し、それを実際の訴訟で弁護士が提出して問題になったこともあった。
健康に関する問題については、誤った処置をそのまま信じて実行してしまえば、最悪の場合は命にもかかわる。幸いにしてそうした事故は報告されていないが、いまでもその可能性がゼロになったわけではない。
だから、AIの誤りに対しては、注意しすぎるほど注意しなければならない。
ところが、AIの誤動作問題が、いま新しい局面に入りつつある。そして、より深刻なものになろうとしている。それは、AIが「AIエージェント」に進化しつつあるからだ。
【調査で判明】AIエージェントは「セキュリティ上の悪夢」
これまで、生成AIの利用は、一問一答方式で行われてきた。そして、AIは情報を提供してくれるが、それに基づいて具体的な操作を行うのは、人間であった。ところが、AIエージェントにおいては、人間とAIが目的に合意すれば、それを実現するための手続きを、AIが自動的に判断して進めていく。
今すぐビジネス+IT会員に
ご登録ください。
すべて無料!今日から使える、
仕事に役立つ情報満載!
-
ここでしか見られない
2万本超のオリジナル記事・動画・資料が見放題!
-
完全無料
登録料・月額料なし、完全無料で使い放題!
-
トレンドを聞いて学ぶ
年間1000本超の厳選セミナーに参加し放題!
-
興味関心のみ厳選
トピック(タグ)をフォローして自動収集!
AI・生成AIのおすすめコンテンツ
AI・生成AIの関連コンテンツ
PR
PR
PR