• 会員限定
  • 2025/08/25 掲載

GPT-5に不満続出…謎回答が逆に増えた? 実はプロンプトより効く「超重要な使い方」

連載:野口悠紀雄のデジタルイノベーションの本質

  • icon-mail
  • icon-print
  • icon-hatena
  • icon-line
  • icon-close-snsbtns
4
会員になると、いいね!でマイページに保存できます。
ChatGPT向けの新しいAIモデル「GPT-5」では、質問に即答する場合の誤回答を従来モデルより4割以上で減らしたという。しかし実際には、逆に増えたような気がする。また誤りでなくとも、適切でない出力がある。ここで重要になるのが、ハルシネーションの存在を前提とした使い方の技術だ。
執筆:野口 悠紀雄

野口 悠紀雄

1940年、東京に生まれる。 1963年、東京大学工学部卒業。 1964年、大蔵省入省。 1972年、エール大学Ph.D.(経済学博士号)を取得。 一橋大学教授、東京大学教授(先端経済工学研究センター長)、スタンフォード大学客員教授、早稲田大学大学院ファイナンス研究科教授などを歴任。一橋大学名誉教授。
noteアカウント:https://note.com/yukionoguchi
Twitterアカウント:@yukionoguchi10
野口ホームページ:https://www.noguchi.co.jp/

★本連載が書籍化されました★
『どうすれば日本経済は復活できるのか』 著者:野口悠紀雄
購入サイトはこちら:https://www.sbcr.jp/product/4815610104/

photo
GPT-5のハルシネーションに泣かされないためには?
(Photo: Svet foto / Shutterstock.com)

即答時で「誤回答4割超」削減、とCEOが発表

 OpenAIは8月7日、ChatGPT向けに、新たなAIモデル「GPT-5」を発表した。

 OpenAIのサム・アルトマンCEOは、「過去のAIが『高校生や大学生と対話する』レベルだったとすれば、新モデルは『博士号を持つ専門家集団が何でも助けてくれる』レベルだ」とした。

 生成AIには、事実と異なる回答をする「ハルシネーション(幻覚)」と呼ばれる現象がある。これが生成AIの利用拡大の妨げになっていることは間違いない。

 ところがOpenAIによると、GPT-5は質問に時間をかけて答える際、4月に発表したAIモデル「o3(オースリー)」に比べて、事実関係の誤りを含む回答が8割少ないという。質問に即答する場合も、従来モデルより4割以上で誤回答を減らしたとされる。また、利用者の意見に過剰に賛同するなど、こびへつらうような振る舞いも減らしたという。

 過剰反応の減少は明白に感じられる。これまでのモデルであるGPT-4oでは、文章にコメントを求めると、「鋭い指摘だ」「深い洞察だ」などと言われることが多かった。しかし、GPT-5は、そうした「お世辞」は言わない。そして、「明白な誤りがある」とか「誤解を招く表現だ」という直截的、単刀直入的な表現をする。

 この変化に対する評価は、人によって違うだろう。ただ、誰でも褒められて悪い気はしないので、少し寂しくなったと受け止める人も多いのではないかと思う(私もその1人)。

 さて、問題はハルシネーションだ。 【次ページ】プロンプトよりも「重要なこと」とは
関連タグ タグをフォローすると最新情報が表示されます

AI・生成AIの関連コンテンツ

あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます