- 会員限定
- 2025/08/25 掲載
GPT-5に不満続出…謎回答が逆に増えた? 実はプロンプトより効く「超重要な使い方」
連載:野口悠紀雄のデジタルイノベーションの本質
1940年、東京に生まれる。 1963年、東京大学工学部卒業。 1964年、大蔵省入省。 1972年、エール大学Ph.D.(経済学博士号)を取得。 一橋大学教授、東京大学教授(先端経済工学研究センター長)、スタンフォード大学客員教授、早稲田大学大学院ファイナンス研究科教授などを歴任。一橋大学名誉教授。
noteアカウント:https://note.com/yukionoguchi
Twitterアカウント:@yukionoguchi10
野口ホームページ:https://www.noguchi.co.jp/
★本連載が書籍化されました★
『どうすれば日本経済は復活できるのか』 著者:野口悠紀雄
購入サイトはこちら:https://www.sbcr.jp/product/4815610104/
即答時で「誤回答4割超」削減、とCEOが発表
OpenAIは8月7日、ChatGPT向けに、新たなAIモデル「GPT-5」を発表した。OpenAIのサム・アルトマンCEOは、「過去のAIが『高校生や大学生と対話する』レベルだったとすれば、新モデルは『博士号を持つ専門家集団が何でも助けてくれる』レベルだ」とした。
生成AIには、事実と異なる回答をする「ハルシネーション(幻覚)」と呼ばれる現象がある。これが生成AIの利用拡大の妨げになっていることは間違いない。
ところがOpenAIによると、GPT-5は質問に時間をかけて答える際、4月に発表したAIモデル「o3(オースリー)」に比べて、事実関係の誤りを含む回答が8割少ないという。質問に即答する場合も、従来モデルより4割以上で誤回答を減らしたとされる。また、利用者の意見に過剰に賛同するなど、こびへつらうような振る舞いも減らしたという。
過剰反応の減少は明白に感じられる。これまでのモデルであるGPT-4oでは、文章にコメントを求めると、「鋭い指摘だ」「深い洞察だ」などと言われることが多かった。しかし、GPT-5は、そうした「お世辞」は言わない。そして、「明白な誤りがある」とか「誤解を招く表現だ」という直截的、単刀直入的な表現をする。
この変化に対する評価は、人によって違うだろう。ただ、誰でも褒められて悪い気はしないので、少し寂しくなったと受け止める人も多いのではないかと思う(私もその1人)。
さて、問題はハルシネーションだ。 【次ページ】プロンプトよりも「重要なこと」とは
AI・生成AIのおすすめコンテンツ
AI・生成AIの関連コンテンツ
PR
PR
PR