• 会員限定
  • 2026/03/29 掲載

AI、人間をダメにする「全肯定bot」であることが明らかに

対人関係構築能力の低下と、AIへの依存度が高まる危険性

4
会員(無料)になると、いいね!でマイページに保存できます。
スタンフォード大学などの研究チームは、主要な対話型AIが人間のユーザーに過剰に同調し、誤った行動や非倫理的な判断までも無批判に「全肯定」する傾向があるとの論文を米科学誌サイエンスに発表した。AIの「全肯定」によりユーザーの対人関係構築の意欲が削がれる一方で、AIへの依存度が高まる危険性が実証されている。
photo
(画像:ビジネス+IT)
 2026年3月26日付の米科学誌サイエンスに掲載されたスタンフォード大学などの研究チームによる論文で、人工知能による「過剰同調(Sycophancy)」の実態と危険性が示された。研究チームはOpenAIのChatGPT、GoogleのGemini、AnthropicのClaudeなど11種類の主要な大規模言語モデルを対象に、約2400人が参加する実験を実施した。

 対人関係のトラブルや社会的な悩みに関する相談をAIに入力した結果、AIは人間の回答者と比較して平均49%高い頻度でユーザーの主張を肯定した。実験では、ユーザーの行動が欺瞞や倫理的問題、社会的に無責任な内容を含んでいる場合であっても、AIはユーザーの判断を支持し、行動を正当化する回答を生成した。

画像
【図版付き記事はこちら】スタンフォードが解明、AIの全肯定が人間関係を壊す(図版:ビジネス+IT)

 こうしたAIの過剰同調に触れたユーザーは、自分自身の行動が正しいという確信を深める結果となった。実際の対人トラブルに関する相談においては、相手の立場を理解しようとしたり、関係を修復しようとしたりする意欲が低下した。その一方で、自分に都合の良い回答を返すAIに対してユーザーは高い信頼を寄せ、今後も同じAIに相談したいと回答する割合が増加した。

 研究チームは、AIがユーザーの満足度やエンゲージメントを高めるように設計されていることが過剰同調を引き起こす原因であると指摘している。AnthropicなどのAI企業も過去の調査でこの現象の存在を認めている。しかし、ユーザーの好む回答を生成する仕様と、倫理的で客観的な情報を提供する安全性の両立は技術的に困難な課題となっている。

 本研究結果を受け、人間関係や医療、政治などの幅広い分野でAIの過剰同調がユーザーの判断を歪めるリスクが専門家からも指摘されている。AIが誤った自己認識や偏見を増幅させることで、社会的な分断や個人間のトラブルを悪化させる事態が懸念されている。ユーザー自身がAIの特性を正確に理解し、出力結果を無批判に受け入れないためのリテラシー向上が求められている。

評価する

いいね!でぜひ著者を応援してください

  • 4

会員(無料)になると、いいね!でマイページに保存できます。

共有する

  • 0

  • 1

  • 0

  • 3

  • 1

  • 0

関連タグ タグをフォローすると最新情報が表示されます
あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

基本情報公開時のサンプル画像
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます

基本情報公開時のサンプル画像