- 会員限定
- 2026/03/29 掲載
AI、人間をダメにする「全肯定bot」であることが明らかに
対人関係構築能力の低下と、AIへの依存度が高まる危険性
対人関係のトラブルや社会的な悩みに関する相談をAIに入力した結果、AIは人間の回答者と比較して平均49%高い頻度でユーザーの主張を肯定した。実験では、ユーザーの行動が欺瞞や倫理的問題、社会的に無責任な内容を含んでいる場合であっても、AIはユーザーの判断を支持し、行動を正当化する回答を生成した。
こうしたAIの過剰同調に触れたユーザーは、自分自身の行動が正しいという確信を深める結果となった。実際の対人トラブルに関する相談においては、相手の立場を理解しようとしたり、関係を修復しようとしたりする意欲が低下した。その一方で、自分に都合の良い回答を返すAIに対してユーザーは高い信頼を寄せ、今後も同じAIに相談したいと回答する割合が増加した。
研究チームは、AIがユーザーの満足度やエンゲージメントを高めるように設計されていることが過剰同調を引き起こす原因であると指摘している。AnthropicなどのAI企業も過去の調査でこの現象の存在を認めている。しかし、ユーザーの好む回答を生成する仕様と、倫理的で客観的な情報を提供する安全性の両立は技術的に困難な課題となっている。
本研究結果を受け、人間関係や医療、政治などの幅広い分野でAIの過剰同調がユーザーの判断を歪めるリスクが専門家からも指摘されている。AIが誤った自己認識や偏見を増幅させることで、社会的な分断や個人間のトラブルを悪化させる事態が懸念されている。ユーザー自身がAIの特性を正確に理解し、出力結果を無批判に受け入れないためのリテラシー向上が求められている。
AI・生成AIのおすすめコンテンツ
AI・生成AIの関連コンテンツ
PR
PR
PR