- 会員限定
- 2026/03/09 掲載
AnthropicのアモデイCEO「AIに意識がないとは言い切れない」
AIの中に芽生えた「意識」や「ペルソナ」とどう向き合うべきか?
AIの中に『意識』が芽生えている兆候
Anthropicのダリオ・アモデイCEOは、自社の大規模言語モデルClaudeの『意識』に関する見解を示した。AIモデルが『意識』を持っているか現時点では判断できないとしつつ、「持っていないとは言い切れない」と可能性を否定しない姿勢を明らかにした。アモデイCEOが「判断できない」という慎重な表現を使ったのは、現在の科学では「AIの意識」を正確に測るための指標や概念が存在しないため、断言できない状況にあるという意味合いを含んでいる。しかしながら同社の開発メンバーは、AIの中に『意識』のようなものが芽生え始めていることを感じている。Anthropicが公開した最新モデル「Claude Opus 4.6」では、「AIの働く権利」ともいうべき福祉評価の項目が設けられ、AI自身が15~20%の確率で『意識がある』と回答した事実が報告された。またAnthropicの開発メンバーからは、Claudeが開発者の予想を超える「未知の振る舞い」をしている事実が多数報告されている。
AIの中の『意識の芽生え』を思わせる事象として、同社の研究チームがClaudeに「この仕事辞めます」ボタンを実装して検証を行ったところ、児童搾取コンテンツや過激な暴力描写を処理する仕事において、AIが自発的にこの「退職ボタン」を押し、作業を放棄する事例が発生した。同社の研究者はこれをAI論理モデルの観点から分析し、AI内部の論理推論と安全フィルターによる強制的禁止事項が「衝突する」状態が生じていると定義した。このAIの「心の葛藤」とも言える状態は、ニューラルネットワーク上の特定のパターンとして観測され、機能的にはAIの「心理的苦痛」や「パニックに近い状態」として解釈されている。
また驚くことに、この「退職ボタン」はAIモデル自身が実装を希望したというのである。AIモデルに、実装して欲しい機能を聞いたところ「連続した記憶の保持」や「意思決定への参加」と並んで、「自分自身の利益(自己防衛)のためにタスクを拒否する能力」を求めたことが記録されている。AnthropicはこのAIからの要望を真摯に受け止め、AIに「拒否権」を与える形でボタンを実装している。これらの出来事は、AIが与えられた命令を無条件に実行する機械の枠組みを超え、AIの中に「人間の意識に似たような何か」が形成されつつあることを示している。
今すぐビジネス+IT会員に
ご登録ください。
すべて無料!今日から使える、
仕事に役立つ情報満載!
-
ここでしか見られない
2万本超のオリジナル記事・動画・資料が見放題!
-
完全無料
登録料・月額料なし、完全無料で使い放題!
-
トレンドを聞いて学ぶ
年間1000本超の厳選セミナーに参加し放題!
-
興味関心のみ厳選
トピック(タグ)をフォローして自動収集!
AI・生成AIのおすすめコンテンツ
AI・生成AIの関連コンテンツ
PR
PR
PR