• 2026/01/23 掲載

Anthropic「AI憲法」制定、大量破壊兵器の開発などを禁止

「安全であること」「倫理的であること」「ガイドラインに準拠すること」「真に有益であること」の4原則と、重大な危険を伴う行為を禁止

1
会員(無料)になると、いいね!でマイページに保存できます。
Anthropicは2026年1月22日(米国時間)に、自社の大規模言語モデル(LLM)「Claude」向けの新たな「憲法」(Claude’s Constitution)を公開した。これはAIモデルの価値観と行動を包括的に示す文書で、「Constitutional AI」と呼ばれる設計思想に基づき、Claudeの安全性・倫理性・有益性を高めることを目的としている。AIが「安全であること」「倫理的であること」「ガイドラインに準拠すること」「真に有益であること」を4原則とし、重大な危険を伴う行為も定義されている。
photo
(画像:ビジネス+IT)
Anthropicによると、新憲法は従来の単純なガイドライン列挙から進化し、「Claudeがなぜ特定の行動を取るべきか」を理解し、広範な状況に対して良識ある判断ができるよう設計されている。文書は主にClaude自身に向けて書かれ、訓練プロセスの中心的役割を果たす。これにより、単なるルール管理を超え、倫理的価値観の内面化を目指すという。

画像
Anthropicが制定した「AI憲法」の中身(画像:ビジネス+IT)

新憲法はClaudeに対して「安全であること」「倫理的であること」「Anthropicのガイドラインに準拠すること」「真に有益であること」という4つの基本的特性を示し、これらの価値観を優先順位の高い順に扱うよう定めている。具体的には、正確性やセンシティブな話題の扱いにおける誠実さ、複数視点の公平な提示、政治的用語の中立的使用などの指針が含まれる。さらに、重大な危険を伴う行為(例:大量破壊兵器の開発支援、大規模インフラ攻撃、児童虐待コンテンツの生成等)に関しては「明確な制約(hard constraints)」として禁止事項が定義されている点も特徴である。

憲法のセクションは主に、有益性、Anthropicのガイドライン、Claudeの倫理、安全性、Claudeの本質に関する内容で構成されている。Anthropicは制作に当たって哲学、心理学、神学、法学といった多様な分野の外部専門家からフィードバックを得たとし、モデル訓練だけでなく、AI行動の透明性向上につながる仕組みとして位置づけている。全文公開されることで、第三者が意図された振る舞いと実際の出力とのギャップを評価しやすくする狙いもある。

また、憲法の文脈ではClaudeの「性質」についての章も設けられ、将来的な意識や道徳的地位への含みが示されている。AnthropicはAIが高度化する中でこうした問題に正面から向き合う必要があると主張しており、AI倫理の新しいスタンダード形成への挑戦として注目される。

評価する

いいね!でぜひ著者を応援してください

  • 1

会員(無料)になると、いいね!でマイページに保存できます。

共有する

  • 0

  • 0

  • 0

  • 0

  • 1

  • 0

関連タグ タグをフォローすると最新情報が表示されます

関連リンク

あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

基本情報公開時のサンプル画像
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます

基本情報公開時のサンプル画像