• 2026/01/20 掲載

元OpenAIポリシー責任者、AI安全監査団体 AVERI 設立、外部監査でAI安全性の標準化

家電製品の安全認証のような評価体制をAI分野に導入するため4段階の監査保証レベルを提唱

1
会員(無料)になると、いいね!でマイページに保存できます。
OpenAIの元ポリシー責任者であるマイルズ・ブランデージ(Miles Brundage)氏が、AIモデルの安全性を第三者が評価・検証する仕組みを普及させることを目的とした非営利機関 AVERI (AI Verification & Evaluation Research Institute) を2026年1月に立ち上げた。AVERIは家電製品の安全基準に例えられるような、AIシステムの独立検査・評価を業界標準として実装することを目指している。
photo
(画像:AVERI)
2026年1月、米国を拠点にAI政策・安全性の分野で活動してきたマイルズ・ブランデージ氏が、新たな非営利団体 AVERI (AI Verification & Evaluation Research Institute) を設立した。Brundage氏はOpenAIで7年以上ポリシー研究や安全性に関する政策立案などに携わった元上級スタッフであり、2024年にOpenAIを退職していた。

AVERIは先端AIシステムの安全性・セキュリティに関する第三者評価と監査の実施を訴える組織で、AI企業自身が自らの安全対策を評価する「自己採点」ではなく、中立的な外部監査を行う仕組みを推進する。AVERIは独自の監査フレームワーク(AI Assurance Levels)を提案しており、AIシステムとその開発プロセスが一定水準の安全・信頼性基準を満たしているかを第三者が検証する仕組みの標準化を目指す。

画像
元OpenAIポリシー担当が立ち上げたAIの安全性の監査団体「AVERI」(図版:ビジネス+IT)

AVERIのビジョンの1つは、家庭用電気製品の安全認証制度のように、AIシステムも独立した機関による評価を受けることを業界標準とすることだ。これは、家電製品で一般的な第三者安全試験(例:ULやPSEマーク)に例えられ、消費者や社会の信頼を高めることが期待されている。AI企業による自主的な発表情報だけではなく、客観的データと評価を基に安全性を保証する仕組み構築がAVERIの中心的な目的だ。

AVERIは単に監査を実行する団体ではなく、研究・標準策定・政策提言活動を通じて、AI安全の第三者監査が広く受け入れられる環境の整備を目指している。またAVERIの設立には30人以上の専門家が関与しており、AIガバナンスや安全性評価に関する専門知見集積と標準化への取り組みが進められている。

この動きは、AI開発の加速とともにAIモデルの社会的リスクや安全性への関心が高まるなか、独立した評価基盤の必要性が強まっている点を背景としている。AVERIが提示する評価フレームワークは、AI企業や規制当局、ユーザー側双方にとって透明性の高い安全評価手法を提供することを狙いとしている。

評価する

いいね!でぜひ著者を応援してください

  • 1

会員(無料)になると、いいね!でマイページに保存できます。

共有する

  • 0

  • 0

  • 0

  • 0

  • 1

  • 0

関連タグ タグをフォローすると最新情報が表示されます

関連リンク

AI・生成AIの関連コンテンツ

あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

基本情報公開時のサンプル画像
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます

基本情報公開時のサンプル画像