• 会員限定
  • 2026/03/21 掲載

OpenAIとAnthropic、AI兵器への悪用防止へ化学・生物兵器の専門家を採用

高度化する生成AIの危険性に対処し、内部から安全対策を講じる

1
会員(無料)になると、いいね!でマイページに保存できます。
米国の主要AI企業であるOpenAIとAnthropicが、自社開発のAIモデルが化学・生物兵器などの大量破壊兵器開発に悪用されるリスクを防ぐため、関連分野の専門家の採用を開始したことが明らかになった。高度化する生成AIの危険性に対処し、内部から安全対策を講じるための体制強化が目的である。
photo
(画像:ビジネス+IT)
 OpenAIとAnthropicは2026年3月中旬、化学および生物兵器分野の専門家を対象とした採用活動をそれぞれ開始した。Anthropicは「化学兵器および大型爆発物担当ポリシーマネージャー」という職位で募集を行い、年収24万5000ドルから28万5000ドルを提示している。

画像
【図版付き記事はこちら】OpenAIとAnthropicが生物・化学兵器の専門家を採用へ(図版:ビジネス+IT)

 応募要件として化学兵器に関する5年以上の経験を求めており、大型爆発物防衛の経験やダーティボムに関する知識を持つ候補者を歓迎するとしている。この役職は、AIシステムのガードレール設計と政策立案を主に担い、AIの壊滅的な悪用を防ぐための重要な課題に取り組む。

 一方、OpenAIはサンフランシスコを拠点とする「Preparednessチーム」において、「フロンティア生物・化学リスク研究者」の募集を行っている。提示されている年収は最大で45万5000ドルに上る。同社が求める人材は、最先端のAIモデルに関連する生物・化学分野の壊滅的なリスクを特定し、追跡し、対策を講じる能力を持つ研究エンジニアである。

 具体的には、脅威モデルの構築やAIの能力評価テストの設計など、技術的な役割を担い、レッドチームとしての検証を通じてAIモデルの安全性を評価する。OpenAIはこれまでに、自社のAIモデルが初心者の科学者による生物兵器の製造を支援する目的で悪用される可能性があることを認めており、そうした事態を防ぐためのインフラストラクチャの構築を目指している。

 生成AIモデルはインターネット上の膨大なデータを用いて学習しており、その中には化学兵器の合成経路や爆発物の製造方法に関する技術文献も含まれている。そのため、AIが危険な知識をユーザーに提供してしまうのを防ぐには、その知識が何を意味するかを理解している専門家が内部から評価を行わなければならないという背景がある。

 両社の取り組みは、AIの能力向上に伴う化学・生物・放射性物質・核(CBRN)兵器への悪用リスクに対処し、安全性を担保するための措置の一環として位置づけられる。また、軍事や安全保障分野におけるAI利用のあり方が国際的なガバナンスの焦点となる中、自社AIの悪用を防ぐ内部体制を構築・可視化することで、規制当局や政府に対する姿勢を示す側面も帯びている。

評価する

いいね!でぜひ著者を応援してください

  • 1

会員(無料)になると、いいね!でマイページに保存できます。

共有する

  • 0

  • 0

  • 0

  • 0

  • 1

  • 0

関連タグ タグをフォローすると最新情報が表示されます
あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

基本情報公開時のサンプル画像
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます

基本情報公開時のサンプル画像