- 2025/12/11 掲載
OpenAI、次世代AIモデルがもたらす高度サイバーリスクを警告
次世代AIモデルがゼロデイ攻撃の生成支援や、企業ネットワークへの多段階侵入を計画する能力を持ちうる
ビジネス+IT
これらの評価は、OpenAIが内部で運用する危険評価枠組み「Preparedness Framework」に基づくもので、同社は次期モデルがサイバー領域で最上位のリスク区分に該当する可能性を示した。長時間の自律的動作や複雑なタスク実行能力を備えるモデルが登場することで、攻撃者の技能不足を補い、攻撃の規模と速度を著しく拡大させる恐れがあるとされる。
一方、OpenAIは次世代モデルがサイバー防御においても有効な支援手段となることを強調している。複雑なコードの監査や脆弱性パッチ作業の効率化、攻撃パターンの解析支援など、防御側の業務を強化する用途にも活用できるとして、これらの技術への投資を継続する方針を示した。また、資格を持つサイバー防衛の専門家に対して、段階的にモデルへのアクセス権を提供するプログラムを設けるとした。防御的ユースケースの強化を重視し、悪用を防ぎながらモデルの能力を安全に活用することを目的とする。
報道によると、OpenAIはシステム監視体制の拡充やアクセス制御の高度化など、インフラ面での安全対策を強化している。さらに、サイバーセキュリティ分野の有識者らによる「Frontier Risk Council」を設置し、モデルの安全性評価と運用ガバナンスを外部専門家とともに進める計画を表明した。同組織は当面サイバー領域を主要テーマとし、順次ほかの危険領域にも評価範囲を広げる予定である。
今回の警告の背景には、AIが既に攻撃者によって悪用されている現実がある。OpenAIは2025年6月、詐欺、マルウェア開発、情報操作などの領域でAIが攻撃者の能力を底上げしている実例をまとめた報告書を公表しており、AIが攻撃行為の効率化と拡大に寄与している状況を指摘していた。次世代モデルはこれらの傾向をさらに加速させる可能性があるため、同社は透明性を伴う形で警告を発し、安全策を早期に講じる必要があると明確にした。
国際的な専門家コミュニティでも、AIがサイバー攻撃の自動化と高精度化を進める可能性が議論されており、重要インフラへの影響を懸念する声が強まっている。今回のOpenAIの発表は、AIモデルの能力向上に伴うリスク評価が今後の安全ガバナンスにおいて欠かせない要素になりつつあることを示すものであり、産業界や政府による協調的な対応が求められる局面に入っている。
総じて、OpenAIは次世代モデルの潜在的危険性を正面から認めつつも、適切な制御と専門家の監督を組み合わせることで、防御側に有用な技術として活用できる可能性を示した。モデルの詳細や公開時期は明らかにされていないが、同社の警告はAIの進化と安全性のバランスをめぐる議論に大きな影響を与えることが確実視されている。
標的型攻撃・ランサムウェア対策のおすすめコンテンツ
PR
PR
PR