0
いいね!でマイページに保存して見返すことができます。
ユーザーと自然なやり取りができるChatGPTが話題だ。適切に質問すれば、コードやSQL文も作ってくれる。一方で、この技術を悪用すればセキュリティが脅かされるのではないだろうか? AIをセキュリティに応用する議論は今に始まったことではない。古くはセキュリティベンダーのESETが発見的アルゴリズムをアンチウイルスソフトに導入していた。Gmail他のスパムメールフィルタにも、統計的な検知アルゴリズムが使われていた。だが現在は、攻撃者も積極的にAIを活用しているのだ。
敵対的強化学習の成果がAIの用途を広げる
機械学習理論がAI研究に大きな進歩をもたらし、GPUのような演算プロセッサおよびニューラルネットワーク技術がそれを加速させた。近年は敵対的強化学習が成果を上げ、絵画やイラスト、文章までAIがかなりの精度で生成できるようになった。
2022年11月にOpenAIがリリースしたChatGPTは、万能器のように何でも質問に答えてくれて、論文さえ書いてくれる。OpenAIのGPT-3、Codexは欲しい機能の文章を入れるだけでJavaやPythonなどのプログラム、さらには正規表現のコードも生成してくれる。
ChatGPTは、人間のように考えることができる「汎用AI」ではないが、適用範囲は従来のAIより広がる可能性がある。
たとえば、チャットボットによるサポート窓口はもっとまともな応答にできるだろう。ツールとしてはすでに優秀で、レポートの下書きをさせる、文章の要約を作る、それを英語にする、といった使い方が広がっている(ただし、ChatGPTは2021年までのオープンデータをベースにしているので2022年以降の知識はないなど、利用上の注意点がある)。OpenAIに10億ドルの出資を決めたマイクロソフトは、自社製品・サービスへの技術展開を進めようとしている。
では、セキュリティ分野へのChatGPTの活用や貢献はどうだろうか。セキュリティへのAI活用は、2010年頃までアンチウイルスやファイアウォール、ログのスクリーニングなど、主に防御側への応用がメインだった。機械学習の進化とともに、これらの精度が向上した一方で、攻撃者もAIを活用してAI由来の防御策への対策、新たな攻撃手法を繰り出してきた。
これまでのAIセキュリティ攻防
たとえばアンチウイルスは、AIの画像認識が任意の写真から犬や猫だけを検知できるように、マルウェアをシグネチャ(固定パターン)ではなくコードの特徴点から悪性の有無を判定するようになった。そうすると攻撃者は、そのAIが検出できない、または誤判定するようなプログラムになるようにマルウェアをAIに解析させる対策を打ってくる。
人間には同じに見える画像でも、人間が知覚できない画像ノイズを乗せることで、猫の画像を消防車と判定させるといったことができる。ステガノグラフィーという。マルウェアのコードの中にこのような特徴を持つノイズ(処理に影響しないダミー的なコードパターン)を乗せれば、AIによるマルウェア判定を免れることができる。
セキュリティとは若干ずれるが、ゲームのチート(不正行為)にAIを活用する研究も行われている。FPS/TPSのような対戦ゲームやMMORPGでは、敵キャラの動き、フィールドの自然現象の再現に強化学習などの高度なAI技術が使われている。将棋や囲碁などのコンピュータ対戦でも相手はAIだ。
これらのAIは人間プレーヤーの動きを学習し、強くなったりプログラムされていない動きを再現する。攻撃者はこの強化学習を逆手にとり、強くなりにくい行動をとったり、相手(AI)が負ける動きをしたりする。どんな動きがAIの学習を妨害するのかは、そのための強化学習モデルを作りAIに学習させるのだ。
【次ページ】攻撃者はChatGPTをどのように悪用するのか
関連タグ