CTOのひとりごと「次世代防御システムはAI攻撃の夢を見るか?」

About CTO Blog: CTOのひとりごと「次世代防御システムはAI攻撃の夢を見るか?」

次世代防御システムはAI攻撃の夢を見るか?

今年も年末に差し掛かり、さまざまなイベントが開催される時期になりました。ラピッドセブン・ジャパンは、先日のCIOサミットに引き続き、日経BP社主催のイベント、情報セキュリティ戦略セミナーに協賛。AIとセキュリティをテーマとした同イベントで、私、古川勝也が講演させていただきました。今回は、その内容を簡単にまとめてみたいと思います。

AIー古くて新しいもの

AIとは「人間の心のために、機械がその体の代わりを行うもの」と言われます。つまり、人の活動を複製し、改善し、パフォーマンスを上げることで、人の生活を向上させることを目的としたものです。最近、一般向けニュースサイトなどでも、主に生成系AIの話題を中心に、AIという言葉を聞かない日はないほどになりました。しかし、みなさんもご存知の通り、AIの歴史は非常に古く、1980年代にはすでに第一次AIブームと呼べる動きが起こっていました。

AIの歴史を振り返る前に、AIとは何かを整理したいと思います。AI、つまり人工知能とは、人の知能や行動パターンを模倣するものです。そのベースとなるものに機械学習(ML)がありますが、MLにも問題解決パターンのプログラミングが求められる「教師あり学習」と、データから学び自分から答えを見つけていく「教師なし学習」に分けられ、特に後者が今のAIにつながっています。そのさらに先には、脳の機能であるニューロンネットワークを模倣した学習方法であるディープラーニングというものも存在しています。

ここに「なぜ今AIなのか」のヒントがあります。今のAIは「教師なし学習」をベースにしているため、膨大な学習データが必要になります。さらに、その学習データをもとに演算をし、答えを導くための計算リソースも求められます。さらに、データをどのように学び、答えを導き出すかというモデルも必要です。

これらの3つの条件が揃ったのが今なのです。インターネットから莫大な量のデータを適切なモデルに基づき学習し、豊富な計算リソースをもとに演算を行うことができるようになったのが「今」なのです。

生成系AI

以上のように、AIという考え方は以前から存在していました。今日特にAIが注目される要因の一つとなったのは、生成系AIであることは間違いないでしょう。ディープラーニングのサブセットとして登場した生成系AIは、テキストや画像、音声などを学習し、合成して出力することができるツールです。セキュリティ観点では、悪意のあるプログラムをも学習して出力することができる、などの点が脅威といえます。

実際、生成系AIは大きな市場価値を持つと言われ、それは5ドル近いとも言われます。国内外の調査でも、セキュリティを含むAI技術への投資増加傾向が見られています。多くの皆さんが、実生活や仕事でChatGPTなどのツールを活用したことがあるでしょう。しかし、それら生成系AIツールの導入ポリシーを定めている企業はわずかという調査結果もあります。生成系AIには、その学習元となるデータの信用性や著作権、出力モデルによって思想等に偏りのある結果が生まれ組織の評価を損ねるリスク、など、いくつかのリスクが伴います。それらを正当に評価し、正しい導入と運用をすることで、初めて企業における理想的な活用が実現します。その際に、AI RMF文書やAI権利章典などの、参考ドキュメントフレームワークとして活用するのもいいでしょう。

セキュリティとAIー攻撃者の視点から

結論から申し上げます。AIは、攻撃者の生産性向上にある程度の貢献をするものの、現時点で新たな攻撃手法を生み出すリスクにはつながりません。冒頭で申し上げた通り、そもそもAIというものは、人の生産性を向上する手助けをするものです。残念ながら攻撃者も人であり、その生産性にも貢献する可能性は大いにあります。わかりやすい例を挙げるなら、生成系AIを用いて、より「それらしい」メール文を作り出し、スピアフィッシング攻撃に用いる、などです。社会を脅かす存在でもある、ディープフェイクなどもそれに近いものと言えるでしょう。

しかし、スピアフィッシング攻撃が生成系AIによって生み出された攻撃かといえば、そうではありません。以前から存在していた攻撃手法です。生成系AIは特に、フィッシングなどのソーシャルエンジニアリング系に大きく関与してくるであろうことから、ソーシャルエンジニアリング攻撃の巧妙化に関与するといえます。しかし、ソーシャルエンジニアリングもAIによって生み出された新たな脅威ではありません。

AIは、新たな攻撃手法を生み出すよりもむしろ、攻撃者��生産性を上げることで、その攻撃の精度、頻度、範囲を向上させるリスクがあるといえます。

 

セキュリティとAIー防御の立場から

生成系AIではありませんが、機械学習という観点では、セキュリティは早くからこの分野に進出していたといえます。例えば、アラートのノイズ除去のために莫大なアラートを学習し、何が緊急度の高いものなのかのキュレーションを行う学習は、一種のMLであったといえるでしょう。

生産性向上に関しては、AIは防御者に対しても等しくその恩恵をもたらします。学習結果をシステムに反映し、検知の精度を上げ、早期発見早期対処を加速することに関与していきます。特に、攻撃の精度、頻度、範囲が向上するのであれば、防御側もその保護を熱くしていく必要があります。AIを活用することで、アラートからノイズを取り除き、人間では認識できないパターンや異常を検知し、本当に対応が必要な脅威を見つけ出すために、積極的にAIを活用していくことが好ましいでしょう。

ラピッドセブンとAI

以上から、AIを活用したセキュリティ態勢には膨大なデータが必要であるといえます。AIベースのセキュリティを選択する際には、多くのセキュリティデータを持っているベンダーの選択が重要です。

ラピッドセブンは、製品やソリューションの提供のほか、さまざまなツールや情報をオープンソースコミュニティに広く提供しています。世界中で愛されるペネトレーションツールの metasploit, フィンガープリント情報を提供するRecog, 脅威分析のためのフォーラムであるATTACKERKB, デジタルフォレンジックツールである Velociraptor などの提供を通じ、広く情報の収集と拡散を通じて、セキュリティコミュニティに貢献し続けています。

また、創業当初より積極的にAIやMLへの継続的投資を行い、プラットフォームに組み込む取り組みを展開し、例えばDAST攻撃に関してはAIを利用して攻撃の94%を削減したという結果もあります。

2023年末には、そのAI技術をクラウド状の異常検知に活用するソリューション (Cloud Anomaly Detection) を発表しています。2024年以降も積極的にAIを活用した技術に投資を続け、お客様のビジネスを守るためのセキュリティに貢献していく予定です。

 

参考ブログ:Rapid7、AIを活用した新たな脅威検知でAIイノベーションの次のステップへ

文:ラピッドセブン・ジャパン株式会社 古川勝也&横川典子