Identity Threat Defense

4つの偽の顔:ソーシャル エンジニアリングを変革する生成AI

Share with your network!

メールは最大の攻撃経路です。しかし、メールに加えて、ソーシャルメディアやテキストメッセージ、音声通話についても、サイバーセキュリティ教育を取り扱う必要性が昨今高まっています。なぜでしょうか?それは、生成AI(GenAI)が、ソーシャル エンジニアリングに変革をもたらし、攻撃者が生成AIを用いて他人になりすましているためです。

攻撃者は生成AIを用いて画像、テキスト、音声、動画を作成し、個人情報、財務データ、機密データを狙った、より強力な詐欺を仕掛けることができます。さらに、こういった作業を自動化して、成功率を高めることもできます。また、攻撃を拡大し、メッセージングアプリ、ソーシャルメディア プラットフォーム、電話、そしてもちろんメールといった、さまざまなチャネルに詐欺を展開することができます。

プルーフポイントの最新State of the Phishレポートによると、2023年、リスクのある行動を取った人の58%が、自身の行動にリスクがあることを感じていました。このことから、ひとつの重要な問いが生まれます。人は、インスタントメッセージや、ダイレクトメッセージ、ボイスメッセージ、または通常のメールを受け取る際、送信者の身元に100%確信を持つことは可能でしょうか?残念ながら、攻撃者が生成AIを使用する世界では、不可能です。

この記事では、攻撃者がこの強力な技術を用いて人を騙す4つの方法を見ていきます。

  1. 説得力のある会話型詐欺
  2. リアルなディープフェイク コンテンツ
  3. パーソナライズされたビジネスメール詐欺(BEC)攻撃
  4. 偽のプロフィールや投稿の作成自動化

 

1:説得力のある会話型詐欺

攻撃者は生成AIを用いて、人間的なやり取りを模倣する非常に説得力のある会話型詐欺を生み出しています。自然言語処理(NLP)モデルにより、パーソナライズされたメッセージを生成できます。よく用いられるNLPモデルには、回帰型ニューラルネットワーク(RNN)、Transformerベース(GPT-3など)、Seq2Seqなどがあります。

攻撃者が使用するおとりはさまざまですが、どれもターゲットとの会話を開始し、信用を得ることを目的としています。攻撃者は一般的に、送金させたり、偽の暗号通貨プラットフォームに投資させたり、財務情報を提供させたりなどの行動を起こさせる目的で、数週間ないし数か月かけてターゲットとやり取りし、関係を築きます

その手法は?

攻撃者は、ソーシャルメディア、メッセージングアプリ、チャットログ、データ侵害、カスタマーサービスとのやり取りなどのソースから、大規模なテキストベースの会話データセットを収集します。攻撃者は、このデータセットを使用してNLPモデルをトレーニングします。NLPモデルは、テキストを「理解」するようになり、入力プロンプトに基づいて、人から発せられたようなテキストを生成できるようになります。パターンを認識し、コンテキストを理解し、自然に聞こえる返答ができるようになります。

NLPモデルのトレーニングが完了すると、攻撃者は通常、このモデルを用いてターゲットを騙すテキストベースのメッセージを生成します。特定の人や言葉のパターンを模倣して会話したり、一般的な詐欺シナリオに合わせた返答を生成したりできます。このため、Instagramなどのソーシャル プラットフォーム、WhatsAppなどのメッセージングアプリ、TinderなどのデートWebサイトでは、本物のコミュニケーションと偽のコミュニケーションを見分けることが難しくなっています。

このリスクに対処するためにプルーフポイントにできること

Proofpoint Security Awarenessは、脅威の動向に関する教育的コンテンツをタイムリーに提供します。「Attack Spotlight: Conversational Scams」(Attack Spotlight:会話型詐欺)などのトレーニング含む2週間キャンペーンが用意されており、こうした詐欺を認識し、回避する上で役立ちます。

 

2:リアルなディープフェイク コンテンツ

攻撃者は、生成AIを用いてディープフェイクを作成することができます。ディープフェイクは、人が実際には言ってもいないこと、してもいないことを、あたかも本当のことのように見せかける技術です。攻撃者は、高度な機械学習(ML)モデルを用いて、人の見た目、声、癖を集めた、非常にリアルなフェイクコンテンツを作成します。

その手法は?

攻撃者は、模倣しようとする人の画像、音声、動画のデータセットを集めます。このデータセットを用いて生成AIモデルをトレーニングし、画像または動画などのフェイクコンテンツを作成します。このモデルは、自ら生成したコンテンツの真正性を評価することもできます。

よく用いられるモデルの一つに、敵対的生成ネットワーク(GAN)があります。手法に磨きをかけ、最適化しながら、ますます説得力のあるディープフェイクを生み出すことができるようになっています。例えば、モデルのパラメータを調整したり、トレーニング データセットを拡充したり、トレーニング プロセスを微調整したりできます。ディープフェイクをさらにリアルにするために、攻撃者は、光や色を調整したり、完璧になりすぎないようにかすかに歪めたりといった、後処理を施すこともあります。

詐欺を企む人間にとって、ディープフェイクは強力なツールとなりえます。例えば、音声のディープフェイクを使って、家族になりすますこともできます。一例として、よく見られるオレオレ詐欺(米国では「Hi mom」として知られる)では、攻撃者が子供あるいは孫を装って緊急に送金してもらうよう要求します。

指紋と同じように、声の特徴も人それぞれ固有のものです。攻撃者は、ボイスメール、録画された動画、ポッドキャストといったメディアの小さなサンプルから生体情報を集め、生成AIで人の声を模倣することができます。

このリスクに対処するためにプルーフポイントにできること

プルーフポイントでは、「一口サイズ」のトレーニング動画、インタラクティブなゲーム、「Top 3 Things」(トップ3項目)記事など、ディープフェイクの動向に関する完全なセキュリティ意識向上キャンペーンを用意しています。また、プルーフポイントのアナリストが、香港での最近の第1四半期金融詐欺といった、注意すべきディープフェイク攻撃を検知した場合など、「Threat Alerts」(脅威アラート)も適時に発行されます。

 

3:パーソナライズされたBEC攻撃

プルーフポイントの2024 State of the Phishレポートによると、生成AIは、特に英語圏以外の国において、BEC (Business Email Compromise)攻撃に活用されているようです。BEC攻撃は、日本、韓国、アラブ首長国連邦といった、非英語圏で増えています。これらの国は生成AIの登場以前は言語の障壁、文化の違いにより、攻撃者がこれまで攻撃を避けていた国です。

BEC詐欺には、一般的になりすまし戦術が用いられます。攻撃者は、会社役員など、信頼されている人になりすまし、送金または機密情報の送信などの危険な行動を取らせるよう従業員を騙します。

攻撃者が生成AIを使用できるようになったため、多くの言語で自然なメッセージを書くことができ、詐欺メッセージを速く作成できるだけでなく、その文章の質を向上させることもできています。

その手法は?

生成AIは、人が作成したコンテンツおよび対応するラベルのデータセットから、パターンおよび関係性を学習します。次に、この学習したパターンを使用して、新たなコンテンツを生成します。生成AIにより、攻撃者は、受信者それぞれにパーソナライズされ、説得力のある、ソーシャル エンジニアリング メッセージの作成を迅速化および自動化することができます。

例えば、攻撃者は生成AIを用いて、スプーフィングの対象となる人の文体、トーン、クセなどを模倣した偽のメールやテキストを書くことができます。AIモデルを使用して、これらのフィッシング メッセージの作成を自動化し、標的の受信者に合わせたメッセージを大量に生成することができます。これにより、メッセージの真正性を判断するのが難しくなります。

ディープフェイクはここでも登場します。攻撃者は、会社役員を装い、指示を与えたり取引を承認したりする、なりすましのボイスメール、通話、動画ベースのメッセージを用いることで、偽の要求に真実味を加えることができます。

このリスクに対処するためにプルーフポイントにできること

プルーフポイントは、BECに対するセキュリティ意識向上にフォーカスしており、インタラクティブな動画からユーモアを交えた動画や1分アニメーションにいたるまで、数百のさまざまなコンテンツを用意しています。プルーフポイントの脅威アナリストは、プルーフポイントの週次「Threat Alerts」(脅威アラート)において、給与振込先変更や請求詐欺などの実際のBEC攻撃に関する情報を提供しています。

 

4:偽のプロフィールや投稿の作成自動化

生成AIが実在する人のリアルな画像、音声、動画をどのように生成するかについて見てきました。攻撃者はまた、AIモデルを使用して、ソーシャルメディアやニュースプラットフォームで実在しない人物を作成することもできます。また、大量の偽のアカウント、記事、図、コメント、投稿の作成の自動化もAIモデルによって可能です。

その手法は?

生成AIモデルは、わずかなトレーニングで、公開されているデータやソーシャルメディア上のプロフィールを分析し、こうした情報を標的のユースケースに適応させることができます。モデルは以下のことが可能です。

  • 信頼できるソースから、本物のコミュニケーションのスタイルや語調を模倣
  • テキストを複数の言語で翻訳・ローカライズ
  • メッセージへの返信など反復的な作業を処理

攻撃者は、ターゲットの興味に合わせた、実在しない人物を作成することができます。例えば、Facebook、Instagram、Webサイトフォーラム、デートアプリといったプラットフォーム上にプロフィールを作成するプロセスを自動化することができます。また、AIモデルを用いて、ソーシャルメディア上での会話においてデータを迅速に処理し、興味を引くような返信を自動的に書くこともできます。攻撃者の目標は、人の脆弱性や信用につけこんで、さまざまな関係を築くことです。

AIにより、攻撃者は、こうした悪意のある活動を大規模に展開することができます。これによって、誤情報を広め、オンライン上での会話を有利に誘導しやすくなります。

このリスクに対処するためにプルーフポイントにできること

Proofpoint Security Awarenessは、ソーシャルメディア上のなりすましに関する、アナリストによる適時の警告と共に、ソーシャル エンジニアリングに関する継続的なトレーニングを提供します。プルーフポイントの資料には、攻撃をかわす方法を紹介した記事や動画があります。また、GitHub、LinkedIn、X上の最近の攻撃に関する、週次「Threat Alerts」(脅威アラート)も用意されています。

 

プルーフポイントの無料キットをご利用ください!生成AIには多面的な教育が必要です

上述のとおり、攻撃者は生成AIを使用して、自分ではない誰かに、非常にうまくなりすまします。ソーシャル エンジニアリングを用いて人の心理を操り、悪意のあるリンクをクリックする、個人情報を提供する、送金するなどの危険な行動を取らせようと騙します。

危機感をもってセキュリティ教育に取り組み、新たな脅威や対策について常に情報を得ることが重要です。ユーザーに生成AIのリスクを伝えるには、セキュリティ意識向上に対する多面的なアプローチが必要です。財務取引や機密データを扱う従業員への教育は特に重要です。

プルーフポイントでは、業界をリードする脅威インテリジェンスを用いて、現実の脅威を想定したセキュリティ トレーニング、資料、およびフィッシング シミュレーションを開発しています。プルーフポイントは、基本的な習慣から高度なコンセプトまで、継続的かつ段階的に拡大する、適応型学習フレームワークによる教育を提供しています。このアプローチにより、テーマに沿ったトレーニングを、ユーザーのニーズに合ったレベルで提供することができます。

プルーフポイントの無料の「2024 Cybersecurity Awareness Month」(2024年サイバーセキュリティ意識向上月間)キットでは、ディープフェイクや会話型詐欺といった、注目のテーマを扱っています。ぜひご覧ください。