人工知能(AI)を実装するために用いられる機械学習テクノロジーの一種である最先端ディープニューラルネットワークは、言語翻訳、作文そしてツイート生成と併せ、その他クリエイティ ブさの求められるタスクをこなす能力により、ここ数年注目を集めてきました。
最近では、ディープラーニングを用いた2つの対話型AIモデルであるGPT-4、およびその前身であるChatGPTが「あらゆる仕事のあり方を変える」ゲームチェンジャーとして前面に押し出されています。GPT-4(Generative Pretrained Transformer 4)とChatGPTはどちらも、従来型のチャットボットと比べはるかに幅広い用途を備えています。質問や要求に対し、より人間味のある文章の応答を生成し、検索クエリや文字列の「会話」の文脈を理解しユーザーの問いの背後にある意図を解釈することができます。ChatGPTの特徴的な機能によって、史上最速で成長するコンシューマー向けアプリケーションとなりました。
AIチャットボットは、見事な人間味のある応答を集めたり、特定のアプリケーションを作成することでさえ可能にします。その完成度は、フィッシングを行うためにハッカーに悪用される懸念が生じるほどになっています。
GPT-4およびChatGPTのセキュリティにおける意味合いをよりよく理解するには、フィッシングを行うにあたりどのようにコンテンツを生成するよう「訓練」されるか、また、単純なフィッシングと、高度にパーソナライズされターゲットを絞ったフィッシングとの違いを理解することが重要です。
クラウドストレージサービスから暗号資産まで、攻撃者は常に最新のトレンドとテクノロジーを悪用し続けてきました。そのため、生成系AI(ジェネレーティブAI)の出現は、誰または何がメッセージを書いたかにかかわらず、メールセキュリティが高度なフィッシングを確実にブロックできる能力を備えていることの重要性を組織に知らしめました。
今日のAIチャットボットに採用されているモデルは、機械が文章または会話を人間とほとんど同様に「理解」し応答することを目指すAIの派生分野である自然言語処理(NLP)における新たなマイルストーンを提示しています。NLPでは、コンピューター自身 が処理している内容を理解できるようにするため、人間の言語のルールベースのモデリングと様々なモデルとを組み合わせています。
ソーシャルメディアモニタリングツールや、Siriのような音声アシスタントなどの様々なアプリケーションで、何年にもわたりNLPが用いられてきました。しかし、膨大な量の文章と画像パラメータにより訓練されたChatGPTとGPT-4では、間違いなく技術が大幅に進化しています。
どちらも、あるフレーズに続く最も論理的な次の語の予測をするために訓練されたニューラルネットワークベースのNLPモデルである、「大規模言語モデル」と呼ばれるものを取り込んでいます。この訓練技術は、その他多数のタスクにおいても有用なNLPモデルを生み出すことが認められました。
OpenAI(ChatGPTおよびGPT-4の開発元)によるこの技術の適用方法は、大きな節目となりました。OpenAIは、ほかのアプリケーションより訓練をさらに1段階ステップアップさせ、この新たなテクニックを生成された文章や画像に対する人間の意見と組み合わせ、指示に即座に従うよう特化させました。結果として、そのモデルはよりニュアンスに沿った人間らしい会話を生成するように微調整されることとなりました。
ChatGPTやGPT-4が生成する明確な応答は、本来善意に基づく活用を前提としています。しかし、サイバー犯罪者にとって、この能力はフィッシングを構想するためのツールとして使えるものとなり得ます。
フィッシングは、データ漏洩の最たる原因であり、しばしばランサムウェアが入り込むきっかけとなります。
フィッシングメールは正規の企業や組織になりすますよう社会的な背景を踏まえたうえで作りこまれており、一目見ただけではそれと判断するのが難しい場合があります。しかし、歴史的に、フィッシングメッセージを判別するにあたっての共通の特徴(特に、対象となる被害者の母国語話者ではない犯罪者により生成された場合)には、文法の不完全さ、誤字や語彙の用法間違い、不適切な文章構造などが挙げられます。
2023年1月、脅威インテリジェンス企業であるRecorded Futureは、サイバー犯罪者により、ChatGPTが正当なものに見えるフィッシングメッセージを作るなどのサイバー犯罪行為に用いられる可能性があると報告しています。
Recorded Futureは、ChatGPTのサービス開始後数週間以内に、ダークWebと特殊アクセスが必要なソース上の脅威アクターが、マルウェア開発、ソーシャルエンジニアリング、偽情報の拡散を可能にする、ChatGPTにより生成される対話の概念実証を共有していることを発見しました。
同社はまた、次を例として、ChatGPTとGPT-4の知名度を悪用しようとする攻撃者についても報告しています:
ChatGPTの社名とOpenAIの画像がフィッシングWebサイトでなりすましに利用され、マルウェア拡散やクレジットカード情報盗難に用いられている多数のケースをリサーチャーが発見しています。
ダウンロードするとユーザーの情報を盗むフィッシングが発動する、偽のChatGPTアプリの存在が確認されています。
GPT-4のサービス立ち上げ直後、スキャマーはフィッシングメールの送信と偽のOpenAIトークンのフィッシングリンクをツイートし始めました。
仕様的には、OpenAIは同社のモデルを「マルウェアの生成」、「経済的損害を発生させる高いリスクのある活動」、 「詐欺的行為」、そしてその他の不法行為への利用を禁止しています。意図的にフィッシングメールを書いたり、フィッシングWebサイトを作ることはできません。しかし、ハッカーはこれをフィッシングを行う手順の簡素化に利用することができます。少なくとも、AIチャットボットは、攻撃者を含めあらゆる人の急速なライティングスキルの向上を可能にします。
ChatGPTとGPT-4が悪意のある者の手にかかると、従来のメールセキュリティやアンチフィッシングフィルターを潜り抜け、見かけがより正当なものに見え、良く書き込まれたフィッシングメッセージやWebサイトの作成に利用される可能性があります。
攻撃者は、認証情報、情報または金銭を盗むには、1名の犠牲者を1度のクリックまたは会話に引きずり込むだけでよいことを理解しています。このことは、求職者をターゲットにした就職詐欺、寄付者をターゲットにした慈善団体なりすましスキャム、オンラインでデート相手を探すロマンス詐欺フィッシング攻撃において明白です。
今日、最も強力なニューラルネットワークは、平均的市民の個人情報、または特定の企業の組織的およびコミュニケーション構造を「知る」ことはできません。しかし、AIチャットボットの力を、攻撃対象の被害者に関する十分なリサーチと共に組み合わせると、攻撃者はフィッシングメッセージを大規模に組み立てることができ、ユーザーが悪意のあるメールを判別するのがさらに難しくなります。
サイバー犯罪者はすでに、高度な標的化を行い、低いボリュームでのビジネスメール詐欺(BEC)攻撃で組織への詐欺行為を成功させています。BECは典型的には、標的となる被害者が定期的にやり取りする特定の従業員や役員になりすまして行われます。BECの一種であるベンダーメール詐欺(VEC)では、信頼のおけるサードパーティ(ベンダーやサプライヤーなど)のアカウントを乗っ取り、以前行われたメッセージのやり取りを反映させてきます。BECとVECはどちらも「信頼のおける」関係性を悪用するため、従来のセキュアなメールゲートウェイと認証を潜り抜けることができます。BEC攻撃はすでに、世界中で企業に430億ドルを超える損害をもたらしています。
攻撃者は、常に新たなテクノロジーを悪用してきます。幸いにも、セキュリティにおけるイノベーションにより、従来型の防御態勢やユーザーの警戒を潜り抜ける、悪意あるメッセージを判別することができます。高度な機械学習モデルが構築され、文字列または画像にとどまらず多くのシグナルを検証し、フィッシングを検出およびブロックできるよう、数年に渡り訓練されています。
メールメッセージには、メールの送信元、発信元サーバーのインフラストラクチャ、伝送パスなど、そのヘッダーおよびメタデータフィールドに膨大な量の付加的情報が含まれています。ヘッダー以外にも、特定のURLとリンク、添付ファイル、配信メンバーリスト、語調など、メッセージのその他詳細を評価する必要があります。
Zero Trustプラットフォームの一部である、Cloudflareの先制的メールセキュリティが、次のようなメールコンテンツがもつ複数のシグナルを検証します:
センチメント分析:パターンと行動傾向(ライティングのパターンと表現)の変化の検出
構造的分析:ヘッダー、本文、画像、リンク、ペイロードを、これらのシグナル検出に特化して設計したヒューリスティックおよび機械学習モデルを活用して分析
トラストグラフ:パートナーのソーシャルグラフ、送信履歴、パートナーなりすましの可能性を評価
Cloudflareは、毎日ブロックされる平均~1650億のサイバー脅威、および毎日3.60億のDNSクエリーから集めたインテリジェンスも活用しています。このインテリジェンスにより、Cloudflareのお客様は、悪意あるドメインのブロック、不審なWebコンテンツからのユーザーの隔離、ユーザーによるフィッシングWebサイトでの認証情報の漏洩回避、そして各種攻撃ベクトルにおけるフィッシングの阻止を実現できます。
これに他のテクニックを加え、ユーザーが暗黙に信頼を置いてしまうビジネス上のコミュニケーションを攻撃者が悪用することを阻止できます。Zero Trustを脅威防御へと拡大させるこの全体的なアプローチは、3つの核となる信条に基づいています:
漏洩を想定する:フィッシン グが常に行われようとしていることを前提とします。攻撃者インフラストラクチャを積極的に暴き出すためインターネットをスキャンし、受信箱に届く前にフィッシング攻撃をブロックします。
決して信用しない:メール認証を設定済である、定評のあるドメインである、または企業のユーザーが以前やり取りしたことのある誰かからのものであるなど、ビジネス上のコミュニケーションであることを理由に無為に信用はしません。
常に検証する:社内ネットワーク内部のものであっても、すべてのユーザーとリクエストを継続的に検証します。
攻撃者が、新たなAIチャットボットなど簡単に利用できるあらゆるツールを用いて、攻撃の精度を高めようとすることは明白です。防御態勢を軽んじ続けたり、新たなサイバー脅威が現実のものであるかの判断を待ち続けることは、組織をより大きなリスクにさらす場合があります。それよりも、「漏洩を想定」し、「決して信頼しない」姿勢で、「常に検証する」ことで、あらゆるフィッシングに対しより防御力を高めることができます。
この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドとトピックについてお伝えするシリーズの一環です。
Cloudflareが検出、ブロックするフィッシングの種類を知るには、セルフガイド式のメールセキュリティデモをお試しください。
この記事を読めば、以下が理解できます。
対話型AIチャットボットはどのように文章を生成するのか
攻撃者はどのようにChatGPTやGPT-4を悪用しフィッシングを行うのか
AIが生成したフィッシングの脅威を防御する方法
利用開始
リソース
ソリューション
コミュニティ
サポート