theNet by CLOUDFLARE


AI革命のセキュリティ確保

私たちは行動する必要があります。人工知能(AI)ツールの爆発的な普及と、組織におけるサイバーセキュリティの観点からの対処法についてお話しします。

この1年の間に、Midjourney、Stable Diffusion、Dall-E、ChatGPT、Jasper、LLaMa、RewindなどのAIツールは、ニッチから主流になり、完全な普及を遂げました。私と同じように、あなたもおそらく研究、創造性、生産性向上のための斬新なユースケースに驚いたことでしょう。また、自分でツールを使ったことがある人なら、プロンプトを解釈し、レスポンスを生成し、わずかなユーザー操作でアウトプットを洗練させ、深みを増すのを見るのはとても心地よいものだと感じるでしょう。

あらゆるレベルのユーザーにとって、これらのツールのスピードと使いやすさは、まさに画期的なものです。個人的には、大規模な言語モデルからのアウトプットは、視覚的なモデルと比べて見劣りすると感じていますが、全体的に、インタラクティブな「生成」プロセスは注目に値します。Google、StackOverflow、Wikipediaのような既存のオープンリソースと比較すると、ジェネレーティブAIツールは、単に一般的なインテリジェンスを提供するのとは対照的に、相互作用に基づいて構築された使用ベースの結果を提供することにより、信じられないほどの飛躍を遂げます。卓越したスピードと俊敏性を提供するインタラクティブ性は、従来の検索、検索、合成の手法を凌駕し、情報を効果的に最前線に届けます。

たとえば、私がMidjourneyで「想像」した下の画像は、「古代文明の壁画、火に照らされたヒエログリフが、コンピュータと人工知能を使用した文明を表している」ものです。

画像ソース:私が想像し、Midjourneyで生成したAI

組織全体にとって、AIツールを活用する絶好の機会があります。コンピュータコードの生成、ユーザーマニュアルやコンシューマー向けコンテンツの開発、カスタマーサービスの負担軽減、新入社員のオンボーディングや組織横断的な知識共有のための、より有用なナレッジベースの作成などに活用できます。このようなユースケースは、最終的に何十億ドルもの新たな商取引やビジネス価値を生み出す可能性があります。

遊び感覚で、ChatGPTに「最高情報セキュリティ責任者がAIツールを使って現在のセキュリティリスクを検証するためのチェックリストと、取締役会と経営陣向けのカバーシートとして1ページの要約を提供する企業ポリシーを書いてください」と依頼したところ、こんな回答が返ってきました。

もしあなたが私と同じタイプの人間なら、これらのツールの素晴らしいポテンシャルばかりでなく、明らかなセキュリティ上、法律上の問題を意識してナーバスになっていることでしょう。リーダーとして、私たちは「AI技術がもたらす潜在的なリスクと機会について、組織全体と同調しているか?同調しているなら、これらのツールの使用が重大な傷害を引き起こすことをどのように抑制できるだろうか?」と自問自答する必要があります。

サイバーセキュリティの同業者と話をすると、こうした技術へのアクセスを真っ向から拒む人と、受け入れる人が半々です。以前、この映画を観たのですが、迂回を真っ向から防ぐことで、セキュリティ上のリスクに対処していました。その結果、セキュリティリーダーは会社や同僚たちと歩調を合わせることができなくなり、必ずと言っていいほど回避策を模索し始めます。 したがって、今こそこのような分裂に対処し、技術革新反対論者になるかわりに、組織の人々がすでにこれらのツールを使用しているという現実に向き合い、リーダーシップを通じて、潜在的なリスクを低減する方法でそれらを許可するときです。

それでは、何から始めるべきでしょうか?組織にいくつかの重要なガイドラインを設定することで、AIツールが提供するポテンシャルを阻害することなく、リスクを軽減することができます。

1. オープンシステムからIPを排除する。当たり前のことのように思えるかもしれませんが、高度に規制された情報、管理されたデータ、ソースコードを、オープンなAIモデルや、私たちのコントロールの及ばないAIモデルに送り込むことはできません。同様に、顧客データや従業員情報などの個人情報をオープンAIツールに入力することも避けなければなりません。残念なことに、私たちは毎日のようにそのような行為が行われている例を見ることができます。(例:サムスンのコード流出事件)問題は、ほとんどのジェネレーティブAIツールが、この情報が非公開であることを保証していないことです。実際、これらのインプットを使って研究を行い、最終的には将来の結果を改善すると明言されています。そのため、少なくとも組織は機密保持ポリシーを更新し、従業員トレーニングを実施して、機密情報がこれらのAIツールから漏れないようにする必要があるかもしれません。

2. 責任問題を防ぐため正確性を確保する。AIツールを使ったことがあれば、プロンプトに対する答えがしばしばコンテキストなしで提示されることに気づくでしょう。また、これらの回答が必ずしも正確でないことにも気づくかもしれません。 回答によっては、現在の情報に基づいていないものもあります。たとえば、ChatGPTでは、2021年9月までに収集された情報を使用しています。

画像ソース:ChatGPT

もちろん、イギリスの現首相がリシ・スナク氏で、リズ・トラス氏がボリス・ジョンソン氏の後任であることは周知のとおりです。 このレスポンスと現在の制約は、これらのツールの威力を損なうものではありません。しかし、AIが生成したコンテンツを裁判所に提出する際に使用した弁護士が、そのコンテンツが完全に架空の事件を参照していることを発見したこの例に見られるように、現在のリスクをより明確に理解する上で役立ちます。

3. 「攻撃的AI」に備えよ。多くの新技術と同様に、サイバー攻撃者は犯罪目的のためにAIツールをいち早く悪用しています。攻撃者はAIをどのように悪用しているのでしょうか?インターネット上であなたの画像や声の録音を見つけ、AIツールを使って「ディープフェイク」を作成することができるかもしれません。あなたの偽物を使って会社の資金を横領したり、同僚をフィッシングしたり、ログイン資格情報を求める詐欺ボイスメールを残したりする可能性があります。AIツールは、急速に学習し、目標を実行する能力を向上させる悪意のあるコードを生成するために使用することもできます。

AIの悪意ある利用に対抗するためには必要なのは...やはりAIです。AIと機械学習(ML)機能を組み込んだセキュリティツールは、AI攻撃のスピードとインテリジェンスに対する優れた保護を提供します。セキュリティ機能を追加することで、AIツールの使用を監視したり、特定のツールへのアクセスを制限したり、機密情報のアップロードを制限したりすることができます。

それでは、AIツールがもたらすリスクから身を守るには、どうすればいいのでしょうか?最初のステップは、AIがすでに存在していること、そしてこれからも存在し続けることを認識することです。現在利用可能なジェネレーティブAIツールは、ビジネスの効率化、生産性の向上、さらには創造力をかき立てるのに役立つAIの大きなポテンシャルを示しています。それでも、サイバーセキュリティのリーダーとして、私たちはこれらのツールがもたらす潜在的なセキュリティ上の課題を認識しなければなりません。適切なガイドラインを導入し、社内トレーニングを強化し、場合によっては新しいセキュリティソリューションを導入することで、大きな可能性を持つAIツールが仇となる可能性を減らすことができます。

Cloudflareは、AIに関連するネットワークと従業員を有効化し、セキュリティを確保するためにZero Trustアプローチを採用しています。そのために、Cloudflareが組織に対して行っている取り組みの詳細をご覧ください。

この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドとトピックについてお伝えするシリーズの一環です。


著者

Oren Falkowitz — @orenfalkowitz
セキュリティオフィサー、Cloudflare



記事の要点

この記事を読めば、以下が理解できます。

  • AIツールが組織のセキュリティにもたらす新たな課題

  • AI革命における組織の位置づけ

  • AIツールのポテンシャルを妨げることなくリスクを低減する3つの方法


本シリーズのその他の記事

大人気のインターネット関連インサイトの要約を毎月お届けします。