theNet by CLOUDFLARE

データをAIから保護

AIを活用した開発の賛否

AIによって変化する開発事情

AIの登場により、企業はすばらしい速度と規模でアプリケーションを開発し、強化できるようになりました。ソフトウェア開発のこの進化は、ChatGPTやGitHub Copilotといった生成系AIツールの急速な普及が推進力になっています。

AIのユースケースとしては、迅速なコード生成(かつ概ね正確なコード生成)、既存コードのクリーンアップ、有用なアルゴリズムの特定、ソフトウェアドキュメントの作成、手作業のコーディングプロセスの高速化などがあります。

要するに、AIは強力な開発ツールになり得るのです。慎重にスクリプティングした具体的なプロンプトがあれば、AIを使って高質のアウトプットを生成することができ、時間と労力を大幅に節約することができます。

しかし、どんなテクノロジーにも限界があります。AIにもセキュリティやデータプライバシーの面でリスクがあり、重大なエラーの見過ごしからプロプライエタリコードの露出まで、効率化のメリットを上回る深刻なリスクもいくつか見られます。そうしたリスクへの対策のひとつが、データ損失防止(DLP)の使用です。DLPは、企業が機密データの移動を検出し、データやプライバシーに関する規制を遵守し、データ流出を阻止するのに役立ちます。

しかし、新たなAIツールの現状を鑑みると、従来型セキュリティソリューションの多くは、AIツールが企業データにもたらすリスクや未知の影響を軽減するには不十分です。そこで、開発プロセスでAIを活用したい企業は、AI耐性のあるデータ保護戦略を実装することによってAIツールを安全に活用することができます。最新のデータ保護は、秘密情報侵害やコンプライアンス違反、敵対的攻撃、知的財産喪失の防止に役立ちます。


コーディングで生成系AIを利用することのリスク

AIを活用した開発は、企業の大規模なイノベーションの推進力になり得ます。しかし、AIツール固有の限界やリスクに留意せず使うと、開発プロセスを阻害するだけでなく、ツールを使っている企業に害をもたらすことにもなりかねません。

1. AIがプロプライエタリコードを露出(と再生成)する可能性がある

生成系AIツールはフィードされた情報を取り込み、そのデータを使ってパターンや構造を特定することで、新しいコンテンツを生成することができます。大規模言語モデル(LLM)は、フィードするデータが多ければ多いほど洗練され、範囲も拡大します。

そのため、プロプライエタリデータに関する重要な懸念が生まれます。例えば、Samsungの例を考えてみましょう。Samsungでは、エンジニアが社内ソースコードをうっかりChatGPTにアップロードしてしまったことがあり、その後、ChatGPTは使用禁止になりました。そのデータは従来の意味で漏洩されたわけではありませんが、AIツールと共有したデータは企業の制御範囲外のサーバーに保存されることが多く、そうなると企業はデータの利用や配信のしかたを保護する能力を失ってしまいます。

企業が共通して抱く懸念のひとつは、AIプラットフォームがLLMのさらなる訓練のためにユーザーデータを収集する方法についてです。OpenAIやGitHub Copilotのような人気のAIプラットフォームでは、受信したデータでAIモデルを訓練しており、プラットフォームの他のユーザー向けにアウトプットを出力する際にそのデータを何度も再生成しています。そのため、プロプライエタリコードや機密データ、個人情報(PII)が公になるというプライバシー上の懸念が生じます。

つまり、AIプラットフォームとのデータ共有は、不特定の他社とデータ共有するようなものなのです。ユーザーは共有先のプラットフォームを信頼し、入力データは保護されると思っています。データセキュリティはコア機能ではなく、データを集めれば集めるほどおいしい標的になるということに気付いていないのです。

2. AIが脆弱性を招く可能性がある

AIツールに関連して起こる漏洩の多くは偶発的で、社内環境の外へ出してはならないコードをエンジニアがアップロードするとか、ChatGPTの応答が社外秘データに酷似していることに企業が気付くといったケースです。

その他の侵害例はもっと狡猾です。FraudGPTとWormGPTは、専らフィッシングキャンペーンの作成、マルウェアの自動化、高度で人間みたいに見えるソーシャルエンジニアリング攻撃の実行を目的として、盗難データで特別に訓練されたAIツールです。ほとんどのAIプラットフォームは有益な目的のために使われることが圧倒的に多いとはいえ、土台を成す強力なテクノロジーを訓練によって攻撃の高速化や激化に使うことも可能なのです。

盗難データの不正利用の他に、良性のAIツールが不安定なコードを生成する場合もあります。最近の調査によると、GitHub Copilotが生成したコードの40%に、MITREが特定した最も一般的な25の脆弱性のうち1つ以上が含まれていました。この調査報告の著者は、どんなユーザーでもコードをアップロードできるGitHubのオープンソースリポジトリでCopilotを訓練した結果であることを突き止めています。

最後に、AIツールそのものが攻撃者の標的になる場合があります。最近では、ChatGPTでデータ漏洩が発生し、10万以上のアカウントが侵害された例があります。この漏洩では、氏名、メール、請求先住所、クレジットカード情報、秘密のチャットタイトル、ツールで作成したメッセージが露出しました。

3. AIがデータプライバシー管理を迂回する可能性がある

AIツールは簡単に操作できるため、企業がそうしたテクノロジーを使いながらユーザーデータをどの程度保護できるか疑問です。偶発的であろうと悪意をもってであろうと、AIソフトウェアの使用がデータ露出の端緒となり、コンプライアンス上の問題が広範に発生するかもしれません。

例えば、NvidiaのAIソフトウェアに重大な欠陥があることをリサーチャーが発見しました。この欠陥を突けば、データのプライバシーとセキュリティを守るためにわざわざ設けた制約を迂回できたのです。一日も経たないうちに、AIのフレームワークを悪用して個人情報(PII)を引き出せたといいます。


AIへの投資ではセキュリティ優先の心構えが必要

AIのリスクから機密データを保護する際は、AIを危険なシャドーITの一種と考えるとよいでしょう。つまり、サードパーティのAIツールを使うと、データの処理、保存、配信の様子が非常に見えづらくなりがちなのです。

オープンソースのAIツールはセキュリティとデータプライバシーを念頭に構築されておらず、システムやコード、ユーザーデータを先制的に侵害から防御する責任は企業にあります。AIの利用を全面的に禁止しなくても、リスクを最小化するために企業がとれる戦略がいくつかあります。例えば:

先制的にリスクを特定

新しいサードパーティAIツールを導入する前に、AIの予定ユースケースを評価しましょう。AI活用の目的は、自然言語文書のサジェストですか?ローコードまたはノーコードのソフトウェアアプリケーションの開発ですか?既存コードの欠陥の評価と修正ですか?社内アプリケーションや外部公開製品への統合ですか?

それらのユースケースに優先順位を付けたら、次は、AIツールへの露出で招きかねない、あるいは悪化しかねない潜在リスクを評価することが重要です。AIのリスクは幅広く存在するため、企業は発生するすべての脆弱性について防止とパッチ適用のガイドラインを明確に決めておく必要があります。特定のAIソフトウェアに関連する脆弱性について書かれた既存文書を参考にするのもよいでしょう。

AI利用に関するプロトコルの開発

言うまでもないことですが、企業はAIへの無制限アクセスを与えてはなりません。特に、プロプライエタリ情報やユーザーデータが関わる時は注意しましょう。AIツールは、セキュリティとデータプライバシーに関する懸念の他に、バイアスや透明性に関する疑問も提起されており、AIを活用した開発のメリットに影響するかもしれません。

そのため、企業はサードパーティAIの利用についてガイドラインとプロトコルを策定する必要があります。AIツールと共有していいデータは何か、どのようなコンテキストで共有が許されるか、どのAIツールがアクセスできるかを決めておくのです。AIツールの潜在バイアスを調べ、社内でのAI活用を文書化し、AIが生成するアウトプットを収集してその質について標準を定めましょう。

AI制御の実装と微調整

AIは常に進化していますので、継続的な監視が必要です。AIモデルを利用する際は、新たなユースケースの出現に応じて既存のプロトコルとデータ制限を調整します。AIが生成したコードや関数を断続的に評価することで、企業は潜在リスクをより簡単に検出し、侵害の発生確率を最低限に抑えることができるかもしれません。

社内チェックを補完するため、サードパーティAIツールの定期評価も必要です。ChatGPT、Copilot、その他のAIソフトウェアで新たな脆弱性が記録された場合は、それらのツールにフィードするデータのタイプを再検討し、必要に応じて、バグにパッチが適用されるまでツールへのアクセスを取り消しましょう。

AIのリスクを想定できるデータ保護に投資

従来のデータ保護ソリューションには、AIのデータリスクの進化についていけるだけの適応力や柔軟性が備わっていません。標準的なデータ損失防止(DLP)製品の多くはセットアップや保守が複雑で、負のユーザーエクスペリエンスにつながるため、DLP制御は十分に活用されていないか全く使われていないのが実状です。スタンドアロン型プラットフォームとして展開されているか、他のセキュリティサービスに統合されているかにかかわらず、DLPサービスそのものが、AIのさまざまな活用方法に応じて変更するにはあまりに非効率で効果が薄い場合が多いのです。

そこで企業は、AIのリスクを軽減してプロプライエタリ情報やユーザーデータを不正利用、侵害、攻撃から保護するのに十分な俊敏性を備えたデータ保護テクノロジーに投資する必要があります。最新のデータ保護ソリューションを評価する際は、貴重なデータがあるすべてのロケーションで開発者コードを保護し、セキュリティとプライバシーに関する企業のニーズの変化に応じて進化するよう設計されたものを選びましょう。


CloudflareがAIリスクの最小化に役立つ

生成系AIの活用方法については、企業はまだ表面的な理解に止まっています。AIは出現当初から既にデータを露出し、プライバシーを脅かすリスクになってきました。そのリスクを効果的に最小化するために今必要なのが、人、プロセス、テクノロジーの戦略的協調です。

Cloudflareは、新たなAIツールなど明らかに最新のデータリスクに常に最前線で対処できるよう設計されています。Cloudflare Oneは、複数のデータ保護ポイントソリューションを単一のSSEプラットフォームに統合して管理を容易にし、Web、SaaS、プライベート環境など場所を問わず、制御をすばやく均一に適用します。すべてのサービスがCloudflareのプログラム可能なネットワーク上に構築されているため、新機能をすばやく構築して330か所のネットワークロケーションすべてに展開できます。

このアプローチは、企業のデータ保護戦略の遂行に役立ちます。例えば:

  • 接続を簡素化し、インラインとAPI型を柔軟に選んでトラフィックをCloudflareに送りデータ制御を適用することによって、セキュリティチームはデータを効果的に保護できます。

  • 信頼性が高く一貫性があり、競合他社より速いことが実証されたユーザーエクスペリエンスを保証することによって、従業員の生産性を向上させます。

  • データセキュリティとプライバシー関連の要件の変化に応じたすばやいイノベーションによって、企業の俊敏性を高めることができます。

この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドとトピックについてお伝えするシリーズの一環です。



このトピックを深く掘りさげてみましょう。


ホワイトペーパー『SaaSアプリケーションの保護方法の簡素化』を読み、企業がZero Trustのアプローチでアプリケーションやデータを保護するのにCloudflareがどう役立つかをご覧ください。



記事の要点

この記事を読めば、以下が理解できます。

  • AIによってプロプライエタリデータがリスクに晒される状況

  • 従来のデータ保護が不十分な場面

  • AIのリスクを最小化しつつ生産性を最大化する戦略


関連リソース

大人気のインターネット関連インサイトの要約を毎月お届けします。