あらゆる事業は常に効率性と生産性を得る方法を求めており、多くの場合、コンテンツを生成したり、顧客と会話をしたり、さらにはソフトウェアをビルドしたりさえするためにChatGPTなどのAIベースの大規模言語モデル(LLM)の活用を模索することは非常に有望に思えます。ただし、これとは対照的に、多くの大企業では従業員によるこれらのテクノロジーの利用を差し止めざるを得ない状況に陥っています。同業他社がこれにならうのかどうか、という点が気になるでしょう。
AIを禁止しなければならない理由 は、どこにあるのでしょうか?その理由は、生成AIサービスはさらなるトレーニングのためにデータインプットを用いており、多くの場合こうしたデータが後に部外者に開示されてしまうためです。機密データを保有または処理し、自社の知的財産を守り、高度な規制監督を受けた業界で事業を運営していたり、クローズドソース(ソースコードを外部に開示しない)ソフトウェアを製作している組織にとって、この種のデータ漏洩は大災害につながる可能性があります。
しかし、こうしたツールは大きなメリットをもたらしもします。では、CISO(最高情報セキュリティ責任者)たちはChatGPTや類似のツールを許可するべきか禁止すべきか、どのように決めればいいのでしょうか?特に、禁止することで社員の生産性が落ちるのであれば、その強制は難しく、さらに監督しきれるでしょうか?
その理由は、社員はChatGPTや他のLLMを仕事を簡単にし効率性を高めるものであると捉え、気づかないうちにデータ漏洩につながるようなやり方でこれを用いる可能性があるためです。
すべてのAIモデル同様、ChatGPTはより多くのデータを投入されればより優れた結果を出すように設計されています。こうしたツールはデータ保管庫を安全に保つために設計しているわけではない ため、起こりうる意図しないデータの漏洩は必ずしも「欠陥である」ことにはなりません。LinkedInやInstagramなどのようなソーシャルメディアプラットフォームに機密情報を投稿した場合と同様、これらのアプリはプライベートなデータを守るようにはできていないのです。
ある調査では、社員が機密情報または知的財産に関する情報をこうしたツールに読み込ませていることが分かりました。別のケースでは、Samsungのエンジニアが不意に機密情報をChatGPTにアップロードして漏洩させてしまい、Samsungでの社員によるChatGPTの使用が制限されることになりました。
あらゆるソフトウェア同様、LLMにはバグがあることが多く、中にはデータの漏洩につながり得るものもあります。2023年3月、OpenAIは、ChatGPTとのユーザーの会話の一部がバグにより他のユーザーに表示されたことを明らかにしました。
最後に、こうしたツールにはコンプライアンスと規制監督要件上の懸念があります。データの取り扱われ方には一切の保証がなく、データの共有が企業をデータセキュリティ規制のコンプライアンスから逸脱させてしまう可能性があります。あらゆる外部アプリケーションと同様に、漏洩またはデータの処理方法の可視性の不在がGDPRまたはその他規制枠組みへの違反につながる可能性があり ます。LLMへのデータの提供も、コンプライアンスで求められるデータ監査の基準から逸脱します。
リスクを鑑み、複数の大企業が社員によるLLMの利用の禁止へと踏み切りました。
Amazonは、ChatGPTがAmazon内部のデータに類似していると思われる応答を返したことを発見した後、ChatGPTの利用を禁止しました。Appleは、機密情報の漏洩につながる可能性への懸念により、ChatGPT、およびGitHubからの自動コーディングツールであるCopilotの社内での利用の禁止を施行しました。
金融業界は、LLMの利用禁止について特に積極的に取り組んできました。JPMorgan Chaseは、国および業界のデータ規制の違反につながり得る、保護対象の金融関連情報の漏洩が起こる可能性への懸念から、社内でのChatGPTの利用について厳しい制約を設けました。Bank of America、Citigroup、Deutsche Bankなどの大手金融サービスプロバイダーが同社の事例に追随しています。
最後に、前述の通りSamsungも長期に渡りChatGPTの利用を禁止しています。同禁止施策は、複数回の取り下げおよび再導入が繰り返されました。
他のものも含め、これらの事例より、社員による生成AIの利用を禁止する企業は次に挙げる主な理由により禁止に踏み切っているように思われます:
内部データの直接的な漏洩
LLMによる、アルゴリズムと応答を改善するためのデータインプットの保管、処理、活用の仕方についての懸念。プライベートな内部データを模造し、競合他社に不意に配布してしまう可能性があるため
LLMによる規制対象のデータの処理に関する記録の不在に関する懸念
組織が実際にLLMの利用を禁止または制限したとしても、その強制はほぼ不可能であると気づくかもしれません。
セキュリティ基準を設けることで、内部のユーザーが必ずそれに従うとは限らず、ルール自体を認識していないかもしれません。リモートワークでセキュリティ対策のなされていないデバイスが利用されるのを防いだり、またはクラウドコンピューティングにより 未認証のSaaSアプリの利用を禁止したりするのは難しいことがすでに認識されています。未認可のアプリの使用は「シャドーIT」と呼ばれていますが、LLMの禁止にまつわる状況は「シャドーAI」と呼べるかもしれません。
セキュリティ部門は、こうしたツールのIPアドレスやURLをブロックすることで特定のアプリを禁止できますが、もちろんこうした制約は完璧な効果をもたらしません。個人端末には適切なセキュリティクライアントがインストールされていないかもしれませんし、企業支給の端末でも企業外のネットワークで用いられる可能性もあります。確信犯的なユーザーは、VPNまでをも用いてファイアウォールのルールを回避し、禁止されたツールにアクセスするかもしれません。
ChatGPTと類似サービスについて確実に言える1つのことは、これらのツールは非常に人気であると言うことです。禁止すれば利用を抑えられ、これに起因するデータ漏洩を防げるかもしれません。しかし、CISO(最高情報セキュリティ責任者)は、企業または個人のデバイスであるかを問わず、社員がこうしたものを利用していることを前提とした方がいいと言えます。この点について、データ損失防止(DLP)ソリューションの採用を真剣に考えるべきです。
DLPソリューションは、機密データを 検出し、保護された環境に閉じ込めておくために多彩な戦略を用いています。これらの手段には、パターンマッチング、キーワードマッチング、ファイルハッシュマッチング、データフィンガープリンティングなどがありますが、AIツールによるデータ漏洩に最も関連するのは、コピーペースト、アップロード、キーボード入力を制限する能力です。
(ブラウザ分離と組み合わさった)DLPソリューションは、社員によるコピーペーストを防ぎ、LLMを含めあらゆるWebアプリケーションへの機密データの入力を防ぐことができます。DLPはまた、データのアップロードをブロックし、特定のキーボード入力を止めさせ、送信されるHTTPリクエストに含まれる機密情報を検出できます。
組織は、生成AI利用を禁止したがるかもしれませんし、そうではないかもしれません。禁止する場合、その利用を完全には止めきれない場合があります。しかしどちらの状況にある組織であっても、DLPは束縛のないAI利用とAI禁止の両方の場合にとって優れた価値を提案するものです。
DLPはもちろん、データがアップロードされないことの保証とはなりません。結局は、CISOがChatGPTおよび他LLMの利用を許可することのメリットとデメリットを評価する必要があり、その結論は業界によって異なるでしょう。銀行業などのような厳重な規制下にある業界では、LLMへのコンテンツのアップロードは誰も手をつけたがらないでしょう。その他の業界では、CISOがAIの利用をケースバイケースで判断、もしくは自由に開放することになります。
しかし、あらゆるビジネスには保護すべき機密データがあり、DLPがそのデータをLLMデータベースの外側に保つことの助けとなります。今日の環境下でのデータ保護の重要性から、職場での生成AIの利用の増加が見られる環境であってさえもデータとコードの不意な露出のリスク低減のため、CloudflareではDLPを提供しています。
この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドとトピックについてお伝えするシリーズの一環です。
ホワイトペーパー『SaaSアプリケーションの保護方法の簡素化』を読み、企業がZero Trustのアプローチでアプリケーションやデータを保護するのにCloudflareがどう役立つかをご覧ください。
この記事を読めば、以下が理解できます。
大規模言語モデル(LLM)がデータをリスクにさらす理由
複数の大手グローバル企業がChatGPTおよび他生成AIツールの業務利用を禁止
AIの利用をデータ損失防止(DLP)が安全にする仕組み