AIに関する規制や法律が制定されつつあります。2024年、ホワイトハウス管理予算局は、政府におけるAIの利用に関する米国のすべての連邦機関と部局に対し、10/24発行覚書を発行しました。このメモでは、次の3点が焦点となっています。
AIガバナンスの強化
責任あるAI革新の推進
AI利用のリスク管理
AIの利用と誤用に関する懸念に対処するため、州レベルでも同様の取り組みが行われています。2023年には25の州がAIの一部の側面に焦点を当てた法律を導入しました。18の州とプエルトリコで立法化に成功しました。AI利用の初期調査や評価に焦点を当てた法律もあれば、従業員によるAIの利用を管理したり、悪意のある利用や意図しない結果を軽減するための制御の実装を試みたりする法律もあります。
最近の法律で、政府機関においてAIを使用することの危険性がいくつか指摘され、政府機関や他の公共機関にいくつかの課題を提示しています。そうした企業は、一般大衆向けプロパティを脅威から保護し、AIを適切に利用するためのコントロールを整備する必要があります。
AIベースのクローラーは、政府機関やその他の公共機関にとって、正当で有益な用途があります。いくつかの状況では、責任あるクローラーやインデクサーは、一般に公開されているデータを使用し、市民が関連するオンラインサービスや情報を見つける能力を高めることができます。
その一方で、開発が不十分であったり悪意のあるAIクローラーは、コンテンツのプライバシーを考慮せずにコンテンツをスクレイピングして、公開されているAIプラットフォームをトレーニングすることができます。このデータがモデルの学習に使用されると、知的財産やプライバシーに関する問題が多数発生する可能性があります。放置すると、これらのボットは正当なユーザーのためのリソースを消費し、公開Webサイトのパフォーマンスを低下させる可能性もあります。
エージェンシーは、サーバーとアプリケーションの保護をいくつか実装し、ボットとサーバーのインタラクションの制御に役立てられます。たとえば、robots.txtファイルをデプロイできます。このファイルは、クローラートラフィックがサイトのさまざまなセクションやそのデータとどのように相互作用するかを示し、定義します。このファイルはサイトのル ートに展開され、どのエージェントボットがサイトをクロールできるか、どのエージェントがアクセスできるかを定義します。
しかし、このアプローチにはいくつかの課題があります。まず、クローラーはrobots.txtファイルを尊重しなければなりません。これは「正当な」ボットに対する一般的なベストプラクティスではあるものの、すべてのユーザーがルールに従っているわけではありません。ボットの中には、シンタックスを誤解し、その結果、エージェンシーが避けたい要素とやり取りする可能性があるものもあります。
つまり、これは一般的なアプローチですが、robots.txtや類似の.htaccess(Apache)ファイルを活用する戦略は完全な保護とはなりません。一方で、正当なボットがアプリケーションコンテンツと相互作用する方法の管理のための包括的なアプローチとして活躍できる可能性があります。
WebアプリケーションファイアウォールWAFとボット軽減ソリューションは、今日の世界ではパブリックWebアプリケーションの保護に当たり不可欠です。これらの制御により、企業は分散型サービス拒否攻撃DDoS攻撃の脅威、シャドーAPI、安全でないAPI、その他のボット関連の脅威からパブリックデジタルプロパティを保護できます。
今日のボット軽減ソリューションには、AIデータトレーニングのサービスでコンテンツをスクレイピングしているボットをプログラムにより識別し、分類する機能が含まれています。この分類メカニズムは、決定的に重要な機能となっています。正当で検証済みのAIクローラーを許可することもでき、またはエージェンシーがこれらのボットにWebサイトとの対話をどのように許可すべきかを決定するまで完全にブロックすることもできます。
スケーラブルなソリューションを選択することも、重要になります。2023年、国連のAntónio Guterres氏は、紙印刷の書籍がヨーロッパ全土に広く普及するまでに50年以上かかったものの、「ChatGPTはわずか2か月で1億人のユーザーに到達した」と述べました。AIプラットフォームの規模と前例のない速さでの増加は、公開されているデータセットをトレーニングのために検索するAIボットの数の増加と直接相関しています。プラットフォームのアーキテクチャは、分散されたグローバル環境で拡張可能である必要があります。
パブリックAIプラットフォームにより、ユーザーはメモ の書き方から複雑なコードの作成まで、様々なタスクを高速化することができるようになりました。政府、州、連邦政府機関で、ヘルスケアの問題、市民サービスへのアクセス、食品と水の安全性などの複雑な社会的問題を解決するため、AI活用の可能性を見出しています。しかし、ガバナンスがなければ、組織は安全でない公開言語モデルのトレーニングデータとして規制対象のデータセットの漏洩に加担してしまう可能性があります。
組織がツールを活用して無許可のクラウドアプリケーションや「シャドーIT」の利用を把握してきたのと同様に、組織内でのシャドーAIが使用されている範囲を把握する必要があります。「シャドーAI」の増加が報道されています。世界11,500人以上の従業員を対象に行った3Gemの調査から、従業員の57%が週に1回以上オフィスで公開されている生成AIツールを使用していることがわかりました。同調査で、回答者の39%が、こうしたやり取りを通じて機密データが流出するリスクがあることに同意しています。
この機密データは、AIモデル間で無意識のうちに共有される可能性があります。AIモデルは、従来のコンテンツソースではなく、他のモデルによって生成されたデータでトレーニングされることが増えています。
シャドーAIに対する包括的なアプローチのために、組織はまず、公開AIモデルの許容可能な使用方法を定義する必要があります。さらに、これらのモデルへのアクセスが必要なロールを決定する必要があります。こうしたガードレールを確立することが重要な第一歩となります。政府におけるAIの新法、およびより一般的には公共機関におけるAIについて、機関内におけるAIの適切な利用を検討し、どのモデルを許可すべきかを決定することの重要性が頻繁に訴えられているのです。
適切な使用が決定された後、政府機関は、そのポリシーを実施するための制御内容を策定する必要があります。Zero Trustネットワークアクセス(ZTNA)の原則により、承認されていないアクセスを制限するポリシーの策定と適用が可能になります。
例えば、機関が特定の管理グループから許可されたユーザーのみに、パブリックAIモデルへのアクセスを許可している場合があります。これらのモデルへのアクセスを許可する前に、ZTNAソリューションは、企業のデバイスがパッチを適用して最新であることを確認したり、デバイスが政府承認のエンドポイント管理エージェントを実行していることを確認するなど、追加の耐性チェックを実行することも一案です。ZTNAの使用により、政府機関は政府資産を運用しながら、これらのパブリックAIモデルにアクセスできるユーザーを規制および制限することができます。
妥当な利用は、AIプラットフォームにアクセスできるユーザーを定義するだけではありません。エージェンシーは、AIプラットフォームに投稿・送信されるデータを理解し、制御する必要もあります。部門メモのような無害なものでも、非公開データや機密データポイントが含まれる可能性があります。これらのデータポイントが大規模言語モデル(LLM)に送信されると、そのデータが漏えいするリスクがあります。
データ損失防止DLP制御は、機密データの不適切な使用を阻止するのに役立ちます。適切なコントロールを行うことにより、機密性の高いアプリケーションコードや市民データなどの機密情報が、AIプラットフォームの保護されていない訓練データセットの一部とならないようにできるのです。
パブリックとプライベート社内の両方のAIプラットフォームとやり取りする必要があるAI開発者グループを例に考えてみます。エージェンシーは、パブリックAIプラットフォーム(ChatGPTなど)とプライベートAIプラットフォーム(AWS BedRockなど)の両方のAIプラットフォームの利用を許可で きます。AI開発グループで承認されたユーザーのみが、こうしたプラットフォームへのアクセスを許可されます。一般ユーザーは、両方のプラットフォームでブロックされます。
承認されたAI開発ユーザーグループがある場合でも、DLPルールの実装は有益です。DLPルールは、AIプラットフォームに投稿されたデータを検証し、公開されていない機密データが社内のプライベートAIプラットフォームにのみ投稿されるようにできます。
ガバナンスは、テクノロジーではなく、ポリシーまたはミッションから始めるべきです。エージェンシーのリーダーは、AIのメリットとリスクを評価するに当たり、AIとエージェンシーのミッションの潜在的な交点を評価できる的を絞ったチームを任命する必要があります。
テクノロジーを通じて国民が政府へのかかわりを強めていくにつれ、AIモデルの訓練に使える大規模で豊富なデータセットが現れることになります。公共機関は、これらの相互作用を許可することの影響が理解されるまで、すべてのAIクローラーのブロックなどの慎重なアプローチを選択するかもしれません。公開プロパティの正当なクローリングに潜在的なメリットがある組織の場合、チームは検証されたAIクローラーによるアクセスを制御し、悪意のあるアクションから保護する能力が必要になります。
強化されるAI規制に先手を打つために、チームはどのような役割とタスクがAIプラットフォームへのアクセスが必要となるかを明確にする必要もあります。誰がいつアクセスできるかを決め、AIモデルに投稿するデータの種類を制御することで、このテクノロジーの具体的なメリットを犠牲にすることなくシャドーAIに対処できるようになるでしょう。
ボット管理とZero Trustセキュリティ機能は、政府機関がAI利用の急増に直面する際のリスク軽減において中核的な役割を果たします。軽減戦略を策定する際は、公開Webプロパティを保護し、責任あるAI利用を維持することを優先すべきです。
AIは、多くの複雑な社会的問題の解決に役立つ大きな可能性を秘めています。しかし、政府や公共機関でのAIの利用には、いくつかの潜在的な欠点があります。政府機関やその他の公共機関にとって、この新しいテクノロジーを検討する際は、利用者を保護することが常に優先される必要があります。
この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドとトピックについてお伝えするシリーズの一環です。
AI利用の普及に伴いZero Trustがどのようにリスクを低減できるかについては、完全ガイド「Zero Trustアーキテクチャへのロードマップ」で詳細をご覧ください。
Scottie Ray — @H20nly
Cloudflare主任ソリューションアーキテクト
この記事では、以下のことがわかるようになります。
AIに焦点を当てた法規制の新たな状況
AIに関する2つの主な課題
政府機関が法令順守を達成させるための管理