theNet von CLOUDFLARE

Schatten-KI bekämpfen

Einführung von Kontrollmechanismen für KI-Nutzung durch Behörden

Die Zahl der KI-Gesetze nimmt zu

KI-Vorschriften und -Gesetze sind auf dem Vormarsch. Im Jahr 2024 hat das Office of Management and Budget des Weißen Hauses an alle Bundesbehörden und -ressorts in den Vereinigten Staaten das Memorandum 24-10 über den Einsatz von KI in Behörden herausgegeben. Das Memorandum konzentriert sich auf drei Bereiche:

  • KI-Governance stärken

  • Verantwortungsbewusste KI-Innovation vorantreiben

  • Verwaltung der Risiken, die sich aus dem Einsatz von KI ergeben

Auf staatlicher Ebene wurden ähnliche Bemühungen unternommen, um Bedenken hinsichtlich der Nutzung und des Missbrauchs von KI auszuräumen. Im Jahr 2023 haben 25 Bundesstaaten Gesetze eingeführt, die sich auf bestimmte Aspekte der KI konzentrieren. Die Gesetze wurden in 18 Bundesstaaten und Puerto Rico erfolgreich erlassen. Während sich einige Gesetze auf eine erste Studie und Bewertung der KI-Nutzung konzentrieren, versuchen andere, die Nutzung von KI durch Mitarbeitende zu regeln oder Kontrollen einzuführen, um einer böswilligen Nutzung oder unbeabsichtigten Folgen entgegenzuwirken.

Die jüngste Gesetzgebung verdeutlicht einige der Gefahren des Einsatzes von KI in der Verwaltung und stellt Regierungsbehörden und andere Organisationen des öffentlichen Sektors vor einige Herausforderungen. Diese Organisationen müssen Kontrollmechanismen einführen, um öffentlich zugängliche Websites vor Bedrohungen zu schützen und eine angemessene Nutzung von KI zu gewährleisten.


Herausforderung Nr. 1: Schutz öffentlicher Internetwebsites vor KI-Bots

KI-basierte Crawler können für Regierungsbehörden und andere Organisationen des öffentlichen Sektors legitime – nützliche – Anwendungen haben. In manchen Kontexten können zuverlässige Crawler und Indexer öffentlich zugängliche Daten nutzen, um die Möglichkeiten der Bürger zu verbessern, relevante Online-Dienste und Informationen zu finden.

Andererseits können schlecht entwickelte oder böswillige KI-Crawler Inhalte sammeln, um öffentliche KI-Plattformen zu trainieren, ohne dabei die Privatsphäre dieser Inhalte zu berücksichtigen. Es könnte zahlreiche Urheberrechts- und Datenschutzprobleme geben, wenn diese Daten zum Training von Modellen verwendet werden. Wenn sie nicht kontrolliert werden, können diese Bots auch die Performance öffentlicher Websites für alle Nutzer beeinträchtigen, indem sie Ressourcen von legitimen Interaktionen verbrauchen.

Kontrollmechanismus 1: Führen Sie anwendungsseitige Schutzmaßnahmen ein

Behörden können verschiedene server- oder anwendungsseitige Schutzmaßnahmen implementieren, um zu kontrollieren, wie Bots mit Servern interagieren. Sie können zum Beispiel eine robots.txt-Datei bereitstellen. Diese Datei kann informieren und festlegen, wie der Crawler-Traffic mit verschiedenen Abschnitten einer Website und deren Daten interagiert. Die Datei wird im Stammverzeichnis der Website bereitgestellt und definiert, welche Agenten (Bots) die Website durchsuchen dürfen und auf welche Ressourcen sie zugreifen können.

Allerdings bringt dieser Ansatz einige Herausforderungen mit sich. Erstens muss der Crawler die robots.txt-Datei respektieren. Dies ist zwar eine allgemein bewährte Vorgehensweise für „seriöse“ Bots, aber: Nicht jeder befolgt die Regeln. Es gibt auch nicht böswillige Bots, die möglicherweise nur die Syntax falsch interpretieren und deshalb mit Elementen interagieren, die Behörden verborgen halten möchten.

Kurz gesagt, obwohl dies ein üblicher Ansatz ist, bietet die Nutzung von robots.txt oder ähnlichen .htaccess- (Apache)-Strategien keinen vollständigen Schutz. Sie kann jedoch Teil eines ganzheitlichen Ansatzes sein, mit dem geregelt wird, wie legitime Bots mit Anwendungsinhalten interagieren.

Kontrollmechanismus 2: Implementieren Sie eine Bot-Abwehr innerhalb einer Web Application Firewall

Web Application Firewalls (WAFs) und Lösungen zur Bot-Abwehr sind in der heutigen Zeit für den Schutz öffentlicher Webanwendungen unverzichtbar. Diese Kontrollen helfen Unternehmen, ihre öffentlichen digitalen Ressourcen vor Distributed-Denial-of-Service-(DDoS)-Bedrohungen, Schatten- und unsicheren APIs sowie verschiedenen anderen anderen Bot-Bedrohungen zu schützen.

Jede Bot-Abwehrlösung sollte heute die Möglichkeit bieten, Bots, die Inhalte im Rahmen des KI-Datentrainings sammeln, programmgesteuert zu identifizieren und zu klassifizieren. Dieser Klassifizierungsmechanismus ist eine wichtige Fähigkeit. Er kann legitime und verifizierte KI-Crawler zulassen oder sie ganz blockieren, bis eine Behörde bestimmt, wie diese Bots mit einer Website interagieren dürfen.

Auch die Auswahl skalierbarer Lösungen ist wichtig. Im Jahr 2023 stellte der Generalsekretär der Vereinten Nationen, António Guterres, fest, dass es zwar mehr als 50 Jahre dauerte, bis gedruckte Bücher in ganz Europa weit verbreitet waren, „ChatGPT aber in nur zwei Monaten 100 Millionen Nutzer erreichte.“ Die Dimension und das beispiellose Wachstum von KI-Plattformen korreliert direkt mit der wachsenden Zahl von KI-Bots, die nach öffentlich zugänglichen Datensätzen für das Training suchen. Die Architektur dieser Plattformen muss in einer verteilten globalen Umgebung skalierbar sein.


Herausforderung 2: Schatten-KI: Nicht genehmigte Nutzung öffentlicher KI-Modelle

Öffentliche KI-Plattformen haben es Nutzern ermöglicht, Aufgaben zu beschleunigen, die vom Verfassen eines Memos bis zur Erstellung von komplexem Code reichen. Auf staatlicher Ebene sehen staatliche und bundesstaatliche Behörden das Potenzial für den Einsatz von KI zur Lösung komplexer sozialer Probleme wie Gesundheitsversorgung, Zugang zu Bürgerdiensten, Lebensmittel- und Wassersicherheit und vieles mehr. Ohne Governance können sich Unternehmen jedoch am Durchsickern regulierter Datensätze mitschuldig machen, die zu Trainingsdaten von unsicheren öffentlichen Sprachmodellen werden könnten.

Genauso wie Unternehmen Tools eingesetzt haben, um die Nutzung von nicht genehmigten Cloud-Anwendungen oder „Schatten-IT“ in den Griff zu bekommen, müssen sie nun auch den Umfang der Schatten-KI-Nutzung innerhalb ihrer Unternehmen verstehen. Die Zunahme von „Schatten-KI“ sorgt für Schlagzeilen. Eine 3Gem-Studie mit über 11.500 Mitarbeitenden weltweit ergab, dass 57 % der Angestellten mindestens einmal pro Woche öffentliche Generative AI-Tools im Büro nutzten. In der gleichen Studie stimmten 39 % der Befragten zu, dass bei diesen Interaktionen die Gefahr besteht, dass sensible Daten nach außen dringen.

Diese sensiblen Daten können auch unwissentlich über KI-Modelle weitergegeben werden. KI-Modelle werden zunehmend anhand von Daten trainiert, die von anderen Modellen erzeugt wurden, und nicht anhand von Inhalten, die auf herkömmliche Weise beschafft wurden.

Kontrollmechanismus 1: Legen Sie die angemessene Nutzung fest

Für einen umfassenden Ansatz gegen Schatten-KI müssen Unternehmen zunächst die akzeptable Verwendung öffentlicher KI-Modelle definieren. Darüber hinaus sollten sie festlegen, welche Rollen Zugriff auf diese Modelle benötigen. Diese Leitlinien sind ein wichtiger erster Schritt. Neue Gesetze zur KI-Nutzung auf behördlicher Ebene und im öffentlichen Sektor im Allgemeinen unterstreichen meist, wie wichtig es ist, den angemessenen Einsatz von KI in Behörden zu prüfen und zu entscheiden, welche Modelle zugelassen werden sollten.

Kontrollmechanismus 2: Stellen Sie einen kontrollierten Zugang bereit

Sobald festgelegt wurde, welche Art der Nutzung angemessen ist, müssen die Behörden Kontrollen zur Durchsetzung der Richtlinien entwickeln. Die Prinzipien des Zero Trust-Netzwerkzugangs (ZTNA) ermöglichen die Entwicklung und Durchsetzung dieser Richtlinien, um den nicht genehmigten Zugriff zu beschränken.

Beispielsweise könnte eine Behörde nur autorisierten Nutzern aus bestimmten administrativen Gruppen den Zugriff auf öffentliche KI-Modelle erlauben. Bevor der Zugriff auf diese Modelle gestattet wird, kann eine ZTNA-Lösung auch zusätzliche Statusprüfungen durchführen und beispielsweise sicherstellen, dass die Geräte des Unternehmens mit Patches auf dem neuesten Stand sind oder dass auf den Geräten staatlich zugelassene Endpunktverwaltungsagenten ausgeführt werden. Mit ZTNA können Behörden durchsetzen und einschränken, wer auf diese öffentlichen KI-Modelle zugreifen darf, wenn sie mit staatlichen Ressourcen arbeiten.

Kontrollmechanismus 3: Bestimmen Sie, welche Daten gegenüber KI-Plattformen offengelegt werden dürfen

Bei der akzeptablen Nutzung geht es nicht nur darum, welche Benutzer auf KI-Plattformen zugreifen können. Die Behörden müssen auch die Daten verstehen und kontrollieren, die an KI-Plattformen gesendet oder an diese übermittelt werden. Selbst etwas so Harmloses wie eine Aktenvermerk der Behörde könnte nicht-öffentliche oder sensible Datenpunkte enthalten. Sobald diese Datenpunkte einem Large Language Model (LLM) unterworfen werden, besteht das Risiko, dass diese Daten offengelegt werden.

Data Loss Prevention (DLP)-Kontrollmechanismen können dazu beitragen, die unangemessene Verwendung sensibler Daten zu verhindern. Die richtigen Kontrollen tragen dazu bei, dass geschützte Informationen, wie sensibler Anwendungscode oder sogar Daten von Bürgern, nicht Teil eines ungeschützten Trainingsdatensatzes für eine KI-Plattform werden.

Nehmen wir das Beispiel einer KI-Entwicklergruppe, die sowohl mit öffentlichen als auch mit privaten (internen) KI-Plattformen interagieren muss. Eine Behörde könnte die Nutzung sowohl öffentlicher (z. B. ChatGPT) als auch privater (z. B. AWS BedRock) KI-Plattformen zulassen. Nur genehmigte Benutzer in der KI-Entwicklungsgruppe erhielten Zugang zu diesen Plattformen. Normale Nutzer würden von beiden Plattformen gesperrt.

Selbst wenn es eine genehmigte KI-Entwicklungsgruppe von Nutzern gibt, kann die Implementierung einer DLP-Regel von Vorteil sein. Die DLP-Regel kann Daten prüfen, die an KI-Plattformen veröffentlicht werden, und sicherstellen, dass nicht-öffentliche sensible Daten nur auf der internen privaten KI-Plattform veröffentlicht werden.


Schutz der Wählerschaft

Governance sollte mit einer Richtlinie oder einer Mission beginnen, nicht mit der Technologie. Um den Nutzen und die Risiken von KI zu bewerten, sollten die Verantwortlichen einer Behörde spezialisierte Teams einsetzen, die die möglichen Überschneidungen zwischen KI und dem Auftrag der Behörde bewerten können.

In dem Maße, in dem sich die Öffentlichkeit mit Hilfe von Technologie immer stärker mit den Behörden auseinandersetzt, wird es größere und reichhaltigere Datensätze geben, die zum Trainieren von KI-Modellen verwendet werden können. Organisationen des öffentlichen Sektors könnten einen konservativen Ansatz wählen, indem sie zum Beispiel alle KI-Crawler blockieren, bis die Auswirkungen des Zulassens dieser Interaktionen verstanden sind. Bei Organisationen, die einen potenziellen Nutzen aus dem legitimen Crawlen öffentlicher Objekte ziehen, müssen die Teams in der Lage sein, den Zugriff verifizierter KI-Crawler zu kontrollieren und vor böswilligen Aktionen zu schützen.

Um der zunehmenden KI-Regulierung zuvorzukommen, sollten Teams auch festlegen, welche Rollen und Aufgaben Zugang zu KI-Plattformen erfordern. Indem man festlegt, wer wann Zugriff erhält und die Art der Daten kontrolliert, die an die KI-Modelle gesendet werden, kann man der Schatten-KI begegnen, ohne die greifbaren Vorteile dieser Technologie zu opfern.

Bot-Management und Zero Trust-Sicherheitsfunktionen sind für staatliche Stellen von zentraler Bedeutung, um das Risiko angesichts der zunehmenden KI-Nutzung zu verringern. Der Schutz öffentlicher Webseiten und der verantwortungsvolle Umgang mit KI sollten bei der Entwicklung von Abwehrstrategien an erster Stelle stehen.

KI ist ein vielversprechender Ansatz zur Lösung vieler komplexer sozialer Probleme. Allerdings gibt es mehrere potenzielle Nachteile des Einsatzes von KI auf staatlicher und behördlicher Ebene. Für staatliche Behörden und andere Organisationen des öffentlichen Sektors muss der Schutz ihrer Wählerschaft bei der Erforschung dieser neuen Technologie immer Vorrang haben.

Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträger aus der Tech-Branche heute von Bedeutung sind.



Vertiefung des Themas.

Erfahren Sie im vollständigen Leitfaden „Zero Trust-Architektur – ein Wegweiser“ mehr darüber, wie Zero Trust die Risiken angesichts der zunehmenden Nutzung von KI verringern kann.

Autor

Scottie Ray — @H20nly
Principal Solutions Architect, Cloudflare



Wichtigste Eckpunkte

Folgende Informationen werden in diesem Artikel vermittelt:

  • Die sich entwickelnde Gesetzgebung zur Künstlichen Intelligenz

  • 2 primäre Herausforderungen mit KI

  • Kontrollmechanismen, die Behörden bei der Einhaltung von Vorschriften helfen


Verwandte Ressourcen


Erhalten Sie eine monatliche Zusammenfassung der beliebtesten Internet-Insights!