Das Office of Management and Budget des Weißen Hauses hat das Memorandum 24-10 für Governance, Innovation und Risikomanagement beim Einsatz künstlicher Intelligenz für alle Bundesbehörden und -abteilungen veröffentlicht. Das Memorandum konzentriert sich auf drei Bereiche:
Stärkung der KI-Governance
Verantwortungsbewusste KI-Innovation vorantreiben
Verwaltung der Risiken, die sich aus dem Einsatz von KI ergeben
Im vergangenen Jahr haben 25 Bundesstaaten Gesetze eingeführt, die sich auf einige Aspekte der künstlichen Intelligenz konzentrieren. 18 Bundesstaaten und Puerto Rico haben Gesetze zur künstlichen Intelligenz erlassen. Diese gesetzgeberischen Bemühungen reichen von der ersten Studie und Bewertung der Nutzung von KI über die Regelung der Nutzung durch Mitarbeitende bis hin zu den erforderlichen Kontrollen, um böswilligen oder unbeabsichtigten Folgen der KI entgegenzuwirken.
Allgemein gesprochen stellt dieses neue Regelwerk neue Vorschriften, Verbrauchs- und Kontrollbestimmungen für Regierungs- und andere öffentliche Einrichtungen dar.
In diesem Artikel werden wir uns einige der Herausforderungen ansehen, mit denen Unternehmen konfrontiert sind, sowohl beim Schutz öffentlich zugänglicher Websites als auch bei der Identifizierung und Gestaltung von Governance für die Nutzung von KI-Modellen.
Die Auswirkungen von Crawlern können für Behörden sowohl legitim als auch problematisch sein. In einigen Fällen werden verantwortliche Crawler und Indexer öffentlich zugängliche Daten nutzen dürfen, damit Bürger relevante Online-Dienste und -Informationen leichter finden können.
Andererseits können schlecht entwickelte oder böswillige KI-Crawler Inhalte sammeln, um öffentliche KI-Plattformen zu trainieren, ohne dabei die Privatsphäre dieser Inhalte zu berücksichtigen.
Sollten diese Daten in Trainingsmodellen landen, die öffentliche KI-Plattformen unterstützen, wirft dies zahlreiche Fragen zum geistigen Eigentum und zum Datenschutz auf. Wenn diese Bots nicht aktiviert sind, können sie auch die Performance öffentlicher Websites für alle Nutzer beeinträchtigen, weil sie Ressourcen aus legitimen Interaktionen verbrauchen.
Es gibt mehrere serverseitige Schutzmaßnahmen, die implementiert werden können, um die Interaktion von Bots mit dem Server zu kontrollieren. Ein Beispiel ist die Bereitstellung einer robots.txt-Datei. Kurz gesagt kann diese Datei darüber informieren und festlegen, wie der Crawler-Traffic mit verschiedenen Abschnitten der Website und den darin enthaltenen Daten interagiert. Die Datei wird im Stammverzeichnis der Website bereitgestellt und legt fest, welche Agenten (Bots) die Website durchsuchen und auf welche Ressourcen sie zugreifen können.
Dieser Ansatz bringt einige Herausforderungen mit sich. Die erste und offensichtlichste ist, dass der Crawler die robots.txt-Datei respektieren muss. Dies ist zwar eine allgemein bewährte Vorgehensweise für seriöse Bots, aber seien wir ehrlich: Nicht jeder befolgt die Regeln. Es gibt auch nicht-böswillige Bots, die möglicherweise nur die Syntax falsch interpretieren und daher mit Elementen interagieren können, die Behörden lieber verborgen halten möchten.
Kurz gesagt, obwohl es sich um einen weit verbreiteten Ansatz handelt, sollte beachtet werden, dass die Nutzung von robots.txt oder ähnlichen .htaccess-Strategien (Apache) keinen vollständigen Schutz bietet. Sie sind jedoch Teil eines ganzheitlichen Ansatzes, der regelt, wie legitime Bots mit Anwendungsinhalten interagieren.
Web Application Firewall s(WAF) und Lösungen zur Bot-Abwehr sind in der heutigen Zeit für öffentliche Webanwendungen ein Muss. Diese Kontrollmechanismen helfen Unternehmen, ihre öffentlichen digitalen Ressourcen vor DDoS-Bedrohungsvektoren, Schatten-APIs und unsicheren API sowie verschiedenen anderen Bedrohungen in Form von Bot-Technologie zu schützen.
Jede Bot-Abwehrstrategie sollte heute die Möglichkeit bieten, Bots, die Inhalte im Rahmen des KI-Datentrainings sammeln, programmgesteuert zu identifizieren und zu klassifizieren. Dieser Klassifizierungsmechanismus ist eine wichtige Fähigkeit. Er legt fest, ob nur legitime und verifizierte KI-Crawler zugelassen oder ob sie vollständig blockiert werden, bis festgelegt ist, wie diese Bots mit staatlichen Websites interagieren dürfen. Die Cloudflare WAF identifiziert nicht nur Crawler, sondern ermittelt auch, ob sie nach den branchenweit bewährten Verfahren entwickelt wurden.
Im vergangenen Sommer bemerkte António Guterres, Generalsekretär der Vereinten Nationen, dass die künstliche Intelligenz mit der Druckerpresse verglichen wurde, und stellte fest, dass „ChatGPT in nur zwei Monaten 100 Millionen Nutzer erreicht hat“, während es mehr als 50 Jahre gedauert hat, bis gedruckte Bücher in ganz Europa weitverbreitet waren. Die Dimension und das beispiellose Wachstum von KI-Plattformen korreliert direkt mit der wachsenden Zahl von KI-Bots, die nach öffentlich zugänglichen Datensätzen für das Training suchen.
Damit kommen wir zum zweiten wichtigen Punkt bei der Umsetzung dieser WAF- und Bot-Management-Kontrollmechanismen. Die Architektur dieser Plattformen muss in einer verteilten globalen Umgebung skalierbar sein. Die Netzwerkarchitektur von Cloudflare bietet eine zentral verwaltete, global verteilte Bot-Abwehrfunktion, die in 330 Städten in über 120 Ländern bereitgestellt wird. Die Connectivity Cloud von Cloudflare, die auf einem der größten Netzwerke im Internet mit einer Edge-Kapazität von 296 Tbps basiert, kann Bedrohungen auf globaler Ebene in unmittelbarer Nähe der Angriffsquelle (anstatt in der Nähe Ihres Ursprungsservers) absorbieren, blockieren, filtern und in ihrer Geschwindigkeit einschränken.
Seien wir ehrlich: Durch öffentliche KI-Plattformen können Benutzer alles beschleunigen, vom Schreiben eines Memos bis zum Schreiben von komplexem Code. Staatliche und bundesstaatliche Behörden sehen KI als entscheidenden Faktor für die Lösung komplexer gesellschaftlicher Probleme an, etwa in der Gesundheitsversorgung, dem Zugang zu öffentlichen Dienstleistungen oder der Sicherheit von Lebensmitteln und Wasser. Ohne Governance können sich Unternehmen jedoch am Durchsickern regulierter Datensätze mitschuldig machen, die zu Trainingsdaten von unsicheren öffentlichen Sprachmodellen werden könnten.
Genauso wie Unternehmen Tools eingesetzt haben, um die Nutzung von nicht genehmigten Cloud-Anwendungen oder „Schatten-IT“ in den Griff zu bekommen, müssen sie nun auch den Umfang der Schatten-KI-Nutzung innerhalb ihrer Unternehmen verstehen.
Die Zunahme von „Schatten-KI“ sorgt für Schlagzeilen. Eine 3Gem-Studie mit über 11.500 Mitarbeitenden weltweit ergab, dass 57 % der Angestellten mindestens einmal pro Woche öffentliche Generative AI-Tools im Büro nutzten. 39 % der Befragten stimmten zu, dass die Gefahr besteht, dass durch diese Interaktionen sensible Daten durchsickern.
Diese Informationen werden manchmal sogar unwissentlich zwischen KI-Modellen weitergegeben, da immer mehr KI-Modelle mit Daten trainiert werden, die von anderen Modellen erzeugt werden, anstatt mit Inhalten, die von herkömmlichen Quellen stammen.
Jeder umfassende Ansatz muss die Bestimmung der akzeptablen Nutzung von öffentlichen KI-Modellen beinhalten und insbesondere die Frage klären, welche Rollen Zugang zu diesen Modellen benötigen. Diese Leitlinien sind ein wichtiger erster Schritt. Ein wichtiges Thema der neuen Gesetze zur KI in Behörden ist die Überprüfung des angemessenen Einsatzes von KI innerhalb von Behörden und die Frage, welche Modelle zugelassen werden sollten.
Sobald diese Festlegungen getroffen wurden, müssen die Behörden Kontrollmechanismen zur Durchsetzung dieser Richtlinien entwickeln. Die Prinzipien des Zero Trust-Netzwerkzugangs (ZTNA) ermöglichen die Entwicklung und Durchsetzung dieser Richtlinien, um den nicht genehmigten Zugriff zu beschränken.
So können Sie beispielsweise nur autorisierten Nutzern aus bestimmten administrativen Gruppen den Zugriff auf öffentliche KI-Modelle erlauben. Selbst wenn es sich um einen autorisierten Benutzer handelt, ermöglicht ZTNA zusätzliche Sicherheitsüberprüfungen, wie z. B. die Sicherstellung, dass die Geräte des Unternehmens mit aktuellen Patches ausgestattet sind oder dass auf dem Gerät von der Regierung zugelassene Endpunktverwaltungsagenten laufen, bevor der Zugriff gestattet wird.
So können Behörden durchsetzen und einschränken, wer auf diese öffentlichen KI-Modelle zugreifen darf, wenn sie mit staatlichen Ressourcen arbeiten.
Bei der akzeptablen Nutzung geht es nicht nur darum, welche Benutzer auf KI-Plattformen zugreifen können. Die Behörden müssen auch die Daten verstehen, die an KI-Plattformen gesendet oder übermittelt werden.
Selbst etwas so Harmloses wie ein Aktenvermerk der Behörde könnte nicht-öffentliche oder sensible Datenpunkte enthalten. Sobald diese Datenpunkte an ein LLM übermittelt werden, besteht das Risiko, dass diese Daten offengelegt werden.
Es sollten integrierte Kontrollen zur Verhinderung von Datenverlust (Data Loss Prevention, DLP) entwickelt werden, um sicherzustellen, dass geschützte Informationen, wie sensibler Anwendungscode oder sogar Bürgerdaten, nicht Teil eines ungesicherten Trainingsdatensatzes für eine KI-Plattform werden.
Nehmen wir das Beispiel einer KI-Entwicklungsgruppe, die sowohl mit öffentlichen als auch mit privaten oder internen KI-Plattformen interagieren muss.
Eine Behörde könnte die Nutzung sowohl öffentlicher Daten (z. B. ChatGPT und private (z. B AWS BedRock) KI-Plattformen genehmigen. Nur genehmigte Benutzer in der KI-Entwicklungsgruppe erhalten Zugang zu diesen Plattformen. Normale Benutzer werden für beide Plattformen gesperrt.
Doch selbst für zugelassene Nutzer der „KI-Entwicklungsgruppe“ wird die Implementierung einer DLP-Regel zur Prüfung der Daten geprüft, die auf diesen Plattformen veröffentlicht werden, um sicherzustellen, dass nicht-öffentliche sensible Daten nur auf der internen privaten KI-Plattform veröffentlicht werden können.
Governance muss von einer Richtlinien- oder Auftragsperspektive ausgehen und nicht von einer Technologieperspektive. Um die Rolle der KI in Regierungsprogrammen sowohl aus einer Nutzen- als auch aus einer Risikoperspektive zu verstehen, muss die Führung zielgerichtete Teams einsetzen, die die potenziellen Überschneidungen zwischen KI-Plattformen und dem Auftrag der Behörde bewerten können.
Die Zunahme des öffentlichen Engagements durch die Technologie schafft einen reichhaltigen Datensatz, den KI-Plattformen nutzen können, um ihre Modelle zu trainieren. Unternehmen können einen konservativeren Ansatz wählen, indem sie alle KI-Crawler blockieren, bis die Auswirkungen des Zulassens dieser Interaktionen bekannt sind. Für diejenigen Unternehmen, die Vorteile in einem legitimen Crawling von öffentlichen Websites sehen, ist es in der heutigen Umgebung entscheidend, einen legitimen und kontrollierten Zugriff durch verifizierte KI-Crawler zuzulassen und gleichzeitig vor Schadcode zu schützen.
Innerhalb des Unternehmens ist die Festlegung, welche Rollen und Aufgaben den Zugriff auf KI-Plattformen erfordern, ein wichtiger erster Schritt, um den zunehmenden Vorschriften zuvorzukommen. Die Zuordnung dieser Anforderungen zu einer Reihe von Kontrollmechanismen, die bestimmen, wer wann Zugriff erhält, sowie die Kontrolle über die Art der Daten, die in diese Modelle eingestellt werden, ermöglichen letztendlich die Beseitigung der Schatten-KI, ohne die greifbaren Vorteile dieser Technologien zu opfern.
Cloudflare Bot-Management und Zero Trust sind für staatliche Stellen von zentraler Bedeutung, um das Risiko angesichts der zunehmenden KI-Nutzung zu verringern. Der Schutz öffentlicher Websites und die Bereitstellung von Kontrollmechanismen für einen verantwortungsvollen Einsatz dieser Technologien sind wichtige Maßnahmen, die bei der Entwicklung von Abwehrstrategien an erster Stelle stehen sollten.
Das Potenzial der KI kann viele komplexe soziale Probleme lösen – und tut es in gewisser Weise bereits. Allerdings müssen die Regierungen auch ihre Wählerschaft schützen, während sie sich in diese neuen Technologien einarbeiten.
Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträger aus der Tech-Branche heute von Bedeutung sind.
Erfahren Sie im vollständigen Leitfaden „Zero Trust-Architektur – ein Wegweiser“ mehr darüber, wie Zero Trust die Risiken angesichts der zunehmenden Nutzung von KI verringern kann.
Scottie Ray — @H20nly
Principal Solutions Architect, Cloudflare
Folgende Informationen werden in diesem Artikel vermittelt:
Die sich entwickelnde Gesetzgebung zur Künstlichen Intelligenz
2 primäre Herausforderungen mit KI
Kontrollmechanismen, die Behörden bei der Einhaltung von Vorschriften helfen