theNet von CLOUDFLARE

Generative KI sicher nutzen

Der Siegeszug der generativen KI und ihre enormen Auswirkungen sind nicht zu übersehen. Einige haben sich enthusiastisch auf die Technologie gestürzt, weil sie ein neues Zeitalter der Arbeit verspricht, in dem sie sich nie wieder mit dem mühsamen Schreiben von E-Mails oder Berichten herumschlagen müssen.

Für andere wiederum ist es der Beginn einer neuen Technologiewelle, die in jedem Wirtschaftsbereich, von der Logistik bis zur Entwicklung neuer lebensrettender Medikamente, ungeahnte Vorteile mit sich bringen wird.

Doch die anfängliche Begeisterung für diese bahnbrechende Technologie - die als bedeutender Fortschritt für die persönliche Produktivität gepriesen wird, ruft auch einige Bedenken hervor, nicht zuletzt in Bezug auf den Datenschutz und die Datensicherheit.

Anfang dieses Jahres verbot der Elektronikriese Samsung die Verwendung von generativen KI-Tools, nachdem berichtet wurde, dass Samsung-Mitarbeitende versehentlich vertrauliche Informationen weitergegeben hatten, während sie ChatGPT zur Unterstützung bei der Arbeit nutzten.

In einer E-Mail an die Mitarbeitenden, über die seinerzeit ausführlich berichtet wurde, erklärte das koreanische Unternehmen: „Das Interesse an generativen KI-Plattformen wie ChatGPT hat intern und extern zugenommen. Während sich das Augenmerk auf den Nutzen und die Effizienz dieser Plattformen richtet, gibt es auch wachsende Bedenken hinsichtlich der Sicherheitsrisiken, die von generativer KI ausgehen.“

Samsung ist damit nicht allein. Eine Reihe von Unternehmen — und einige Länder – haben den Einsatz von generativer KI verboten. Und es liegt nahe, warum.


Generative KI stellt ein Sicherheitsrisiko dar

Die Verwendung von Tools wie ChatGPT und anderen großen Sprachmodellen (LLMs) öffnet unkontrollierter Schatten-IT die Türe – Geräte, Software und Dienste, die sich außerhalb des Eigentums oder der Kontrolle von IT-Organisationen befinden.

Dabei gibt es ein ganz klares Problem. Ganz gleich, ob es sich um einen Mitarbeitenden handelt, der mit KI experimentiert, oder um eine Initiative des Unternehmens – sobald geschützte Daten der KI offengelegt werden, gibt es keine Möglichkeit, dies rückgängig zu machen. Machen wir uns nichts vor. KI ist unglaublich vielversprechend. Doch ohne geeignete Schutzmaßnahmen birgt sie erhebliche Risiken für Unternehmen und Institutionen.

Laut einer kürzlich durchgeführten KPMG-Umfrage erwarten Führungskräfte, dass generative KI enorme Auswirkungen auf ihren Geschäftsbetrieb haben wird, aber die meisten sagen, dass sie nicht auf eine sofortige Einführung vorbereitet sind. Am meisten sorgen sich die befragten Unternehmen um die Cybersicherheit (81 %) und Datenschutz (78 %).

Darum müssen Sicherheitsverantwortliche einen Mittelweg finden, um einerseits transformative Innovationen durch KI zu ermöglichen und andererseits die Einhaltung der Datenschutzbestimmungen gewährleisten. Der beste Ansatz hierfür ist die Implementierung von Zero Trust-Sicherheitskontrollen, damit Unternehmen die neuesten generativen KI-Tools sicher nutzen können, ohne geistiges Eigentum und Kundendaten zu gefährden.


Was versteht man unter Zero Trust-Sicherheit?

Zero Trust-Sicherheit als Methodologie verlangt eine strikte Identitätsüberprüfung für jede Person und jedes Gerät, das versucht, über das Netz auf Ressourcen zuzugreifen. Im Gegensatz zu einem traditionellen Ansatz („Burg und Burggraben“) vertraut eine Zero Trust-Architektur niemandem und nichts.

Und genau dieser Ansatz ist für jedes Unternehmen, das KI einsetzen möchte, von entscheidender Bedeutung. Warum? Da Zero Trust-Sicherheitskontrollen es Unternehmen ermöglichen, die neuesten generativen KI-Tools sicher zu nutzen, ohne geistiges Eigentum und Kundendaten zu gefährden.

Unternehmen, die generative KI einsetzen, müssen sicherstellen, dass ihre Systeme robust genug sind, um Sicherheitsprobleme zu vermeiden.


Schützen und sichern Sie Ihre Daten

Es ist wichtig zu verstehen, wie viele Mitarbeitende mit KI-Diensten experimentieren – und wofür sie diese nutzen. Wenn Systemadministratoren diese Aktivitäten überwachen – und kontrollieren –, damit sie jederzeit die Reißleine ziehen können, ist die Sicherheit der Daten Ihres Unternehmens gewährleistet.

Die Einführung eines Dienstes zur Verhinderung von Datenverlusten (Data Loss Prevention, DLP) trägt dazu bei, menschliche Fehler bei der Datenweitergabe zu vermeiden. Mit detaillierteren Regeln können ausgewählte Nutzende sogar mit Projekten experimentieren, die sensible Daten enthalten, während stärkere Einschränkungen für die Mehrheit der Teams und Mitarbeitenden durchgesetzt werden.

Mit anderen Worten: Wenn Unternehmen KI in all ihren Formen nutzen wollen, müssen sie ihre Sicherheit verbessern und einen Zero Trust-Ansatz implementieren. Es ist zwar wichtig, auf das Problem aufmerksam zu machen, aber es gibt keinen Grund, die Bedenken im Zusammenhang mit einer solch vielversprechenden Technologie zu übertreiben.

Denn mit jedem technologischen Fortschritt, vom Mobiltelefon bis zum Cloud-Computing, entstehen neue Sicherheitsbedrohungen. Und jedes Mal hat die Branche darauf reagiert und die Sicherheit, die Protokolle und die Verfahren verschärft. Das Gleiche wird auch durch KI geschehen.

Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträger aus der Tech-Branche heute von Bedeutung sind.

Dieser Artikel wurde ursprünglich für The AI Journal erstellt.

Autor

John Engates — @jengates
Technology Officer, Cloudflare



Wichtigste Eckpunkte

Folgende Informationen werden in diesem Artikel vermittelt:

  • Die Risiken durch den Einsatz von KI

  • Welche Rolle Zero Trust bei der sicheren Nutzung von KI-Tools spielen kann


Verwandte Ressourcen


Erhalten Sie eine monatliche Zusammenfassung der beliebtesten Internet-Insights!