Es könnte eine Revolution sein wie zuvor das Internet, das Smartphone und das Cloud-Computing: Generative KI-Tools wie ChatGPT und GitHub CoPilot. Für Unternehmen eröffnen sie neue Möglichkeiten – und stellen sie vor ungewohnte Herausforderungen. Künstliche Intelligenz entwickelt sich schnell und radikal. Das erhöht die Anforderungen an Firmen, die diese Technologie verantwortungsvoll nutzen möchten, und die vorbereitet sein wollen, wenn Cyberkriminelle KI instrumentalisieren. KI schreibt nicht nur Code, der verletzliche Systeme ausnutzen kann, sie generiert hochpersonalisierte Phishing-E-Mails und imitiert sogar die Stimmen von Vorgesetzten, um betrügerische Transaktionen zu autorisieren. Die Risiken rund um KI müssen unbedingt überdacht und neuberechnet werden, ebenso wie defensive und offensive Strategien gegen Hacker.
Diese drei Schlüsselstrategien sollten Führungskräfte in der IT und Sicherheit bei der Bewertung ihres Sicherheitsniveaus im KI-Zeitalter berücksichtigen:
Manche Leute hegen die schlimmsten Befürchtungen gegenüber KI. Sie malen sich eine Zukunft aus, in der eine allwissende Denkmaschine sich in eine Superwaffe verwandelt und die Menschheit in einem „KI-Wettrüsten“ bedroht. Die Beschreibung ist ziemlich überspitzt und die Realität weitaus weniger unheilvoll.
Böswillige Akteure werden KI zweifelsohne für heimtückische Zwecke verwenden. Aber bestehende KI-Programme beschränken sich eher auf grundlegendes Coding und ihre eingebauten Schutzvorrichtungen verhindern das Schreiben von echtem Schadcode.
Auf der positiven Seite könnte KI die Fähigkeiten von Teams in der Cybersicherheit stärken und ihr Wirkungsfeld vergrößern; vor allem da in der Branche ein Fachkräftemangel herrscht. KI-Tools können Junior-Analysten bei Routineaufgaben unterstützen und Entwicklungsteams in der Sicherheitsabteilung können besser Coden und Scripten.
Der Schlüssel zum Erfolg ist, in KI-Tools zu investieren und sie auf das höchste Expertenlevel zu trainieren, anstatt jeder KI-Bedrohung eine KI-Gegenmaßnahme entgegenzusetzen.
Die meisten Cyberangriffe beginnen in Posteingängen. Böswillige Akteure senden gefälschte E-Mails. Über das Phishing oder Social Engineering sammeln sie Anmeldedaten, die ihnen Zutritt zu Organisationen verschaffen. Dank der neusten Entwicklungen in der KI werden diese E-Mails ausgefeilter und realistischer. Und wenn Angreifer sich beim Social Engineering auf KI-gestützte Chatbots verlassen können, werden sich Umfang und Reichweite dieser Angriffe erhöhen.
Spezialisten für Cybersicherheit müssen das Potenzial für KI-gestützte Phishing- und Social-Engineering-Angriffe erkennen. Sie müssen Nutzer darin schulen, diese Angriffe zu durchschauen und darauf zu reagieren. Nutzer sollten unbedingt kontinuierlich in der Identifizierung von Phishing-Angriffen geschult werden. Sie brauchen eine Plattform, über die sie verdächtige Aktivitäten schnell melden können. Und sie müssen in die Gesamtstrategie der Cyberabwehr einbezogen werden.
Menschliches Versagen lässt sich nicht vermeiden und Nutzer müssen durch technische Schutzmaßnahmen vor Hackern geschützt werden. Leider reichen die grundlegenden Filter der führenden E-Mail-Dienste oft nicht aus. Unternehmen sollten sich nach fortschrittlichen E-Mail-Sicherheits-Tools umsehen. Diese Tools sollten Angriffe über verschiedene Vektoren hinweg blockieren, selbst wenn diese Angriffe von vertrauenswürdigen Absendern oder Domains ausgehen.
Ein Angriff beginnt zwar oft mit Phishing und Diebstahl von Anmeldedaten, aber hier hört es nicht auf. Wenn Firmen die Risiken betrachten, die KI für ihre Daten und Anwendungen darstellen kann, müssen sie die vielschichtige Natur potentieller Angriffe berücksichtigen.
Das traditionelle „Burg und Burggraben“-Prinzip reicht zum Schutz von Netzwerken nicht aus. Unternehmen sollten sich darauf konzentrieren, wo sich die Daten befinden und wie Nutzer und Anwendungen auf sie zugreifen. Für viele Firmen bedeutet dies die Einführung einer Zero Trust-Architektur mit einer Secure Access Service Edge (SASE)-Lösung, verstärkt durch eine Phishing-resistente Multi-Faktor-Authentifizierung (MFA).
Anwendungen und APIs, die mit dem Internet verbunden sind, sind anfällig für verschiedene Arten von Angriffen, darunter auch Angriffe, die von Bots ausgeführt oder von KI gesteuert werden. Diese Apps brauchen geeignete Schutzmaßnahmen, um Bots oder zukünftige KI-Angriffe zu bekämpfen. Dazu zählen Verschlüsselung, eine Web-Anwendungs-Firewall (WAF), Eingabevalidierung und Durchsatzbegrenzung.
Wenn Unternehmen selbst KI-Tools einsetzen, müssen sie darauf achten, dass ihre Nutzer keine Unternehmensdaten missbrauchen oder leaken. Einige Unternehmen, wie z. B. JPMorgan Chase, haben ihren Mitarbeitern die Nutzung von ChatGPT untersagt. Zumindest aber brauchen Unternehmen Richtlinien zur akzeptablen Nutzung sowie technische Kontrollen und Maßnahmen zur Prävention von Datenverlust (Data Loss Prevention), um alle Risiken zu bekämpfen.
Cybersicherheitsspezialisten müssen sich ihre Neugier bewahren und mit KI-Tools experimentieren. So verstehen sie ihr Potential für gute und böswillige Zwecke. Zum Schutz vor Angriffen sollten Unternehmen ihre eigenen Fähigkeiten ausbauen – sei es durch den Einsatz von ChatGPT oder durch die Erkundung von Cybersicherheitstools und -plattformen, die Zugang zu umfangreichen Trainingsdaten haben und Bedrohungsdaten über verschiedene Verteidigungsdimensionen hinweg nutzen.
Das Entscheidende ist letztlich, dass Unternehmen umfassende Sicherheitsmaßnahmen implementieren, die sich parallel zum Wandel der Welt weiterentwickeln. KI hat sich zwar als potenzielle Bedrohung erwiesen, aber die Technologie bietet auch große Vorteile – man muss nur wissen, wie man sie sicher einsetzt.
Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträger aus der Tech-Branche heute von Bedeutung sind.
Dieser Artikel wurde ursprünglich für Security Boulevard verfasst.
Folgende Informationen werden in diesem Artikel vermittelt:
Die Auswirkungen davon, wenn Cyberkriminelle KI einsetzen
Wie Sie das Risikokalkül in Bezug auf KI bewerten, indem Sie sowohl defensive als auch offensive Strategien berücksichtigen
3 zentrale Überlegungen zur Bewertung des Sicherheitsniveaus im Zeitalter der KI