theNet von CLOUDFLARE

KI-generierte Fehlinformationen bekämpfen

Minimieren Sie die Risiken und Folgen fehlerhafter Inferenz von KI-Modellen

KI-generierte Fehlinformationen sind auf dem Vormarsch – und sie werden zu einem wachsenden Problem. Laut Forschenden von Google und mehreren auf Faktenprüfung spezialisierten Organisationen hat die Menge an irreführenden Inhalten, die von KI-Modellen erzeugt werden, seit Mitte 2023 dramatisch zugenommen.

Die meisten von uns sind bestrebt, KI Effizienzsteigerung, Förderung von Innovationen, Verbesserung der Cybersicherheit und vieles mehr einzusetzen. Wir müssen uns jedoch bewusst sein, dass KI auch Fehlinformationen erzeugen kann, die schwerwiegende Folgen für Einzelpersonen, Unternehmen und die Gesellschaft haben können.

Welche Arten von Fehlinformationen können KI-Modelle erzeugen? Warum generieren sie falsche Informationen? Und was sollten wir als Sicherheitsverantwortliche tun, um sowohl Unternehmens- als auch öffentliche Interessen zu schützen?


Einige Limitationen von KI-Modellen

Das Problem der KI-generierten Fehlinformationen ist zum Teil auf die derzeitigen Grenzen von KI-Modellen zurückzuführen. Wir hören viel über KI-Inferenz, also die Fähigkeit von KI-Modellen, Schlussfolgerungen aus neuen Live-Daten zu ziehen. Wie ich bereits geschrieben habe, können KI-Modelle noch nicht wirklich denken und ihre Fähigkeit, aussagekräftige Erkenntnisse aus Live-Daten zu gewinnen, ist noch lange nicht perfekt.

Was KI-Modelle sehr gut können, ist faktenbasierte Antworten zu liefern. Wenn Sie ein Large Language Model (LLM) bitten, Ihnen das Jahr zu nennen, in dem Columbus in Amerika an Land ging, sollte es Ihnen die richtige Antwort geben – es sei denn, es gab ein Problem damit, wie das Modell erstellt oder trainiert wurde.

Ein KI-Modell könnte jedoch auch eine Meinung als Tatsache darstellen. Wenn Sie sich also fragen, ob die Europäer das Recht hatten, die Amerikas zu besiedeln, könnte ein KI-Modell eine Meinung abgeben, ohne Ihnen zu sagen, dass es eine Meinung ist. Im geschäftlichen Kontext könnte der KI-basierte Chatbot eines Unternehmens seinen Kunden Produktinformationen liefern, die mehr auf Marketinginhalten als auf Fakten beruhen.

Ein KI-Modell könnte Ihnen auch mehrere konkurrierende Meinungen präsentieren, die auf andere Weise nicht hilfreich sein könnten. Wenn Sie ein LLM wie ChatGPT fragen, wer der größte Baseballspieler ist, der je gelebt hat, wird es mehrere Meinungen ausgeben und für jede eine allgemeine Argumentation liefern. Möglicherweise ist keine dieser Meinungen oder Argumente „falsch“, aber das Modell unterscheidet unter Umständen nicht angemessen zwischen besseren und schlechteren Standpunkten.


Wodurch werden KI-generierte Fehlinformationen verursacht?

Falsche Antworten, als Fakten dargestellte Meinungen und mehrere als gleichwertig dargestellte Meinungen können als Fehlinformationen angesehen werden. Diese Fehlinformationen können absichtlich oder unabsichtlich erzeugt werden.

Intentionelle

KI-Modelle können manipuliert – oder „vergiftet“werden –, um bestimmte Antworten zu liefern. So könnte ein Angreifer beispielsweise Daten manipulieren, die von einem bestimmten Unternehmen zum Training eines LLMs verwendet werden. Vielleicht möchte der Angreifer das Unternehmen in Verlegenheit bringen und seinen Ruf schädigen, indem er das LLM so manipuliert, dass es schlechte Antworten in einem KI-Chatbot oder einer KI-basierten Anwendung erzeugt.

Natürlich ist Modellmanipulation („Model Poisoning“) nicht ausschließlich das Werk von Cyber-Angreifern. Politische Kandidaten oder Regierungen könnten auch die Absicht haben,Desinformationen zu verbreiten, indem sie absichtlich Daten in KI-Modelle einschleusen oder andere Manipulationstechniken zur Verbreitung von Falschinformationen verwenden.

Ein anderes Szenario besteht darin, dass Einzelpersonen oder eine Organisation absichtlich Daten oder Informationen aus ihrem Modell manipulieren könnten, um ihren speziellen Standpunkt zu untermauern. Ein Fernsehnachrichtensender könnte einen Politiker in einem guten Licht darstellen und bestimmte Daten absichtlich aus einem Wahlmodell ausschließen, um nahezulegen, dass der Politiker gute Gewinnchancen hat.

So könnte das Netzwerk beispielsweise selektiv Datenpunkte auswählen, die für einen Politiker günstig sind, und weniger günstige Daten ignorieren. Das Netzwerk könnte auf ähnliche Weise Narrative konstruieren, indem es faktische Erfolge oder positive politische Vorschläge hervorhebt und dabei Kontroversen oder Misserfolge eines Politikers ignoriert.

Unbeabsichtigte

Fehlinformationen können auch ungewollt entstehen. Ein Unternehmen könnte unwissentlich ein Modell mit voreingenommenen Daten füttern, was zu verzerrten Schlussfolgerungen führt. Nehmen wir dasselbe Beispiel des Fernsehnachrichtensenders: Der Sender könnte versehentlich einige Informationen herunterspielen oder andere Informationen überbewerten, ohne böswillige Absichten zu verfolgen. Das Ergebnis wäre immer noch ein Modell, das irreführende Vorhersagen treffen würde. In vielen Fällen liefern Modelle Fehlinformationen, einfach weil sie unzureichende Daten haben. Sie haben möglicherweise nicht genug Daten gesammelt, um genaue Antworten zu geben. Darüber hinaus könnte auch das Timing der Dateneingabe in das Modell zu Problemen führen, wenn die Reihenfolge der Informationen für die Entscheidungsfindung wichtig ist.

Es kann sehr schwierig sein, die Ursache für Fehlinformationen zu finden – und festzustellen, ob sie das Ergebnis einer absichtlichen Handlung sind – zumal KI-Modelle oft in einem geschlossenen, undurchsichtigen System existieren. Mit traditionellem Machine Learning (ML) können Sie die Entscheidungen hinter dem Modell sehen und verstehen. Aber bei LLMs, die auf neuronalen Netzwerken basieren, ist die Entscheidungslogik innerhalb verdeckten Schichten verborgen. LLMs fassen Daten zusammen und zaubern – aus der Sicht des Benutzers – Antworten hervor. Nutzer haben keinen Zugang zum Entscheidungsprozess. Daher ist es für sie schwierig, die Quelle potenzieller Fehlinformationen zu finden.


Auswirkungen von KI-Fehlinformationen

Einzelpersonen könnten auf der Grundlage von KI-generierten Ergebnissen schlecht fundierte Entscheidungen treffen. So können beispielsweise falsche Antworten von einem KI-basierten Chatbot zu schlechten Entscheidungen in den Bereichen Investitionen, Gesundheitsversorgung, Rechtswesen oder Job führen.

Geschäftsleitende könnten auf der Grundlage von KI-generierten Fehlinformationen Fehlentscheidungen treffen. KI-Modelle könnten die falschen Arten von Cybersicherheitsbedrohungen hervorheben, was die Sicherheitsverantwortlichen dazu veranlassen würde, ihre Strategien falsch anzupassen oder suboptimale Lösungen zu implementieren. Oder allgemeiner gesagt: Führungskräfte könnten KI-generierten Erkenntnissen vertrauen, ohne ausreichende menschliche Kontrolle zu haben. Solche KI-Modelle berücksichtigen möglicherweise keine differenzierten menschlichen Faktoren oder ethische Abwägungen.

Schlimmer noch, sie könnten eine Bedrohung völlig übersehen. Nehmen wir an, Ihr Team reicht acht Registrierungsschlüssel als Teil einer Malware-Probe ein. Ihr Modell könnte fälschlicherweise feststellen, dass es sich hierbei nicht um Malware, sondern um Software handelt. Warum? Denn keine Schadsoftware, die Sie zuvor eingereicht haben, hatte mehr als acht Registrierungsschlüssel. Folglich wäre Ihr Unternehmen anfällig für jede Schadsoftware, die nicht in diese bisherige Vorlage passt.

Fehlinformationen beschränken sich nicht auf eine einzelne Person oder ein einzelnes Unternehmen – sie können weitreichende Folgen haben. So könnte beispielsweise die Verbreitung von Falschinformationen über große börsennotierte Unternehmen die Finanzmärkte destabilisieren. In ähnlicher Weise könnte sich Desinformation über ein Land auf die geopolitischen Beziehungen oder die Außenpolitik auswirken, wobei KI-Modelle diese Probleme potenziell verschärfen können.


Wir müssen unsere Erwartungen anpassen

Das Problem ist nicht nur, dass KI-Modelle Fehlinformationen produzieren – wir gehen auch davon aus, dass diese KI-generierten Antworten immer richtig sind. Bei meinen Gesprächen mit Sicherheitsteams anderer Unternehmen ist mir aufgefallen, dass manche Menschen glauben, dass KI ihnen die richtigen Antworten liefert und ihre Probleme einfach löst – und das ist beunruhigend.

KI-Modelle sind nicht unfehlbar. Sie bieten nicht unbedingt eine einzige, klare Antwort. Nehmen wir zum Beispiel eine Navigations-Software bzw. Karten-App. Wenn ich eine Karten-App bitte, eine Autostrecke zu einem bestimmten Ziel ein paar Bundesländer weiter zu planen, kann sie mehrere Optionen vorschlagen. Die Software verfügt möglicherweise nicht über genug Daten, um den schnellsten Pfad zu berechnen. Oder es wird eine schnelle Route empfohlen, die unsicher ist.

Die App schlägt möglicherweise auch einige Optionen mit unterschiedlichen Vor- und Nachteilen vor. Zum Beispiel könnte es eine direkte – aber langweilige – Autobahnroute geben. Und es könnte auch eine landschaftlich reizvollere Route vorschlagen, die etwas länger dauert. Was ist besser? Darauf gibt es keine allgemeingültige Antwort.

Wir erwarten auch, dass KI-Modelle genau vorhersagen können, was in Zukunft passieren wird. Modelle können Ergebnisse vorhersagen, aber diese Vorhersagen basieren auf vergangenen Ereignissen und Daten. Wenn neue und relevantere Daten auftauchen, müssen sie in bestehende Modelle integriert werden. Selbst dann wissen die Modelle nicht sicher, was passieren wird. Sie können nicht mit 100%iger Genauigkeit voraussehen, was als nächstes passieren wird.

Es ist wichtig,unsere Erwartungen an die KI anzupassen. Aber natürlich müssen wir immer noch alles Mögliche unternehmen, um die Wahrscheinlichkeit zu verringern, dass sie Fehlinformationen generieren.


Fehlinformationen bekämpfen

Es gibt mehrere Strategien, die uns helfen können, die von KI-Modellen generierten Fehlinformationen zu reduzieren. Zusammengenommen werden es uns diese Strategien ermöglichen, Inferenzfehler zu minimieren – selbst wenn wir unsere Erwartungen reduzieren. Da Regierungen neue Vorschriften für die Nutzung von KI erlassen (wie den AI Act der EU und die Operation AI Comply der FTC in den USA), wird die Umsetzung von Strategien zur Bekämpfung von Fehlinformationen unerlässlich sein, um Geldstrafen oder andere behördliche Maßnahmen zu vermeiden.

  1. Mehr Daten sammeln: Im Allgemeinen sind die Entwickler von KI-Modellen mit den meisten Daten in der besten Position, um genaue Antworten zu geben. Das Sammeln der Daten ist jedoch nur der erste Schritt. Modell- und App-Entwickler müssen diese Daten in Funktionen umwandeln, die spezifische Probleme angehen können.

  2. Maßnahmen für Datenqualität und -integrität implementieren: Fehlinformationen können durch eine schlechte Datenverwaltung (Data Governance) entstehen. Wenn KI-Modelle auf unvollständigen, ungenauen, inkonsistenten, beschädigten oder fehlerhaften/ungewöhnlichen Daten basieren, liefern sie falsche Antworten. Wir müssen regelmäßige Überprüfungen und Audits durchführen, um sicherzustellen, dass die Datenquellen legitim sind und nicht manipuliert wurden.

  3. Outputs validieren: Zusätzlich zur Validierung von Inputdaten sollten wir filtern, was LLMs produzieren, während wir Nutzungsmuster und Prompts überwachen. Die Validierung der Ergebnisse ermöglicht es uns, absichtliche oder unbeabsichtigte Fehlinformationen zu erkennen, bevor wir diese Fehlinformationen für die Entscheidungsfindung verwenden. Wir könnten KI-Modelle tatsächlich verwenden, um den Output (und Input) anderer KI-Modelle zu validieren. So können wir sicherstellen, dass die Antworten im Bereich der sachlich richtigen Antworten liegen.

  4. Den Zugriff auf Open-Source-Modelle kontrollieren: Schatten-KI – insbesondere die unbefugte Nutzung von öffentlichen Open-Source-Modellen – kann die Auswirkungen von Fehlinformationen in einem Unternehmen verstärken. Die Überwachung des Einsatzes dieser Modelle in einem Unternehmen kann dazu beitragen, sensible Informationen vor der Offenlegung zu schützen und das Risiko zu minimieren, dass Mitarbeitende auf der Grundlage von Fehlinformationen schlecht informierte Entscheidungen treffen.

  5. Die Sicherheit interner Modelle erhöhen: Der Schutz interner KI-Modelle mit strengen Zugriffskontrollen, Versionsverfolgung, Verschlüsselung und digitalen Zertifikaten kann helfen, absichtliche und unbeabsichtigte Manipulationen zu verhindern. Wir sollten genau im Auge behalten, wie Modelle verwendet und eingesetzt werden, um Manipulations- oder Diebstahlversuche zu erkennen.

  6. Auf Angriffe mit Fehlinformationen vorbereiten: Jedes Unternehmen sollte sich auf Angriffe mit Fehlinformationen vorbereiten. Genau wie bei der Vorbereitung auf einen DDoS- oder Ransomware-Angriff sollten wir einen Plan haben, um den Angriff zu erkennen, Ereignisse zu melden, den Schaden einzudämmen und das Problem gegenüber Kunden, Partnern und der Öffentlichkeit zu kommunizieren. Diese Planung sollte größtenteils mit typischen Strategien für Krisenkommunikation im Einklang stehen.

  7. Menschliches Urteilsvermögen: Wir müssen unterscheiden, was echt ist und was nicht, und das wird mit KI immer schwieriger. „Deepfakes“ zum Beispiel werden immer viel realistischer und werden sich mit der Zeit weiter verbessern. Indessen produzieren Einzelpersonen und Organisationen zahlreiche KI-generierte Fake-Artikel, Social-Media-Beiträge und Kommentare zu Posts. Je mehr wir auf eine Idee oder eine angebliche Tatsache stoßen, desto mehr glauben wir leider, dass sie authentisch ist – auch wenn das nicht der Fall ist.

Das menschliche Urteilsvermögen wird entscheidend sein, um zu entscheiden, ob wir Fehl- oder Desinformationen erhalten. Wir müssen nicht die richtige Antwort auf eine Frage kennen (wenn es nur eine richtige Antwort gibt). Wir müssen nur feststellen, ob eine Antwort aufgrund unserer eigenen Erfahrungen in einer Reihe von Möglichkeiten liegt. Es ist wie bei jemandem, der übertreibt oder eine wilde Geschichte erzählt – wir müssen herausfinden, was wahr und was erfunden ist. Indem wir ein Umfeld des kritischen Denkens, der Transparenz und des kontinuierlichen Lernens schaffen, können wir die Risiken abwehren, die von KI-generierten Fehlinformationen ausgehen.


Die Zukunft der KI-Fehlinformationen

Es besteht kein Zweifel, dass KI in unserem täglichen Leben und Arbeiten eine immer wichtigere Rolle spielen wird. Bei der Vorbereitung auf die nahe und ferne Zukunft mit KI müssen wir uns des Potenzials für KI-generierte Fehlinformationen bewusst sein und Wege finden, um deren Folgen zu minimieren.

Die zunehmende künstliche allgemeinen Intelligenz (AGI) könnte uns helfen, potenzielle Probleme mit Modellen besser zu erkennen. Dieses Feld, das versucht, menschenähnlichere Intelligenz zu erzeugen, könnte das geschlossene System der KI-Modelle öffnen. Wir könnten herausfinden, wie ein Modell zu einer bestimmten Antwort gelangt ist – und herausfinden, ob diese möglicherweise falsch ist.

Vorerst ist unser eigenständiges, menschliches Denken jedoch womöglich das wichtigste Werkzeug. Wir müssen Informationen skeptisch gegenüberstehen. Nur weil wir etwas lesen oder ein Video sehen, heißt es nicht, dass es wahr ist. Am besten bekämpft man Fehlinformationen, indem man den guten alten Hausverstand walten lässt.

Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträgerinnen und -träger aus der Tech-Branche heute von Bedeutung sind.



Vertiefung des Themas:

Erfahren Sie im CISO-Leitfaden „Sicherer Umgang mit KI“, wie Sie generative KI im großen Stil entwickeln, nutzen und schützen können.

Autor

Grant Bourzikas — @grantbourzikas
Chief Security Officer, Cloudflare



Wichtigste Eckpunkte

Folgende Informationen werden in diesem Artikel vermittelt:

  • Wodurch werden KI-Fehlinformationen verursacht

  • Welche Konsequenzen haben Entscheidungen, die auf fehlerhaften Inferenzen von KI-Modellen beruhen?

  • Wie Sie Fehlinformationen bekämpfen können


Verwandte Ressourcen


Erhalten Sie eine monatliche Zusammenfassung der beliebtesten Internet-Insights!