Si les grands modèles linguistiques (Large Language Models, LLM) basés sur l'intelligence artificielle (IA) améliorent la manière dont les utilisateurs interagissent avec vos applications, ils introduisent également un risque pour vos ressources numériques.
Les grands modèles linguistiques, comme ceux d'OpenAI (ChatGPT), de Google (Bard) et de Meta (LlaMA), accélèrent le traitement de vastes quantités de données textuelles et sont conçus pour apprendre à améliorer continuellement leurs résultats. Toutefois, du fait de l'explosion de l'utilisation de l'IA, ces modèles LLM constituent également une cible privilégiée pour les cybercriminels. Les chercheurs de Darktrace ont, par exemple, constaté une augmentation de 135 % des nouvelles attaques par ingénierie sociale entre janvier et février 2023, soit la période d'adoption généralisée de ChatGPT.
Les entreprises qui souhaitent tirer parti de l'IA intègrent rapidement la technologie dans leurs opérations internes et leurs services à la clientèle. Le rythme d'adoption accéléré de l'IA peut toutefois rendre les applications vulnérables si les protocoles de sécurité ne sont pas mis à jour.
Les grands modèles linguistiques fonctionnent comme n'importe quel autre composant de la chaîne d'approvisionnement de vos applications. Ils sont sujets aux cyberattaques susceptibles d'exploiter votre infrastructure informatique pour compromettre et manipuler des données sensibles.
Ce n'est pas une surprise, puisque les applications qui acceptent les sollicitations des utilisateurs sont depuis longtemps vulnérables aux attaques de type injection SQL et aux liens malveillants figurant dans le contenu généré par les utilisateurs. Comme l'IA accepte les sollicitations des utilisateurs (commandes et requêtes, par exemple), l'acteur malveillant qui y accède peut alors manipuler le modèle.
Les attaques contre les grands modèles linguistiques basés sur l'IA se déclinent sous de nombreuses formes et introduisent des risques de différentes manières, par exemple :
Un texte invisible injectant des invites peut amener les modèles à produire des e-mails de phishing, extraire des données de formation susceptibles de révéler des informations sensibles ou utiliser des portes dérobées pour intégrer du code malveillant.
La manipulation d'un modèle afin de produire des résultats trompeurs peut conduire à des conclusions erronées pour les autres utilisateurs.
La copie du système de fichiers d'un modèle peut conduire à un vol de propriété intellectuelle susceptible d'être vendue à un concurrent, avec pour résultat des pertes économiques ou la compromission d'un avantage commercial.
L'utilisation du langage naturel permet de duper plus facilement les utilisateurs et d'exploiter le modèle.
Des informations conçues à dessein peuvent être placées au sein des documents consommés, afin de permettre à un acteur malveillant de prendre le contrôle de la session d'un utilisateur.
L'injection d'invites manipule les modèles à l'aide d'injections directes qui écrasent les invites du système ou d'injections indirectes qui manipulent les sollicitations de l'utilisateur.
Le traitement non sécurisé des résultats expose les systèmes web back-end au code malveillant inséré au sein d'applications front-end, dans l'espoir de tromper les utilisateurs finaux et de les amener à cliquer sur le code.
Les opérations gourmandes en ressources effectuées sur les modèles IA peuvent entraîner une dégradation du service et des coûts élevés en termes de puissance de calcul.
Les chaînes d'approvisionnement logicielles constituent également une menace si vous vous appuyez sur des composants LLM provenant d'un tiers. Une application peut ainsi se retrouver compromise par l'introduction d'ensembles de données supplémentaires au niveau des modèles et des plug-ins.
Les modèles qui incitent les utilisateurs finaux à révéler des données confidentielles lorsqu'ils envoient une réponse.
Pour permettre à vos applications de continuer à accroître la valeur qu'elles apportent aux utilisateurs finaux par l'intermédiaire de l'IA, il est essentiel de mettre en œuvre les bonnes stratégies de sécurité afin d'assurer leur intégrité. Pour aider les RSSI à évaluer le risque représenté par les vulnérabilités liées aux LLM, l'OWASP (Open Worldwide Application Security Project, projet ouvert de sécurité des applications à travers le monde) a publié un avis consacré au Top 10 des vulnérabilités recensées au sein des LLM.
La défense contre ces risques demeure un domaine non testé dans une large mesure. Tandis que bon nombre d'entre elles s'empressent d'intégrer l'IA générative avec LLM à leurs applications, certaines entreprises (comme Samsung et Apple) ont totalement interdit ces modèles, du moins de manière temporaire.
Pour protéger votre entreprise contre les attaques visant les grands modèles linguistiques utilisés par les outils IA, appliquez une stratégie de sécurité qui vous protège contre les composants dangereux des applications. Pour commencer, voici quelques tactiques à mettre en œuvre pour prévenir les violations de la sécurité des applications capables de conduire à des fuites de données susceptibles de compromettre votre entreprise :
Analysez le trafic réseau à la recherche de schémas d'attaque indiquant la présence d'un LLM compromis susceptible de mettre en danger les applications et les comptes utilisateur.
Définissez une visibilité en temps réel sur les schémas de trafic de la couche de transport afin de visualiser les paquets et les données qui interagissent avec les LLM au niveau de l'octet.
Appliquez des techniques de prévention des pertes de données pour sécuriser les données sensibles en transit.
Vérifiez, filtrez et isolez le trafic afin de protéger les utilisateurs, les appareils et les applications contre les LLM compromis.
Isolez les navigateurs des utilisateurs distants en exécutant du code à la périphérie afin de les isoler d'un LLM contenant du code malveillant injecté.
Utilisez des ensembles de règles gérés (comme les règles principales de l'OWASP et les règles du fournisseur) dans votre pare-feu d'applications web (WAF) afin de bloquer les attaques LLM basées sur l'injection SQL, le Cross-Site Scripting, et les autres vecteurs d'attaque web, tout en évitant les faux positifs en termes d'alertes.
Pensez à vos utilisateurs finaux lorsque vous appliquez ces stratégies. S'il s'avère essentiel de réduire les vulnérabilités, les interfaces des applications doivent néanmoins rester faciles à utiliser et ne pas contraindre les utilisateurs à passer par un trop grand nombre d'étapes avant d'accéder aux applications. Testez également vos fonctions d'atténuation pour vérifier quelle quantité de bande passante elles consomment.
L'intégration de votre approche au sein d'une stratégie Zero Trust globale se révèle également importante. Par défaut, ne faites jamais confiance aux utilisateurs et aux appareils. Validez toujours leur identité et leurs autorisations, même s'ils sont connectés à un réseau d'entreprise qu'ils ont déjà fait l'objet d'un contrôle préalable. Grâce au Zero Trust, vous pouvez créer une couche d'agrégation pour l'accès à toutes vos applications auto-hébergées, SaaS et non web afin de réduire votre surface d'attaque, tout en accordant un accès contextuel (et basé sur le principe du moindre privilège) à chaque ressource plutôt qu'un accès au niveau du réseau.
Cloudflare peut aider les entreprises à expérimenter l'IA en toute sécurité, tout en respectant les bonnes pratiques en la matière, et ce sans compromettre l'expérience utilisateur. Notre service Data Protection permet aux entreprises de protéger leurs données partout, sur l'ensemble des environnements applicatifs : web, SaaS et privés. La solution AI Gateway aide les entreprises à recueillir des informations sur la manière dont les utilisateurs se servent des applications IA et à contrôler l'évolution de l'application à l'aide de diverses fonctionnalités, comme la mise en cache et le contrôle du volume de requêtes.
Près de 20 % de l'ensemble du trafic Internet transite par le réseau Cloudflare, qui bloque en moyenne ~165 milliards de cybermenaces par jour. L'analyse de cette masse d'informations permet à Cloudflare d'avoir une vision inégalée sur le panorama des menaces liées à l'IA.
Cet article fait partie de notre série consacrée aux nouvelles tendances et évolutions susceptibles d'affecter les décideurs en matière de technologies d'aujourd'hui.
Pour plus d'informations sur cette approche, consultez l'e-book : Comment Cloudflare renforce votre sécurité partout où vous exercez une activité.
Cet article vous permettra de mieux comprendre les points suivants :
Pourquoi les LLM utilisés par l'IA sont-ils susceptibles de faire l'objet d'une cyberattaque ?
Dix types d'attaques liées aux LLM et le risque que ces derniers présentent
Comment sécuriser un LLM ?