theNet by CLOUDFLARE

Faut-il empêcher les collaborateurs d'utiliser l'IA ?

Évaluation des avantages et des risques liés aux LLM


Les entreprises sont toujours à la recherche de moyens de gagner en efficacité et en productivité, et pour beaucoup, l'idée d'utiliser les grands modèles de langage (LLM) reposant sur l'IA tels que ChatGPT pour générer du contenu, discuter avec les clients ou encore créer du logiciel semble prometteuse. Cependant, de nombreuses grandes entreprises ont au contraire constaté qu'elles n'avaient pas d'autre choix que d'empêcher leurs collaborateurs d'avoir recours à ces technologies. La question est de savoir si d'autres entreprises de leur secteur suivront le même chemin.

Pourquoi bannir l'IA ? La raison : les services d'IA générative utilisent les données saisies par les utilisateurs pour poursuivre leur apprentissage et, dans de nombreux cas, divulguent ultérieurement les données à des parties externes. Pour les entreprises qui possèdent ou traitent des données sensibles, détiennent des droits de propriété intellectuelle, opèrent dans des secteurs fortement réglementés ou développent des logiciels reposant sur du code propriétaire, les conséquences de ce type de fuite de données peuvent être désastreuses.

Toutefois, ces outils présentent également des avantages considérables. Sur quoi les responsables de la sécurité des systèmes d'information (RSSI) peuvent-ils donc s'appuyer pour décider d'autoriser ou interdire ChatGPT et les outils similaires ? Décision d'autant plus difficile à prendre qu'une telle interdiction risque de brider la productivité des collaborateurs, est difficile à mettre en œuvre et peut soulever des contestations.



Qu'est-ce qui favorise l'insécurité de ChatGPT et des autres outils d'IA ?

Les collaborateurs peuvent voir en ChatGPT et les LLM des outils qui leur facilitent la tâche et les rendent plus efficaces dans leur travail, et peuvent être amenés à les utiliser d'une manière qui, à leur insu, provoque des fuites de données.

À l'instar de tous les modèles d'IA, ChatGPT est conçu de telle sorte que plus il reçoit de données, plus la qualité de ses résultats sera grande. Les fuites de données involontaires ne proviennent pas nécessairement d'une faille, en effet ces outils n'ont pas été conçus comme des coffres-forts sécurisés pour les données. De la même façon qu'il ne serait pas sécurisé de publier des informations confidentielles sur les plateformes de médias sociaux telles que LinkedIn et Instagram, la conception de ces applications ne prévoit aucune protection pour les données privées.

Il a été révélé dans le cadre d'une étude que les collaborateurs collaient régulièrement des informations confidentielles ou soumises à des droits d'auteur dans ces outils. Dans une autre situation, des ingénieurs de Samsung ont accidentellement provoqué une fuite de données confidentielles en les transférant vers ChatGPT, à la suite de quoi Samsung a établi des restrictions dans l'utilisation de ChatGPT par ses collaborateurs.

Comme c'est le cas pour n'importe quel logiciel, les LLM comportent souvent des bugs, qui peuvent provoquer des fuites de données. En mars 2023, OpenAI a fait savoir qu'en raison d'un bug, des parties de conversations des utilisateurs avec ChatGPT avaient été affichées à d'autres utilisateurs.

Enfin, ces outils posent des problèmes en matière de conformité et de règlementation. Il n'existe aucune garantie concernant la manière dont les données sont manipulées et la divulgation de données pourrait placer une entreprise en défaut de conformité à la règlementation pour ce qui est de la sécurité des données. Comme pour toute application externe, les fuites ou le manque de visibilité sur la manière dont les données sont traitées peuvent entraîner une violation du GDPR ou d'autres cadres réglementaires. La transmission de données vers un LLM marque une rupture dans le journal d'audit des données alors qu'il est nécessaire pour la conformité.


Les interdictions : qui et pourquoi

Compte tenu des risques, plusieurs grandes entreprises en sont venues à interdire totalement à leurs collaborateurs l'utilisation des LLM.

Amazon a instauré l'interdiction de ChatGPT après avoir découvert des réponses CHatGPT qui ressemblaient étrangement à des données internes d'Amazon. Apple de son côté a décidé d'interdire l'utilisation en interne de ChatGPT et Copilot, un outil de codage automatisé provenant de GitHub, par peur d'éventuelles fuites d'informations sensibles.

Le secteur de la finance a été un des premiers à empêcher l'utilisation des LLM. Chez JPMorgan Chase des restrictions sévères ont été établies concernant l'utilisation de ChatGPT. L'entreprise craignait de subir d'éventuelles fuites d'informations financières protégées ce qui aurait entraîné des infractions aux règlementations du pays et du secteur en matière de données. Les grands fournisseurs financiers tels que la Bank of America, Citigroup et la Deutsche Bank ont suivi cet exemple.

Pour finir, Samsung a également interdit CHatGPT pendant de longues périodes, comme il est indiqué plus haut. Ils ont levé puis rétabli leur interdiction à plusieurs reprises.

Au regard de ces exemples ainsi que d'autres, les entreprises qui interdisent ou restreignent le recours à l'intelligence artificielle générative le font pour les raisons suivantes :

  • Fuite directe de données internes

  • Craintes concernant le stockage, le traitement, et l'exploitation des données par les LMM pour améliorer leur algorithme et leurs réponses, qui peuvent impliquer une imitation des données internes confidentielles et conduire à la diffusion accidentelle d'informations auprès de la veille concurrentielle

  • Inquiétudes liées à l'absence de journalisation de la manière dont les LLM traitent les données régulées


Les difficultés à interdire

En admettant qu'une organisation décide d'interdire ou de restreindre l'utilisation des LLM, il se peut qu'il lui soit quasiment impossible de le faire.

Le fait d'établir une norme de sécurité ne signifie pas que les utilisateurs internes vont la suivre, certains ne seront même pas au courant de son existence. Il est déjà difficile pour les organisations d'empêcher l'utilisation d'appareils personnels non sécurisés dans le cadre du télétravail, ou encore l'utilisation d'applications SaaS non autorisées à l'aide de l'informatique cloud. Si le recours à des applications non approuvées est appelé « informatique fantôme (Shadow IT) », dans le cas d'une situation potentielle d'interdiction des LLM on pourrait parler d'« IA fantôme ».

La sécurité peut interdire certaines applications en bloquant les adresses IP ou les URL de ces outils, mais ces restrictions ne fonctionnent évidemment pas à la perfection. Il est possible que les bons clients de sécurité ne soient pas installés sur les appareils personnels ; le matériel de l'entreprise peut être utilisé sur des réseaux qui ne dépendent pas de l'entreprise. Lorsqu'ils sont déterminés, les utilisateurs peuvent même utiliser un VPN pour contourner les règles de pare-feu et accéder aux outils interdits.


Une solution autre que l'interdiction : la prévention des pertes de données (DLP pour Data Loss Prevention)

Concernant ChatGPT et les services équivalents, s'il est une chose qu'on ne peut réfuter c'est leur immense popularité. Certes, l'interdiction peut contribuer à en réduire l'utilisation et les fuites de données qui en découlent, les RSSI ont toutefois tout intérêt à partir du principe que leurs collaborateurs ont recours à ces outils, que ce soit sur leurs appareils personnels ou ceux de l'entreprise. C'est pourquoi il leur est fortement recommandé d'appliquer une solution DLP.

Les solutions DLP emploient des stratégies variées pour détecter les données sensibles et les empêcher de quitter un environnement protégé. Ces méthodes comprennent la recherche de correspondance de modèles, de mots-clés, de hachages de fichiers et d'empreintes de données, mais le plus important pour prévenir les fuites de données des outils d'IA réside dans la possibilité de limiter les copier-coller, les téléchargements et les saisies au clavier.

Les solutions DLP (lorsqu'elles sont associées à l'isolement du navigateur) doivent pouvoir empêcher les employés de copier et coller des données sensibles dans n'importe quelle application web, y compris dans les LLM. Elles doivent également être en mesure de bloquer les transferts de données, d'empêcher certaines saisies au clavier et de détecter les données confidentielles présentes dans des requêtes HTTP sortantes.

Les organisations ont le choix d'interdire ou non l'IA générative. Celles qui souhaitent l'interdire ne parviendront pas forcément à en faire cesser complètement l'utilisation. Toutefois, quelle que soit leur décision, la DLP leur offre une autre option que l'utilisation illimitée ou l'interdiction de l'IA.


Les entreprises doivent-elles empêcher leurs collaborateurs d'utiliser ChatGPT ?

La DLP ne permet évidemment pas de garantir qu'aucune donnée ne sera transférée. Dans l'ensemble, les RSSI devront peser le pour et le contre concernant l'autorisation de l'utilisation de ChatGPT et d'autres LLM, et selon les secteurs d'activité ils arriveront à des conclusions différentes. Dans les secteurs hautement règlementés tels que la banque, le transfert de contenu vers des LLM est inconcevable. Dans d'autres secteurs, les RSSI pourront examiner le recours à l'IA au cas par cas, ou simplement l'autoriser en toute liberté.

Cependant, chaque entreprise a des données sensibles à protéger et la DLP est une aide précieuse pour maintenir ces données à l'écart des bases de données des LLM. Étant donnée l'importance que représente la protection des données dans l'environnement actuel, Cloudflare propose DLP pour contribuer à réduire le risque d'exposition de données ou de code malgré un recours croissant aux outils d'IA générative dans les lieux professionnels.

Cet article fait partie de notre série consacrée aux nouvelles tendances et évolutions susceptibles d'affecter les décideurs en matière de technologies d'aujourd'hui.


Approfondir le sujet.

Téléchargez le livre blanc Simplifier la manière dont nous protégeons les applications SaaS pour découvrir comment Cloudflare aide les entreprises à protéger leurs applications et leurs données avec une approche Zero Trust.



Points clés

Cet article vous permettra de mieux comprendre les points suivants :

  • Pourquoi les grands modèles de langage (LLM) font courir un risque aux données

  • Plusieurs entreprises internationales ont interdit l'utilisation en interne de ChatGPT et d'autres outils d'IA générative

  • Comment la prévention de perte de données (DLP) peut permettre une utilisation sécurisée de l'IA


Ressources associées

Recevez un récapitulatif mensuel des tendances Internet les plus populaires !