theNet by CLOUDFLARE

Préparer l'avenir de l'IA en matière de cybersécurité

L'IA est dans l'esprit de tous aujourd'hui. Les grands modèles de langage (LLM), tels que ceux sur lesquels repose ChatGPT d'OpenAI, ont nourri notre imagination : nous envisageons de nouvelles possibilités d'utiliser l'IA générative dans le développement de solutions innovantes.

En tant que professionnels de la sécurité, nous réfléchissons à la manière dont les cybercriminels utilisent l'IA pour créer de nouveaux types d'attaques et renforcer leurs méthodes existantes. En attendant, nous envisageons l'iA défensive et explorons les moyens d'utiliser l'IA pour mieux détecter les menaces et nous défendre contre elles.

Pourtant, trop d'entreprises se concentrent uniquement sur ce que l'IA peut apporter aujourd'hui ou à court terme. Trop peu sont ceux qui envisagent l'influence considérable qu'aura probablement eue l'IA sur nos entreprises et notre vie dans 5, 10 ou 20 ans. Nous devons toutefois réfléchir à cet avenir, car pour nous y préparer correctement, nous devons commencer à le planifier dès maintenant.

Comprendre aujourd'hui et préparer demain

L'IA est encore une technologie quelque peu immature. Si l'apprentissage automatique (ou Machine Learning, ML) est plus avancé, l'application de l'apprentissage automatique n'en est qu'à ses balbutiements. Aujourd'hui, les organisations se contentent essentiellement de collecter des données et de procéder à des analyses de base. Certaines font des expériences avec les LLM pour générer du texte ou utilisent des outils de conception intégrés à l'IA pour créer des illustrations uniques. Cependant, la véritable inférence de l'IA n'est pas encore disponible : les modèles ne sont pas encore en mesure de dégager des conclusions ni de générer des informations significatives à partir de données réelles, même si certains fournisseurs vous disent le contraire.

Ce manque d'inférence est manifeste lorsque nous essayons d'utiliser l'IA et l'apprentissage automatique pour autre chose que la génération de texte ou d'images. Lorsque je préparais ma maîtrise en science des données et apprentissage automatique, nous avions pour projet de prédire quels joueurs de baseball seraient intronisés au Hall of Fame (le tableau d'honneur). D'après le modèle que nous avions créé, le meilleur prédicteur était le nombre de fois où le joueur frappait au cours de sa carrière. Plus sa carrière était longue et plus il y avait de chances qu'il entre dans le Hall of Fame (le tableau d'honneur des serveurs).

Le résultat était intéressant, mais le modèle n'a pas permis d'en tirer des conclusions. Le modèle n'a pas pu nous dire pourquoi le nombre de frappes pouvait être le meilleur prédicteur. Nous, les humains, avons réalisé que pour avoir une longue carrière, avec beaucoup de frappes, il faut être un excellent joueur. Et lorsque vous cumulez un grand nombre de frappes, vous avez plus de chances d'obtenir un nombre correct de frappes et de coups de circuit.

Lorsque les modèles commenceront à comprendre le sens et seront devenus capables d'établir des déductions, nous constaterons des effets plus spectaculaires de l'IA.

Au vu de la vitesse d'évolution de l'IA, l'inférence existera avant même que nous n'en ayons conscience. Il suffit de constater à quel point les LLM ont progressé ces dernières années. Ils ont évolué depuis l'époque où ils se contentaient de compléter des saisies de texte et prennent désormais en charge des conversations fondées sur du texte solide permettant de longues invites, l'acceptation des résultats visuels et la conservation du contexte entre les sessions. Parallèlement, l'augmentation continue de la puissance des ordinateurs permet aux modèles d'ingérer et d'apprendre rapidement à partir d'un nombre croissant de données, ce qui les aide à produire des résultats meilleurs et plus précis.

Dans 20 ans, l'IA et d'autres technologies avancées vont probablement redéfinir considérablement notre monde. Par exemple, il est possible que le nombre de propriétaires de voitures diminue car nous serons en mesure de faire appel à des voitures entièrement autonomes à la demande. Les courses alimentaires, le ménage domestique, la tonte des pelouses, et autres tâches quotidiennes seront probablement simplifiés par la technologie.

Et oui, il est possible qu'à l'avenir, l'IA transforme bon nombre de nos tâches actuelles. Dans le secteur technologique, nous n'aurons peut-être plus besoin d'écrire de code, par exemple. Toutefois, le personnel doit encore comprendre comment concevoir des solutions basées sur l'IA qui répondent aux besoins des entreprises, comment gérer cette technologie et comment la sécuriser.

Les premières étapes d'une stratégie à long terme

Comment commencer à développer aujourd'hui une stratégie qui permettra à votre entreprise d'optimiser la valeur de l'IA plus tard ?

  1. Comprendre la technologie : la première étape de l'élaboration d'une stratégie à long terme en IA implique de comprendre suffisamment la technologie pour pouvoir l'utiliser. Vous n'avez pas besoin de devenir un expert en science des données ou en apprentissage automatique. Toutefois, en tant que responsable de la sécurité, vous devez comprendre de quelle manière les acteurs malveillants utilisent l'IA et de quelle manière votre équipe peut s'appuyer sur cette IA pour anticiper et contrer ces attaques.

    Vous devriez également commencer à réfléchir à la manière dont votre entreprise peut agréger les ensembles de données, ce qui sera nécessaire pour permettre le fonctionnement de l'IA et de l'apprentissage automatique. Vous devrez ensuite sécuriser ces ensembles de données agrégées.

  2. Préparer la prise en charge de scénarios d'utilisation : de nos jours, certaines entreprises sont tellement impatientes d'adopter l'IA qu'elles se concentrent immédiatement sur le choix du meilleur modèle d'apprentissage automatique. Ensuite ils essaient de trouver un problème métier à résoudre. C'est à vous de commencer à identifier les problèmes opérationnels auxquels vous devez faire face en premier. Il est capital de commencer par les problèmes métier plutôt que par la technologie.

Quels types de problèmes métier pourraient être de bons candidats pour l'IA ? De nombreuses tâches répétitives (telles que la synthèse des réunions ou la réponse aux premières demandes de service des clients) sont déjà prises en charge par l'IA.

À l'avenir, les entreprises pourraient utiliser l'IA et l'apprentissage automatique dans des situations où les modèles apprennent davantage de l'expérience et des données externes. Ainsi, dans le secteur bancaire, par exemple, les équipes chargées des fraudes peuvent utiliser l'IA pour améliorer la précision de la détection des fraudes en dégageant des enseignements des leçons des résultats réels. Par ailleurs, les équipes marketing de tous les secteurs pourraient utiliser l'IA pour simplifier la création de contenu : elles pourraient saisir des préférences et des styles d'écriture, avant d'entrer des commentaires que les modèles utiliseraient pour améliorer les résultats ultérieurs.

En tant que responsables de la sécurité, nous devons commencer à planifier ces scénarios métier ainsi que d'autres cas d'utilisation. Nous devons trouver des moyens d'aider les équipes à intégrer l'IA dans leurs flux de travail, afin de résoudre les problèmes opérationnels sans compromettre la conformité et la sécurité.

Modernisation de la sécurité

Pour préparer l'avenir de l'IA, nous devons moderniser la sécurité et nous devons commencer cette modernisation dès maintenant. De nombreuses équipes de sécurité fonctionnent toujours de la même manière depuis 15 ou 20 ans. Elles réagissent aux dernières menaces et mettent en œuvre de multiples solutions ponctuelles pour remédier aux vulnérabilités. Mais ce type d'approche nous a conduits là où nous en sommes aujourd'hui et il se produit chaque jour de plus en plus de violations. Nous devons modérer notre admiration pour le prochain formidable produit dédié et nous concentrer davantage sur notre mission, qui est de protéger nos clients, nos collaborateurs et nos entreprises.

Les équipes de sécurité étant à la traîne, les acteurs malveillants progressent rapidement. Dans un avenir relativement proche, nous assisterons à un nombre croissant de tentatives de contournement des modèles d'IA utilisés pour la cybersécurité, qui chercheront d'exploiter des données qui ne sont pas prises en compte dans ces modèles. Nous découvrirons également des logiciels pilotés par IA capables d'apprendre des méthodes défensives et de modifier rapidement leur attaque.

Pour moderniser la sécurité, nous devons repenser les outils dont nous avons besoin, les compétences dont nous devons faire preuve et la façon dont nous devons travailler. C'est en imaginant où nous en serons dans 5, 10 ou 20 ans que nous déterminerons le mieux ce que nous devons faire aujourd'hui. Voici 4 recommandations pour vous lancer :

  1. Mettre en œuvre les technologies et les outils appropriés : la modernisation de la sécurité nécessite des outils avancés. Les entreprises ont besoin d'une technologie capable d'anticiper et de détecter automatiquement les nouveaux types de menaces générées par l'IA. Aujourd'hui, si nous constatons qu'une nouvelle adresse IP tente de se connecter à Cloudflare via un VPN, notre équipe SOC peut être amenée à rédiger une règle statique pour empêcher l'accès. Dans ce cas, toutefois, nous nous contentons de régler un problème spécifique, au lieu de nous attaquer à un problème plus global.

    À l'avenir, nous utiliserons probablement des fonctionnalités intégrées d'IA et d'apprentissage automatique qui peuvent automatiquement détecter et atténuer ces types de menaces.

    Des outils dotés de capacités IA pourraient également nous aider à simplifier le respect de la conformité. Nous disposerons peut-être d'outils susceptibles de recommander des modifications des contrôles ou des politiques à chaque introduction de nouvelles réglementations.

  2. Remédier au déficit de compétences : l'IA devant s'occuper de certaines tâches de faible niveau, les équipes chargées de l'informatique et de la sécurité auront besoin de collaborateurs aux compétences plus avancées. Les équipes informatiques auront besoin de collaborateurs dotés d'une expertise en matière de science des données, d'apprentissage automatique (Machine Learning) et de réseaux neuronaux.

    Par ailleurs, les équipes informatiques et métier auront besoin d'une expertise dans le domaine concerné : si vous souhaitez utiliser l'IA pour améliorer la prise de décisions médicales, par exemple, vous devrez collaborer avec des professionnels de la santé. La science des données doit se trouver à l'intersection de la science de l'informatique, des mathématiques et des statistiques et de la connaissance du domaine.

    Les équipes de sécurité ont besoin de personnes capables d'interpréter les résultats générés par les modèles d'IA et de déterminer de quelle manière les stratégies ou les politiques doivent évoluer pour faire face à l'évolution des menaces. L'une des erreurs les plus courantes que j'ai constatées consiste à écouter le résultat du modèle sans en comprendre le sens. Revenons à l'exemple du Hall of Fame : si nous n’écoutons que les résultats (qui ont révélé que les frappes sont le meilleur indicateur de ceux qui y figureront), les jeunes joueurs pourraient s'imaginer qu'il leur suffit de se concentrer sur le fait de réaliser un maximum de frappes. En réalité, ils doivent s'attacher à développer leurs compétences afin de connaître une longue et formidable carrière.

  3. Modifier les fonctionnements : les équipes de sécurité doivent également modifier leur mode de fonctionnement. Aurons-nous toujours besoin d'un SOC composé de 250 personnes, réparties dans le monde entier, fonctionnant 24 heures sur 24, 7 jours sur 7 ? Nous aurons peut-être besoin de fonctionner 24 heures sur 24, mais nous serons probablement en mesure d’accomplir bon nombre de ces tâches humaines existantes à l’aide d’ordinateurs, ce qui nous permettra de consacrer les humains à d’autres tâches.

    Nous pourrions disposer d'un SOC autonome d'ici 5 à 10 ans, ce qui signifie que nous devrions dès maintenant commencer à formuler une offre concernant son fonctionnement. Nous avons besoin de ce temps en raison de la complexité de nos environnements de sécurité. Il est déjà suffisamment difficile de sécuriser ces environnements ; il sera difficile d'intégrer l'IA.

    Si nous sommes en mesure de gagner du temps avec un SOC autonome, nous devrons également consacrer plus de temps à la préservation de l'intégrité des données et au maintien de la conformité réglementaire. Plus nous utiliserons des modèles d'IA en interne, plus nous devrons gérer et contrôler de données. Nous devons savoir où se trouvent les données, nous assurer de leur exactitude et veiller à en préserver la confidentialité.

    De nombreuses discussions se sont intéressées à la gouvernance de l'IA, mais les données sont le facteur le plus important. Il existe déjà de nombreuses lois dans le monde qui régissent la manière dont nous pouvons utiliser et stocker les données ainsi que l'emplacement où nous pouvons les utiliser. Les équipes de sécurité devront veiller à ce que leurs entreprises continuent à se conformer aux lois sur la souveraineté des données, ainsi qu'aux réglementations relatives à la confidentialité des données. La conformité peut devenir plus difficile à respecter si les équipes informatiques déplacent le lieu d'exécution des modèles d'IA, par exemple en transférant les données du cloud de retour vers les environnements sur site.

  4. Commencer à regrouper les partenaires technologiques : il peut être difficile d'agréger les données et de générer les informations issues de l'IA dont vous avez besoin lorsque vous utilisez les solutions provenant de nombreux fournisseurs. Nos environnements informatique et de sécurité sont suffisamment complexes pour s'épargner la gestion d'un ensemble de solutions distinctes. Tandis que votre entreprise se tourne vers l'avenir, elle doit commencer à consolider les solutions. Il est beaucoup plus simple de travailler avec quatre ou cinq partenaires clés que d'essayer de gérer des données provenant de 50 personnes.

Regarder vers demain, planifier dès aujourd'hui

L'IA existe déjà, mais l'incidence que nous avons pu constater sur notre travail et sur nos vies n'est qu'un premier aperçu. En tant que leaders en matière de sécurité, nous devons commencer à préparer dès maintenant les changements à venir. Avec la bonne stratégie à long terme, nous serons mieux positionnés pour mettre l'utilisation interne de l'IA au service des objectifs opérationnels, utiliser l'IA pour renforcer la sécurité et nous défendre contre les menaces générées par l'IA.

Découvrez de quelle manière Cloudflare peut aider votre entreprise à commencer à développer et déployer dès aujourd'hui une application IA sur le réseau mondial de Cloudflare. Découvrez comment moderniser la sécurité pour l'avenir de l'IA avec le cloud de connectivité Cloudflare.

Cet article fait partie de notre série consacrée aux nouvelles tendances et évolutions susceptibles d'affecter les décideurs en matière de technologies d'aujourd'hui.

Auteur

Grant Bourzikas – @grantbourzikas
Chief Security Officer, Cloudflare



Points clés

Cet article vous permettra de mieux comprendre les points suivants :

  • L'importance de la planification dès maintenant pour sécuriser l'avenir de l'IA

  • Les deux premières étapes de l'élaboration d'une stratégie à long terme

  • 4 recommandations pour moderniser la sécurité


Autres articles de la même série


Recevez un récapitulatif mensuel des tendances Internet les plus populaires !