Cloudflare collabore avec Microsoft pour permettre l'exécution de modèles d'IA dans n'importe quel environnement
Cloudflare collabore avec Microsoft pour permettre l'exécution de modèles d'IA dans n'importe quel environnement
Construire les grandes artères de l'IA pour l'avenir, permettant le déplacement fluide des tâches d'inférence entre les appareils, les réseaux et les clouds
Construire les grandes artères de l'IA pour l'avenir, permettant le déplacement fluide des tâches d'inférence entre les appareils, les réseaux et les clouds
San Francisco, Californie (États-Unis), 27 septembre 2023 – Cloudflare, Inc. (NYSE : NET), le leader dans le domaine de la connectivité cloud, a annoncé aujourd'hui sa collaboration avec Microsoft afin de permettre aux entreprises d'exécuter plus facilement les applications d'IA à l'emplacement correspondant le mieux à leurs besoins. À mesure que la distribution des tâches d'inférence progresse, cette collaboration permettra aux entreprises de déployer avec fluidité des modèles IA dans un continuum informatique englobant les environnements d'appareils, de périphérie du réseau et de cloud, et ainsi, de maximiser les avantages des modèles informatiques centralisés et distribués. En tirant parti d'ONNX Runtime sur ces trois niveaux, Cloudflare et Microsoft peuvent s'assurer que les modèles d'IA seront exécutés à l'emplacement le plus opportun dans cette architecture à trois niveaux, du cloud hyperscale à la périphérie du réseau hyper-distribué en passant par les appareils eux-mêmes. Cette approche permettra de répondre au mieux aux exigences en matière de bande passante, de latence, de connectivité, de traitement, de batterie/d'énergie, de souveraineté des données et de localisation d'une application ou d'un service donnés.
L'apprentissage des modèles d'IA nécessite le déploiement, à proximité les unes des autres, d'importantes ressources de calcul et de stockage ; les plateformes cloud centralisées s'imposent donc comme l'environnement le mieux adapté aux calculs intensifs qu'exige l'apprentissage de modèles. L'apprentissage restera centralisé ; en revanche, les tâches d'inférence seront toujours davantage exécutées dans des emplacements plus distribués, notamment sur les appareils eux-mêmes et sur les réseaux périphériques. Ainsi, certaines tâches d'inférence (par exemple, un véhicule autonome qui freine à la vue d'un piéton) seront exécutées directement sur l'appareil physique, afin de bénéficier d'une latence aussi réduite que possible. Cependant, pour faire face aux limites propres aux appareils, telles que la puissance de calcul, la capacité de stockage et l'autonomie de la batterie, un nombre croissant de tâches devront être exécutées sur des réseaux périphériques. Les réseaux périphériques, géographiquement proches des utilisateurs finaux et des appareils, offriront un compromis optimal entre les ressources de calcul, la vitesse et la confidentialité des données. Il pourra être nécessaire de déplacer certaines applications sur les trois niveaux de ce continuum informatique, en tirant à la fois parti des environnements des appareils, du réseau périphérique et du cloud pour proposer la meilleure expérience aux utilisateurs finaux.
« Ensemble, Cloudflare et Microsoft construiront les grandes artères sur lesquelles se déplaceront le trafic et les tâches d'IA, afin d'adapter l'inférence IA aux besoins et exigences particuliers de chaque entreprise, » déclare Matthew Prince, CEO et cofondateur, Cloudflare. « Que vous privilégiiez la rapidité ou la précision, ou que vous soyez confronté à des contraintes d'énergie ou de bande passante de connectivité ou aux complexités de la conformité aux exigences de localisation régionales, Cloudflare et Microsoft peuvent vous aider à déterminer le meilleur emplacement pour vos tâches d'IA. »
« À l'heure où les entreprises explorent la meilleure façon d'exploiter de manière unique la puissance de l'IA générative, afin de répondre à leurs besoins, la capacité d'exécuter des modèles d'IA n'importe où est primordiale, » déclare Rashmi Misra, GM of Data, AI, & Emerging Technologies chez Microsoft. « L'association du réseau mondial de Cloudflare et de l'expérience de Microsoft en matière d'apprentissage et de déploiement des charges de travail d'IA les plus avancées au monde, par le biais de notre cloud Azure, permettra aux entreprises de bénéficier d'un niveau inédit de flexibilité et de performances lors de l'exécution de leurs tâches d'inférence IA. »
Ensemble, Cloudflare et Microsoft collaboreront pour permettre aux entreprises d'exécuter facilement l'IA à l'emplacement le plus adapté à chaque charge de travail. Pour parvenir à cet objectif, deux éléments doivent être réunis :
- Microsoft ONNX Runtime crée une solution standardisée, permettant de déployer les mêmes modèles indépendamment de l'environnement, que ce soit sur un appareil (Windows, mobile ou intégré à un navigateur), à la périphérie du réseau distribué (Cloudflare) ou sur la plateforme centralisée d'Azure.
- Cloudflare peut fournir l'infrastructure nécessaire à l'acheminement du trafic entre les différents environnements, en fonction de la connectivité, de la latence, de la conformité ou d'autres exigences.
Les entreprises souhaitent pouvoir déplacer les tâches d'inférence à travers ce continuum d'appareils, de réseau périphérique et de cloud, en fonction des exigences auxquelles elles font face en termes de performances, de coûts et de réglementations. Les capacités d'IA et l'infrastructure cloud hyperscale de Microsoft, associées au réseau périphérique hyper-distribué de Cloudflare, permettront aux entreprises de dynamiser l'innovation et l'efficacité sur l'ensemble du cycle de vie de l'IA. En conséquence, les entreprises pourront :
- Déterminer le meilleur emplacement pour l'exécution de tâches d'IA : choisissez de déployer l'inférence IA là où le traitement est le plus pertinent au regard des résultats souhaités, en maximisant les avantages des modèles informatiques centralisés et distribués. Par exemple, un système de caméras de sécurité pourrait tirer parti des réseaux périphériques pour exécuter la détection d'objets ; cette approche permettrait de surmonter les contraintes liées aux ressources de l'appareil lui-même, sans toutefois entraîner la latence résultant de la transmission des données à un serveur central aux fins du traitement.
- S'orienter face à l'évolution des besoins : exécutez les modèles dans les trois emplacements, puis ajustez-les, ou optez pour une solution de repli en fonction des exigences liées à la disponibilité, au scénario d'utilisation et à la latence.
- Déployer sur Cloudflare en quelques clics : accédez à des modèles faciles à déployer et aux fonctionnalités d'outils d'apprentissage automatique sur Workers AI, grâce à Microsoft Azure Machine Learning.
Pour en savoir plus, n'hésitez pas à consulter les ressources suivantes :
- Inscrivez-vous pour réserver votre accès à Workers AI
- Article de blog : Workers AI : le cloud d'inférence exécuté sur des processeurs graphiques sur le réseau de Cloudflare
- Article de blog : Le meilleur endroit dans « Region : Earth » pour l'inférence
- Découvrez comment développer des applications IA full-stack avec Cloudflare sur AI.cloudflare.com
À propos de Cloudflare
Cloudflare, Inc. (NYSE : NET) est le leader dans le domaine de la connectivité cloud. L'entreprise permet aux sociétés de rendre leurs collaborateurs, leurs applications et leurs réseaux plus rapides et plus sûrs, partout dans le monde, tout en réduisant la complexité et les coûts. La solution de connectivité cloud de Cloudflare offre la plateforme unifiée la plus complète de produits et d'outils de développement cloud-native, permettant à toute organisation d'accéder au contrôle indispensable pour travailler, développer et accélérer son activité.
Reposant sur l'un des réseaux les plus vastes et les plus interconnectés du monde, Cloudflare bloque chaque jour des milliards de menaces en ligne pour le compte de ses clients. La solution est plébiscitée par des millions de sociétés et d'organisations, des plus grandes marques, des entrepreneurs individuels et des petites entreprises aux organisations à but non lucratif, aux groupes d'assistance humanitaire et aux administrations du monde entier.
Pour en apprendre davantage sur la solution de connectivité cloud de Cloudflare, consultez le site cloudflare.com/connectivity-cloud Pour découvrir les nouvelles tendances et informations concernant Internet, consultez le site https://radar.cloudflare.com.
Suivez-nous: Blog | X | LinkedIn | Facebook | Instagram
Déclarations prospectives
Le présent communiqué de presse contient des déclarations prospectives au sens de la section 27A de la loi Securities Act de 1933, dans sa version modifiée, et de la section 21E de la loi Securities Exchange Act de 1934, dans sa version modifiée, lesquelles déclarations comportent des incertitudes et risques substantiels. Dans certains cas, les déclarations prospectives peuvent être identifiées par la présence de mots tels que « peut », « sera », « devrait », « s'attend à », « étudie », « planifie », « prévoit », « pourrait », « a l'intention de », « vise », « projette », « envisage », « considère », « estime », « prédit », « potentiel » ou « continue » ou de la forme négative de ces mots ou d'autres termes ou expressions similaires concernant les attentes, la stratégie, les plans ou les intentions de Cloudflare. Toutes les déclarations prospectives ne contiennent cependant pas les termes identificateurs suscités. Les déclarations prospectives exprimées ou sous-entendues dans le présent communiqué de presse comprennent, sans s'y limiter, les déclarations concernant les capacités et l'efficacité d'Hyperdrive, Cloudflare Workers et des autres produits et technologies de Cloudflare, les avantages pour les clients de Cloudflare liés à l'utilisation d'hyperdrive, Cloudflare Workers et les autres produits et technologies de Cloudflare, la date de mise en disponibilité générale d'Hyperdrive ou de n'importe laquelle de ses fonctionnalités associées, pour l'ensemble des clients actuels ou potentiels de Cloudflare, le développement technologique, les opérations, la croissance, les initiatives ou les stratégies futures de Cloudflare, de même que les commentaires effectués par le PDG et d'autres membres de Cloudflare.Les résultats réels peuvent différer sensiblement des résultats énoncés ou sous-entendus dans les déclarations prospectives en raison d'un certain nombre de facteurs, notamment, sans s'y limiter, les risques détaillés dans les documents déposés par Cloudflare auprès de la Securities and Exchange Commission (SEC), comme notre rapport annuel sur formulaire 10-Q déposé le 3 août 2023, ainsi que d'autres documents susceptibles d'être déposés ponctuellement par Cloudflare auprès de la SEC.
Les déclarations prospectives effectuées dans le présent communiqué de presse concernent uniquement les événements survenus à la date à laquelle sont effectuées lesdites déclarations. Cloudflare ne s'engage aucunement à mettre à jour les déclarations prospectives contenues dans le présent communiqué de presse afin de refléter des événements ou des circonstances postérieurs à la date du présent communiqué de presse ou de refléter de nouvelles informations ou la survenue d'événements imprévus, sauf dans les cas prévus par la loi. Cloudflare peut ne pas parvenir à concrétiser réellement les plans, intentions ou attentes divulgués dans ses déclarations prospectives et le lecteur ne devrait donc pas se fier indûment à ces déclarations.
© 2023 Cloudflare, Inc. Tous droits réservés. Cloudflare, le logo Cloudflare et les autres marques Cloudflare sont des marques commerciales et/ou des marques déposées de Cloudflare, Inc. aux États-Unis et dans d'autres juridictions. Tous les autres noms et marques mentionnés dans le présent document peuvent être des marques commerciales de leurs propriétaires respectifs.