Ortsunabhängiger Einsatz von KI-Modellen: Cloudflare und Microsoft machen’s möglich
Ortsunabhängiger Einsatz von KI-Modellen: Cloudflare und Microsoft machen’s möglich
Wir stellen die KI-Weichen für die Zukunft mit Inferenzaufgaben, die reibungslos zwischen Geräten, Netzwerken und Clouds verlagert werden können
Wir stellen die KI-Weichen für die Zukunft mit Inferenzaufgaben, die reibungslos zwischen Geräten, Netzwerken und Clouds verlagert werden können
San Francisco (Kalifornien), 27. September 2023 – Cloudflare, Inc. (NYSE: NET), der führende Anbieter im Bereich Connectivity Cloud, gibt heute eine Zusammenarbeit mit Microsoft zum leichteren Einsatz von KI an dem für Unternehmen jeweils am besten geeigneten Ort bekannt. Diese werden dadurch im Kontext einer zunehmend stärkeren Streuung von Inferenzaufgaben in die Lage versetzt, KI-Modelle reibungslos innerhalb eines aus Geräten, Netzwerk-Edges und Cloud-Umgebungen bestehenden Rechenkontinuums zu verlagern. So können die Vorteile sowohl von zentralgesteuerten als auch von dezentralen Computing-Modellen optimal ausgeschöpft werden. Durch den Einsatz von ONNX Runtime auf all diesen Ebenen sorgen Cloudflare und Microsoft dafür, dass sich KI-Modelle immer genau dort nutzen lassen, wo es für diese Art der Datenverarbeitung bei einer solchen dreistufigen Architektur gerade am sinnvollsten ist – ob in hochgradig skalierbaren Clouds, in Netzwerk-Edge-Strukturen mit extrem hohem Verteilungsgrad oder auf den Geräten selbst. So kann für jede Anwendung und jeden Dienst die Lösung angeboten werden, die hinsichtlich Bandbreite, Akkuleistung/Energiebedarf, Datenhoheit und Lokalisierung den Anforderungen am besten gerecht wird.
Um KI-Modelle zu trainieren, sind beträchtliche Rechenleistung und Speicherkapazität in geringer Entfernung voneinander erforderlich. Insofern bieten zentralgesteuerte Cloud-Plattformen die beste Umgebung für die ausgesprochen anspruchsvollen Rechenvorgänge, die dafür benötigt werden. Das Training der KI wird also weiter zentral gesteuert werden. Demgegenüber wird sich die Ausführung von Inferenzaufgaben zunehmend auf eine größere Zahl von Standorten verteilen – genauer gesagt auf die Geräte selbst und auf Edge-Netzwerke. Einige Inferenzaufgaben (etwa ein selbstfahrendes Auto, das beim Auftauchen einer Fußgängerin bremst) werden beispielsweise auf einem physischen Gerät ausgeführt werden, um die Latenz so gering wie möglich zu halten. Allerdings sind solchen Geräten Grenzen gesetzt, etwa im Hinblick auf Rechenleistung, Speicherplatz und Akkuleistung. Um diese Einschränkungen zu überwinden, wird man mehr und mehr Aufgaben auf Edge-Netzwerken ausführen müssen. Diese werden – nicht zuletzt aufgrund ihrer geringen räumlichen Entfernung zu Endnutzerinnen und -nutzern und Geräten – eine optimale Mischung aus Rechenleistung, Geschwindigkeit und Datenschutz bieten. Manche Anwendungen müssen möglicherweise alle drei Ebenen dieses Rechenkontinuums durchlaufen. Durch das Zusammenspiel aus Geräten, Edge-Netzwerken und Cloud-Umgebungen kann die beste Endnutzererfahrung geboten werden.
„Cloudflare und Microsoft werden gemeinsam die Datentrassen für KI-Traffic und -Aufgaben schaffen, sodass sich Inferenzen perfekt auf die Bedürfnisse und Anforderungen jedes Unternehmen abstimmen lassen“, erklärt Matthew Prince, CEO und Mitgründer von Cloudflare. „Ob es Ihnen nun um Geschwindigkeit oder Genauigkeit geht, um die Bewältigung von Herausforderungen im Zusammenhang mit Energie oder Bandbreite, oder um die Einhaltung örtlicher Lokalisierungsvorschriften: Cloudflare und Microsoft können Ihnen dabei helfen, den besten Ort für Ihre KI-Aufgaben zu finden.“
„In den Unternehmen wird gerade ausgelotet, auf welche individuelle Weise man die Möglichkeiten generativer KI am besten für sich nutzen kann. In der Lage zu sein, KI-Modelle überall zu betreiben, ist dabei absolut entscheidend“, so Rashmi Misra, General Manager Data, AI, & Emerging Technologies bei Microsoft. „Dank des globalen Netzwerks von Cloudflare und der Erfahrung, die Microsoft beim Training und Einsatz der ausgereiftesten KI-Workloads der Welt über unsere Azure-Cloud mitbringt, können wir Unternehmen einen neuen Grad an Flexibilität und Performance für KI-Interferenzen bieten.“
Cloudflare und Microsoft werden mit vereinten Kräften dafür sorgen, dass KI von Unternehmen ganz einfach dort eingesetzt werden kann, wo es für die Aufgabe jeweils am sinnvollsten ist. Möglich wird dies unter anderem durch zwei Bausteine:
- ONNX Runtime von Microsoft schafft eine standardisierte Lösung, mit der unabhängig von der Umgebung überall dieselben Modelle eingesetzt werden können: Sei es auf einem Gerät (Windows, Mobilgerät, im Browser), auf der dezentralen Netzwerk-Edge (Cloudflare) oder in der zentral organisierten Cloud-Plattform Azure.
- Cloudflare kann die Infrastruktur zur Steuerung des Traffic in verschiedenen Umgebungen bereitstellen – je nachdem, welche Gegebenheiten unter anderem hinsichtlich Konnektivität, Latenz und Compliance bestehen.
Unternehmen wollen – in Abhängigkeit ihrer individuellen Rahmenbedingungen in puncto Performance, Kosten und Rechtsvorschriften – Inferenzaufgaben innerhalb des Rechenkontinuums aus Geräten, Edge-Netzwerk und Cloud flexibel verlagern können. Dank der KI-Funktionen und der hochgradig skalierbare Cloud-Infrastruktur von Microsoft und des Edge-Netzwerks von Cloudflare mit seinem extrem hohen Verteilungsgrad werden Unternehmen Innovation und Effizienz während des gesamten KI-Lebenszyklus weiter vorantreiben können. Ihnen bieten sich diese Möglichkeiten:
- Den besten Ort zur Ausführung ihrer KI-Aufgaben finden: KI-Inferenz kann immer dort zum Einsatz kommen, wo sich damit die größte Wirkung erzielen lässt. So können die Vorteile sowohl von zentralgesteuerten als auch von dezentralen Datenverarbeitungsmodellen optimal ausgeschöpft werden. Ein Sicherheitskamera-System beispielsweise könnte Edge-Netzwerke zur Objekterkennung einsetzen. Damit wird das Problem gelöst, dass die Ressourcen des Geräts selbst begrenzt sind, ohne durch das Übermitteln von Daten zur Verarbeitung an einen zentralen Server die Latenz in die Höhe zu treiben.
- Auf sich verändernde Bedürfnisse reagieren: Modelle können auf allen drei Ebenen ausgeführt und je nach Verfügbarkeit, Anwendungsfall und Anforderung an die Latenz angepasst oder als Reserve genutzt werden.
- Mit wenigen Klicks bei Cloudflare implementieren: Über Microsoft Azure Machine Learning kann auf leicht implementierbare Modelle und Tools von Workers AI zurückgegriffen werden, die maschinelles Lernen nutzen.
Eingehender zu diesem Thema informieren können Sie sich hier:
- Registrieren Sie sich jetzt und reservieren Sie sich Ihren Zugang zu Workers AI
- Blogbeitrag: Workers AI: Die Inferenz-Cloud, die auf Grafikprozessoren im Cloudflare-Netzwerk läuft
- Blogbeitrag: Hier lässt sich in der Region:Erde das Inferencing am besten durchführen
- Unter AI.cloudflare.com erfahren Sie, wie sich mit Cloudflare umfassende KI-Anwendungen erstellen lassen.
Über Cloudflare
Cloudflare, Inc. (NYSE: NET) ist der führende Anbieter im Bereich Connectivity Cloud. Mit Cloudflare können Unternehmen ihre Mitarbeitenden, Anwendungen und Netzwerke noch besser schützen, deren Performance steigern und gleichzeitig Komplexität und Kosten reduzieren. Die Connectivity Cloud von Cloudflare bietet die umfassendste konsolidierte Plattform für cloudnative Produkte und Entwicklertools am Markt. Mit dieser Lösung kann sich jedes Unternehmen die für die Arbeit, Produktentwicklung und schnellere Geschäftserfolge erforderliche Kontrolle verschaffen.
Aufbauend auf einem der größten und am stärksten verflochtenen Netzwerke der Welt schirmt Cloudflare Kunden täglich vor Milliarden von Online-Bedrohungen ab. Millionen von Organisationen bauen auf Cloudflare – darunter große Marken ebenso wie Unternehmerinnen und Unternehmer, kleine und mittelständische Betriebe, gemeinnützige Einrichtungen, Hilfsorganisationen und Behörden auf der ganzen Welt.
Weitere Informationen zur Connectivity Cloud von Cloudflare finden Sie unter cloudflare.com/connectivity-cloud. Bei https://radar.cloudflare.com können Sie sich über die neuesten Trends und Erkenntnisse zum Thema Internet informieren. .
Folgen Sie uns: Blog | X | LinkedIn | Facebook | Instagram
Zukunftsgerichtete Aussagen
Diese Pressemitteilung enthält zukunftsgerichtete Aussagen im Sinne von Abschnitt 27A des „Securities Act of 1933“ der Vereinigten Staaten in seiner geänderten Fassung und Abschnitt 21E des „Securities Exchange Act of 1934“ der Vereinigten Staaten in seiner geänderten Fassung, die mit erheblichen Risiken und Unsicherheiten behaftet sind. In einigen Fällen lassen sich zukunftsgerichtete Aussagen daran erkennen, dass sie Wörter wie „können“, „werden“, „sollten“, „erwarten“, „erkunden“, „planen“, „voraussehen“, „könnten“, „beabsichtigen“, „anstreben“, „prognostizieren“, „erwägen“, „glauben“, „schätzen“, „vorhersagen“, „potenziell“ oder „fortsetzen“ oder die Verneinung dieser Wörter oder ähnliche Begriffe oder Ausdrücke enthalten, die sich auf die Erwartungen, Strategien, Pläne oder Absichten von Cloudflare beziehen. Allerdings enthalten nicht alle zukunftsgerichteten Aussagen diese Signalwörter. Unter zukunftsgerichteten Aussagen, die in dieser Pressemitteilung direkt oder indirekt getätigt werden, sind unter anderem Aussagen über die Funktionen und die Effektivität von Hyperdrive, Cloudflare Workers und anderen Produkten und Technologien von Cloudflare, über die potenziellen Vorteile, die sich für Kunden aus der Nutzung von Hyperdrive, Cloudflare Workers und der sonstigen Produkte und Technologien von Cloudflare ergeben, über den Zeitpunkt, zu dem Hyperdrive und damit verbundene Funktionen für aktuelle und potenzielle Kunden von Cloudflare allgemein verfügbar sein werden, über die technologische Entwicklung von Cloudflare, über die zukünftige Betriebstätigkeit, das Wachstum, die Initiativen oder Strategien von Cloudflare sowie Äußerungen unseres CEO und anderer zu verstehen. Die tatsächlichen Ergebnisse können erheblich von denjenigen abweichen, die in den zukunftsgerichteten Aussagen direkt oder indirekt angegeben wurden, was auf eine Reihe von Faktoren zurückzuführen ist – unter anderem auf die Risiken, die in den von Cloudflare bei der US-Börsenaufsicht SEC (Securities and Exchange Commission) eingereichten Unterlagen aufgeführt sind, einschließlich des Cloudflare-Quartalsberichts im Formular 10-Q, das am 3. August 2023 eingereicht wurde, sowie anderer Unterlagen, die Cloudflare gegebenenfalls bei der SEC einreicht.
Die in dieser Pressemitteilung getätigten zukunftsgerichteten Aussagen beziehen sich nur auf Ereignisse bis zu dem Datum, an dem sie gemacht wurden. Cloudflare übernimmt keine Verpflichtung, die in dieser Pressemitteilung getätigten zukunftsgerichteten Aussagen nachträglich zu aktualisieren, sodass sie Ereignisse, Umstände, neue Informationen oder unvorhergesehene Ereignisse berücksichtigen, die nach dem Datum dieser Pressemitteilung auftreten, sofern dies nicht gesetzlich vorgeschrieben ist. Es ist möglich, dass sich die dargelegten Pläne, Absichten oder Annahmen in den von Cloudflare getätigten zukunftsgerichteten Aussagen nicht realisieren, weshalb Sie sich nicht vorbehaltlos auf die zukunftsgerichteten Aussagen von Cloudflare verlassen sollten.
© 2023 Cloudflare, Inc. Alle Rechte vorbehalten. Cloudflare, das Cloudflare-Logo und weitere Cloudflare-Marken sind Marken und/oder eingetragene Marken von Cloudflare, Inc. in den USA und anderen Rechtsräumen. Alle anderen hier referenzierten Marken und Namen können Marken ihrer jeweiligen Eigentümer sein.