Cloudflare verbessert KI-Inferenzplattform mit leistungsstarkem GPU-Upgrade, schnellerer Inferenz, größeren Modellen, Beobachtbarkeit und aktualisierter Vektordatenbank

Nirgendwo lassen sich KI-Anwendungen leichter entwickeln und skalieren als auf Workers AI, wo ab sofort größere Modell eingesetzt und komplexere KI-Aufgaben ausgeführt werden

San Francisco (Kalifornien), 26. September 2024 – Cloudflare, Inc. (NYSE:NET), der führende Anbieter im Bereich Connectivity Cloud, stellt heute leistungsstarke neue Funktionen seiner Serverless-KI-Plattform Workers AI und seiner Bausteine zur Entwicklung von KI-Anwendungen vor, um die Erstellung schnellerer und leistungsfähigerer KI-Anwendungen zu unterstützen. Auf Workers AI erstellte Applikationen profitieren jetzt unter anderem von einer schnelleren Inferenz, größeren Modellen und einer besseren Performance-Analyse. Workers AI ist die Plattform, mit der sich am leichtesten globale KI-Anwendungen entwickeln und KI-Inferenzaufgaben in der Nähe der Nutzerinnen und Nutzer ausführen lassen, wo auch immer auf der Welt sich diese befinden.

Large Language Models (LLM) werden heute immer kleiner und leistungsstärker, weshalb sich bei der Gewährleistung von Kundenakzeptanz und reibungslosen Interaktionen mit der KI die Netzwerkgeschwindigkeit zu einer Engstelle entwickelt. Das über die ganze Welt verteilte Cloudflare-Netzwerk trägt dazu bei, die Netzwerklatenz zu minimieren. Dadurch hebt es sich von anderen Netzwerken ab, deren Ressourcen normalerweise auf eine begrenzte Zahl von Rechenzentren konzentriert sind. Die Serverless-Inferenzplattform von Cloudflare, Workers AI, verfügt nun über Grafikprozessoren in über 180 Städten rund um den Globus. So kann Endnutzerinnen und -nutzern überall auf der Welt ein latenzarmer Zugang geboten werden. Workers AI gehört dank dieses GPU-Netzwerks zu den KI-Plattformen mit der größten Reichweite überhaupt. Es ist darauf ausgelegt, KI-Inferenz in größtmöglicher Nähe zu den Nutzerinnen und Nutzern lokal auszuführen, damit Kundendaten näher am Standort verbleiben.

„Während der starken Verbreitung von KI im letzten Jahr hat niemand an die Netzwerkgeschwindigkeit als Ursache für KI-Latenz gedacht, weil es sich noch um eine neue und experimentelle Art der Interaktion handelte. Doch je mehr wir uns einer Zeit nähern, in der KI Teil unseres Alltags wird, desto mehr kommt es auf das Netzwerk und damit auf Millisekunden an“, so Matthew Prince, Mitgründer und CEO von Cloudflare. „Mit Verlagerung der KI-Workloads vom Trainieren zum Ausführen von Inferenz tritt die KI in ihre nächste Entwicklungsstufe ein. Für deren Unterstützung werden Performance und lokale Verfügbarkeit eine maßgebliche Rolle spielen. Cloudflare ist die globalste KI-Plattform auf dem Markt. Die Verfügbarkeit von GPU in Städten auf der ganzen Welt wird dafür sorgen, dass KI von einer Spielerei zu einem integralen Bestandteil des Alltags wird – also genau das, was das schnellere Internet für Smartphones bewirkt hat.“

Cloudflare führt außerdem neue Funktionen ein, die Workers AI zu der Plattform machen, auf der sich KI-Anwendungen am leichtesten entwickeln lassen:

  • Höhere Performance und stärkere Unterstützung für größere Modelle: Bei Cloudflare erweitern wir unser globales Netzwerk mit leistungsstärkeren Grafikkarten für Workers AI, um die Performance bei KI-Inferenz zu steigern und Inferenz auf deutlich größeren Modellen wie Llama 3.1 70B sowie einer Reihe von Llama 3.2-Modellen – 1B, 3B, 11B (und bald 90B) – auszuführen. Durch die Unterstützung größerer Modelle, kürzerer Reaktionszeiten und größerer Kontextfenster meistern KI-Anwendungen, die auf Workers AI entwickelt wurden, komplexere Aufgaben auf effizientere Weise. Das ermöglicht natürliche und reibungslose Endnutzererfahrungen.
  • Bessere Überwachung und Optimierung der KI-Nutzung dank dauerhafter Protokolle: Neue dauerhafte Protokolle bei AI Gateway sind in der Open Beta-Version verfügbar und erlauben es Entwicklerinnen und Entwicklern, die Prompts von Nutzerinnen und Nutzern sowie die Antworten der Modelle für einen längeren Zeitraum zu speichern. So können sie besser analysieren und verstehen, wie gut ihre Applikation funktioniert. Dauerhafte Protokolle bieten Entwicklerinnen und Entwicklern tiefere Einblicke in Nutzererfahrungen, einschließlich der Kosten und der Dauer der Anfragen. Anhand dieser Informationen lässt sich die Anwendung anschließend weiter optimieren und nachjustieren. Mehr als zwei Milliarden Anfragen haben AI Gateway seit Einführung der Lösung im vergangenen Jahr durchlaufen.
  • Schnellere und erschwinglichere Abfragen Vektordatenbanken helfen den Modellen, sich an frühere Eingaben zu erinnern, sodass maschinelles Lernen für Suchen, Empfehlungen und für Texterstellung eingesetzt werden kann. Die Vektordatenbank von Cloudflare, Vectorize, ist jetzt allgemein verfügbar und unterstützt mit Stand von August 2024 Indizes mit jeweils bis zu fünf Millionen Vektoren (zuvor waren es nur 200.000). Die mittlere Abfragelatenz hat sich von 549 Millisekunden (ms) auf 31 ms verringert. Dank dieser Verbesserungen sind KI-Anwendungen in der Lage, die benötigten Informationen schnell und mit weniger Datenverarbeitungsaufwand zu finden, was sie auch erschwinglicher macht.

Eingehender zu diesem Thema informieren können Sie sich hier:

Über Cloudflare

Cloudflare, Inc. (NYSE: NET) ist der führende Anbieter im Bereich Connectivity Cloud und hat es sich zur Aufgabe gemacht, ein besseres Internet zu schaffen. Mit uns verhelfen Unternehmen ihren Mitarbeitenden, Anwendungen und Netzwerken überall zu größerer Schnelligkeit und besserem Schutz. Gleichzeitig verringern sie die Komplexität und sparen Kosten. Die Connectivity Cloud von Cloudflare bietet die umfassendste Plattform für cloudnative Produkte und Entwicklertools am Markt. Damit kann sich jedes Unternehmen die für die Arbeit, Produktentwicklung und schnellere Geschäftserfolge erforderliche Kontrolle verschaffen.

Aufbauend auf einem der größten und am stärksten verflochtenen Netzwerke der Welt schirmt Cloudflare Kunden täglich vor Milliarden von Online-Bedrohungen ab. Millionen von Organisationen vertrauen auf Cloudflare – von den größten Marken über Existenzgründerinnen und -gründer, kleine und mittelständische Betriebe bis hin zu gemeinnützigen Einrichtungen, Hilfsorganisationen und Behörden auf der ganzen Welt.

Mehr über die Connectivity Cloud von Cloudflare erfahren Sie unter cloudflare.com/de-de/connectivity-cloud. Tiefere Einblicke in aktuelle Internettrends und -erkenntnisse erhalten Sie bei https://radar.cloudflare.com.

Hier können Sie uns folgen: Blog | X | LinkedIn | Facebook | Instagram

Zukunftsgerichtete Aussagen

Diese Pressemitteilung enthält zukunftsgerichtete Aussagen im Sinne von Abschnitt 27A des „Securities Act of 1933“ der Vereinigten Staaten in seiner geänderten Fassung und Abschnitt 21E des „Securities Exchange Act of 1934“ der Vereinigten Staaten in seiner geänderten Fassung, die mit erheblichen Risiken und Unsicherheiten behaftet sind. In einigen Fällen lassen sich zukunftsgerichtete Aussagen daran erkennen, dass sie Wörter wie „können“, „werden“, „sollten“, „erwarten“, „erkunden“, „planen“, „voraussehen“, „könnten“, „beabsichtigen“, „anstreben“, „prognostizieren“, „erwägen“, „glauben“, „schätzen“, „vorhersagen“, „potenziell“ oder „fortsetzen“ oder die Verneinung dieser Wörter oder ähnliche Begriffe oder Ausdrücke enthalten, die sich auf die Erwartungen, Strategien, Pläne oder Absichten von Cloudflare beziehen. Allerdings enthalten nicht alle zukunftsgerichteten Aussagen diese Signalwörter. Unter zukunftsgerichteten Aussagen, die in dieser Pressemitteilung direkt oder indirekt getätigt werden, sind unter anderem Aussagen über die Funktionen und die Effektivität von Workers AI, AI Gateway, Vectorize, R2 und anderen Produkten und Technologien von Cloudflare, über die Vorteile, die sich für Kunden aus der Nutzung von Workers AI, AI Gateway, Vectorize, R2 und anderen Produkten und Technologien von Cloudflare ergeben, über den Zeitpunkt, zu dem Workers AI, AI Gateway, Vectorize, R2 und damit verbundene Funktionen allgemein für aktuelle und potenzielle Kunden von Cloudflare verfügbar sein werden, über die technologische Entwicklung, die zukünftige Betriebstätigkeit, das Wachstum, die Initiativen oder Strategien von Cloudflare sowie Äußerungen unseres CEO und anderer zu verstehen. Die tatsächlichen Ergebnisse können erheblich von denjenigen abweichen, die in den zukunftsgerichteten Aussagen direkt oder indirekt angegeben wurden, was auf eine Reihe von Faktoren zurückzuführen ist – unter anderem auf die Risiken, die in den von Cloudflare bei der US-Börsenaufsicht SEC (Securities and Exchange Commission) eingereichten Unterlagen aufgeführt sind, einschließlich des Cloudflare-Quartalsberichts im Formular 10-Q, das am 1. August 2024 eingereicht wurde, sowie anderer Unterlagen, die Cloudflare gegebenenfalls bei der SEC einreicht.

Die in dieser Pressemitteilung getätigten zukunftsgerichteten Aussagen beziehen sich nur auf Ereignisse bis zu dem Datum, an dem sie gemacht wurden. Cloudflare übernimmt keine Verpflichtung, die in dieser Pressemitteilung getätigten zukunftsgerichteten Aussagen nachträglich zu aktualisieren, sodass sie Ereignisse, Umstände, neue Informationen oder unvorhergesehene Ereignisse, die nach dem Datum dieser Pressemitteilung auftreten, berücksichtigen, sofern dies nicht gesetzlich vorgeschrieben ist. Es ist möglich, dass sich die dargelegten Pläne, Absichten oder Annahmen in den von Cloudflare getätigten zukunftsgerichteten Aussagen nicht realisieren, weshalb Sie sich nicht vorbehaltlos auf die zukunftsgerichteten Aussagen von Cloudflare verlassen sollten.

© 2024 Cloudflare, Inc. Alle Rechte vorbehalten. Cloudflare, das Cloudflare-Logo und weitere Cloudflare-Marken sind Marken und/oder eingetragene Marken von Cloudflare, Inc. in den USA und anderen Rechtsräumen. Alle anderen Marken und Namen, auf die hier Bezug genommen wird, können Marken der jeweiligen Eigentümer sein.

Presse-Kontaktdaten
Daniella Vallurupalli
+1 650-741-3104