Cloudflare R2 Storage – ein verteilter Objektspeicher ohne Egress-Kosten – stellt eine wichtige Infrastruktur für führende Anbieter von generativer künstlichen Intelligenz (KI) bereit. Diese Partnerschaften helfen KI-Infrastrukturunternehmen dabei, sich nicht fest an bestimmte Anbieter binden zu müssen und das Training von Modellen generativer KI zugänglich und erschwinglich machen.
Generative KI stützt sich auf leistungsstarke GPUs für eine effiziente parallele Verarbeitung. Mit Cloudflare Workers AI können Benutzer Machine Learning-Modelle auf serverlosen GPUs innerhalb des globalen Netzwerks von Cloudflare einsetzen. Da Startups im Bereich der generativen KI, die KI-Modelle trainieren, mit Engpässen bei der Rechenkapazität von Cloud-Anbietern konfrontiert sind, sorgt Cloudflare für Flexibilität, indem es R2 als Objektspeicher für Trainingsdaten verwendet. So können Kunden den besten GPU-Cloud-Anbieter auf der Grundlage von Kapazität, Kosten und Performance ohne Gebühren für die Datenübertragung auswählen.
„Hier bei CoreWeave entwickeln wir Infrastrukturen für rechenintensive Anwendungsfälle und ermöglichen es Unternehmen, die Art und Weise, wie wir mit Technologie umgehen, durch generative KI und LLMs zu verändern. Durch diese Spezialisierung erhalten unsere Kunden Zugang zu der Anzahl und Vielfalt an GPUs, die sie benötigen, und zwar auf einer Infrastruktur, die speziell für die Performance, Agilität und Effizienz entwickelt wurde, die KI-Workloads benötigen. Durch die Partnerschaft mit R2 Storage von Cloudflare können wir das Data-Lock-in, die durch ausufernde Egress-Gebühren bei Hyperscalern verursacht wird, weiter verringern und Multi-Cloud für Unternehmen, die davon profitieren, auf sinnvolle Weise ermöglichen.“
Max Hjelm
Vice President, Sales