Cloudflare und NVIDIA kooperieren bei KI-Bereitstellung Machine Learning über globales Edge-Netzwerk
Das Edge-Netzwerk von Cloudflare soll künftig leistungsfähige KI- und Machine-Learning-Tools für Entwickler bereitstellen. Hierfür arbeitet das Unternehmen ab sofort eng mit NVIDIA zusammen.
Anbieter zum Thema

Machine-Learning-Modelle werden bei der Anwendungsentwicklung immer wichtiger, eine beliebte Plattform ist dabei das TensorFlow-Framework. Entwickler können ihre darüber erstellten und getesteten Machine-Learning-Modelle künftig global über das Edge-Netzwerk von Cloudflare bereitstellen.
Bisher wurden Modelle für maschinelles Lernen auf zentralisierten Servern oder über Cloud-Dienste bereitgestellt, die sie auf „Regionen“ auf der ganzen Welt beschränkten. Dies soll sich dank der Zusammenarbeit von Cloudflare und NVIDIA ändern: Durch die Verlagerung von ML an die Edge soll jedermann von KI mit hoher Leistung und geringer Latenz profitieren können.
Cloudflare selbst nutzt „NVIDIA Accelerated Computing“ und darf diese Technologie jedem Entwickler über die sogenannten Cloudflare Workers zur Verfügung stellen. Die von den Entwicklern bereitgestellten Machine-Learning-Modelle verbleiben dabei in den Rechenzentren von Cloudflare. So könnten sie laut Anbieter das Risiko umgehen, benutzerdefinierte Modelle auf Endnutzergeräte zu bringen, wo sie gestohlen werden könnten.
Matthew Prince, Mitbegründer und CEO von Cloudflare, meint dazu: „Cloudflare Workers ist eines der schnellsten und am weitesten verbreiteten Edge-Computing-Produkte, bei dem die Sicherheit in der DNA verankert ist.“
(ID:47339996)