Mehr Leistung und Nachhaltigkeit bei KI Leistungsstärke statt Leistungshunger bei Künstlicher Intelligenz
Gesponsert von
Unternehmen erwarten schnellere und präzisere Problemanalysen und beschleunigte Prozesse von KI-Lösungen. Im Gegenzug benötigt KI umfangreiche Ressourcen. Mit modernen CPUs wie der 4. Generation der Intel® Xeon® Prozessoren können Leistung, Effizienz und Sicherheit von Servern und Cloud-Diensten für KI-Lösungen deutlich optimiert werden. Die neuen Prozessoren werden bereits für KI-Plattformen eingesetzt.

„Schon heute kann man sagen, dass Künstliche Intelligenz die Technologie des Jahres 2023 sein wird. In den kommenden Jahren wird KI die Welt stärker verändern, als es eine so große Innovation wie das Smartphone getan hat“, so Achim Berg, Präsident des Digitalverbands Bitkom.
Damit KI aber die hohen Erwartungen erfüllen kann, müssen die Unternehmen die dafür notwendigen Voraussetzungen erfüllen. Als Hemmnisse für den KI-Einsatz in Unternehmen gelten insbesondere fehlende personelle Ressourcen sowie fehlende Daten, die Verunsicherung durch rechtliche Hürden und mangelndes technisches Know-how, wie eine Bitkom-Umfrage zeigt.
Nicht vergessen werden sollten dabei die hohen Ansprüche an die Hardware, die mit den Workloads der KI-Anwendungen einhergehen. Die anstehenden Investitionen für spezialisierte Server lassen Unternehmen zögern, viele denken darüber nach, KI aus einer Cloud zu beziehen. Doch auch dort entstehen Kosten, die bei den knappen IT-Budgets zur Herausforderung werden können. Auf KI zu verzichten, ist aber keine Option, denn der Einsatz von KI kann in Zukunft über die Wettbewerbsfähigkeit entscheiden.
Das Ziel: Mehr Effizienz bei KI-Nutzung
Wie es um die Leistung, den Energieverbrauch und die entstehenden Kosten bei Servern im eigenen Rechenzentrum oder in der Cloud steht, hängt maßgeblich von der Effizienz der eingesetzten Prozessoren ab.
Die neue, 4. Generation skalierbarer Xeon Prozessoren stellt Intels nachhaltigste CPU-Reihe für Rechenzentren dar. Sie bieten zahlreiche Funktionen zur Optimierung des Stromverbrauchs und der Leistung, um die CPU-Ressourcen optimal nutzen zu können.
Verglichen mit früheren Prozessor-Generationen können Unternehmen von Servern mit der neuen Prozessorreihe eine 2,9-fache Verbesserung der durchschnittlichen Leistung pro Watt für bestimmte Workloads erwarten, indem sie die integrierten Beschleuniger nutzen. Zudem bieten sich den Anwenderunternehmen zwischen 52 und 66 Prozent niedrigere Gesamtbetriebskosten (TCO, Total Cost of Ownership).
So steigen Leistung und Effizienz bei KI
Möglich werden die Steigerungen bei Effizienz und Leistung unter anderem durch die in die Prozessoren integrierte Beschleunigung für die am schnellsten wachsenden Workloads, zu denen KI zählt.
Die KI-Beschleuniger von Intel verbessern Inferenz und Training ohne zusätzliche Hardware: Intel Advanced Matrix Extensions (Intel AMX) beschleunigen Deep-Learning-Training und -Inferenz erheblich, wichtig für Anwendungen wie die Verarbeitung von natürlicher Sprache, Empfehlungssysteme und Bilderkennung. Intel Advanced Vector Extensions 512 (Intel AVX-512) können klassisches maschinelles Lernen und andere Aufgaben im End-to-End-KI-Workflow, wie die Datenvorbereitung, beschleunigen.
Im Ergebnis erreicht die neue Prozessor-Generation im Vergleich zur vorherigen eine bis zu zehnmal höhere PyTorch-Echtzeit-Inferenz- und Trainingsleistung. Bei umfangreichen Sprachmodellen erhalten Anwenderunternehmen einen bis zu 20-fachen Geschwindigkeitszuwachs. Mit der Intel KI-Software-Suite können Unternehmen zudem das KI-Tool ihrer Wahl verwenden, die Produktivität steigern und die KI-Entwicklungszeit verkürzen.
KI-Optimierung in der Praxis
„Intels Xeon Prozessoren der 4. Generation liefern das, was Kunden wirklich wollen: führende Leistung und Zuverlässigkeit innerhalb einer sicheren Umgebung für ihre konkreten Anforderungen. Damit sorgen sie für eine schnellere Amortisation sowie ein höheres Innovationstempo“, erklärte Sandra Rivera, Intel Executive Vice President und General Manager der Datacenter und AI Group.
Die Zukunftstechnologien rund um KI können schon heute von den Vorteilen der neuen Intel Prozessor-Generation profitieren. So setzt zum Beispiel die Machine-Learning-Plattform der Alibaba-Cloud (PAI) skalierbare Intel Xeon Prozessoren der 4. Generation mit Intel AMX und Optimierungstools ein, um das End-to-End-Inferencing gegenüber einer Plattform der vorherigen Generation zu verbessern.
Eine schnellere End-to-End-Leistung führt zu besseren Geschäftsergebnissen für Alibabas Kunden in den Bereichen Logistik, E-Commerce, Energie, Einzelhandel und Finanzen. Intel AMX reduziert dabei den Overhead, den Alibaba hätte, wenn das Unternehmen dedizierte Beschleuniger wie unabhängige GPUs eingesetzt hätte. Mithilfe eines integrierten Beschleunigers kann Alibaba die Gesamtbetriebskosten (TCO) seines KI-basierten Adressreinigungsdienstes besser kontrollieren.
(ID:49502864)