Der Kostendruck auf die Unternehmens-IT spitzt sich in vielen Branchen zu, nicht zuletzt durch die Turbo-Digitalisierung infolge der Corona-Krise. Big Data Workloads sind dagegen natürlich nicht ganz immun. Die Containerisierung von Big-Data-Anwendungen soll Abhilfe schaffen – doch wie?
Anwenderkonferenz im Zeichen der Covid-19-Pandemie: Amazon Web Services lud in diesem Jahr zum virtuellen „AWS Summit EMEA“ – ohne Lightshow und Musik und ohne Marketing-Geschrei. Die Botschaft lautete: Die Cloud lohnt sich umso mehr, wenn man nicht nur die Infrastruktur, sondern auch die Services des Anbieters in Anspruch nimmt.
Unternehmen benötigen geeignete Lösungen, um heterogene Daten schnell zu erfassen und analysieren zu können. Viele Gründe sprechen dabei für einen Data Lake, der sich relativ einfach einrichten lässt und für die Anforderungen an die Zukunft ein einheitliches, gemeinsames Datenreservoir für große Unternehmen darstellt.
Die Analyse sicherheitsrelevanter Vorfälle bei Unternehmen unter Umständen mit gleich mehreren AWS-Konten und in heterogenen Umgebungen ist komplex. Amazon Detective bietet für diese Aufgabe einen verwalteten Dienst, mit dem Nutzer automatisiert große Mengen Log-Daten verschiedener Accounts sammeln und auswerten können.
Die drei Analytik-Anbieter SAS, Exasol und Amazon Web Services haben den Sport als Wachstumsmarkt entdeckt. Zudem sind Organisationen wie die Deutsche Bundesliga auf Innovationen bei ihren Zuschauerangeboten angewiesen, um konkurrenzfähig zu bleiben. Mit den Lösungen der drei Anbieter reicht das Angebot von der einfachen Sportgrafik bis hin zu KI-basierten Angaben und Vorhersagen, die in Echtzeit angezeigt werden.
In einer zunehmend vernetzten Welt ergeben sich für Unternehmen und Einzelpersonen immer mehr Möglichkeiten, über Landesgrenzen, Zeitzonen und verschiedene Kanäle hinweg zu interagieren. Um solche Transaktionen zu unterstützen ist es wichtig, proaktive Maßnahmen zur Minimierung von Kosten, Reduzierung von Risiken und zur Vermeidung von Ineffizienzen zu ergreifen.
In den ersten beiden Teilen des Artikels ging es um die optimale Analyse von Echtzeitdaten mithilfe der Cloud. Dabei wurden in Echtzeit einlaufende Geoinformationen und Bezahldaten eines Taxiunternehmens in New York untersucht. Neben solchen Dashboard-Betrachtungen sind oftmals zusätzlich Langzeitanalysen von historischen Daten sinnvoll und gewünscht.
Im ersten Teil des Artikels ging es um die optimale Analyse von Echtzeitdaten mithilfe der Cloud. Dabei werden beispielhaft in Echtzeit einlaufende Geoinformationen und Bezahldaten eines Taxiunternehmens in New York untersucht. Durch die Vorverarbeitung der Daten musste zunächst für eine ausreichende Datenqualität gesorgt werden. Im nächsten Schritt geht es nun darum, die Daten miteinander zu verglichen, um Ausreißer zu identifizieren.
In dieser dreiteiligen Artikelserie betrachten wir anhand einer konkreten Beispielanwendung den Aufbau einer Architektur zur Analyse von Echtzeitdaten mit AWS. Wir diskutieren, wie durch das Zusammenspiel verschiedener Dienste Aspekte der Echtzeitanalyse und der langfristigen Analyse von Daten flexibel kombiniert werden können.
Das südafrikanische Startup Custos wurde 2013 gegründet und nutzt die Blockchain, um die Piraterie von Filmen, eBooks und vertraulichen Dokumenten einzudämmen.