Sortierung: Neueste | Meist gelesen
Commits und Tests mit AWS CodeCommit und CodeBuild

CI/CD-Pipeline mit AWS-Tools, Teil 2

Commits und Tests mit AWS CodeCommit und CodeBuild

13.02.19 - Ein neues Projekt ist in AWS CodeStar schnell erstellt. Umgehend kann man in den einzelnen Stufen experimentierten, z. B. mit neuen Commits zu Feature-Upgrades beitragen oder Unit-Tests implementieren. CodeStar visualisiert dabei den Projekt-Status und unterstützt die Tool-Integration.

lesen
Metadaten-Index für einen Data Lake in AWS

Tools und Workflows zur Datenspeicherung in der Cloud, Teil 5

Metadaten-Index für einen Data Lake in AWS

04.02.19 - Um Daten in einem S3-basierten Data Lake sinnvoll durchsuchen zu können, müssen diese im Moment des Hinzufügens indiziert werden. Mit serverlosen Lambda-Funktionen lässt sich so ein Vorgang automatisieren. Für den eigentlichen Index verwenden wir eine DynamoDB-Datenbank, weil diese hochverfügbar ist und Zugriffszeiten im unteren Millisekundenbereich ermöglicht.

lesen
DevOps-Projekte mit AWS CodeStar erstellen

CI/CD-Pipeline mit AWS-Tools, Teil 1

DevOps-Projekte mit AWS CodeStar erstellen

28.01.19 - Im Jahr 2017 hat AWS den Dienst AWS CodeStar vorgestellt. Dieser soll das Einrichten und Betreiben von Continuous-Integration- und Continuous-Delivery-Pipelines besonders komfortabel machen. Ein solches Szenraio spielen wir hier durch.

lesen
Data-Ingest mit AWS Kinesis Data Firehose

Tools und Workflows zur Datenspeicherung in der Cloud, Teil 4

Data-Ingest mit AWS Kinesis Data Firehose

23.01.19 - Im Rahmen einer Data-Lake-Strategie sind mehrere Möglichkeiten vorstellbar, wie die zu verarbeitenden Daten nach AWS S3 gelangen. Soll oder muss dies in Echtzeit erfolgen, ist eine verwaltete Streaming-Lösung wie AWS Kinesis eine gute Wahl. Dann muss nur noch die Frage beantwortet werden, wie man die Daten mit einem Index versieht.

lesen
Metadaten im AWS-S3-basierten Data Lake

Tools und Workflows zur Datenspeicherung in der Cloud, Teil 3

Metadaten im AWS-S3-basierten Data Lake

14.01.19 - AWS S3 stellt eine gute wenn nicht die perfekte Lösung für den Primärspeicher im Zuge einer Data-Lake-Strategie dar. In diesem Beitrag wollen wir uns der Umsetzung zuwenden. Dabei beginnen wir mit der Daten-Aufnahme, dem Data-Ingest.

lesen
Chef-Cookbooks im Einsatz

AWS OpsWorks for Chef Automate, Teil 3

Chef-Cookbooks im Einsatz

10.12.18 - Um mit Chef richtig zu arbeiten, müssen wir ein Cookbook mit zugehörigen Rezepten erstellen. In diesem Anwendungsbeispiel werden wir auf einem Linux-Server zur Laufzeit exemplarisch eine neue Webanwendung mit Hilfe eines Chef-Rezepts bootstrappen.

lesen

Kommentare