Suchen

Apache HAWQ wird Top-Level-Project SQL-on-Hadoop für den Enterprise-Einsatz

Autor / Redakteur: Thomas Joos / Stephan Augsten

Das Apache HAWQ-Projekt ist zu einem Top-Level-Projekt innerhalb der Apache Software Foundation geworden. Apache HAWQ ist eine Enterprise SQL-on-Hadoop Query Engine und Analysedatenbank, die erstmals im September 2015 in die Inkubationsphase der Stiftung eingetreten ist.

Firma zum Thema

Apache HAWQ ist bei einigen Unternehmen bereits seit Jahren im Einsatz, nun ist die kontinuierliche Weiterentwicklung gewährleistet.
Apache HAWQ ist bei einigen Unternehmen bereits seit Jahren im Einsatz, nun ist die kontinuierliche Weiterentwicklung gewährleistet.
(Bild: Apache.org)

Apache HAWQ wurde Mitte August zum Top-Level-Project erhoben. Künftig eignet sich die Lösung dementsprechend auch für den produktiven Einsatz. Der Top-Level-Status gewährleistet, dass das Projekt auch in Zukunft zuverlässig weiterentwickelt wird.

„Wir freuen uns sehr, Apache HAWQ als Top-Level-Projekt weiter zu entwickeln“, schreibt Lei Chang, Vice President von Apache HAWQ, und dankt im gleichen Atemzug allen, die am Inkubationsprojekt mitgearbeitet haben. „Dies ist ein großer Meilenstein, der den gemeinsamen Beitrag der wachsenden globalen Gemeinschaft zur Bereitstellung einer erstklassigen SQL-Engine für die Analyse widerspiegelt.“

Das Projekt nutzt technologische Fortschritte aus der MPP-Datenbank und kombiniert sie mit Funktionen von Apache Hadoop, um Daten aus dem Hadoop Distributed File System (HDFS) zu lesen und zu schreiben, erklärt die Stiftung. Mit Apache HAWQ profitieren Unternehmen, die Hadoop einsetzen, in dem eine Parallelverarbeitungsarchitektur genutzt wird. Dabei bietet HAWQ auch ANSI-SQL-Konformität.

Apache HAWQ ist aktuell unter anderem bei Alibaba, Haier, VMware und ZTESoft im produktiven Einsatz. „Wir verwenden Apache HAWQ bei VMware bereits seit vier Jahren“, sagt Dominie Jacob, leitender Dateningenieur bei VMware. Es lasse sich verhältnismäßig einfach verwalten und mit Apache Ambari skalieren: „Durch die Virtualisierung ist es unproblematisch, weitere Knoten je nach Bedarf bereitzustellen und anzubinden.“

Jacob bezeichnet HAWQ als die primäre Datenbank für den Zugriff auf die Hadoop-Datensätze, die Erstellung von Modellen und die Ausführung von prädiktiven Modell-Workflows. HAWQ arbeite nahtlos mit Milliarden von Datensätzen, Tausenden von Tabellen, Funktionen und Tableau-Berichten sowie Hunderten von Benutzern.

(ID:45477323)

Über den Autor

 Thomas Joos

Thomas Joos

Freiberuflicher Autor und Journalist