Hadoop wird mit In-Memory-Framework Spark zum Echtzeit-Tool
Aus dem Big-Data-Framework Hadoop wird durch das In-Memory-Framework Spark zu einer Echtzeitlösung. Es liefert im Vergleich zu Hadoop MapReduce eine 10- bis 100-mal bessere Leistung. Die Apache Software Foundation nahm Spark erst im Juni 2013 in das Inkubationsprogramm auf.
Die Apache Software Foundation hat mitgeteilt, dass das Framework Spark das Inkubationsprogramm verlassen hat und in Zukunft als Projekt der höchsten Stufe geführt wird. Spark ist ein In-Memory-Framework für verteiltes, clusterbasiertes Computing. Es basiert auf dem anderen wichtigen Apache-Projekt Hadoop.
Mit Spark wird aus Hadoop eine voll interaktive, verteilte In-Memory-Lösung. Programme sollen der Spark-Homepage zufolge “im Speicher bis zu 100-mal schneller als Hadoop MapReduce – und auf Disk immer noch 10-mal schneller” laufen können. Somit wird Hadoop zur Echtzeit-Engine.
Die Big-Data-Community hat den Schritt von Apache schon länger erwartet. Für die Community ist Spark ein wichtiger Trend. Das Framework soll dieses Jahr seinen Durchbruch erreichen. Das Projekt entstammt aus AMPLab der University of California in Berkeley. Durch das Start-up Databricks hat es mittlerweile kommerzielle Förderung erhalten. Darüber hinaus hat der führende Hadoop-Distributor Cloudera Spark ind die CDH aufgenommen. CDH steht für “Cloudera Distribution including Apache Hadoop”.
Erst im Juni 2013 hatte die Apache Software Foundation Spark in das Inkubationsprogramm aufgenommen. Die Stärken von Spark sind, dass es die Hadoop-2.0-Komponente YARN und das verwandte Projekt Shark nutzen kann. Zudem implementiert es eine SQL-on-Hadop-Engine, deren Syntax kompatibel zu Apache Hive ist. Dabei bietet es die gleichen Performancevorteilen wie gegenüber MapReduce.
Weitere Vorteile listet die Apache Software Foundation in einer Pressemeldung auf: So ermöglichen es Sparks APIs, Anwendungen schnell in Java, Python oder Scala zu schreiben. Und weiter heißt es: “Spark ist gut für maschinelles Lernen geeignet, für interaktive Daten-Abfragen und Stream-Processing. Es kann Daten aus HDFS, HBase, Cassandra ebenso wie aus beliebigen Hadoop-Datenquellen lesen.”
[mit Material von Florian Kalenda, ZDNet.de]
Tipp: Wie gut kennen Sie sich mit Open Source aus? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.