Hortonworks bringt neue Produkte und sonnt sich im Erfolg
Beim diesjährigen DataWorks Summit, den Hadoop-Spezialist Hortonworks in München durchführte, stand neben der aktuellen Variante von Hortonworks Data Flow auch die erfolgreiche Geschäftsentwicklung im Fokus. Die Börse honorierte das bisher nicht.
“Wir wachsen seit 2014 jährlich mit über 50 Prozent”, berichtete Hortonworks-Strategiechef Sean Connolly vergangene Woche vor der Presse in München. Es gebe einen dicken Auftragsüberhang von rund 184 Millionen Dollar aus dem Jahr 2016. Jeder Auftrag erzeuge Folgeaufträge, die den Wert der primären Order übersteige. Der Umsatz von Hortonworks kommt zu zwei Dritteln durch Produkte zustande, nur zu einem Drittel durch diverse Services.
Connolly kündigte an, man werde verstärkt in Forschung und Entwicklung investieren und zudem die Geschäfte vor allem in Deutschland, Österreich, der Schweiz, Frankreich und Großbritannien ankurbeln. “Wir gehen davon aus, dass wir schon gegen Ende 2017 beim Betriebsgewinn den positiven Bereich erreichen”, so Connolly – das sei ein Jahr früher als ursprünglich vorgesehen und ein Beweis dafür, dass Hortonworks mit seiner offenen Produktstrategie richtig liege.
Zielgruppe des Unternehmens sind weiterhin ausschließlich professionelle Anwender, beispielsweise Industrieunternehmen, die ihre Produktionsabläufe durch Industrie-4.0-Ansätze stärker automatisieren wollen. Dieser Markt ist besonders in Deutschland stark, wie Connolly betonte. Hier habe sich die Zögerlichkeit der Deutschen sogar als vorteilhaft erwiesen, weil die hiesigen Anwender in Hadoop “erst mit Version 2.0” eingestiegen seien, die viele Probleme der primären Releases bereits nicht mehr aufwies.
Die Börse beeindruckt das bislang wenig. Zwar ist Hortonworks “seit Red Hat das erste reine Open-Source-Softwareunternehmen, das an die Börse geht” (Connolly), das scheint jedoch dem Kurs bisher keine Flügel zu verleihen, er dümpelt noch immer um den ersten Kurs und notierte im Herbst sogar weit darunter.
Von den Erfolgsaussichten des Spezialisten für Open-Source-Datenanalyse zeigte sich der frischgebackene COO und Präsident Raj Verma nichtsdestotrotz überzeugt. Er arbeitete zuvor längere Zeit für Tibco. Verma: “Open Source gehört die Zukunft – die Aufgaben bei der Softwareentwicklung sind für eine Firma einfach zu komplex geworden.” Unternehmen, die in proprietäre Software investierten, setzten sich, wenn sie umsteigen wollten, hohen Kosten aus, die bei Open-Source-Lösungen erheblich geringer ausfielen, weil keine Lizenzen zurückgegeben beziehungsweise ihr Ablauf abgewartet werden muss.
Gegenbeispiele wie die Stadt München, die ihren Umstieg auf Linux vor einigen Jahren inzwischen rückgängig gemacht hat, beeindruckten Verma wenig. “Junge Softwareprogrammierer wachsen mit GitHub und Open Source auf, das ist inzwischen einfach der Weg, wie man Dinge tut.”
Auf Nachfrage gab es noch ein paar Ausblicke auf den Umgang mit nichttechnischen Einflussfaktoren. So ließ COO Verma vernehmen, man werde, Brexit hin oder her, auf jeden Fall das europäische Headquarter in London belassen, so lange nicht umsatzstarke Kernkunden die britische Hauptstadt verließen – etwa große Player aus dem Bankenwesen und der Telekommunikation. Das legt den Umkehrschluss nahe, dass, wenn derartige Schritte erfolgen, Hortonworks unter Umständen hinterherzieht.
Hinsichtlich der Drohungen mit einer protektionistischen Handelspolitik ist Verma nicht bange: Man verkaufe schließlich keine Softwarelizenzen, und Serviceeinheiten seien in jedem Land implementiert. Schon weniger angenehm sei die Visapolitik des neuen US-Präsidenten Trump, weil sie Verunsicherung schaffe.
Ergänzungen und Verbesserung in der aktuellen Version von Hortonworks
Einige handfeste Neuigkeiten hatte Hortonworks auch im Gepäck. So kommt die Data-at-Rest-Plattform HDF (Horton DataPlatform) nun in Version 2.6 auf den Markt, angereichert durch die aktuellen Versionen einiger Apache-Tools. Zusammen mit der Plattform für Streaming-Daten, Hadoop Data Platform (HDF) und der derzeit unter Microsoft Azure und Amazon AWS verfügbaren Integrationsplattform HDInsight ergebe sich eine integrierte Lösung, die es ermögliche, ruhende und Streaming-Daten gemeinsam auszuwerten und die Ergebnisse der Analysen zu handlungsleitenden Erkenntnissen zu verdichten.
Ein Beispiel für die Ergänzungen und Verbesserung der aktuellen Version: Weil mit dem Aufkommen von IoT-Anwendungen das Edge-Computing immer wichtiger wird, hat Hadoop auch Apache Minifi in die Lösung eingebaut. Minifi bietet Teilfunktionen von Apache Nifi, einem Projekt, bei dem es um die Definition und Steuerung von Datenströmen im IoT-Umfeld geht. Minifi sammelt Daten der Endgeräte und kann sie grundlegend analysieren, hat aber keine aktiven Steuerungsfunktionen.
Die neue Variante enthält zudem den Clustermanager Spark 2.1. Mit “Zeppelin” ist auch ein neues, Browser-basierendes Online-Notizbuch integriert. Damit können Anwender gemeinsam interaktiv neuen Code schreiben. Mit der neuen Spark-Variante kann man verspätet eintreffende Ereignisse nachträglich zum richtigen Zeitpunkt in die betreffenden Streams einsortieren. Der Fachbegriff dafür heißt Event Watermarking.
Verteilte Streaming-Plattformen sind nun durch Kafka ebenfalls möglich, freilich lässt die sehr frühe Version 0.1 noch einige Änderungen erwarten. Zudem wird diese Variante “Cloud first” realisiert, zuerst wird also von Hortonworks in die Cloud implementiert, wer die Lösung in Eigenregie betreiben will, muss etwas länger abwarten.
Einstieg in das Geschäft mit vorkonfigurierten Gesamtlösungen
Die zweite Produktneuerung besteht im Einstieg in das Geschäft mit vorkonfigurierten Gesamtlösungen. Als erste dieser Lösungen stellte Hortonworks in München ein optimiertes Enterprise Data Warehouse vor, bei dem alles bis auf die Kernaufgaben in spezialisierte, an die eigentliche Warehouse-Lösung bereits angedockte Softwareschichten und –module ausgelagert ist. Sie kommen teils von Hortonworks/Apache, teils von Softwarepartnern.
Die Lösung soll, einmal bestellt, innerhalb von nur sieben Wochen fertig konfiguriert beim Endkunden sein. Durch die Auslagerung vieler Funktionen in spezielle Tools werde das Gesamtsystem erheblich flexibler und schneller, erklärte CTO Scott Gnau. Die Lösung besteht aus einem Syncsort-Modul für Datenvorbereitung und –import in Hadoop, darüber liegt mit Hive LLAP eine Schicht, die Hochleistungs-SQL-Datamarts ermöglicht und darüber mit der AtScale Intelligence Platform ein Werkzeug zum Erstellen von Cubes.
Studie zu Filesharing im Unternehmen: Kollaboration im sicheren und skalierbaren Umfeld
Im Rahmen der von techconsult im Auftrag von ownCloud und IBM durchgeführten Studie wurde das Filesharing in deutschen Unternehmen ab 500 Mitarbeitern im Kontext organisatorischer, technischer und sicherheitsrelevanter Aspekte untersucht, um gegenwärtige Zustände, Bedürfnisse und Optimierungspotentiale aufzuzeigen. Jetzt herunterladen!
Die Analyseergebnisse lassen sich mit Tools wie Qlik oder Tableau darstellen. Weitere spezialisierte Lösungen sollen folgen. Angepeilt werden die Anwendungsgebiete Cybersecurity – ein weiterer Investitionsschwerpunkt – und IoT sowie die Branchen Automotive und Manufacturing, weil dort die Prozesse hinreichende Ähnlichkeit besitzen, um für einen Standardisierungs-Ansatz in Form vorgebauter Lösungen zu taugen. Über den genauen Zeitpunkt, wann solche Lösungen verfügbar sind, sagte Hortonworks noch nichts.
Das Partnernetzwerk soll ausgebaut werden. Heute spielen darin beispielsweise HPE, Dell EMC und auch IBM eine wichtige Rolle, denn inzwischen ist Hortonworks teils auch auf Power-Hardware verfügbar. Das ist interessant – verfolgt doch IBM mit Watson auf diesem Geschäftsfeld ausgeprägte eigene Interessen. Man darf also gespannt sein, wie sich die gemeinsamen Vertriebsaktivitäten in Zukunft entwickeln.
Schließlich erhielten einige Kunden den erstmalig vergebenen “Data Heroes Award” – zu ihnen gehörten mit ABN Amro, Danske Bank, Centrica, BMW und Walgreens Bots vor allem etablierte große Konzerne, die durch Big Data Analytics noch erfolgreicher werden wollen.