Zielgruppe von Small Volume Hadoop sind Anwender, die schnell eine Hadoop-Umgebung zu Testzwecken oder für kleinere Projekte brauchen.

Zielgruppe von Small Volume Hadoop sind Anwender, die schnell eine Hadoop-Umgebung zu Testzwecken oder für kleinere Projekte brauchen.
In einer exklusiven Partnerschaft wollen der deutsche SAP-Daten-Spezialist Datavard und der Hadoop-Spezialist Cloudera ihre Angebote integrieren.
Eine der modernen Mythen rund um Hadoop lautet, dass die quelloffene Technologie vor allem mit sehr großen Datenmengen zum Einsatz kommt. Andreas Gödde von SAS rückt diese Annahme in seinem ersten Blog für silicon.de zurecht.
Die wachsende Flut an Daten stellt auch Entwickler vor neue Herausforderungen. Otto Neuer von Talend sieht zwei Möglichkeiten manuelles Codieren oder der Einsatz von Standard-Lösungen.
Die Talend Data Integration Platform unterstützt MapR Streams, wodurch sich Leistung und Zuverlässigkeit von Big-Data-Anwendungen verbessern soll.
Über einen ortsunabhängigen Zugriff auf persistente Daten will Docker die Containerisierung von neuen und bestehenden Anwendungen vereinfachen.
Cloudera hat seine Hadoop-Plattform zwar nicht allein auf IoT ausgelegt, doch bilden IoT-Anwendungen ein Haupteinsatzfeld – hier arbeitet der Softwarespezialist eng mit Intel zusammen. silicon.de betrachtet die Partnerschaft näher und ...
Mit einem neuen Service auf dem AWS-Marketplace sollen Anwender schnell Data-Analytics-Anwendungen in der Cloud auf Basis quelloffener Technologien realisieren können.
Anwender können in der neuen Pentaho-Version Visualisierungen bereits in ETL-Ansichten visualisieren. Das beschleunige die Auswertung.
Der Datenintegrations-Spezialist Talend stellt ein vorkonfiguriertes Toolkit vor, über das Entwickler mit Technologien wie Hadoop, Spark oder auch Machine Learning experimentieren können.
Ungeahnte Möglichkeiten bietet das Internet der Dinge. Beinahe jede Branche kann davon profitieren. Die großen Anbieter wie IBM, SAP oder HPE gehen diesen Riesenmarkt mit jeweils ganz eigenen Ansätzen an. Wir stellen die wichtigsten vo ...
Sie wird vom australischen FutureFund angeführt, der neu als Investor dazugekommen ist, aber von allen bisherigen Geldgebern, darunter auch Google Ventures und Qualcomm Ventures mitgemacht. Insgesamt hat der Hadoop-Spezialist damit nun ...
Ein Spezialist für Data Discovery und Operational Analytics soll das Portfolio des On-Demand-ERP-Anbieters Workday erweitern. Über Platfora können Anwender auf Transaktionsebene Datensätze analysieren, Daten vorbereiten und automatisie ...
In München eröffnet der Big-Data-Anbieter und Hadoop-Spezialist Cloudera das erste Büro in der Region Deutschland, Österreich, Schweiz. Es wird von Martin Czermin, Senior Director Central &Eastern Europe bei Cloudera geleitet.
Hortonworks kündigt Funktionserweiterungen für Hortonworks Data Platform an. Parallel dazu kündigt auch der Data-Wrangling-Spezialist Trifacta eine tiefe Integration mit Hortonworks an.
Die Prozessing Engine Spark soll künftig für Anwendungsentwickler und Data Scientists einfacher zu handhaben sein. Über ein automatisiertes Deployment, Code-Frameworks und Client-APIs vereinfache sich der Einsatz von Spark und eröffnet ...
Als Compute-Engine für Big-Data findet Spark eine immer größere Verbreitung bei Unternehmen. Nun integriert MapR die Technologie auch in die eigene Plattform.
Parallel dazu wurden auch neue Releases angekündigt. Mit den Bekanntmachungen wird deutlich, dass sich die von Hortonworks und Cloudera offerierten Technologien zunehmend voneinander entfernen. Mit den zusätzlichen Partnerschaften will ...
Mit der neuen Erweiterung für Apache Spark 'Vora' ermöglicht SAP Kontextanalysen für Daten aus Unternehmenssystemen, verteilten Datenquellen und Sensordaten auf Basis von In-Memory.
Über den Zukauf will SAP die Möglichkeiten der Datenvisualisierung in den eigenen Produkten erweitern und auch die mobile Nutzung optimieren.
Ab dem 12. April wird Microsoft keine Sicherheits-Updates für den SQL Server 2005 veröffentlichen und rät zum Umstieg auf die Version 2014. Die nächste Version der Microsoft-Datenbank-Plattform wird für das dritte Quartal erwartet.
Als Teil der Bluemix-Cloud bietet IBM ab sofort einen Spark-as-a-Service an. Schon vor einigen Monaten hatte IBM deutlich gemacht, dass es große Stücke auf die Apache-Technologie hält.
Bei Big Data kommt man um Hadoop und quelloffene Technologien nicht herum. Ein neuer Azure-Service für HDInsight, Microsofts Hadoop-Distribution, setzt nun auf Ubunutu auf, das macht es bestehenden Hadoop-Nutzern einfacher, auf Microso ...
Warum Subskriptionen bei Open-Source-Produkten für mehr Sicherheit im Unternehmen sorgen, erklärt Marco Bill-Peter, Vice President Customer Engagement und Experience bei Red Hat im Interview mit silicon.de.
Kosteneinsparungen und Enterprise-Funktionalitäten sorgen dafür, dass immer mehr Unternehmen sich auch für den Betrieb von kritischen Unternehmenslösungen für die quelloffene Datenbank entscheiden.
Analytics, Mobility und Security-Software wachsen mit MicroStrategy 10 Secure Enterprise zusammen. So sind umfassende Governance und Zugriffskontrollen möglich, ohne dabei die Nutzer im Arbeitsalltag einzuschränken.
Eine Umfrage von Gartner zeigt, dass viele Unternehmen vor den großen Herausforderungen bei der Implementierung von Hadoop zurückschrecken. In vielen Fällen lässt sich die Lösung offenbar auch nicht wirtschaftlich betreiben.
Die Vereinheitlichung soll die Nutzung von Apache Hadoop in Unternehmen vereinfachen. Dafür basieren alle einen einheitlichen Kern. Lösungsanbieter benötigen in Zukunft nur noch eine einzelne Zertifikation.
Das ungarische Unternehmen ist spezialisiert auf Deployment und Automatisierung. Hortonworks könnte mit dem Zukauf auch das europäische Geschäft stärken. Noch im zweiten Quartal 2015 soll die Transaktion abgeschlossen werden.
Mit Updates für die JBoss Data Virtualization und das JBoss Data Grid will Red Hat den Zugriff auf Zugriff auf Datenquellen erleichtern und präzisieren.