Die neue Lizensierungsform reduziert die Anfangsinvestitionen für Neukunden und soll denen den Zugang zur Analyseplattform von Tableau erleichtern. Tableau Desktop Personal und Tableau Server kosten nun 35 Dollar pro Nutzer und Monat, ...

Die neue Lizensierungsform reduziert die Anfangsinvestitionen für Neukunden und soll denen den Zugang zur Analyseplattform von Tableau erleichtern. Tableau Desktop Personal und Tableau Server kosten nun 35 Dollar pro Nutzer und Monat, ...
Beim diesjährigen DataWorks Summit, den Hadoop-Spezialist Hortonworks in München durchführte, stand neben der aktuellen Variante von Hortonworks Data Flow auch die erfolgreiche Geschäftsentwicklung im Fokus. Die Börse honorierte das bi ...
Für die MapR Converged Data Platform ist jetzt eine neue Version der Big Data Sandbox verfügbar. Damit können auch weniger erfahrene Entwickler die Ergebnisse von Big-Data-Projekten vorherbestimmen.
Seit einigen Jahren setzen Banken und Finanzdienstleister zunehmend auf Big Data. Jim Stock von MapR erklärt, was Banken tun müssen, um Kosten zu sparen und Compliance-Risiken gering zu halten.
Die Talend Data Integration Platform unterstützt MapR Streams, wodurch sich Leistung und Zuverlässigkeit von Big-Data-Anwendungen verbessern soll.
Bei Daten reicht "Big" nicht mehr aus - vielmehr geht es jetzt um eine "Vernetzung". Wie Stefan Kolmar von Neo Technology in seinem aktuellen Blog für silicon.de erklärt, erkennen das auch immer mehr Unternehmen.
Eine Analyse direkt an der Datenquelle verspricht der Big-Data-Spezialist MapR mit der neuen Lösung Edge.
Anomalien und Widersprüche in Datensätzen aufzeigen: Google Cloud Dataprep ist eine gemeinsame Entwicklung von Google und dem Data-Wrangling-Spezialisten Trifacta.
Mit den Plänen vertraute Personen zufolge wurden jetzt die erforderlichen Unterlagen bei der US-Börsenaufsicht eingereicht. Der IPO soll dann im Kaufe des Jahres erfolgen, berichtet Bloomberg. Dem Portal zufolge strebt Cloudera eine Be ...
Immer mehr Daten fallen in Unternehmen an, im Optimalfall ist das keine Last, sondern eine Chance, wie Wim Stoop von Cloudera in seinem Blog auf silicon.de erklärt.
Ob bewusst oder unbewusst: Wir produzieren Content, wo wir gehen und stehen. Und egal, worum es sich dabei handelt: Irgendwer muss sich damit befassen, meint Alfresco CTO John Newton. Denn erst dann entscheidet sich, ob Content lästige ...
Eine der größten Herausforderungen im Datenbankumfeld ist es, eine optimale Performance auch bei Lastspitzen zu erreichen. Flash-Storage bringt oftmals Einsparungen bei Datenbanksoftware und beschleunigt den Datenfluss. Analytics-Ansät ...
Das Münchner Start-up Celonis hat eine rasante Erfolgsgeschichte hingelegt. Seine Software sammelt Daten der Geschäftsprozesse, wertet diese aus, und präsentiert eine visuelle Darstellung aller Abläufe im Unternehmen. Die neue Version ...
Analyse-Plattformen erkennen nicht nur Anomalien, sie verhindern Angriffe, bevor sie passieren. Jim Stock von MapR erklärt im silicon.de-Blog, warum das nur dank Big Data und der Intelligenz von Security Analytics möglich ist.
Während sich das Geschäftsjahr 2016 dem Ende zuneigt, beginnt die Zeit der Pläne und Vorsätze für das neue Jahr – und davon hat die IT-Branche viele. Qlik-Experte Wolfgang Kobek weiß, worauf Unternehmen 2017 im Bereich Business Intell ...
Nachdem zahlreiche Big-Data-Tools inzwischen in Unternehmen verbreitet und gesetzt sind, sehen Analysten jetzt vermehrt sehr spezialisierte Angebote. Auch eine Konsolidierungswelle setze langsam ein.
Ein Bücherstapel, der bis in das Doppelsternbild Alpha Centauri reicht: So kann man sich die Datenmenge vorstellen, die die Weltgemeinschaft im Jahr 2024 wird bewältigen müssen. Georgios Rimikis von Hitachi Data Systems gibt Tipps zum ...
Das ist mutig: Bislang waren Suchmaschinen im Web vor allem dafür bekannt, dass sie längste Vergangenes nicht vergessen wollten. Jetzt will Microsoft die überlegenen Fähigkeiten seines Angebots Bing mit der Vohersage künftiger Ereignis ...
Der Tag, an dem sie aus Cognitive Computing und Künstlicher Intelligenz Nutzen ziehen können, scheint für viele mittelständische Unternehmen noch weit entfernt. Aber das täuscht. Daher ist es bereits jetzt wichtig, die Grundlagen zu sc ...
"Was hat die Erkundung des Weltraums mit Big Data und unserem täglichen Leben auf der Erde zu tun?", fragt Hartmut Thomsen, Geschäftsführer von SAP Deutschland. Die Antwort: Ohne die Raumfahrt hätten wir beispielsweise kein GPS im Auto ...
Batch- und Echzeitverarbeitung müssen nicht unbedingt zwei verschiedenen Welten angehören, findet Harald Weimer von Talend.
Mit dem neuen Release der Datenbank, die für den Einsatz in der Cloud konzipiert ist, behauptet Oracle 20 Jahre Technologievorsprung vor den DBaaS-Angeboten des Konkurrenten Amazon Web Services zu haben.
An eine moderne Fabel wagt sich heute silicon.de-Blogger Harald Weimer von Talend. Wenn Unternehmen es nicht schaffen, sich selbst immer wieder kritisch zu hinterfragen, wird die aber böse enden.
Anwender können in der neuen Pentaho-Version Visualisierungen bereits in ETL-Ansichten visualisieren. Das beschleunige die Auswertung.
All-Flash-Storage kommt derzeit für die Verarbeitung strukturierter Daten in Datenbanken, Anwendungen und VMs zum Einsatz. Pure Storage, Pionier in dem Segment, hat mit FlashBlade ein Angebot vorgestellt, mit dem sich auch große Mengen ...
Die Transaktion soll Ende Januar 2017 abgeschlossen werden. Salesforce bezahlt Schätzungen zufolge für das in San Francisco ansässige Unternehmen Krux insgesamt rund 700 Millionen Dollar, davon 340 Millionen in bar und den Rest in eige ...
Im August wollte SAP zu einem entsprechenden Gerücht keine Stellungnahme abgeben. Die Plattform von Altiscale basiert auf Hadoop und Spark. Technologie und Know-how des Spezialisten für Big-Data-as-a-Service sollen zahlreichen strategi ...
Der Datenintegrations-Spezialist Talend stellt ein vorkonfiguriertes Toolkit vor, über das Entwickler mit Technologien wie Hadoop, Spark oder auch Machine Learning experimentieren können.
Zahreiche neue Module sollen metadatenbasiert eine schlüsselfertige Lösung für das Datenmanagement in so genannten Data Lakes bereit stellen. Das Informatica-Tool soll Ende des Jahres verfügbar sein.
Linux, High-Performance-Computing, Deep Learning und Advanced Analytics sind Einsatzbereiche für die Server, die auf der offenen Prozessorarchitektur von IBM basieren.