Big Data Benchmarking – Was taugen Hardware und Software für Big Data?

Big-Data-Geeignet? Quelle: HPI

Der fünfte internationale Workshop zu Leistungsvergleichen im Bereich Big Data findet in diesem Jahr am Hasso-Plattner-Institut in Potsdam statt. Das so genannte Big Data Benchmarking wollen rund 80 Vertreter aus Industrie und Wissenschaft erörtern. Das Treffen wird am 5. und 6. August in Potsdam stattfinden.

“Ziel der Workshops ist es, für Standardanwendungen in der Wirtschaft Eckdaten zu entwickeln, die Hardware- und Softwaresysteme für große Datenmengen bewerten helfen”, erläuterte Dr. Matthias Uflacker, Ausrichter des Workshops und Lehrstuhlvertreter am HPI-Fachgebiet Enterprise Platform and Integration Concepts. Bilsang fehlt jedoch eine derartige Methodologie.

Zudem werden an diese Benchmarks ganz bestimmte Anforderungen gestellt: Ein solcher Industrie-Standards sollte auf Anwendungsebene ansetzen und die Evaluation von Infrastruktur-Komponenten für Big-Data-Anwendungen für Anwender erleichtern. Dafür muss ein Benchmark einfach zu implementieren und auch einfach auszuführen sein. Natürlich muss ein solcher Benchmark auch die eigenen Kosten rechtfertigen und sollte sich an die aktuellen Gegebenheiten und Entwicklungen in der Industrie anpassen und die Ergebnisse sollten schlussendlich auch belastbar sein.

Seit 2012 versucht diese Gruppe, die unter der Leitung des Center for Large-Scale Data Systems Research des San Diego Supercomputer Centers einen Test zu standardisieren. Derzeit scheinen zwei Vorschläge besonders geprüft: BigBench, der auf dem Transaction Processing Performance Council’s Decision Support Benchmark (TPC-DS) basiert und diesen um semi-strukturierte und unstrukturierte Daten und Abfragen gegen solche Daten erweitert und Deep Analytics Pipeline.

Erste Ergebnisse des Workshops werden dann über Springer Lecture Notes in Computer Science veröffentlicht.

Auf dem Workshop sollen auch Fragen zur Hardware, Speicherformen, Datenbanken sowie weitere erörtert werden. Auch eine eine Gruppe von Wissenschaftlern des Hasso-Plattner-Instituts und Experten des SAP Innovation Centers in Potsdam wollen Erkenntnisse zu Kostenabschätzungen von Hauptspeicher-basierten Datenbanken und zur Datengenerierung für kundenspezifische Richtgrößen präsentieren.

Als Hauptredner des Potsdamer Big Data-Workshops werden jedoch die Wissenschaftler Umesh Dayal aus den Hewlett Packard Labs und Alexandru Iosup von der Technischen Universität Delft erwartet. Neben Fachwissenschaftlern aus aller Welt werden auch Vertreter von Unternehmen wie Amazon, Cisco, Facebook, Hewlett Packard, IBM, Intel, Oracle, Suse oder SAP erwartet.

Redaktion

Recent Posts

Deutsches KI-Startup Brain4Data statt digitalen Assistenten für KMU mit genKI-Funktionen aus

Fred, der KI-gesteuerte digitale Assistent, nutzt den Generative AI Service der OCI und die Oracle…

22 Stunden ago

Malware-Ranking März: FakeUpdates dominiert in Deutschland

Cyberkriminelle verstärken Angriffe mit FakeUpdates und RansomHub als Schlüsselwerkzeuge.

1 Tag ago

Künstliche Intelligenz als Gamechanger

"Der wahre Mehrwert von KI entsteht durch die Integration unternehmenseigener Daten", sagt Mike Sicilia von…

4 Tagen ago

Verbrechensabwehr mit KI

Autonom agierende Agenten werden Sicherheitsteams bei der Angriffsabwehr unterstützen, sagt Zac Warren von Tanium.

5 Tagen ago

Schwedens Bargeld-Comeback: Ein unerwarteter Kurswechsel

Schweden hat in seiner Entwicklung hin zu einer bargeldlosen Gesellschaft einen überraschenden Rückzieher gemacht. Diese…

5 Tagen ago

Open Source und KI: Passt das zusammen?

"Uns geht es vielmehr darum aufzuzeigen, wie Open-Source-KI realisierbar ist", sagt Jan Wildeboer von Red…

6 Tagen ago