Categories: Data

CeBIT: Wettstreit der Hochgeschwindigkeits-Datenbanken

Mit einem neuen SGI-Superrechner mit 240 Prozessorkernen und 12 Terabyte Arbeitsspeicher wollen die jungen Forscher des Hasso-Plattner-Institutes die Leistungsfähigkeiten von NUMA-Architekturen vergleichen. NUMA steht für Non-Uniform Memory Access. Dabei verfügt jeder Prozess über einen direkt zugeordneten Speicher und kann anderen Prozessen indirekten Zugriff auf den Speicherort gewähren. Damit entfällt ein zentrales Speichermanagement und im Ergebnis bieten diese NUMA-Architekturen sehr hohe Leistungsfähigkeit. Ein Problem dabei aber ist, dass verschiedene Bereiche unterschiedlich schnell angebunden werden können.

Mit dem SGI UV300H wollen die Wissenschaftler weitere Forschungsarbeiten im Bereich der so genannten NUMA-Architekturen (Non-Uniform Memory Access) durchführen. “Unsere Forschungen an effizienteren Systemen für betriebswirtschaftliche Analysen und Simulationen profitieren vor allem von der besonders großen Arbeitsspeicherkapazität”, erläutert Dr. Matthias Uflacker den Vorteil der neuen Ausstattung. Dadurch sei es möglich, das Verhalten der Systeme selbst bei höchsten Anforderungen zu testen.

Die Forscher des Hasso Plattner Institutes Dr. Matthias Uflacker (Mitte), Carsten Meyer (links), Christian Schwarz (rechts) vergleichen mit Hilfe eines SGI UV300H die Leistungsfähigkeiten verschiedener NUMA-Datenbanken miteinander. (Bild: obs/HPI Hasso-Plattner-Institut/KAY HERSCHELMANN)

Eines der Forschungsprojekte, für die der neue Hochleistungsrechner angeschafft wurde, heißt “Load Simulator”. Mit dieser Simulationssoftware können verschiedene Strategien zur Datenhaltung im Hauptspeicher miteinander verglichen werden. Anwenderunternehmen können damit ermitteln, welche Lösung für sie am günstigsten ist. “Wir haben damit ein interaktives Werkzeug geschaffen, um Schlüsseleigenschaften verschiedener Datenbank-Konfigurationen vergleichen zu können”, so Uflacker weiter.

Die unter Prof. Hasso Plattner entwickelte Lösung simuliert den Fall, dass tausende Benutzer gleichzeitig Daten eingeben und analysieren. Simultan wird dann diese Arbeitsbelastung auf der gewünschten Rechner-Konfigurationen ausgeführt. Verschiedene Sensoren geben dann verschiedene Leistungskennziffern zurück, wie etwa Menge, Durchsatz und Bearbeitungszeit von Datenbankanfragen sowie Gesamtauslastung der zentralen Recheneinheiten.

Mit “Load Simulator” vergleichen die Wissenschaftler auf der CeBIT in Halle 9, Stand D44  aber auch die Leistungsfähigkeit eines einzigen Hochleistungsrechners, in dem sämtliche Daten im Arbeitsspeicher gehalten werden, mit einem Verbund von mehreren kleineren Servern.

Die Forscher können in ihrem Forschungslabors am HPI auf Hardware und Software zurückgreifen, die teilweise noch nicht am Markt verfügbar oder im normalen Hochschulbereich in der Regel nicht zu finanzieren sind, wie etwa ein 64-Wege-Server mit 2 TB Hauptspeicher, oder ein Computercluster mit 1000 Kernen. Auch Wissenschaftler, die nicht am HPI ihren Sitz haben, können auf diese Infrastruktur zugreifen.

Auf der CeBIT präsentiert das HPI darüber hinaus auch eine Simulationssoftware für Business-Entscheider, die damit beispielsweise die Auswirkung etwa von fallenden Rohstoffpreisen simulieren können. Daneben stellt das HPI auch eine Lösung vor, die Entscheidern Echtzeitdaten liefern soll. Mit einer Software, die Videos zu Comic-Animationen abstrahiert, sorgt das renommierte Institut auch für Unterhaltung.

Redaktion

Recent Posts

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

20 Stunden ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

21 Stunden ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

22 Stunden ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago

Künstliche Intelligenz erreicht die Cloud

KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.

5 Tagen ago

AI Act: Durchblick im Regulierungsdickicht

Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.

5 Tagen ago