Mit einem neuen SGI-Superrechner mit 240 Prozessorkernen und 12 Terabyte Arbeitsspeicher wollen die jungen Forscher des Hasso-Plattner-Institutes die Leistungsfähigkeiten von NUMA-Architekturen vergleichen. NUMA steht für Non-Uniform Memory Access. Dabei verfügt jeder Prozess über einen direkt zugeordneten Speicher und kann anderen Prozessen indirekten Zugriff auf den Speicherort gewähren. Damit entfällt ein zentrales Speichermanagement und im Ergebnis bieten diese NUMA-Architekturen sehr hohe Leistungsfähigkeit. Ein Problem dabei aber ist, dass verschiedene Bereiche unterschiedlich schnell angebunden werden können.
Mit dem SGI UV300H wollen die Wissenschaftler weitere Forschungsarbeiten im Bereich der so genannten NUMA-Architekturen (Non-Uniform Memory Access) durchführen. “Unsere Forschungen an effizienteren Systemen für betriebswirtschaftliche Analysen und Simulationen profitieren vor allem von der besonders großen Arbeitsspeicherkapazität”, erläutert Dr. Matthias Uflacker den Vorteil der neuen Ausstattung. Dadurch sei es möglich, das Verhalten der Systeme selbst bei höchsten Anforderungen zu testen.
Eines der Forschungsprojekte, für die der neue Hochleistungsrechner angeschafft wurde, heißt “Load Simulator”. Mit dieser Simulationssoftware können verschiedene Strategien zur Datenhaltung im Hauptspeicher miteinander verglichen werden. Anwenderunternehmen können damit ermitteln, welche Lösung für sie am günstigsten ist. “Wir haben damit ein interaktives Werkzeug geschaffen, um Schlüsseleigenschaften verschiedener Datenbank-Konfigurationen vergleichen zu können”, so Uflacker weiter.
Die unter Prof. Hasso Plattner entwickelte Lösung simuliert den Fall, dass tausende Benutzer gleichzeitig Daten eingeben und analysieren. Simultan wird dann diese Arbeitsbelastung auf der gewünschten Rechner-Konfigurationen ausgeführt. Verschiedene Sensoren geben dann verschiedene Leistungskennziffern zurück, wie etwa Menge, Durchsatz und Bearbeitungszeit von Datenbankanfragen sowie Gesamtauslastung der zentralen Recheneinheiten.
Mit “Load Simulator” vergleichen die Wissenschaftler auf der CeBIT in Halle 9, Stand D44 aber auch die Leistungsfähigkeit eines einzigen Hochleistungsrechners, in dem sämtliche Daten im Arbeitsspeicher gehalten werden, mit einem Verbund von mehreren kleineren Servern.
Die Forscher können in ihrem Forschungslabors am HPI auf Hardware und Software zurückgreifen, die teilweise noch nicht am Markt verfügbar oder im normalen Hochschulbereich in der Regel nicht zu finanzieren sind, wie etwa ein 64-Wege-Server mit 2 TB Hauptspeicher, oder ein Computercluster mit 1000 Kernen. Auch Wissenschaftler, die nicht am HPI ihren Sitz haben, können auf diese Infrastruktur zugreifen.
Auf der CeBIT präsentiert das HPI darüber hinaus auch eine Simulationssoftware für Business-Entscheider, die damit beispielsweise die Auswirkung etwa von fallenden Rohstoffpreisen simulieren können. Daneben stellt das HPI auch eine Lösung vor, die Entscheidern Echtzeitdaten liefern soll. Mit einer Software, die Videos zu Comic-Animationen abstrahiert, sorgt das renommierte Institut auch für Unterhaltung.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…