Teradata: HANA ist ein unrealistisches Konzept

“Für ERP-Systeme mag eine All-in-Memory-Lösung vielleicht sinnvoll sein, aber … ” Teradata-CEO Mike Köhler auf der Teradata-Partner-Konferenz in Dallas, die vom 22. bis 24 Oktober statt fand. Quelle: Harald Weiss

Teradata CEO Mike Koehler, formulierte es ein weniger konzilianter, teilte aber in der Sache die Einschätzung von Brobst. “Für ERP-Systeme mag eine All-in-Memory-Lösung vielleicht sinnvoll sein, doch unsere Systeme dienen der Analyse von großen und divergierenden Datenbeständen aus sehr unterschiedlichen Quellen, und hierbei gelten andere Gesetzmäßigkeiten”, lautet sein Einwand gegenüber SAPs Parade-System.

Brobst erläuterte dann, woraus diese Gesetzmäßigkeiten bestehen, beziehungsweise, wo es Gemeinsamkeiten gibt. Übereinstimmung herrscht bei den Zugriffszeiten, die bei einem Hauptspeicher um Faktoren günstiger sind, als bei jedem Plattenzugriff.

Auch bestätigte Brobst das landläufige Argument, dass nämlich der Hauptspeicher immer billiger wird. Doch seiner Ansicht nach geht dieser Effekt schnell wieder verloren, da das zu bearbeitende Datenvolumen schneller ansteigt, als der Preis für Speicherchips sinkt.

Außerdem würden auch die Preise für Plattenspeicher immer noch fallen, sodass sich der Preisabstand wenig verändert. “Der Storagebedarf steigt exponentiell an, während sich die RAM-Preise nur langsam nach unten bewegen”, lautet sein Hauptargument gegenüber Systemen wie SAPs HANA.

Stattdessen setzt man bei Teradata auf ein sehr fein abgestuftes Storage-Tiering, bei dem zwar auch immer mehr Daten im Hauptspeicher gehalten werden – aber bei weitem nicht alle. “90 Prozent des Input-Outputs einer CPU betreffen nur 20 Prozent der Daten, es reicht also völlig aus, wenn man nur diesen Teil In-Memory hält”, so Brobst weiter.

Deshalb würde deren neue Datawarehouse-Appliance 2750 ein automatisches Tiering durchführen, bei dem nur die wichtigsten Daten im Hauptspeicher gehalten werden. Neben den klaren Kostenvorteilen bedeutet eine solche Lösung auch, dass keinerlei Änderungen an den Anwendungsprogrammen erforderlich sind.

Scott Gnau, President der Teradata Labs, arbeitet zwar auch mit In-Memory, doch nur “heiße” Daten, die häufig gebraucht werden, kommen in den Arbeitsspeicher. Das spart Ressourcen. Quelle: Harald Weiss

Gerade die Notwendigkeit der Softwareumstellung, ist ein immer wieder vorgebrachtes Argument gegenüber SAPs HANA-System. Soweit hört sich die von Brobst vorgetragene Teradata-Philosophie sehr plausibel an.

Doch das Kernproblem der Teradata-Lösung ist, dass die wichtigsten 20 Prozent der Daten nicht statisch sind und sich dynamisch ändern. Das bedeutet, dass man mit großer Geschwindigkeit und völlig automatisch identifizieren muss, welche Daten als nächstes benötigt werden.

“Es stimmt schon, dass das Memory-Management bei diesem Tiering nicht trivial ist, denn historische Abläufe sind nur bedingt geeignet, um die Zukunft der nächsten Datenanforderung vorherzusagen”, bestätigt Brobst.

Teradata setzt hierzu einen selbst entwickelten “Intelligent Memory Manager” ein, der eine Art Prognosemodell darstellt – sozusagen selbst angewandte Predictive Analytics für das Speichermanagement. Damit erreicht Teradatas neue Appliance, die Teradata Data Warehouse Appliance 2750, eigenen Angaben zufolge eine dreimal bessere Performance als das Vorgängermodell, die 2690.

Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

1 Tag ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago