Teradata CEO Mike Koehler, formulierte es ein weniger konzilianter, teilte aber in der Sache die Einschätzung von Brobst. “Für ERP-Systeme mag eine All-in-Memory-Lösung vielleicht sinnvoll sein, doch unsere Systeme dienen der Analyse von großen und divergierenden Datenbeständen aus sehr unterschiedlichen Quellen, und hierbei gelten andere Gesetzmäßigkeiten”, lautet sein Einwand gegenüber SAPs Parade-System.
Brobst erläuterte dann, woraus diese Gesetzmäßigkeiten bestehen, beziehungsweise, wo es Gemeinsamkeiten gibt. Übereinstimmung herrscht bei den Zugriffszeiten, die bei einem Hauptspeicher um Faktoren günstiger sind, als bei jedem Plattenzugriff.
Auch bestätigte Brobst das landläufige Argument, dass nämlich der Hauptspeicher immer billiger wird. Doch seiner Ansicht nach geht dieser Effekt schnell wieder verloren, da das zu bearbeitende Datenvolumen schneller ansteigt, als der Preis für Speicherchips sinkt.
Außerdem würden auch die Preise für Plattenspeicher immer noch fallen, sodass sich der Preisabstand wenig verändert. “Der Storagebedarf steigt exponentiell an, während sich die RAM-Preise nur langsam nach unten bewegen”, lautet sein Hauptargument gegenüber Systemen wie SAPs HANA.
Stattdessen setzt man bei Teradata auf ein sehr fein abgestuftes Storage-Tiering, bei dem zwar auch immer mehr Daten im Hauptspeicher gehalten werden – aber bei weitem nicht alle. “90 Prozent des Input-Outputs einer CPU betreffen nur 20 Prozent der Daten, es reicht also völlig aus, wenn man nur diesen Teil In-Memory hält”, so Brobst weiter.
Deshalb würde deren neue Datawarehouse-Appliance 2750 ein automatisches Tiering durchführen, bei dem nur die wichtigsten Daten im Hauptspeicher gehalten werden. Neben den klaren Kostenvorteilen bedeutet eine solche Lösung auch, dass keinerlei Änderungen an den Anwendungsprogrammen erforderlich sind.
Gerade die Notwendigkeit der Softwareumstellung, ist ein immer wieder vorgebrachtes Argument gegenüber SAPs HANA-System. Soweit hört sich die von Brobst vorgetragene Teradata-Philosophie sehr plausibel an.
Doch das Kernproblem der Teradata-Lösung ist, dass die wichtigsten 20 Prozent der Daten nicht statisch sind und sich dynamisch ändern. Das bedeutet, dass man mit großer Geschwindigkeit und völlig automatisch identifizieren muss, welche Daten als nächstes benötigt werden.
“Es stimmt schon, dass das Memory-Management bei diesem Tiering nicht trivial ist, denn historische Abläufe sind nur bedingt geeignet, um die Zukunft der nächsten Datenanforderung vorherzusagen”, bestätigt Brobst.
Teradata setzt hierzu einen selbst entwickelten “Intelligent Memory Manager” ein, der eine Art Prognosemodell darstellt – sozusagen selbst angewandte Predictive Analytics für das Speichermanagement. Damit erreicht Teradatas neue Appliance, die Teradata Data Warehouse Appliance 2750, eigenen Angaben zufolge eine dreimal bessere Performance als das Vorgängermodell, die 2690.
LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…
Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…
Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…
Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…
Huawei Connect Paris: Innovationen rund um Data Center, Storage und IT-Sicherheit.
Mit KI optimieren Hacker ihre Angriffsversuche. Ist CIAM eine Lösung, mit der sich Unternehmen vor…