Transparente oder Inline-Komprimierung wirkt wie ein Beschleuniger für bestimmte Arbeitslasten, was kontraintuitiv erscheinen kann. Aber es macht Sinn, wenn man versteht, was unter der Haube des Flash-Speichers passiert. Bei der transparenten Komprimierung werden Daten beim Schreiben in den Flash-Speicher komprimiert und beim Lesen dekomprimiert, ohne dass der Host eingreifen muss. Der Host weiß möglicherweise nicht einmal, dass dies innerhalb der SSD geschieht. Die transparente Komprimierung ist eine Beschleunigungsfunktion, die eine höhere anhaltende zufällige Schreibleistung, eine bessere Read-Tail-Latenz bei gemischten Arbeitslasten und eine geringere Schreibverstärkung zur Verbesserung der Ausdauer bringen kann. Sie beseitigt viele Kompromisse, die bei CPU-basierter Kompression auftreten, insbesondere in Umgebungen mit hoher IOPS.
Die Grundvoraussetzung ist, dass durch die Reduzierung der Schreibaktivität auf Flash die folgenden Vorteile erzielt wird:
– Erhöhung der anhaltenden zufälligen Schreib-IOPS
– Verbesserung der Leselatenz bei gemischten Lese-/Schreib-Workloads durch Verringerung der Interferenzen zwischen Schreib- und Lesevorgängen
– Verbesserte Ausdauer durch Reduzierung der geschriebenen Datenmenge
Es braucht nicht allzu viel Datenkomprimierung, um signifikante Leistungs- und Ausdauergewinne zu erzielen. Ab einer Komprimierungsrate von 2:1 nimmt der Nutzen ab, da die Hostdaten physisch weniger als die Hälfte des verfügbaren Mediums belegen, so dass die Garbage Collection mit wenigen bis gar keinen Datenbewegungen funktionieren kann. Ein weiteres Ergebnis der Komprimierung ist die effektive Erhöhung des zusätzlichen Over-Provisioning (OP) für die SSD. Auf dem Markt gibt es 7 % OP für “leseintensive” und 28 % OP für “schreibintensive” Kapazitäten (z. B. 3,2 TB vs. 3,84 TB), die sich nur durch 20 % freien Speicherplatz unterscheiden, so dass ein Kompressionsverhältnis von 1,2:1 ein “leseintensives” Laufwerk in ein “schreibintensives” verwandeln kann. Zufälligerweise können wir typischerweise LZ4 (oder Snappy) komprimierte Daten um etwa 20% weiter komprimieren (durch die Huffman-Kodierungsstufe).
Wenn die Daten komprimierbar sind, kann ScaleFlux dem Host zusätzliche Kapazität zurückgeben durch das NVMe Thin Provisioning Feature Set. Die Namespace-Größe kann dann größer als die physische Kapazität, die es unterstützt, eingestellt werden. Die physische Auslastung wird im Namespace-Nutzungsfeld angezeigt und vom Host überwacht. Bei der Leistungssteigerung handelt es sich nicht um einen Entweder-Oder-Kompromiss. Nehmen wir an, die Daten sind im Durchschnitt im Verhältnis 2:1 komprimierbar; das erweitert die Kapazität von 3,84 TB auf 6,2 TB und um 28 % das OP-Leistungsniveau.
Daten umgehen die Komprimierung, wenn sie nicht komprimierbar sind, wodurch die SSD-Leistung mit führenden Gen4 NVMe SSDs auf dem Markt konkurrieren kann. Mit anderen Worten: Die Datenkomprimierbarkeit ist das A und O.
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…