Categories: DataStorage

Bessere Performance für Big-Data-Datenbanken durch optimierte Speicherarchitekturen

Big Data, Internet der Dinge (IoT), Predictive Analytics – all diese Themen beschäftigen sich mit der Wertschöpfung aus Daten. Diese sind überall und in großen Mengen vorhanden. Für Unternehmen gilt es ihr Potenzial zu erschließen, denn Daten und die daraus resultierenden Informationen sind letztlich ein wettbewerbsentscheidender Produktionsfaktor. Die Bereitstellung von hochleistungsfähiger Hard- und Software ist hierbei entscheidend, damit die Daten zügig bereitstehen, reibungslos fließen und Zusammenhänge erkennbar werden.

Christian Lorentz, der Autor dieses Gastbeitrags für silicon.de, ist Senior Product and Solution Marketing Manager bei NetApp (Bild: NetApp)

Flash-Speicher verbessern Datenfluss

Die Storage-Hardware beeinflusst die Datenbank-Performance enorm. Eine zugrunde liegende Technologie, die zu einer Leistungssteigerung in der Unternehmens-IT beiträgt, ist Flash-Speicher. Dadurch, dass Flash den Datendurchlauf im Sinne verbesserter IOPS (Input/Output Operations Per Second)-Werte beschleunigt, bietet es modernen Systemen erhebliches Steigerungspotenzial. Insbesondere Datenbanken – die praktisch in jedem Unternehmen vorhanden sind – profitieren von schnellem Flash-Speicher.

Die erreichten Geschwindigkeitsgewinne fallen so hoch aus, dass eine mit Flash arbeitende Datenbankdeutlich weniger Rechenleistung benötigt. Im Idealfall ist es möglich, die gleiche Unternehmens-Software mit weniger IT-Systemen zu betreiben. Dadurch fallen nicht nur geringere Energiekosten an, Unternehmen sparen auch bei Software-Lizenzen. Denn in der Profi-IT berechnen die Hersteller ihre Lizenzen oftmals nach der Anzahl der Prozessoren, die für ihre Software genutzt wird. Wer also mit Flash die Leistungsfähigkeit bestehender IT-Systeme steigert, spart vielfach.

Flaschenhälse beseitigen

Trotz des Einsatzes von Flash stoßen Unternehmen zuweilen an Geschwindigkeitsgrenzen. In einem typischen gewachsenen Datenbank-Umfeld mit alten Hinterlassenschaften aus Hard-Disk-Drive-Storage (HDD-Storage), stößt der Datendurchlauf dadurch an seine Obergrenze, dass die HDD die Daten nicht schnell genug aufrufen kann. Wenn die Latenzzeiten eine definierte Grenze überschreiten, verlangsamen HHDs den Datendurchlauf.

Um die Latenzzeiten wieder auf einem akzeptablen Level laufen zu lassen und den Durchlauf zu erhöhen, werden mehr HDDs benötigt. Alternativ bringt eine Kombination aus Flash-Speicher mit fortschrittlichen Storage Management-Ansätzen einen drastischen Anstieg der Datenbankleistung. Mehr noch: Flash kann die CPU-Auslastung des Datenbank-Servers maximieren. Dadurch können Unternehmen die Server-Investition voll ausnutzen.

Flexibleres Management dank Cloud-Lösungen

Das Internet der Dinge (IoT) ist der Motor der Digitalisierung. Doch auch die Virtualisierung von Technologien und der Vormarsch von Cloud-Technologien tragen zu dem immer weiter steigenden Datenwachstum bei. Unternehmen schätzen diese Lösung unter anderem wegen ihrer Flexibilität und der Möglichkeit, Anwendungen beliebig zu skalieren.

Gerade für Unternehmen, die schnell wachsen, kommen die Vorteile der Cloud zum Tragen. Da viele Unternehmen ihre Umstellung auf die hybride Cloud planen, schafft die Cloud dazu eine Konsolidierungswelle in Rechenzentren. Flash-Storage kann diese Herausforderung mit einer einheitlichen Systemarchitektur für ein durchgängiges Datenmanagement von Flash-, Disk- und Cloud-Ressourcen lösen.

Für ausreichend Schutz sorgen

Ist die Infrastruktur im Groben erstellt, gilt es, die Kontrolle über eine Datenbank unter stetig wachsendem Datenbestand zu behalten. Denn Datenverlust zählt mittlerweile zu den größten Risiken auf dem Weg zum Geschäftserfolg. Ein regelmäßiges Backup ermöglicht es den Unternehmen, beispielsweise im Falle einer Attacke, die Systeme auf einen Stand vor dem Angriff wiederherzustellen.

Verantwortliche müssen hierbei jedoch auf die Abstände achten, in denen die Daten gespeichert werden (recovery point objective). Sind diese zu lang, gehen bei der Systemwiederherstellung eventuell wichtige Informationen verloren. Sind sie signifikant zu kurz, verbraucht das Backup unnötig viel Speicherkapazität.

Ebenfalls zu klären ist die Wahl des Speichermediums: Sollen die Daten auf einen eigenen Server oder in die Cloud gesichert werden? Für die Cloud sprechen der geringere Administrationsaufwand und die Skalierbarkeit. Auch Bedenken hinsichtlich des Datenschutzes können durch zertifizierte Anbieter mit lokalen Rechenzentren aus der Welt geschaffen werden. Durch ihre Variabilität zwischen On- und Off-Premise Infrastrukturen bietet die Cloud sowohl für sensible, als auch für weniger kritische Daten den angemessenen Schutz. Unternehmen sind durch die Snapshot-basierte Sicherung ihrer Daten in der Cloud gut aufgehoben und bei Ausfall doppelt geschützt.

Echtzeit-Informationen dank Real-time Analytics

Je größer der Datenbestand, desto mehr Wert liegt häufig auch in den Zusammenhängen zwischen den Daten. Dank der Untersuchung großer Mengen an Daten unterschiedlicher Arten (Big Data Analytics), entdeckt der Anwender darin versteckte Muster, unbekannte Korrelationen und bezieht nützliche Informationen. Dabei spielt der Datenspeicher erneut eine wichtige Rolle. Ein gutes Data-Analytics-System basiert auf einem robusten, zentral ansteuerbaren und einfach zu managen Speicher.

Für viele Anwendungsszenarien ist es dabei essenziel, die Daten in Echtzeit abrufen zu können. Beispielsweise kann im Finanzwesen eine Millisekunde zwischen Gewinn oder Verlust entscheiden. In einem vernetzten Auto ist die Abrufgeschwindigkeit sogar so entscheidend, dass Unfälle nicht nur vorhergesehen, sondern vermieden werden können.

Durch die Echtzeitdatenanalyse (Real-time Analytics) stehen alle für Geschäftsprozesse und -entscheidungen benötigten Daten jederzeit zur Verfügung. Für die Anwendungssoftware bedeutet die Echtzeitdatenbereitstellung eine besondere Leistungsanforderung. Entsprechende Lösungen bieten eine offene, skalierbare Storage-Plattform für den Aufbau eines Data Lake.

Kunden erwarten heute eine hohe Transparenz ihrer Daten sowie eine einwandfreie Performance der Datenbank-Applikationen, um in einer sich schnell wandelnden Geschäftswelt bestmögliche Entscheidungen treffen zu können. Flash-Speicher, Cloud-Anwendungen und Real-time Analytics bieten eine leistungsstarke Grundlage für Big Data-Datenbanken, damit Anwender sich auf ihre Daten verlassen und den größtmöglichen Nutzen aus ihnen ziehen können.

Redaktion

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

2 Tagen ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

2 Tagen ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

4 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

5 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

5 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

6 Tagen ago