Dazu gehört, laut dem Anbieter für Storage-Integrationslösungen, vor allem die Missachtung von Grundregeln der Generalisten. Sie wollen Komplettsysteme loswerden – die Kunden sollten jedoch lieber bei ihren heterogenen Systemen bleiben, diese aber mit mehr Schwung ausstatten.
Nicht alle Anwendungen fordern ständig 100 Prozent Leistung, Funktionalität, Verfügbarkeit und/oder Handhabung. Diese Faktoren gilt es – neben benötigter Kapazität und Preis – genau zu überprüfen, um die preisgünstigste Alternative auszuwählen. Die beste Lösung für die individuellen Anforderungen kann dabei durchaus das Prüfen und die Auswahl von Produkten verschiedener Hersteller bedeuten.
Allerdings sollten mehrschichtige Speicherarchitekturen verwendet werden, da jedes Unternehmen unterschiedliche Anwendungen einsetzt, die jeweils andere Speicheranforderungen haben. Mehrschichtige (Tiered) Speicherarchitekturen platzieren Daten jeweils auf dem Speichermedium mit dem besten Preis-Leistungs-Verhältnis. Denn nicht alle Daten werden auf gleiche Weise erstellt und nicht alle Daten müssen auf Tier-1-Speicher archiviert werden.
Zum anderen könnte der Speicher anhand der tatsächlichen Anforderungen zugewiesen werden, was noch einmal Geld und Ressourcen sparen soll. Eine zentralisierte Speicherverwaltung koste zwar einigen Schulungsaufwand, bringe aber unabhängig vom Anbieter möglicherweise eine erhebliche Senkung der Kosten mit sich.
Außerdem könnten Snapshots geringer Kapazität zum Schutz vor Software-Ausfällen verwendet werden. Eine Wiederherstellung nach Software-Ausfällen mithilfe von Bandspeichern ist ein langwieriges und mühsames Verfahren. Verwendet man dagegen Snapshots mit geringer Kapazität kann eine Wiederherstellung nach Software-Ausfällen innerhalb weniger Minuten erfolgen, hieß es von LSI.
Für Anwendungstests könnten auch sofortige Datenvolumenkopien und Snapshots geringer Kapazität verwendet werden. Viele Unternehmen entwickeln Anwendungen. Dabei benötigen die Entwicklungsteams meist aktuelle Daten zu Entwicklungs- und Testzwecken. Die Replizierung von Datenvolumen kann aber sehr lange dauern, wenn jeweils der komplette Datensatz kopiert werden muss. Wer bei der Auswahl des Disaster-Recovery-Standorts selbst auf die Kosten achtet, kann auch hier Geld sparen, hieß es. Snapshot-basierte Prozesse könnten ferner auch beim Backup verwendet werden. Möglicherweise sei dafür auch die Verwendung des (kostengeprüften) Disaster-Recovery-Standort geeignet. Abschließend riet der Anbieter dazu, diesen Standort auch für Anwendungsentwicklung und -tests ins Auge zu fassen.
Automatisierung macht Pentesting auch für kleinere Unternehmen erschwinglich, sagt Mareen Dose von indevis.
Die Sicherheitslandschaft ist alles andere als robust. Unter anderem weil die Sichtbarkeit noch immer kritische…
Auch der Einsatz von Open Source Software bringt Herausforderungen mit sich, insbesondere in der IT-Sicherheit,…
Studie von Huawei und Roland Berger beleuchtet Schlüsseltrends und neue Anforderungen an Datenspeicherlösungen im KI-Zeitalter.
Der Ausfall bei CrowdStrike ist nur ein Symptom eines größeren Problems, wenn Unternehmen es versäumen,…
PwC-Studie zeigt: KI hilft vielen Unternehmen dabei, die Effizienz zu steigern, Kosten zu senken und…