Veritas hat sein erstes je auf den Markt gebrachtes Speicher-Virtualisierungsprodukt erneuert. Nach über zehn Jahren sammelt die neue Storage Foundation 4.0 Daten herstellerunabhängig ein und will so Ressourcen in der Storage-Umgebung besser ausnutzen.
Das Software-Paket, vorher geführt unter dem Namen Veritas Foundation Suite, ist eine Kombination aus dem Veritas File System und der Volume Manager Virtualisierungssoftware. Der Hersteller hat gegenüber der Vorgängerversion eine Reihe von Funktionen addiert, die nicht zuletzt die Utility-Computing-Strategie von Veritas unterstützen und voranbringen sollen.
Utility Computing bedeutet ja letztlich die vom System selbstständig durchgeführte Abwicklung diverser Prozesse. Bei anderen Herstellern heißt das Konzept Automated oder Adaptive Computing. Alle haben aber gemeinsam das Ziel, Beschränkungen innerhalb des Systems aufzuheben, Vorgänge zu automatisieren und schließlich den Administrator zu entlasten.
Deshalb unterstützt die Storage Foundation jetzt unter anderem einen so genannten Portable Data Container. Das Tool kann Daten von Servern mit unterschiedlichen Betriebssystemen – die Suite unterstützt Windows, alle gängigen Unix-Derivate sowie Linux – erfassen und innerhalb eines Arrays ablegen. Das bedeutet, dass sich verschiedene Applikationen, die auf jeweils anderen Betriebssystemen basieren, Speicherreserven teilen können. Der Vorteil ist, nicht für diese oder jene Anwendungen gesonderten Speicherplatz zur Verfügung stellen zu müssen. Oftmals nämlich bleiben dedizierte Ressourcen unausgelastet. Das ist Verschwendung und kostet unnötig Geld.
Neben dem Data Container bietet die Suite außerdem Online File Migration und Dynamic Multi-Pathing. Dabei handelt es sich um eine Funktion, die Daten über mehrere Pfade verteilt überträgt, damit nicht einzelne Pfade verstopft werden. Die Suite arbeitet zusammen mit den Datenbanken Oracle, Sybase und IBMs DB2 sowie dem Veritas Cluster File System für Oracle 9i RAC, und unterstützt laut US-Medienberichten Speichersysteme von EMC, Hewlett-Packard, IBM und Hitachi Data Systems.
Der Preis hängt von der CPU-Leistung ab und beginnt bei 2495 Dollar. Für High-end-Systeme muss ein Unternehmen tiefer in die Tasche greifen und rund 100.000 Dollar aufbringen.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.