Die wichtigsten Data-Center-Trends 2012

Für die nächsten Monate sieht Forrester insgesamt acht große Trends im Bereich Datenzentren und Servern. So gibt es zwar beim Cloud-Computing deutlich mehr Wachstum als in einigen anderen Bereichen. Dennoch sei der Markt weit davon entfernt, dass der Bedarf an Infrastruktur-Komponenten wie Server stagniert oder gar abnimmt, erklärt Richard Fichera, Analyst bei Forrester Research und Autor der Untersuchung “Server And Data Center Predictions for 2012“. Dafür sorgen Themen wie Big Data, biomedizinisches Computing und unter anderem auch Online Web Services.

Gleichzeitig geben die IT-Budgets wenig Spielraum, so dass Kostenkontrolle nach wie vor ein wichtiges Thema ist. Gleichzeitig müssen die Infrastrukturexperten in den Anwenderunternehmen große Transformationen umsetzen, wie etwa Virtualisierung oder Cloud. Dabei stünden laut Forrester weniger die Themen wie Energieeffizienz auf dem ersten Platz als vielmehr eine langfristige Planung.

Obwohl die Cloud in aller Munde ist, sind Server nach wie vor das Herz der Branche. Schon in den nächsten Wochen werden laut Forrester die großen Anbieter mit neuen x86-Servern auf den Markt kommen. Intels Architektur Sandy Bridge etwa verspricht den Anwendern große Vorteile. Die Performance pro Watt kann bei diesen Modellen zwischen 30 und 50 Prozent höher liegen und sie bieten daneben auch ein verbessertes Power-Management. Diese Verbesserungen könnten für einige Anwender so interessant sein, dass man schon vor der Zeit neue Modelle für ein Replacement der bestehenden Infrastruktur evaluiert.

Hohe Stückzahlen bei ARM-basierten Servern erwartet Forrester hingegen in diesem Jahr noch nicht. Doch nachdem HP zusammen mit dem Spezialisten Calxeda bereits 2011 das Projekt Moonshot vorgestellt hat, könnten in diesem Jahr die ersten Modelle auf dem Markt erscheinen. Auch der Hersteller Applied Micro Cricuits hat bereits ARM-Server-Technologien vorgestellt. Im Bereich Application Development werden hier für die Anwender die größten Herausforderungen liegen.

Mehr oder weniger unberührt von diesen neuen ARM-Servern wird der Konkurrenzkampf zwischen Intel und AMD weitergehen. Forrester geht davon aus, dass auch in den nächsten Monaten von der Nummer zwei auf dem Halbleitermarkt interessante Impulse kommen werden. So sorgt derzeit Mangy-Cours bei Intel für Druck hinsichtlich Preis/Leistungsverhältnis. Piledriver, der Nachfolger der Bulldozer-Architektur könnte gegenüber Intels 22 Nanometer-Prozess weiter Boden gut machen.

GPGPU, das Kürzel steht für General Purpose Graphics Processing Unit, umfasst eine Technik, bei der die besondere Leistungsfähigkeit von Grafik-Kernen für bestimmte Anwendungen genutzt wird. Man spricht dabei auch von Hybird Scalar oder GPU Computing und das wird sich im Jahr 2012 zum Mainstream durchsetzen. Mit Hardware-Support der großen Hersteller, ausgereiften Software-Entwicklungsumgebungen und mit Nvidia und AMD auch mindestens zwei zuverlässigen Herstellern, sind die Grundsteine für einen großflächigen Einsatz dieser Technologie gelegt. Man könnte sich also überlegen, ob man nicht die eine oder andere Anwendung für eine GPU umwidmet.


Data-Center-Konsolidierung und Virtualisierung sind derzeit die wichtigsten Themen der CIOs. Quelle: Forrester Research.

Um das Thema Converged Infrastructure (CI) weiter voranzutreiben, werden auch in diesem Jahr die Hersteller die Integration von Storage- und Netzwerk-Virtualisierung sowie Virtualisierung auf System-Level mit verbesserter Management-Software vorantreiben.

Vermutlich werden die großen Player IBM und HP ihre Angebote bei Blade-Servern erneuern und dann auch die Segnungen von Intels neuen 22-Nanometer-CPUs in die neuen Lösungen gießen. Daneben werden Anwender voraussichtlich von Features wie einer feineren Abstraktion von physischen Komponenten, einer engeren Integration von Fabrics für die Systeme und weiteren Verbesserungen bei Stromverbrauch und Kühlung profitieren.

Auch im Data-Center Infrastructure Management (DCIM) wird sich einiges tun, glaubt man bei Forrester. DCIM-Lösungen gewähren einen vollständigen Blick auf sämtliche Komponenten des Datenzentrums. Diese Lösungen sammeln aus den Komponenten verschiedener Hersteller Daten wie Temperatur, Aufstellung der Racks und anderen Informationen, die auch aus Quellen wie einer CMDB stammen können. Derzeit gibt es rund 60 Hersteller, die entsprechende Lösungen anbieten. Dabei entstehen natürlich ständig neue Daten, die auch irgendwo gespeichert werden müssen. Der nächste große Schritt hier wird die Möglichkeit sein, aus den Echtzeitdaten auch Trends ablesen zu können.

Wenn man irgendwand dennoch wieder an den Punkt kommt, wo man das Datenzentrum ausbauen muss, – das ist wie in der Vergangenheit auch etwa alle fünf Jahre der Fall – dann gibt es neben der Cloud-Option nun auch die Möglichkeit, auf ein modulares Datenzentrum zurückzugreifen. In den vergangenen Jahren gab es hier ein stetiges Wachstum. Wobei dieser Trend noch sehr jung ist. Die Vorteile eines modularen Datenzentrums liegen in der schnellen Inbetriebnahme, einer verbesserten Management-Lösung und der Möglichkeit, sehr schnell auf Bedarf reagieren zu können.

Forrester erkennt zwar an, dass Organisationen wie die Open Data Center Alliance oder die Green Data Center Alliance eine Daseinsberechtigung haben, allerdings fehle diesen Initiativen die kritische Masse, als dass die Hersteller sich dadurch zu einem höheren Standardisierungsgrad in ihren Produkten würden hinreißen lassen. Es schadet daher nichts, die Ziele dieser Gruppen zu kennen, allerdings sollte man seine Kaufentscheidung nicht an diesen Zielen ausrichten.

Silicon-Redaktion

Recent Posts

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

1 Tag ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

2 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

3 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

3 Tagen ago

KI-Bluff bei AIOps erkennen

Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…

4 Tagen ago

Klinikum Frankfurt an der Oder treibt Digitalisierung voran

Interdisziplinäres Lenkungsgremium mit Experten aus den Bereichen IT, Medizin, Pflege und Verwaltung sorgt für die…

4 Tagen ago