Categories: Management

ICT-Infrastruktur im Jahr 2012

Big Data

Aus Infrastruktursicht sind dabei insbesondere geeignete Storage-Strukturen und Server wichtig. Hinzu kommt eine geeignete Software, die entscheidet, welche Daten langfristig gespeichert, vorübergehend gespeichert oder direkt verworfen werden sollen. Aus Infrastruktursicht gilt es zu klären, für welche Bereiche im Unternehmen Big Data Potenziale hat, um die benötigten Speichermengen abschätzen und damit die optimale Infrastruktur planen zu können. Bei Servern lassen sich im Wesentlichen zwei Arten unterscheiden:

  • Standard-Unix, Linux- oder Windows-Server

  • Appliances, die häufig mit Spezial-CPUs bestückt sind bzw. mit Hilfe von GPUs rechnen.

Client-Strategie

2012 gilt es, die bestehende Client-Strategie an die neuen Gegebenheiten anzupassen. Zentrale Fragen werden sein:

  • Werden private Endgeräte unterstützt und in welchen Hardware-Segmenten (Notebooks, Pads, Smartphones)?

  • Wie werden neue Clients unterstützt und gemanaged? Eine kategorische Ablehnung werden nur sehr wenige IT-Abteilungen durchhalten. Welche Daten und Anwendungen sollen vom Pad oder Smartphone aus erreichbar bzw. replizierbar sein?

  • Wie entwickelt sich die Mobilität der Mitarbeiter in den nächsten 2 Jahren?

  • In welchem Umfang sollen Home Offices unterstützt werden?

Die Antworten hierauf liefern die Grundlage für Entscheidungen in den Bereichen Service-Katalog, Enterprise Content Management und Mobile Device Management. Fat-Clients sollten 2012 mit Windows 7 betankt werden und Windows-XP-User sollten spätestens Ende 2012 die Migration auf Windows 7 abschließen können. Bei der Client-Strategie insgesamt spielt das Thema Governance eine immer wichtigere Rolle. Durch die deutlich fortschreitende Consumerization der Business-IT werden sich kleine und starre Einkaufskörbe für Endgeräte nicht durchhalten lassen. Entsprechend müssen aber mehrere unterschiedliche Hardware- und ggf. Betriebssystemvarianten unterstützt werden. Kostengünstig ist dies bestenfalls in einer virtuellen Umgebung möglich. Insgesamt ist aber mit steigenden Kosten im Bereich des Client-Betriebs zu rechnen.

Server mit niedrigem Stromverbrauch

Es ist zu erwarten, dass nicht nur HP, sondern auch andere Server-Anbieter verstärkt mit Servern auf den Markt kommen werden, die besonders wenig Energie benötigen. Diese basieren meist auf CPUs aus mobilen Geräten. Insgesamt werden sich diese Server, im Vergleich zu Standard-Servern, durch eine wesentlich höhere Anzahl von CPUs auszeichnen, gleichzeitig aber weniger Energie benötigen. Insgesamt eignen sich derartige Server insbesondere für Anwendungen mit niedrigen Rechenanforderungen, erhöhen im Rechenzentrum aber die Komplexität und damit tendenziell die Betriebskosten. Für ICT-Architekten stellt sich die Frage, ob derartige Server in ihrem speziellen Fall sinnvoll eingesetzt werden können.

Server-Strategie

Auch im Jahr 2012 werden Anwenderunternehmen versuchen, die Rechenzentren – was die Betriebssysteme angeht – homogener zu gestalten:

  • Der Anteil an x64-Servern in den Rechenzentren wird weiter zunehmen:

    • Linux wird weiter an Bedeutung zulegen

    • Microsoft Windows sich behaupten

  • Der traditionelle Unix-Markt wird weiter leicht zurückgehen:

    • HP-UX auf Itanium wird im Vergleich zum Gesamtmarkt etwas stärker verlieren

    • IBM AIX wird deutlich Marktanteile gewinnen

    • Solaris wird bei Neuanschaffungen zum Nischenprodukt

  • Mainframes bleiben weiterhin eher behauptet:

    • Zwar steigt der Druck auf den Mainframe weiter an, jedoch sind immer noch einige, wenn auch wenige und entsprechend teure, Cobol- und PL/1- Programmierer verfügbar, so dass die dringendsten Anpassungen vorgenommen werden können.

    • Aufgrund der eher gemischten Erfahrungen mit Mainframe-Ablösungen der letzten 15 Jahre, neigen die meisten erfahreneren CIOs zum Aussitzen, eine Option die Jüngere definitiv nicht haben.

Bei den Herstellern lassen sich zukünftig drei Klassen unterscheiden:

  • Mainstream-Produkte und -Lösungen: Diese Anbieter bauen Standard-Server und differenzieren sich kaum über Produkt- oder Management-Features. Ein Beispiel hierfür ist Dell.

  • Leistungsorientierte Hersteller: Diese Anbieter bauen neben Standard-Servern auch High-Performance-Versionen, sowohl im x64-Bereich als auch im Unix-Umfeld. Ein Beispiel hierfür ist IBM.

  • Management-orientierte Hersteller: Diese Anbieter fokussieren nicht auf den einzelnen Server – der meist Standard ist – sondern auf das Management des gesamten Rechenzentrums. Ein Beispiel hierfür ist HP.

Anwender müssen sich im Laufe des Jahres 2012 entscheiden, welchen strategischen Imperativ sie in den nächsten Jahren verfolgen möchten. Es spricht im Wesentlichen nichts gegen alle drei Varianten, alle haben Vor- und Nachteile. Nur eine Mischung der Imperative in einem Rechenzentrum führt unweigerlich zu höheren Management-Kosten und ist deshalb eher kontraproduktiv.

Silicon-Redaktion

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

8 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

8 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

1 Tag ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

1 Tag ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

1 Tag ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago