Categories: Management

ICT-Infrastruktur im Jahr 2012

Big Data

Aus Infrastruktursicht sind dabei insbesondere geeignete Storage-Strukturen und Server wichtig. Hinzu kommt eine geeignete Software, die entscheidet, welche Daten langfristig gespeichert, vorübergehend gespeichert oder direkt verworfen werden sollen. Aus Infrastruktursicht gilt es zu klären, für welche Bereiche im Unternehmen Big Data Potenziale hat, um die benötigten Speichermengen abschätzen und damit die optimale Infrastruktur planen zu können. Bei Servern lassen sich im Wesentlichen zwei Arten unterscheiden:

  • Standard-Unix, Linux- oder Windows-Server

  • Appliances, die häufig mit Spezial-CPUs bestückt sind bzw. mit Hilfe von GPUs rechnen.

Client-Strategie

2012 gilt es, die bestehende Client-Strategie an die neuen Gegebenheiten anzupassen. Zentrale Fragen werden sein:

  • Werden private Endgeräte unterstützt und in welchen Hardware-Segmenten (Notebooks, Pads, Smartphones)?

  • Wie werden neue Clients unterstützt und gemanaged? Eine kategorische Ablehnung werden nur sehr wenige IT-Abteilungen durchhalten. Welche Daten und Anwendungen sollen vom Pad oder Smartphone aus erreichbar bzw. replizierbar sein?

  • Wie entwickelt sich die Mobilität der Mitarbeiter in den nächsten 2 Jahren?

  • In welchem Umfang sollen Home Offices unterstützt werden?

Die Antworten hierauf liefern die Grundlage für Entscheidungen in den Bereichen Service-Katalog, Enterprise Content Management und Mobile Device Management. Fat-Clients sollten 2012 mit Windows 7 betankt werden und Windows-XP-User sollten spätestens Ende 2012 die Migration auf Windows 7 abschließen können. Bei der Client-Strategie insgesamt spielt das Thema Governance eine immer wichtigere Rolle. Durch die deutlich fortschreitende Consumerization der Business-IT werden sich kleine und starre Einkaufskörbe für Endgeräte nicht durchhalten lassen. Entsprechend müssen aber mehrere unterschiedliche Hardware- und ggf. Betriebssystemvarianten unterstützt werden. Kostengünstig ist dies bestenfalls in einer virtuellen Umgebung möglich. Insgesamt ist aber mit steigenden Kosten im Bereich des Client-Betriebs zu rechnen.

Server mit niedrigem Stromverbrauch

Es ist zu erwarten, dass nicht nur HP, sondern auch andere Server-Anbieter verstärkt mit Servern auf den Markt kommen werden, die besonders wenig Energie benötigen. Diese basieren meist auf CPUs aus mobilen Geräten. Insgesamt werden sich diese Server, im Vergleich zu Standard-Servern, durch eine wesentlich höhere Anzahl von CPUs auszeichnen, gleichzeitig aber weniger Energie benötigen. Insgesamt eignen sich derartige Server insbesondere für Anwendungen mit niedrigen Rechenanforderungen, erhöhen im Rechenzentrum aber die Komplexität und damit tendenziell die Betriebskosten. Für ICT-Architekten stellt sich die Frage, ob derartige Server in ihrem speziellen Fall sinnvoll eingesetzt werden können.

Server-Strategie

Auch im Jahr 2012 werden Anwenderunternehmen versuchen, die Rechenzentren – was die Betriebssysteme angeht – homogener zu gestalten:

  • Der Anteil an x64-Servern in den Rechenzentren wird weiter zunehmen:

    • Linux wird weiter an Bedeutung zulegen

    • Microsoft Windows sich behaupten

  • Der traditionelle Unix-Markt wird weiter leicht zurückgehen:

    • HP-UX auf Itanium wird im Vergleich zum Gesamtmarkt etwas stärker verlieren

    • IBM AIX wird deutlich Marktanteile gewinnen

    • Solaris wird bei Neuanschaffungen zum Nischenprodukt

  • Mainframes bleiben weiterhin eher behauptet:

    • Zwar steigt der Druck auf den Mainframe weiter an, jedoch sind immer noch einige, wenn auch wenige und entsprechend teure, Cobol- und PL/1- Programmierer verfügbar, so dass die dringendsten Anpassungen vorgenommen werden können.

    • Aufgrund der eher gemischten Erfahrungen mit Mainframe-Ablösungen der letzten 15 Jahre, neigen die meisten erfahreneren CIOs zum Aussitzen, eine Option die Jüngere definitiv nicht haben.

Bei den Herstellern lassen sich zukünftig drei Klassen unterscheiden:

  • Mainstream-Produkte und -Lösungen: Diese Anbieter bauen Standard-Server und differenzieren sich kaum über Produkt- oder Management-Features. Ein Beispiel hierfür ist Dell.

  • Leistungsorientierte Hersteller: Diese Anbieter bauen neben Standard-Servern auch High-Performance-Versionen, sowohl im x64-Bereich als auch im Unix-Umfeld. Ein Beispiel hierfür ist IBM.

  • Management-orientierte Hersteller: Diese Anbieter fokussieren nicht auf den einzelnen Server – der meist Standard ist – sondern auf das Management des gesamten Rechenzentrums. Ein Beispiel hierfür ist HP.

Anwender müssen sich im Laufe des Jahres 2012 entscheiden, welchen strategischen Imperativ sie in den nächsten Jahren verfolgen möchten. Es spricht im Wesentlichen nichts gegen alle drei Varianten, alle haben Vor- und Nachteile. Nur eine Mischung der Imperative in einem Rechenzentrum führt unweigerlich zu höheren Management-Kosten und ist deshalb eher kontraproduktiv.

Silicon-Redaktion

Recent Posts

Mehr Datenschutz in der Montage

Assistenzsysteme unterstützen Monteure bei der Arbeit. Zu oft zahlt man jedoch mit den eigenen Daten…

1 Tag ago

Cyber Resilience Act: Countdown läuft

Hersteller werden stärker in die Pflicht genommen, den gesamten Lebenszyklus ihrer Produkte in den Blick…

1 Tag ago

KI auf dem Prüfstand

LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…

2 Tagen ago

Rechenzentren: Deutschland verliert Anschluss

Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…

2 Tagen ago

KI steigert Nachfrage nach hybriden Workplace-Umgebungen

Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…

2 Tagen ago

Hagebau erreicht E-Mail-Sicherheit mit der NoSpamProxy Cloud

Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…

3 Tagen ago