Categories: Management

ICT-Infrastruktur im Jahr 2012

Big Data

Aus Infrastruktursicht sind dabei insbesondere geeignete Storage-Strukturen und Server wichtig. Hinzu kommt eine geeignete Software, die entscheidet, welche Daten langfristig gespeichert, vorübergehend gespeichert oder direkt verworfen werden sollen. Aus Infrastruktursicht gilt es zu klären, für welche Bereiche im Unternehmen Big Data Potenziale hat, um die benötigten Speichermengen abschätzen und damit die optimale Infrastruktur planen zu können. Bei Servern lassen sich im Wesentlichen zwei Arten unterscheiden:

  • Standard-Unix, Linux- oder Windows-Server

  • Appliances, die häufig mit Spezial-CPUs bestückt sind bzw. mit Hilfe von GPUs rechnen.

Client-Strategie

2012 gilt es, die bestehende Client-Strategie an die neuen Gegebenheiten anzupassen. Zentrale Fragen werden sein:

  • Werden private Endgeräte unterstützt und in welchen Hardware-Segmenten (Notebooks, Pads, Smartphones)?

  • Wie werden neue Clients unterstützt und gemanaged? Eine kategorische Ablehnung werden nur sehr wenige IT-Abteilungen durchhalten. Welche Daten und Anwendungen sollen vom Pad oder Smartphone aus erreichbar bzw. replizierbar sein?

  • Wie entwickelt sich die Mobilität der Mitarbeiter in den nächsten 2 Jahren?

  • In welchem Umfang sollen Home Offices unterstützt werden?

Die Antworten hierauf liefern die Grundlage für Entscheidungen in den Bereichen Service-Katalog, Enterprise Content Management und Mobile Device Management. Fat-Clients sollten 2012 mit Windows 7 betankt werden und Windows-XP-User sollten spätestens Ende 2012 die Migration auf Windows 7 abschließen können. Bei der Client-Strategie insgesamt spielt das Thema Governance eine immer wichtigere Rolle. Durch die deutlich fortschreitende Consumerization der Business-IT werden sich kleine und starre Einkaufskörbe für Endgeräte nicht durchhalten lassen. Entsprechend müssen aber mehrere unterschiedliche Hardware- und ggf. Betriebssystemvarianten unterstützt werden. Kostengünstig ist dies bestenfalls in einer virtuellen Umgebung möglich. Insgesamt ist aber mit steigenden Kosten im Bereich des Client-Betriebs zu rechnen.

Server mit niedrigem Stromverbrauch

Es ist zu erwarten, dass nicht nur HP, sondern auch andere Server-Anbieter verstärkt mit Servern auf den Markt kommen werden, die besonders wenig Energie benötigen. Diese basieren meist auf CPUs aus mobilen Geräten. Insgesamt werden sich diese Server, im Vergleich zu Standard-Servern, durch eine wesentlich höhere Anzahl von CPUs auszeichnen, gleichzeitig aber weniger Energie benötigen. Insgesamt eignen sich derartige Server insbesondere für Anwendungen mit niedrigen Rechenanforderungen, erhöhen im Rechenzentrum aber die Komplexität und damit tendenziell die Betriebskosten. Für ICT-Architekten stellt sich die Frage, ob derartige Server in ihrem speziellen Fall sinnvoll eingesetzt werden können.

Server-Strategie

Auch im Jahr 2012 werden Anwenderunternehmen versuchen, die Rechenzentren – was die Betriebssysteme angeht – homogener zu gestalten:

  • Der Anteil an x64-Servern in den Rechenzentren wird weiter zunehmen:

    • Linux wird weiter an Bedeutung zulegen

    • Microsoft Windows sich behaupten

  • Der traditionelle Unix-Markt wird weiter leicht zurückgehen:

    • HP-UX auf Itanium wird im Vergleich zum Gesamtmarkt etwas stärker verlieren

    • IBM AIX wird deutlich Marktanteile gewinnen

    • Solaris wird bei Neuanschaffungen zum Nischenprodukt

  • Mainframes bleiben weiterhin eher behauptet:

    • Zwar steigt der Druck auf den Mainframe weiter an, jedoch sind immer noch einige, wenn auch wenige und entsprechend teure, Cobol- und PL/1- Programmierer verfügbar, so dass die dringendsten Anpassungen vorgenommen werden können.

    • Aufgrund der eher gemischten Erfahrungen mit Mainframe-Ablösungen der letzten 15 Jahre, neigen die meisten erfahreneren CIOs zum Aussitzen, eine Option die Jüngere definitiv nicht haben.

Bei den Herstellern lassen sich zukünftig drei Klassen unterscheiden:

  • Mainstream-Produkte und -Lösungen: Diese Anbieter bauen Standard-Server und differenzieren sich kaum über Produkt- oder Management-Features. Ein Beispiel hierfür ist Dell.

  • Leistungsorientierte Hersteller: Diese Anbieter bauen neben Standard-Servern auch High-Performance-Versionen, sowohl im x64-Bereich als auch im Unix-Umfeld. Ein Beispiel hierfür ist IBM.

  • Management-orientierte Hersteller: Diese Anbieter fokussieren nicht auf den einzelnen Server – der meist Standard ist – sondern auf das Management des gesamten Rechenzentrums. Ein Beispiel hierfür ist HP.

Anwender müssen sich im Laufe des Jahres 2012 entscheiden, welchen strategischen Imperativ sie in den nächsten Jahren verfolgen möchten. Es spricht im Wesentlichen nichts gegen alle drei Varianten, alle haben Vor- und Nachteile. Nur eine Mischung der Imperative in einem Rechenzentrum führt unweigerlich zu höheren Management-Kosten und ist deshalb eher kontraproduktiv.

Silicon-Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

4 Tagen ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

4 Tagen ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

6 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

7 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

1 Woche ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

1 Woche ago