Big Data
Aus Infrastruktursicht sind dabei insbesondere geeignete Storage-Strukturen und Server wichtig. Hinzu kommt eine geeignete Software, die entscheidet, welche Daten langfristig gespeichert, vorübergehend gespeichert oder direkt verworfen werden sollen. Aus Infrastruktursicht gilt es zu klären, für welche Bereiche im Unternehmen Big Data Potenziale hat, um die benötigten Speichermengen abschätzen und damit die optimale Infrastruktur planen zu können. Bei Servern lassen sich im Wesentlichen zwei Arten unterscheiden:
Standard-Unix, Linux- oder Windows-Server
Appliances, die häufig mit Spezial-CPUs bestückt sind bzw. mit Hilfe von GPUs rechnen.
Client-Strategie
2012 gilt es, die bestehende Client-Strategie an die neuen Gegebenheiten anzupassen. Zentrale Fragen werden sein:
Werden private Endgeräte unterstützt und in welchen Hardware-Segmenten (Notebooks, Pads, Smartphones)?
Wie werden neue Clients unterstützt und gemanaged? Eine kategorische Ablehnung werden nur sehr wenige IT-Abteilungen durchhalten. Welche Daten und Anwendungen sollen vom Pad oder Smartphone aus erreichbar bzw. replizierbar sein?
Wie entwickelt sich die Mobilität der Mitarbeiter in den nächsten 2 Jahren?
In welchem Umfang sollen Home Offices unterstützt werden?
Die Antworten hierauf liefern die Grundlage für Entscheidungen in den Bereichen Service-Katalog, Enterprise Content Management und Mobile Device Management. Fat-Clients sollten 2012 mit Windows 7 betankt werden und Windows-XP-User sollten spätestens Ende 2012 die Migration auf Windows 7 abschließen können. Bei der Client-Strategie insgesamt spielt das Thema Governance eine immer wichtigere Rolle. Durch die deutlich fortschreitende Consumerization der Business-IT werden sich kleine und starre Einkaufskörbe für Endgeräte nicht durchhalten lassen. Entsprechend müssen aber mehrere unterschiedliche Hardware- und ggf. Betriebssystemvarianten unterstützt werden. Kostengünstig ist dies bestenfalls in einer virtuellen Umgebung möglich. Insgesamt ist aber mit steigenden Kosten im Bereich des Client-Betriebs zu rechnen.
Server mit niedrigem Stromverbrauch
Es ist zu erwarten, dass nicht nur HP, sondern auch andere Server-Anbieter verstärkt mit Servern auf den Markt kommen werden, die besonders wenig Energie benötigen. Diese basieren meist auf CPUs aus mobilen Geräten. Insgesamt werden sich diese Server, im Vergleich zu Standard-Servern, durch eine wesentlich höhere Anzahl von CPUs auszeichnen, gleichzeitig aber weniger Energie benötigen. Insgesamt eignen sich derartige Server insbesondere für Anwendungen mit niedrigen Rechenanforderungen, erhöhen im Rechenzentrum aber die Komplexität und damit tendenziell die Betriebskosten. Für ICT-Architekten stellt sich die Frage, ob derartige Server in ihrem speziellen Fall sinnvoll eingesetzt werden können.
Server-Strategie
Auch im Jahr 2012 werden Anwenderunternehmen versuchen, die Rechenzentren – was die Betriebssysteme angeht – homogener zu gestalten:
Der Anteil an x64-Servern in den Rechenzentren wird weiter zunehmen:
Linux wird weiter an Bedeutung zulegen
Microsoft Windows sich behaupten
Der traditionelle Unix-Markt wird weiter leicht zurückgehen:
HP-UX auf Itanium wird im Vergleich zum Gesamtmarkt etwas stärker verlieren
IBM AIX wird deutlich Marktanteile gewinnen
Solaris wird bei Neuanschaffungen zum Nischenprodukt
Mainframes bleiben weiterhin eher behauptet:
Zwar steigt der Druck auf den Mainframe weiter an, jedoch sind immer noch einige, wenn auch wenige und entsprechend teure, Cobol- und PL/1- Programmierer verfügbar, so dass die dringendsten Anpassungen vorgenommen werden können.
Aufgrund der eher gemischten Erfahrungen mit Mainframe-Ablösungen der letzten 15 Jahre, neigen die meisten erfahreneren CIOs zum Aussitzen, eine Option die Jüngere definitiv nicht haben.
Bei den Herstellern lassen sich zukünftig drei Klassen unterscheiden:
Mainstream-Produkte und -Lösungen: Diese Anbieter bauen Standard-Server und differenzieren sich kaum über Produkt- oder Management-Features. Ein Beispiel hierfür ist Dell.
Leistungsorientierte Hersteller: Diese Anbieter bauen neben Standard-Servern auch High-Performance-Versionen, sowohl im x64-Bereich als auch im Unix-Umfeld. Ein Beispiel hierfür ist IBM.
Management-orientierte Hersteller: Diese Anbieter fokussieren nicht auf den einzelnen Server – der meist Standard ist – sondern auf das Management des gesamten Rechenzentrums. Ein Beispiel hierfür ist HP.
Anwender müssen sich im Laufe des Jahres 2012 entscheiden, welchen strategischen Imperativ sie in den nächsten Jahren verfolgen möchten. Es spricht im Wesentlichen nichts gegen alle drei Varianten, alle haben Vor- und Nachteile. Nur eine Mischung der Imperative in einem Rechenzentrum führt unweigerlich zu höheren Management-Kosten und ist deshalb eher kontraproduktiv.
Assistenzsysteme unterstützen Monteure bei der Arbeit. Zu oft zahlt man jedoch mit den eigenen Daten…
Hersteller werden stärker in die Pflicht genommen, den gesamten Lebenszyklus ihrer Produkte in den Blick…
LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…
Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…
Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…
Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…