Der Brückenbau zählt zu den anspruchsvollsten Aufgaben des Bauwesens. Sorgfältig werden Festigkeit, Dauerhaftigkeit und Wirtschaftlichkeit anhand eines Modells berechnet. Erst wenn alle Punkte durchdacht und durchgerechnet sind, erfolgt die reale Konstruktion. In den Ingenieurwissenschaften gehört eine solche Simulation und Prognose des künftigen Verhaltens zum Handwerkszeug. Schließlich ist es günstiger, einen Fehler im Vorfeld am Modell zu identifizieren, als später am “lebendigen” Objekt Flickschusterei zu betreiben.
Von einem solchen Procedere ist die IT im Unternehmenssegment meilenweit entfernt. Zur Simulation wird vielleicht die neue Lösung mit Realdaten für einen Monatsabschluss oder Ähnlichem durchgespielt, aber nach einigen fehlerfreien Test-Cases folgt das Rollout. Übertragen auf den Brückenbau bedeutet ein solches Vorgehen: Eine Brücke wird ohne Modellsimulation gebaut und nach dem Bau fahren probeweise ein paar LKWs über das Bauwerk. Kommen die Fahrzeuge ohne Probleme ans andere Ende, wird die Brücke für den allgemeinen Verkehr frei gegeben. Jeder mag für sich selbst die Frage beantworten, ob er der Festigkeit oder Dauerhaftigkeit dieses Brückenbaus vertrauen würde.
Im Produktivbetrieb gibt es dann in der Regel zwei Klassen von Problemen. Einerseits kann sich bereits beim Going Live zeigen, dass die Testszenarien ungenügend waren. Dann bricht bereits mit der ersten Welle der User die Performance zusammen oder massive Fehlersituationen sorgen für Ärger. Die zweite Klasse der Probleme kommt schleichend. Langsam – und zunächst nur für die IT mit ihren technischen Werkzeugen wahrnehmbar – sinkt die Leistung. Woche für Woche verschlechtert sich die Performance. Anwender beginnen zu murren. Ein technischer Ausbau der Systeme führt nicht zu der angestrebten Verbesserung und bewirkt nur eine punktuelle Entlastung. Kurz: Das Phänomen von ständig wachsender Datenmenge und Datenkomplexität hat zugeschlagen.
Die IT sollte sich daher das Vorgehen in den Ingenieurwissenschaften zum Vorbild nehmen und für das eigene Aufgabengebiet adaptieren. Vor der Betriebsaufnahme muss die spätere Nutzung mit größtmöglicher Präzision, vielleicht auch in unterschiedlichen Szenarien, durchgerechnet werden.
Werden von der Lösungslandschaft die Geschäftsprozesse und -transaktionen bei dem avisierten Volumen in angestrebter Zeit und Qualität zu vernünftigen Preisen bearbeitet? Als nachlaufende Fragestellung ist das in der IT wohlbekannt. Denn im Benchmarking werden letztlich identische Zielstellungen verfolgt. Warum aber erst nach Auftreten des Problems kurieren? Warum erst mühsam ohne ein solches Hilfsmittel Systeme zu optimaler Leistung bringen? Es bietet sich an, die Benchmark-Werkzeuge für Simulation und Prognose heranzuziehen und sich dadurch Schwachstellen quasi auf dem Silbertablett servieren zu lassen.
Page: 1 2
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…
Cloud-Trends 2025: Zahlreiche neue Technologien erweitern die Grenzen von Cloud Computing.
Noah Labs wollen Kardiologie-Praxen und Krankenhäuser in Deutschland durch KI-gestütztes Telemonitoring von Patienten entlasten.
Neun von zehn deutschen Managern erwarten, dass der Einsatz von KI auf ihre Nachhaltigkeitsziele einzahlen…
Intergermania Transport automatisiert die Belegerfassung mit KI und profitiert von 95 Prozent Zeitersparnis.
Cyberattacken finden in allen Branchen statt, und Geschwindigkeit und Häufigkeit der Angriffe werden weiter zunehmen,…