Der Brückenbau zählt zu den anspruchsvollsten Aufgaben des Bauwesens. Sorgfältig werden Festigkeit, Dauerhaftigkeit und Wirtschaftlichkeit anhand eines Modells berechnet. Erst wenn alle Punkte durchdacht und durchgerechnet sind, erfolgt die reale Konstruktion. In den Ingenieurwissenschaften gehört eine solche Simulation und Prognose des künftigen Verhaltens zum Handwerkszeug. Schließlich ist es günstiger, einen Fehler im Vorfeld am Modell zu identifizieren, als später am “lebendigen” Objekt Flickschusterei zu betreiben.
Von einem solchen Procedere ist die IT im Unternehmenssegment meilenweit entfernt. Zur Simulation wird vielleicht die neue Lösung mit Realdaten für einen Monatsabschluss oder Ähnlichem durchgespielt, aber nach einigen fehlerfreien Test-Cases folgt das Rollout. Übertragen auf den Brückenbau bedeutet ein solches Vorgehen: Eine Brücke wird ohne Modellsimulation gebaut und nach dem Bau fahren probeweise ein paar LKWs über das Bauwerk. Kommen die Fahrzeuge ohne Probleme ans andere Ende, wird die Brücke für den allgemeinen Verkehr frei gegeben. Jeder mag für sich selbst die Frage beantworten, ob er der Festigkeit oder Dauerhaftigkeit dieses Brückenbaus vertrauen würde.
Im Produktivbetrieb gibt es dann in der Regel zwei Klassen von Problemen. Einerseits kann sich bereits beim Going Live zeigen, dass die Testszenarien ungenügend waren. Dann bricht bereits mit der ersten Welle der User die Performance zusammen oder massive Fehlersituationen sorgen für Ärger. Die zweite Klasse der Probleme kommt schleichend. Langsam – und zunächst nur für die IT mit ihren technischen Werkzeugen wahrnehmbar – sinkt die Leistung. Woche für Woche verschlechtert sich die Performance. Anwender beginnen zu murren. Ein technischer Ausbau der Systeme führt nicht zu der angestrebten Verbesserung und bewirkt nur eine punktuelle Entlastung. Kurz: Das Phänomen von ständig wachsender Datenmenge und Datenkomplexität hat zugeschlagen.
Die IT sollte sich daher das Vorgehen in den Ingenieurwissenschaften zum Vorbild nehmen und für das eigene Aufgabengebiet adaptieren. Vor der Betriebsaufnahme muss die spätere Nutzung mit größtmöglicher Präzision, vielleicht auch in unterschiedlichen Szenarien, durchgerechnet werden.
Werden von der Lösungslandschaft die Geschäftsprozesse und -transaktionen bei dem avisierten Volumen in angestrebter Zeit und Qualität zu vernünftigen Preisen bearbeitet? Als nachlaufende Fragestellung ist das in der IT wohlbekannt. Denn im Benchmarking werden letztlich identische Zielstellungen verfolgt. Warum aber erst nach Auftreten des Problems kurieren? Warum erst mühsam ohne ein solches Hilfsmittel Systeme zu optimaler Leistung bringen? Es bietet sich an, die Benchmark-Werkzeuge für Simulation und Prognose heranzuziehen und sich dadurch Schwachstellen quasi auf dem Silbertablett servieren zu lassen.
Page: 1 2
Warenhauskette setzt auf die KI-gesteuerten Fähigkeiten zur Bedarfsplanung und Nachversorgung von Blue Yonder.
Technische Hochschule Augsburg (THA) will Hersteller auf die neue EU-Verordnung hinweisen, die Cybersicherheit für vernetzte…
Mit der steigenden Anzahl von Endpunkten, wächst die Komplexität, die mit dem Unternehmensnetzwerken verbundenen Geräte…
Die Kombination aus Blockieren und fundierter Analyse bietet eine resiliente Sicherheitsarchitektur, sagt Andrea Napoli von…
Projekt: Per Tablet ärztliche Expertise hinzuzuziehen, wenn sich der Gesundheitszustand von Pflegepersonen plötzlich verschlechtert.
Sicherheitsforscher von Check Point enthüllen mehrstufige Malware-Kampagnen, die legitime Prozesse zur Tarnung nutzen.