“Warum haben wir eigentlich nie Zeit, eine Sache richtig zu machen, aber immer Zeit, sie noch mal zu machen?”, schreibt der Amerikaner Gerald Weinberg in seinem Buch ‘Systemdenken und Softwarequalität’. Ein IT-Projekt noch mal zu machen, ist der Normalfall. Wie die Marktforscher der Standish Group ermittelt haben, dauern 53 Prozent der Projekte länger und kosten viel mehr als geplant. Und 18 Prozent der IT-Projekte scheitern gänzlich. Titel der Untersuchung: ‘Chaos Report’.
Dieses Chaos kann schon mal 100 Millionen Euro zusätzlich verschlingen – wie beim virtuellen Arbeitsmarkt der Bundesagentur für Arbeit. Für den hatten die Behörde und der IT-Dienstleister Accenture 65 Millionen Euro veranschlagt. Tatsächlich wird das Projekt bis 2008 etwa 165 Millionen Euro kosten.
Das Projekt litt an den wohl am häufigsten auftretenden Symptomen: Die Projektleiter vernachlässigten Dokumentation, Kostenkontrolle und Risikomanagement, und zwar schon in der Planung. Unter den Beamten war zudem während der Implementation eine ‘Featuritis’ ausgebrochen. Dass sie Datenleitungen und Rechner durch immer neue Funktionen überforderten, fiel ihnen nicht auf. Accenture war ihrerseits durch ihre Verträge so abgesichert, dass zusätzliche Features immer extra berechnet wurden.
Betrachtet man vom Scheitern bedrohte IT-Projekte, fallen Gemeinsamkeiten auf, sagt Werner Achtert, Leiter der Geschäftstelle Süd beim TÜV Informationstechnik (TÜViT). So handele es sich um umfangreiche Projekte mit hohen fachlichen und technischen Anforderungen. Es kommen neue Technologien zum Einsatz, mit denen die Beteiligten wenig Erfahrung haben. Auftragnehmer seien große Systemhäuser, die Projekte stehen unter Termindruck.
Zudem falle auf, das eine Qualitätssicherung zwar vorgesehen sei, jedoch durch den Auftragnehmer realisiert wird. Dafür gibt es Gründe. So wolle der Auftraggeber die Abwicklung des Projektes in einer Hand sehen und habe für die Qualitätssicherung oft keine Kapazitäten. Eine möglich Lösung laut Achtert wäre, die Qualitätssicherung von IT-Projekten an einen unabhängigen Dritten zu verlagern. Der TÜViT habe dazu ein Konzept entwickelt, mit der die Qualität von IT-Projekten gesichert werden kann: Quality Factory.
Die Qualitätssicherung durch einen Dritten sei in anderen Wirtschaftszweigen längst üblich. So seien die Betreiber und Hersteller von Aufzügen verpflichtet, die Sicherheit von einen unabhängigen Dienstleister prüfen zu lassen. Damit könne das verhindert werden, was Gerald Weinberg in seinem Buch den ‘Titanic-Effekt’ nennt: “Der Glaube, dass eine Katastrophe ausgeschlossen ist, führt oft zu unglaublichen Katastrophen.”
Die Auslagerung der Qualitätssicherung hätte laut Werner Achtert vom TÜViT einen weiteren positiven Nebeneffekt: Damit würde eine Instanz etabliert, die als “Moderator und Schlichter” zwischen Auftraggeber und Auftragnehmer fungieren kann. Gerade bei gescheiterten Großprojekten zeigt sich, wie viel von der Kommunikation abhängt. Einerseits ist die genaue Problemanalyse zuvor und die genaue Formulierung der eigenen Wünsche an den Partner, andererseits muss die Verantwortung klar verteilt sein: Wer ist verantwortlich, wenn etwas schief geht? Die vertraglichen Regelungen sind nach Aussagen der Analysten von Gartner Group so unterschiedlich und zahlreich wie die Anbieter. Im Notfall beschuldigen sich die Partner gegenseitig.
So geschehen auch im jüngst bekannt gewordenen Beispiel aus Großbritannien: Das Department for Work and Pensions war im Herbst 2004 in einer Migration weg von Windows NT involviert, die sich bald als zu hastig und schlecht kommuniziert erwies. Martin Brampton, Gründer von Black Sheep Research konstatiert: “EDS, so schien es, machte Microsoft verantwortlich, während Microsoft alles auf EDS schob.” Auch bei EDS selbst habe es im Laufe der Beseitigung der Schäden so ziemlich alle Aussagen gegeben, von “so gut wie gelöst” bis hin zu “wir kennen überhaupt keine Lösung für das Problem”.
Entsprechende Erfahrungen hat Thomas Traidl, IT-Manager beim ehemaligen BayWa-Unternehmen RI Solution, mit Outsourcing-Prozessen gemacht. Seiner Ansicht nach hat die schlechte Performance von Dienstleistern oft mit der Tatsache zu tun, dass sie sich nicht über die interne Situation der Kunden während der Implementation eines Outsourcing-Prozesses im Klaren sind. Die wenigsten Outsourcing-Anbieter hätten schließlich schon einmal selbst eine eigene Abteilung ausgelagert, so sein Fazit.
Eine Berechenbarkeit von IT-Projekten versuchen Dienstleister wie Sapient durch die striktere Festlegung von Zeitrahmen und Kosten, und durch die Übertragung dieses Ansatzes auch innerhalb der eigenen Strukturen. “Unser Konzept des ‘fix price, fix time’ wird in gewissem Rahmen auch intern angewandt”, sagt Christian Oversohl, Geschäftsführer Deutschland bei Sapient. Dabei bedeutet das Motto, dass der Kunde eine feste Leistung in einer fest vereinbarten Zeit zu einem ganz genau fixierten Zeitpunkt erhält. Die Hauptkritikpunkte beim Outsourcing – Bruch der Zeit- und Budget-Treue – sollen damit von vornherein vom Tisch sein.
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…