Softwarelandschaft im Blick mit Echtzeitbildern aus der Vogelperspektive

Dr. Johannes Bohnet. Quelle: Software Diagnostics.

Wie peinlich Software-Pannen für ein Unternehmen werden können hat erst kürzlich die Fluggesellschaft Alitalia schmerzlich am eigenen Leib erfahren. Fach- und Führungskräfte der deutschen IT-Branche schätzen den wirtschaftlichen Schaden, der durch Programmmängel entsteht, auf bis zu zehn Milliarden Euro im Jahr. Vorbeugen können Unternehmen unter anderem mit einem Tool des Unternehmens Software Diagnostics, ein ehemaliges Spin-off des Hasso-Plattner-Instituts.

Silicon.de: Welche Folgen können unzureichende oder fehlgeleitete Software-Tests für Unternehmen haben?

Johannes Bohnet: Funktioniert eine Anwendung nicht so wie sie eigentlich sollte oder könnte, geht dies in der Regel auf das Konto oder das Image des Unternehmens. Kunden von Alitalia waren kürzlich erst erfreut, dann erzürnt, dass die Fluglinie aufgrund einer Softwarepanne Tickets gratis ausgab – dies dann aber merkte und den entsprechenden Betrag forderte.

Drastischer wird es, wenn ein nicht erkannter Softwarefehler Firmen kurz vor den Ruin bringt, wie der Fall Knight Capital vor ein paar Monaten gezeigt hat. Der Börsenmakler verlor aufgrund eines Softwarefehlers in seinem neuen Handelsprogramm in einer Dreiviertelstunde fast 440 Millionen Dollar. Ganz kritisch ist es natürlich vor allem dann, wenn es um die Sicherheit, beispielsweise in Autos, geht.

Silicon.de: Eine IDC-Studie von Anfang des Jahres zeigt: Das Thema Software Quality Assurance scheint für Firmen nur schwer beherrschbar. Warum?

Johannes Bohnet: Software gehört vermutlich zu den komplexesten technischen Systemen, die sich Menschen ausgedacht haben. Und sie werden immer komplexer. Die Mondkapsel Apollo 11 kam noch mit ein paar zehntausend Zeilen Codes aus. Ein modernes Auto verfügt mittlerweile über 20 bis 100 Millionen Zeilen.
Hinzu kommt: Anders als bei der Produktion einer Druckmaschine oder eines Flugzeuges, ist die Software, die hinter einer Anwendung arbeitet, unsichtbar. Natürlich lassen Unternehmen die fachlichen Anforderungen in aufwändigen Tests überprüfen – bei großen Projekten sind dabei Heerscharen an Testern beteiligt. Dabei geht es aber lediglich um die Frage, ob die Anwendung funktioniert. Wie verworren und komplex der eigentliche Code gebaut ist, spielt sieht dabei keiner. Diese komplexen Stellen vorab zu erkennen, ist jedoch der eigentliche Schlüssel zum Qualitätserfolg. Mit diesem Wissen kann man die Fehler im Keim ersticken und sich entsprechend Folgekosten ersparen.

Silicon.de: Für das Thema Testing gibt es verschiedene organisatorische Ansätze – in der IT-Abteilung, in den Fachabteilungen, Einkauf von Testing-Services… Kann das Tool von Software Diagnostic all das ersetzen?

Eine Software-Karte in Form eines Stadtplans bietet eine komplette Übersicht über das System. Blaue, schlanke Einfamilienhäuser stehen für unproblematische Programmteile. Rote Hochhäuser mit großer Grundfläche stehen für Einsturzgefahr. Quelle: Software Diagnostics.

Johannes Bohnet: Die unterschiedlichen Abteilungen vertrauen auf bewährte Methoden und setzten entsprechende Tools ein, um die Qualität der Software so gut wie möglich sicherzustellen. Dazu gehören beispielsweise Tools für das Testfall-Management, Code-Checker oder Anwendungen zum Laufzeit-Monitoring. Mit diesen voneinander unabhängig eingesetzten Hilfsmitteln sehen sie allerdings jeweils nur einen kleinen Ausschnitt.

Wirkliches Wissen um den Zustand der Software erhalten sie nicht. Mit der “Transparency Platform”, sammeln wir alle Rohdaten aus diesen Anwendungen ein, werten sie mit Hilfe von Business-Intelligence-Methoden aus und visualisieren die Ergebnisse in übersichtlichen Softwarekarten. Unser Analysesystem liefert wie ein Satellit in Echtzeit Bilder von der Softwarelandschaft. So müssen Softwareverantwortliche nicht mehr “blind” nach Bauchgefühl entscheiden, sondern erkennen sofort, an welchen Stellen sich Entwicklungsbrennpunkte befinden, und können entsprechende Gegenmaßnahmen einleiten.

Silicon.de: Wie hoch ist der Anteil am IT-Budget, den Software-Tests in der Regel verschlingen?

Johannes Bohnet: Das kann man nur schwer beantworten, weil dies von vielen Faktoren abhängt; unter anderem davon, wie kritisch eine Anwendung ist, wo sie entwickelt wurde oder für welchen Zweck sie eingesetzt wird. 30 bis 40 Prozent im Schnitt sind eine realistische Größe. Nach wie vor gilt natürlich die Faustregel: Je früher ein Fehler im Entwicklungsprozess auftritt und je später er entdeckt wird, desto aufwändiger ist es, ihn zu beheben.

Eine interne Berechnung aus der Entwicklungsabteilung eines großen Versicherungskonzern zeigt: Das Beheben eines einzigen Fehlers, der während des Betriebs von den Endanwendern entdeckt wird, kostet im Schnitt 25.000 Euro. Dies verwundert nicht, wenn man bedenkt, dass bei der Behebung sowohl die Programmierer beteiligt sind als auch die Heerscharen von Tester, die die veränderte Software wieder in Ihrer Gesamtheit testen müssen. Wird ein Fehler bereits eine Stufe früher, also von den Testern gefunden, ist die Behebung ein bisschen billiger. Wird ein Fehler zum frühestmöglichen Zeitpunkt, also bereits bei seiner Entstehung entdeckt, während der Programmierer am Code arbeitet, ist das Beheben nahezu kostenlos. Das Einsparpotential durch frühzeitiges Erkennen von Fehlern bereits während der Entwicklungsphase ist also immens.

Silicon.de: Können Sie das Einsparpotential durch den Einsatz des Tools von Software Diagnostics beziffern?

Johannes Bohnet: Mit einer kleinen, realistischen Beispielsrechnung würde ich das gerne verdeutlichen: Die Lohnkosten bei einem durchschnittlich großen Entwicklungsprojekt, das 100 Programmierer umfasst, betragen etwa 10 Millionen Euro. Wenn diese Entwickler 10 Prozent effektiver arbeiten und die Projektpläne einhalten, weil sie genau wissen, wo sich im Code die kritischen Stellen befinden, lässt sich pro Jahr eine Millionen Euro einsparen. Dabei sind die Kosten noch nicht eingerechnet, die wegfallen, weil die Tester weniger oft zu prüfen haben.

Silicon.de: Die Applikationslandschaft der Unternehmen ist in den vergangenen Jahren regelrecht explodiert – liegt hier das größte Sorgekind der CIOs?

Johannes Bohnet: Applikationslandschaften sind in der Tat ein Thema. Dank Cloud Computing geht der Trend weg vom eigenen hin zu externen Rechenzentren. Um Infrastruktur und Hardware müssen sich CIOs künftig also nicht mehr in dem Umfang kümmern.

Bei der Codierung der einzelnen Applikationen sieht es etwas anders aus. Da der CIO dafür verantwortlich ist, dass die Software funktioniert, fehlerfrei läuft, wartbar bleibt, behalten viele die Entwicklung – auch wenn sie sie am liebsten abgeben würden – im eigenen Haus. Selbst wenn doch externe Entwicklungsdienstleister beauftragt werden, ist ein CIO die Sorgen nicht los; eher im Gegenteil: Die Verantwortung über die Qualität liegt immer noch beim CIO, nur dass dieser nun noch weniger Einblick in die Prozesse hat. Transparenz in der Softwareentwicklung zu schaffen, ist und bleibt daher ein Dauerthema für jeden IT-Verantwortlichen.

Silicon.de: Sie sind ein ehemaliges Spin-off des Hasso-Plattner-Instituts in Potsdam – inwieweit hilft Ihnen das Gütesiegel “Made in Germany” in Verkaufsgesprächen mit den Kunden?

Johannes Bohnet: Dass die Auszeichnung “Made in Germany” eine positive Wirkung hat, kann gut sein, vor allem im asiatischen Raum, in dem unser südkoreanischer Vertriebspartner unsere Produkte vertreibt. Das beste Verkaufsargument ist tatsächlich unser Tool selber. Unternehmen mit denen wir sprechen, sind in der Regel sofort von ihm überzeugt, denn es gibt nichts Vergleichbares. Mit unserem Ansatz die Code-Wirklichkeit für alle, auch die nicht-technischen Entscheider, in Form von Softwarekarten einsehbar und verstehbar zu machen, haben wir ein ganz neues Marktsegment im Bereich der Softwareanalyse und des Business Intelligence eröffnet.

Silicon.de: Herr Bohnet, vielen Dank für das Gespräch.

Redaktion

Recent Posts

Siemens entwickelt Copilot für Automatisierungstechniker

Der GenKI-Assistent unterstützt das Engineering in der Industrie. Pilotkunde thyssenkrupp setzt den Copilot weltweit ein.

7 Stunden ago

Google und Schwarz-Gruppe vertiefen Partnerschaft

Ziel ist der Vertrieb gemeinsamer Cloud- und Sicherheitsangebote. Zudem sollen Schwarz´ Büro-Arbeitsplätze auf Google Workspace…

8 Stunden ago

Cloud-Transformation: Vom Wildwuchs zur Effizienz

Wie CIOs die hybride Cloud-Infrastruktur optimieren können, erklärt Dominik Meyer von Novatec Consulting.

9 Stunden ago

Lückenlose Sicherheit ohne erhöhte Latenz

Komplexe Sicherheitsmaßnahmen können kritische Anwendungen verlangsamen. Wer dagegen den einfachen Zugang zu Anwendungen priorisiert, kann…

1 Tag ago

Bitkom mit frischen Zahlen zum Online-Handel

Black Friday hin, Santa-Sale her - Online-Shopping gehört auch ohne Sonderverkäufe zum Alltag fast aller…

2 Tagen ago

Zwischen Safety und Security: Balanceakt der Industriesicherheit

Die Vernetzung in der Industrie optimiert mit KI Prozesse und reduziert mit Predictive Maintenance ungeplante…

3 Tagen ago