Open-Source-Software hat generell eine bessere Qualität als proprietäre Produkte. Zu diesem Ergebnis kommen die beiden britischen Wissenschaftler Damien Challet and Yann Le Du nach Abschluss einer Studie, die sie mit Methoden der theoretischen Statistik durchgeführt haben.
Anwender, Entwickler und Administratoren treten in dem Modell der Oxford-Wissenschaftler zum Thema “Software Bug Dynamics” gegeneinander an. Nach Einführung einer neuen Software nehme die Zahl der vorhandenen Softwarefehler zunächst schnell ab. Danach aber seien die kleineren Fehler umso schwerer zu identifizieren. Diese Debugging-Phase könne die Open-Source-Community weit besser bewältigen als kommerzielle Softwareentwickler, so das Fazit von Du und Challet.
Ausschlaggebend sei die höhere Zahl an Entwicklern, die Fehler beseitigen könnten. Aber auch die größere Menge an “berichterstattendenden Anwendern” bringe Open Source in eine vorteilhaftere Position.
Die Produktzyklen seien bei Closed Source wesentlich länger. Deshalb dauere es auch länger, bis hier Fehler behoben werden könnten. Open Source liege darüber hinaus auch vorne, wenn es um den Vergleich der Lieferzeit für Updates gehe.
Als Ursache für eine von vornherein schlechtere Qualität kommerzieller Softwareprodukte haben die Wissenschaftler den wirtschaftlichen Druck ausgemacht. Entwickler müssten ihre Ergebnisse eben möglichst schnell auf den Markt bringen, um das eingesetzte Kapital zu verwerten.
Das aber räche sich bitter, meint das US-amerikanische Institute of Standards and Technology. Allein im vergangenen Jahr sollen schadhafte Softwareprodukte durch zusätzlichen Aufwand und Ausfälle Kosten in Höhe von 60 Milliarden Dollar verursacht haben. Das entspricht 0,6 Prozent des amerikanischen Bruttoinlandsprodukts.
Beim Thema Sicherheit, so heißt es weiter, sei das Open-Source-Betriebssystem Linux aber vor allem deshalb im Vorteil, weil es deutlich jünger sei als etwa Betriebssysteme von Microsoft, die meist Altlasten vorangegangener Versionen mit sich herumschleppen. Linux werde deshalb mit der Zeit immer mehr Sicherheitslücken aufweisen und die Entwickler werden sich des Themas verstärkt annehmen müssen, heißt es.
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…
Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…
Interdisziplinäres Lenkungsgremium mit Experten aus den Bereichen IT, Medizin, Pflege und Verwaltung sorgt für die…