Happy Birthday Mainframe: Vom Überleben eines IT-Dinosauriers

Am 7. April vor 40 Jahren hat IBM den Großrechner S/360 offiziell vorgestellt. “Von der wichtigsten Produktankündigung in der Geschichte des Unternehmens” war damals die Rede. John Gantz, Chief Research Officer beim Marktforschungsunternehmen IDC, bringt es 40 Jahre später so auf den Punkt: “Es gab schon eine Computerindustrie, bevor IBM die S/360 ankündigte, aber sie war danach nie wieder dieselbe.” Denn Anfang der 60er Jahre gewann die automatische Datenverarbeitung immer mehr an Bedeutung, aber die Rechnerungetüme, die sich die Unternehmen dafür kaufen oder mieten mussten, waren vor allem eines: teuer. Die Ausgaben für Hardware machten 80 bis 90 Prozent der Gesamtkosten aus. Da Soft- und Hardware eng aneinander gekoppelt waren, erforderte ein neues Programm wiederum neue Hardware.
Rechner gab es von Anbietern wie Honeywell, RCA, NCR, Burroughs oder General Electric; IBM spielte da nur eine untergeordnete Rolle – bis zur Markteinführung des System/360. “Das Revolutionäre an IBMs Ansatz war, dass jede Anwendung auf jedem S/360 lief, auch auf künftigen Modellen”, sagt Josh Krischer, Analyst beim Marktforschungsunternehmen Gartner. Der Teufelskreis aus neuen Anwendungen, die wiederum neue – teure – Hardware erforderten, war durchbrochen.Hardware HardwarHard
Die ‘360’ im Namen sollte dies symbolisieren: 360 Grad, also ein Vollkreis, als Symbol für die umfassende Abdeckung aller DV-Bedürfnisse.

Die Resonanz auf die S/360 war überwältigend: Innerhalb von wenigen Jahren stieg IBM zum unbestrittenen Marktführer auf. Big Blues Umsatz wuchs durch den Erfolg des Mainframe innerhalb von 20 Jahren von 3 Milliarden auf 46 Milliarden Dollar. In dieser Zeit wuchs die gesamte IT-Industrie dagegen nur um das Vierfache. Andere Hersteller sahen sich durch IBMs Vorstoß dazu gezwungen, selbst solche “Computer für jeden Bedarf” zu entwickeln, weil die Anwender nicht mehr dazu bereit waren, das Rad bei jedem Systemwechsel neu zu erfinden. Gab es im Jahr 1964 weniger als 17.000 installierte Computer, waren es fünf Jahre später bereits 90.000 – darunter viele IBM-Rechner.

Wie gut ist CMOS?

Während die großen Systeme bei Big Blue in den USA entwickelt wurden, arbeiteten in Böblingen Entwickler an den kleinen Modellvarianten der S/360. Laut Karl-Heinz Strassemeyer, Distinguished Engineer bei IBM und dort seit 1967 in der Großrechnerentwicklung tätig, wurde damals IBM-intern auf die “kleinen Systeme” herabgeschaut: “Er arbeite ja für den richtigen Computer, sagte mir einmal ein Entwickler aus den USA.”

Ende der 80er Jahre diskutierten Entwickler intensiv die neuen Möglichkeiten der CMOS-Chiptechnologie. Mit ihr war es möglich, Prozessoren zu bauen, die viel weniger Wärme produzierten. Bis dahin eingesetzte Großrechner arbeiteten mit bipolarer Technologie, die mit Wasser gekühlt werden musste. “CMOS war die richtige Lösung für das damalige Problem”, sagt Strassemeyer. Nur wie der Markt auf CMOS-Großrechner reagieren würde, darüber war das IBM-Management uneins. Denn es war abzusehen, dass die neuen Computer auf Jahre hinaus nur einen Bruchteil der Rechenleistung bringen konnten, den auf dem Markt befindliche bipolare Maschinen von Hitachi oder Amdahl erreichten: 5 MIPS (Million Instructions per Second) bei CMOS-Systemen standen 150 MIPS bei wassergekühlten Rechnern gegenüber. Karl-Georg Martin, Chefberater für Großrechner bei IBM und seit 1983 im Mainframe-Geschäft tätig, gesteht ein, dass er damals mit viel Bauchschmerzen zu Kundenveranstaltungen fuhr: “Wir waren uns einfach nicht sicher, ob die Anwender CMOS akzeptieren würden.”

Die Böblinger IBM-Entwickler glaubten dagegen fest an den Erfolg von CMOS, aber der Großteil der Mainframe-Entwicklung – darunter alles, was wassergekühlte Systeme betraf – lief bei Big Blue in den USA. Die unternehmensinterne Konkurrenz zwischen den beiden Entwicklerlagern war enorm, zumal an der Bipolar-Technik eine deutlich fünfstellige Zahl an Arbeitsplätzen hing. Erst als Lou Gerstner 1993 Chef des weltgrößten IT-Unternehmens wurde, fiel endgültig die Entscheidung für CMOS.

Der zweite Frühling

“IBM-Management und -Vertrieb hatten Anfang der 90er Jahre den Glauben an den Großrechner verloren”, sagt Gartner-Analyst Krischer. Neben den Unsicherheiten des Technologiewechsels auf Chipebene, produzierte die Branche inzwischen Unix-Rechner mit erstaunlicher Leistung. Ein Indiz für den schwindenden Glauben an den Mainframe, so Krischer, sei die damalige Frühpensionierungswelle gewesen: Das Angebot richtete sich an alle Mitarbeiter außerhalb des Managements über 50 Jahre. Durch diesen Schritt habe IBM das eigene Großrechner-Know-how drastisch reduziert, so der Gartner-Analyst weiter. Erst Mitte der 90er Jahre gab es bei IBM wieder ein klares Bekenntnis zum Großrechner, als die vierte CMOS-Generation endlich eine konkurrenzfähige Leistung erreichte.

Die Böblinger Entwickler sollten nochmals Schicksal für IBM spielen: Ende der 90er Jahre portierte man dort das schlagartig ins Rampenlicht der Unternehmens-DV geratene Linux auf den Großrechner. “Das war damals keine Strategie”, stellt Analyst Krischer klar, “die Böblinger haben einfach herumgespielt. Aber IBM hat schnell die Chance erkannt – und genutzt.”

Eine Chance, die für Big Blue noch Gold wert sein könnte. Denn durch die Frühpensionierungswelle Anfang der 90er und die zunehmende Verbreitung von Unix- und Windows-Systemen gibt es immer weniger Fachleute für den Großrechner. “Der typische IBM-Mainframer ist Mitte 50”, illustriert Krischer das Problem. Wenn die Großrechnertechnologie auch in der Zukunft noch eine wichtige Rolle spielen solle, müsse der Nachwuchs an Universitäten und Fachhochschulen stärker mit den IT-Dinosaurieren in Berührung kommen. “Was die Studenten während ihrer Ausbildung nutzen, verwenden sie auch später im Unternehmen.” In dieser Hinsicht müsse man auch Big Blues Bemühungen zur stärkeren Automatisierung der Mainframe-Administration sehen. “Inzwischen kann man ja bereits ein R/3 auf dem Großrechner installieren, ohne spezifisches Mainframe-Know-how zu haben”, verdeutlicht der Analyst.

Mehr noch: dank Linux steht auf einen Schlag eine große Zahl von modernen Applikationen zur Verfügung, die es in der Großrechnerwelt nicht gibt. Und so träumt man IBM-intern bereits von einer Mainframe-Zukunft, die durch Linux mit der modernen IT-Welt harmonisiert wird: Im Kern läuft die Datenbank DB2 und andere Legacy-Anwendungen auf dem Großrechnerbetriebsystem z/OS für alles, was sicher sein soll und extrem transaktionsintensiv ist. Für eine in der Industrie nach wie vor unerreichte Ausfallsicherheit sorgt IBMs Mainframe-Cluster-Technologie Parallel Sysplex. Linux schließlich schafft die Grundlage, um auch moderne Applikationen auf den Großrechner zu portieren und um eine große Zahl von Servern konsolidieren zu können. Und weil die großen Hobel teuer sind, sind Blade-Server mit Linux als Betriebssystem vorgeschaltet, die nackte Rechenleistung billig zur Verfügung stellen.

Silicon-Redaktion

Recent Posts

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

In Deutschland hat das Zahlungsverhalten 2024 eine deutliche Entwicklung hin zu Sofortüberweisungen und Instant Payment…

44 Minuten ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

2 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

3 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

3 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

4 Tagen ago

KI-Bluff bei AIOps erkennen

Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…

4 Tagen ago