Server Based Computing boomt – und niemand spricht darüber

Scheinbar handelt es sich um eine Technologie, die im Verborgenen gedeiht: Über Server Based Computing (SBC) und die darauf basierende Thin-Client-Architektur wird wenig gesprochen und geschrieben, aber wenn man den Anbietern glauben darf, dann setzen weltweit alle großen Unternehmen diese Technologie ein. Außerdem ist sie bei Banken und Versicherungen, im Gesundheitssektor sowie in öffentlichen Verwaltungen weit verbreitet, und der Markt für Thin Clients legt deutlich zu. “Die Wachstumsrate von fast 40 Prozent – erstes Halbjahr 2005 gegenüber der ersten Jahreshälfte 2004 – ist auch in der IT-Branche einzigartig”, erklärt der Pressesprecher des European Thin Client Forum e.V. (ETCF) Wolfgang Wohner.

Das ETCF hat sich als gemeinnützige Vereinigung zum Ziel gesetzt, “das Leistungsspektrum und den ökonomischen Nutzen von Thin-Client-Technologie […] aktiv zu unterstützen und zu fördern”. Die Idee dazu war bereits zur Cebit 2003 entstanden und im Herbst desselben Jahres mit der Verbandsgründung umgesetzt worden. “Grund für den Zusammenschluss war der gestiegene Informationsbedarf auf Anwenderebene sowie die Tatsache, dass der Markt stark wachsend, aber dennoch teilweise unbekannt und für viele Unternehmen intransparent war”, so Wohner.

Im Gegensatz zur normalen Client-Server-Architektur handelt es sich beim Server Based Computing nicht um verteilte Systeme, sondern um einen Application Server, der als Zentralrechner dient, und sehr einfach gestrickten Clients. Der Server bildet dabei die gemeinsame Plattform, stellt die gesamte Anwendersoftware zur Verfügung, verwaltet und speichert sämtliche Daten. Der Benutzer arbeitet von seinem Endgerät aus mit den Anwendungen, die vom Server bereitgestellt und ausgeführt werden. Auf den einzelnen Arbeitsplatzrechnern findet fast keinerlei Verarbeitung statt, sondern zwischen Clients und Server werden lediglich Tastatureingaben, Mausklicks und Refreshs der Bildschirminhalte ausgetauscht. Die Endgeräte dienen primär der Darstellung der Benutzeroberfläche.

Geringere Betriebskosten und Komplexität

Damit ist die Technologie bestens geeignet, den Kosten- und Arbeitsaufwand für eine komplexe IT-Infrastruktur zu reduzieren: Einerseits muss das vorhandene Equipment an den Arbeitsplätzen viel seltener ausgetauscht werden, da den Endgeräten kaum Leistungsfähigkeit abverlangt wird – Updates von Anwendungssoftware, die im Allgemeinen eine höhere Performance erfordern, werden nur auf dem Server installiert. Andererseits ist der Zeitaufwand für den IT-Verantwortlichen wesentlich geringer, da er die gesamte Wartung und Administration zentral ausführt. Mit der Einrichtung einer neuen Applikation auf dem Server steht sie allen Nutzern gleichzeitig zur Verfügung – auch User an entfernten Standorten können eingebunden werden.

“Seit wir Citrix Metaframe Presentation Server einsetzen, mussten wir keinen PC mehr aus Performance-Gründen ersetzen. Für mich als IT-Leiter ist aber noch wichtiger, dass wir die Administration besser in den Griff bekommen haben: Wir können heute sehr vieles zentral verwalten, arbeiten effizienter und stellen Software rasch für alle Anwender zur Verfügung”, wird Dr. Klaus Baltschukat, Leiter Informatik im Kantonsspital Bruderholz (Schweiz) in einer Broschüre zu ‘Lösungen für das Gesundheitswesen’ von Citrix Systems zitiert. Damit führt der Klinik-IT-Chef eine ganze Reihe von Vorteilen des SBC an, das sich dahinter verbirgt.

SBC ist auch umweltfreundlich, da sich der Lebenszyklus der Endgeräte dadurch deutlich verlängert. Andererseits können in vielen Bereichen von vornherein statt Workstations und PCs Thin Clients verwendet werden. Je nach Arbeitsumfeld ist ihr Einsatz oft sinnvoller, da sie ohne eigene Festplatte robuster sind. Beispielsweise erzeugen sie kaum Abwärme und benötigen damit keinen Lüfter. Insbesondere im Krankenhausbetrieb oder in der Produktion sind dies klare Vorzüge.

Viren? Fehlanzeige

Außerdem ist der Sicherheitsaspekt beim Server Based Computing nicht zu unterschätzen: Das Risiko von Viren, Würmern und Trojanern, aber auch unberechtigter Zugriff auf und Verlust von Daten sind weitgehend ausgeschlossen, da sich alle Programme und Daten auf dem Server innerhalb einer durch Firewalls abgesicherten Zone befinden. Auf den Endgeräten der User kann praktisch nichts passieren. Allerdings trägt der IT-Manager eine umso höhere Verantwortung.

Page: 1 2

Silicon-Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

6 Tagen ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

6 Tagen ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

1 Woche ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

1 Woche ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

1 Woche ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

1 Woche ago