Categories: CloudCloud-Management

In vier Schritten zu einer performanteren Cloud

Die Leistungseffizienz eines Cloud-Systems spielt für Administratoren und Entwickler im Unternehmen zwar eine wichtige Rolle, doch kann sich diese Gruppe auch mit weniger performanten Lösungen arangieren. Aus operativer Sicht ist für die IT-Abteilung entscheidend, dass die Systeme funktionieren und Ausfallzeiten minimiert werden.

Demgegenüber steht und fällt die Arbeit von Endanwendern im Grunde mit der tatsächlichen Leistungsfähigkeit der Lösung im Alltag. Für die Mitarbeiter eines Unternehmens drücken nicht-responsive Systeme die Produktivität. Im schlechtesten Fall können Tätigkeiten so weit verzögert werden, als wären die Nutzer mit einem Systemausfall konfrontiert.

Die Leistungseffizienz von Cloud-Lösungen lässt sich laut FPT Software mit dem Drehen an vier Stellschrauben steigern. IT-Entscheider, die diese vier Punkte berücksichtigen, schaffen eine gute erste Grundlage zur Optimierung der Leistungseffizienz ihrer Cloud-Systeme. Mit der regelmäßigen Evaluation dieser und weiterer Aspekte gemeinsam mit Experten des Providers oder des beauftragten IT-Dienstleisters können sie zudem sicherstellen, dass ihr Unternehmen und seine Mitarbeiter auch langfristig Zugang zu einer effizienten, produktiven Cloud-Umgebung haben.

1. Skalierung der Rechenressourcen automatisieren

„Scaling-out/in“ bezeichnet die horizontale Skalierung von Server-Ressourcen, etwa die Anpassung von Instanzen. Es bietet Unternehmen die Möglichkeit, ihre IT-Infrastruktur rasch anzupassen, ohne die Arbeit der Mitarbeiter zu stören. Dieser Vorgang ist wesentlich effizienter und vor allem schneller als „Scaling-up/down“, also die Anpassung von Server-Kapazitäten, auch bekannt als vertikale Skalierung. Die Erstellung von Regeln für eine automatisierstierte Skalierung von Ressourcen kann schnell komplex werden. Daher empfiehlt es sich, mit einer einfachen, zeitplanbasierten Konfiguration zu beginnen, die sich nach den tageszeitlichen Anforderungen richtet. Das Cloud-System kann beispielsweise zu operativen Peak-Zeiten „Scaling-in“ für bestimmte Fachbereiche durchführen und in Ruhephasen „Scaling-out“. Auf diese Weise lassen sich Cloud-Ressourcen flexibel an die Nutzung der Abteilungen und Anwender anpassen und verschieben.

2. Latenzen verkürzen mit Implementierung lokaler Instanzen

Auch wenn Cloud-Lösungen den Eindruck erwecken, dass alles jederzeit verfügbar ist, lässt sich die Physik nicht austricksen. Geografische Faktoren spielen auch für die Cloud eine große Rolle. Für Anwender in Deutschland macht es einen spürbaren Unterschied im Umgang mit einer Cloud-basierten Anwendung, ob diese in einem regionalen Rechenzentrum gehostet wird oder von einem anderen Kontinent. Nutzer, die von derselben Region auf dasselbe Produkt zugreifen, werden eine deutlich bessere Anwendungserfahrung haben. Für Unternehmen macht es daher Sinn, auf lokale Cloud-Instanzen zu setzen, um das Latenzverhalten der Anwendungen und damit letztlich die Produktivität der Mitarbeiter zu verbessern. Darüber hinaus ist die Integration eines Load Balancers sinnvoll, der den Datenverkehr im Unternehmen entsprechend auf die verteilten Cloud-Ressourcen geographisch sinnvoll verteilt.

3. Zwischenspeicherung häufig genutzter Daten in Anwendernähe

Eine große Zahl an Daten in einem Unternehmen besteht aus unveränderlichen, sogenannten statischen Dateien. Dazu zählen Bilder, Videos, Stylesheets oder Formulare, die oft eine hohe Datenmenge erreichen und intern sowie extern – auf Webseiten und in Webanwendungen – zur Verfügung gestellt werden. Statische Dateien eignen sich perfekt für die Bereitstellung über ein Content Delivery Network (CDN). Dieses vervielfältigt die Inhalte über viele geographische Regionen hinweg und stellte Nutzern auf aller Welt immer die nächstgelegene Kopie zur Verfügung. Auf diese Weise könne lokal ausgeführte Anwendungen direkt auf diese Assets zugreifen und reagieren so deutlich schneller in der Nutzung. Der langwierige Umweg in Form der Abfrage einer zentralen Datenbank entfällt.

4. Mit gutem Monitoring Flaschenhälse aufspüren

Leistungsengpässe können im Zuge einer ordnungsgemäßen und regelmäßigen Beobachtung wesentlich schneller entdeckt werden. Erst durch kontinuierliches Monitoring und mit der Herstellung vollständiger Transparenz über verfügbare Ressourcen und Arbeitslasten können IT-Entscheider reagieren und die Optimierung des Cloud-Systems vorantreiben. Dies bildet die Basis, um operational das bestmögliche aus den vorhandenen Ressourcen herauszuholen.

Roger Homrich

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

2 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

3 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

4 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

4 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

4 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

5 Tagen ago