Knapp gesagt sind Hyperscale-Server das Gegenteil von Virtualisierung. Während bei der Virtualisierung auf einem großen physischen Server eine Vielzahl unterschiedlicher virtueller Maschinen laufen, die eine sehr breites Anwendungsspektrum abdecken, handelt es sich bei den Hyperscale-Servern um extrem kleine Systeme, die exakt auf einen bestimmten – meistens äußerst trivialen – Service abstimmt sind. Beispiele für solchen Services können die Display-Module bei Webanwendungen oder Eingabe-Masken bei e-Commerce sein.
Bei HPs Moonshot besteht ein Server nur noch aus einer kleinen Einschub-Kassette, die mit einem Atom-Prozessor ausgestattet ist. 450 solcher Kassetten passen in ein Rack. Ähnlich ist das Hyperscale-Referenz-Design von Intel, das vor allem eine hohe Modularität auf der Sub-System-Ebene bietet. Dieses ist besonders wichtig, denn um einen Micro-Server auf eine bestimmte Anforderung hin zu optimieren, muss es eine hohe Flexibilität beim Hauptspeicher, der CPU und dem Input/Output geben. So erlaubt Intels Referenz-Design die Bestückung mit Atom- oder dem neuen Avoton System-on-Chip.
Der I/O soll mittels Silicon-Photonic-Interconnections eine Geschwindigkeit von bis zu 100 Gbps erreichen. Damit ist es nicht mehr erforderlich, die Storage-Einheiten über den Bus anzubinden. Stattdessen können diese räumlich versetzt in separaten Racks untergebracht werden. Problem des Intel-Designs ist das Festhalten an den eigenen Prozessoren. Gerade die Wahlmöglichkeiten zwischen Intel-, AMD- und ARM-Prozessoren sind für viele Anwender wichtig. Dell stellte beispielsweise jüngst ein Motherboard vor auf dem wahlweise x86- oder ARM-Prozessoren eingesetzt werden können.
Wie flexibel die einzelne Architektur auch sein mag. In jedem Fall geht es darum, in kürzester Zeit tausende an dedizierten Micro-Server konfigurieren zu können. Und damit ist die Ebene der Hyper-Skalierung erreicht.
Hyperscale-Rechenzentren sind als Zentren in denen tausende an Kleinstservern installiert sind, die jeweils auf eine ganz bestimmte einfache Anwendung hin optimiert sind. Der erste IT-Anwender, der die Notwenigkeit solcher Server erkannte, war Google vor 15 Jahren – und da er keine passenden Systeme auf dem Markt fand, baute man sich die Systeme selbst. Amazon folgte Google dann auf dem Fuße. Facebook baut zwar keine eignen Server, macht aber über Open Compute entsprechende Designvorgaben für die Hardware-Hersteller, sodass auch nur das eingesetzt wird, was man selbst entwickelt hat.
Heute setzen alle großen Web-Anbieter auf solche – oder zumindest ähnliche – Serverfarmen. Die bestehen heute aber aus Standard-Systemen. Hierzu gehören beispielsweise die großen News-Seiten, wie BBC und CNN oder die TK-Anbieter wie AT&T, Verizon und Vodafone. Folglich stehen diese Firmen bei den Verkäufern von Hyperscale-Systemen an oberster Stelle im Notizbuch. Und das Marktvolumen scheint ihnen Recht zu geben. Analysten schätzen, dass dieser Markt alleine Europa mehr als 20 Milliarden Dollar umfasst.
Tipp: Was wissen Sie eigentlich über Hewlett Packard? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…
Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…
Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…
Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…
Huawei Connect Paris: Innovationen rund um Data Center, Storage und IT-Sicherheit.
Mit KI optimieren Hacker ihre Angriffsversuche. Ist CIAM eine Lösung, mit der sich Unternehmen vor…