Knapp gesagt sind Hyperscale-Server das Gegenteil von Virtualisierung. Während bei der Virtualisierung auf einem großen physischen Server eine Vielzahl unterschiedlicher virtueller Maschinen laufen, die eine sehr breites Anwendungsspektrum abdecken, handelt es sich bei den Hyperscale-Servern um extrem kleine Systeme, die exakt auf einen bestimmten – meistens äußerst trivialen – Service abstimmt sind. Beispiele für solchen Services können die Display-Module bei Webanwendungen oder Eingabe-Masken bei e-Commerce sein.
Bei HPs Moonshot besteht ein Server nur noch aus einer kleinen Einschub-Kassette, die mit einem Atom-Prozessor ausgestattet ist. 450 solcher Kassetten passen in ein Rack. Ähnlich ist das Hyperscale-Referenz-Design von Intel, das vor allem eine hohe Modularität auf der Sub-System-Ebene bietet. Dieses ist besonders wichtig, denn um einen Micro-Server auf eine bestimmte Anforderung hin zu optimieren, muss es eine hohe Flexibilität beim Hauptspeicher, der CPU und dem Input/Output geben. So erlaubt Intels Referenz-Design die Bestückung mit Atom- oder dem neuen Avoton System-on-Chip.
Der I/O soll mittels Silicon-Photonic-Interconnections eine Geschwindigkeit von bis zu 100 Gbps erreichen. Damit ist es nicht mehr erforderlich, die Storage-Einheiten über den Bus anzubinden. Stattdessen können diese räumlich versetzt in separaten Racks untergebracht werden. Problem des Intel-Designs ist das Festhalten an den eigenen Prozessoren. Gerade die Wahlmöglichkeiten zwischen Intel-, AMD- und ARM-Prozessoren sind für viele Anwender wichtig. Dell stellte beispielsweise jüngst ein Motherboard vor auf dem wahlweise x86- oder ARM-Prozessoren eingesetzt werden können.
Wie flexibel die einzelne Architektur auch sein mag. In jedem Fall geht es darum, in kürzester Zeit tausende an dedizierten Micro-Server konfigurieren zu können. Und damit ist die Ebene der Hyper-Skalierung erreicht.
Hyperscale-Rechenzentren sind als Zentren in denen tausende an Kleinstservern installiert sind, die jeweils auf eine ganz bestimmte einfache Anwendung hin optimiert sind. Der erste IT-Anwender, der die Notwenigkeit solcher Server erkannte, war Google vor 15 Jahren – und da er keine passenden Systeme auf dem Markt fand, baute man sich die Systeme selbst. Amazon folgte Google dann auf dem Fuße. Facebook baut zwar keine eignen Server, macht aber über Open Compute entsprechende Designvorgaben für die Hardware-Hersteller, sodass auch nur das eingesetzt wird, was man selbst entwickelt hat.
Heute setzen alle großen Web-Anbieter auf solche – oder zumindest ähnliche – Serverfarmen. Die bestehen heute aber aus Standard-Systemen. Hierzu gehören beispielsweise die großen News-Seiten, wie BBC und CNN oder die TK-Anbieter wie AT&T, Verizon und Vodafone. Folglich stehen diese Firmen bei den Verkäufern von Hyperscale-Systemen an oberster Stelle im Notizbuch. Und das Marktvolumen scheint ihnen Recht zu geben. Analysten schätzen, dass dieser Markt alleine Europa mehr als 20 Milliarden Dollar umfasst.
Tipp: Was wissen Sie eigentlich über Hewlett Packard? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Fraunhofer hat eine KI-basierte Produktionsüberwachung und -steuerung für mittelständische Industriebetriebe entwickelt.
Jedes fünfte Unternehmen hat seine Regelungen für mobile Heimarbeit abgeschafft, ein weiteres Fünftel will sie…
Die rasante Entwicklung von KI-Agenten bringt insbesondere Herausforderungen für den Schutz sensibler Daten mit sich.
2020 könnten böswillige Akteure Zugang zu quantengestützten Cyberangriffen haben, warnt Cindy Provin von Utimaco.
KI-Workplace wird ausschließlich auf eigene Server-Infrastruktur in Rechenzentren in Frankfurt am Main betrieben.
Der digitale Zwilling einer Organisation bildet reale Geschäftsprozesse virtuell ab und schafft die Grundlage für…