In einem Paper ruft Google die Hersteller dazu auf, neue Hard-Drives zu entwickeln. Diese sollen vor allem in Rechenzentren eingesetzt werden und größer sein als die derzeit üblichen 3,5-Zoll-Bauweise.
Der Vorschlag stammt von dem Berkeley-Professer und Google Vice President für Infrastruktur, Eric Brewer. Seiner Ansicht nach würden größere Festplatten die Zahl der Fehlerpunkte deutlich reduzieren. Zudem würden sich so neue Möglichkeiten beim Design eröffnen, die dem Formfaktor 3,5-Zoll geopfert wurden.
“Die aktuelle 3,5-Zoll-Geometrie ist historisch entstanden und wurde hauptsächlich von der Floppy-Disk des PCs geerbt. Ein alternativer Formfaktor könnte einen deutlich besseren TCO realisieren (Total Cost of Ownership)”, so Brewer. Durch das starke Wachstum der Cloud würde die zu speichernden Daten deutlich schneller anwachsen, als das durch Innovationen bei den Festplatten wieder wettgemacht werde. Die so genannten “Nearline Enterprise Disks” seien für den Gebrauch in Servern und nicht in Cloud-Installationen optimiert.
Er sei sich durchaus bewusst, dass es einen langen Weg bedeuten könnte, grlößere HDDs zu bauen, doch dieser Schritt sollte auf jeden Fall in Erwägung gezogen werden. “Wir könnten auch unseren eigenen Formfaktor (mit großen Volumina) spezifizieren, die Probleme beschränken sich nicht auf Google, aber eine neue Lösung gemeinsam zu erarbeiten wird auf jeden Fall Vorteile für die gesamte Branche liefern, vor allem wenn es irgendwann standardisiert ist.” Nach wie vor könnten SSD-Speicher nicht wirtschaftlich eingesetzt werden, auch in den nächsten 10 Jahren nicht, glaubt Brewer.
Weil größere Platten zwar günstigeren Speicherplatz ermöglichen würden, würden sie Einschränkungen bei den Lese-Schreib-Geschwindigkeiten bedeuten. Bei den Umdrehungen Pro Minute verhalte es sich ähnlich: Hohe Drehzahl bedeute höhere Lesegeschwindigkeiten, aber wiederum teureren Speicherplatz. Brewers Vorschlag: Die HDD-Laufwerke sollten mit mehreren unterschiedlich großen Platten, die mit unterschiedlichen Geschwindigkeiten laufen, aufgerüstet werden.
Einen Vorschlag hat Brewer auch für die Bit Error Rate auf kommerziellen HDDs. Diese Rate sei relativ hoch gesetzt und eigentlich zu hoch für den Einsatz im Rechenzentrum, weil die meisten Anwender nicht auf Ebene der Festplatte Daten redundant und fehlersicher vorhalten. Diese Bit-Rate allerdings könnte deutlich höher sein und dadurch würde auch die Kapazität einer Festplatte höher sein.
Die Industrie würde damit wieder den umgekehrten Weg einschlagen. So maß IBMs Festplatte 1311 im Jahr 1962 immerhin 14-Zoll. Dann wurden die Festplatten immer kleiner, weil immer mehr Kapaziäten auf kleinerem Raum untergebracht werden konnten. Die HDD-Größe 5,25 Zoll starb ende der 90er aus.
Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…
KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.
Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.
Neue Kunden sind unter anderem SAP, Conforama Schweiz, 11teamsports, Phillip Morris International, Baywa und Thalia.
Oracle schafft einheitliche Plattform für vier Ministerien und über 250.000 Beamte mit der Oracle Applications…
Der Grund: Geräte, die mit veralteter Software arbeiten, sind anfällig für Cyberangriffe und Datenlecks.