Categories: CloudServer

Nvidia kündigt mit Tesla P100 neuen GPU-Beschleuniger für PCIe-Server an

Tesla P100, der neue GPU-Beschleuniger für PCIe-Server, den Nvidia jetzt angekündigt hat, soll Anwendungen für High Performance Computing im Vergleich zu herkömmlichen CPU-basierten Rechenknoten um das mehr als 30-Fache beschleunigen. Das Unternehmen verspricht außerdem um bis zu 70 Prozent sinkende Anschaffungskosten, da ein einzelner “Superknoten” mit acht Tesla P100 den Durchsatz von mehr als 32 CPU-basierten Rechenknoten erreichen soll.

Der Tesla P100 GPU-Beschleuniger soll ab dem vierten Quartal verfügbar sein. Unter anderem beabsichtigen die Serverhersteller Cray, Dell, Hewlett Packard Enterprise, IBM und SGI eine Integration in ihre Produkte.

Nvidia stellt den Beschleuniger im PCIe-Standardformat zur Verfügung, womit er laut Hersteller mit aktuellen GPU-beschleunigten Servern kompatibel ist. Konzipiert ist er in erster Linie für rechenintensive Anwendungen wie künstliche Intelligenz und Deep Learning sowie für High-Performance-Computing-Rechenzentren.

“Tesla P100-Beschleuniger bieten neue Ebenen an Leistung und Effizienz, um einige der wichtigsten Rechenherausforderungen unserer Zeit meistern zu können”, wird Thomas Schulthess, Professor für Computational Physics an der ETH Zürich und Direktor des Swiss National Supercomputing Center, in einer Pressemitteilung zitiert. “Das Upgrade von 4.500 GPU-beschleunigten Rechenknoten in Piz Daint zu den Tesla P100-GPUs wird die Leistung des Systems mehr als verdoppeln und Durchbrüche in den unterschiedlichsten Bereichen wie Kosmologie, Materialwissenschaften, Seismologie und Klimawissenschaften ermöglichen.”

Nvidia Tesla P100 (Bild: Nvidia)

Der Hersteller gibt die Performance des Beschleunigers mit 4,7 Teraflops bei Double-Precision-Berechnungen und 9,3 Teraflops bei Single-Precision-Berechnungen an. Im Vergleich zu Maxwell-Architektur erhöht sich die Speicherbandbreite um 720 GByte pro Sekunde. Erreicht wird diese Steigerung durch ein neues Memory-Design namens Chip on Wafer on Substrate (CoWoS).

Paralleles Programmieren soll indes durch die neu entwickelte Page Migration Engine vereinfacht werden. Da die Technik die Verwaltung von Datenbewegungen übernimmt, sollen sich Entwickler künftig auf die Leistungsoptimierung konzentrieren können. Außerdem ist es möglich, Anwendungen mit der Unterstützung von virtuellem Memory-Paging über die physische Memory-Grenze der GPU hinaus zu betreiben. Die neue, sogenannte vereinte Memory-Technologie gibt Entwicklern einen vollständigen Überblick über den gesamten Memory-Speicher eines Knotens.

[Mit Material von Stefan Beiersmann, ZDNet.de]

Tipp: Wie gut kennen Sie die Chefs der IT-Firmen? Testen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.

Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

18 Stunden ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago