Intel hat die baldige Verfügbarkeit des “Nervana Neural Network Processor” angekündigt. Bis zum Ende des Jahres 2017, so CEO Brian Krzanich, soll der Chip ausgeliefert werden. Der als NPP abgekürzte Baustein ist eine Spezialentwicklung, die auf der Übernahme des KI-Start-ups Nervana basiert. Intel hatte das Unternehmen im August 2016 für einen nicht genannten Betrag gekauft.
Der bisher unter dem Code-Namen “Lake Crest” entwickelte Co-Prozessor ist ein anwendungsspezifisches Design (ASIC), das auf schnelle Berechnungen in neuronalen Netzwerken ausgelegt ist. Dafür arbeitet der NPP mit variablen Genauigkeiten, die während der Berechnungen neu vergeben werden können. Intel nennt das Verfahren “Flex Point”. Wie genau die Recheneinheiten aussehen, hat der Chip-Hersteller noch nicht verraten. Bekannt ist nur, dass der NPP aus 12 “Processing Cluster” genannten Blöcken besteht, die über proprietäre Busse namens ICL mit anderen Modulen auf dem Baustein vernetzt sind.
Bandbreite ist bei KI-Anwendungen alles. Daher sitzen vier HBM2-Stapel mit je 8 GByte auf dem NPP, die zusammen ein Terabyte pro Sekunde an Daten liefern können. Das ist konzeptuell ähnlich wie bei modernen Grafikkarten oder GPU-Beschleunigern. Diese sind auch die Hauptkonkurrenz des Intel-Bausteins. Vor allem Nvidias Volta-Karten, die es bisher nur für Rechenanwendungen gibt, werden von KI-Entwicklern derzeit wegen ihrer hohen Leistung geschätzt.
Angaben von Intel von Anfang 2017 zufolge, die das Unternehmen nun nicht wiederholte, soll der NPP zehnmal schneller bei künstlicher Intelligenz rechnen, als bestehende Produkte. Das war noch vor der Markteinführung von “Volta”. Eine Leistungseinschätzung für den gegenwärtigen Zeitpunkt gibt es noch nicht. Ebenso wenig nennt Intel das Herstellungsverfahren noch den Preis des Produkts.
Fest steht dagegen, dass der NPP als Co-Prozessor auf einer Steckkarte mit PCI-Express-3.0 auf den Markt kommen wird. Auch davon gibt es noch keine Fotos, nur Render-Bilder des Chips selbst. Wie der Neuro-Chip wirklich aussieht, wird wohl vor allem Facebook wissen. Das Unternehmen will den NPP Intel zufolge als eines der ersten einsetzen. Anwendungsgebiete sind optimierte Werbung und eine, so wörtlich, “stärker personalisierte Erfahrung” bei der Nutzung des sozialen Netzwerks. Auch andere typische KI-Anwendungen wie Medizinforschung, autonome Fahrzeuge und Wettervorhersagen nennt Intel. Der Konzern gibt dafür aber noch keine Partner bekannt.
Tipp: Wie gut kennen Sie sich mit Prozessoren aus? Überprüfen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…