“Je mehr Kerne, umso besser. Vorausgesetzt, die Geräte verfügen über die entsprechenden Speicherkapazitäten”, hatte Jerry Bautista, Co-Direktor bei Intels Computing Research Program, kürzlich mit Blick auf Grafikintensive Umgebungen gesagt. Ein Intel-Ingenieur ging jetzt noch einen Schritt weiter.
Anwar Ghuloum, Ingenieur in Intels Microprocessor Technology Lab, schreibt in einem Blog: “Letztendlich gebe ich den einen Rat[…]Entwickler sollten sich bereits jetzt an den Gedanken von Dutzenden, Hunderten und Tausenden Kernen gewöhnen.”
Für Intel sei es eine schwierige Aufgabe, “zu erklären, wie man diese Performance nutzen kann”. Und weiter: “Manchmal betreiben Entwickler lediglich den Minimalaufwand der nötig ist, um die Leistung von Dual- und Quad-Core-Prozessoren anzuzapfen[…]Ich denke, dass war die vorherrschende Diskussion in der Branche vor einigen Jahren.”
Nun aber drehten sich die Gespräche bei Intel zunehmend darum, die “Performance für eine Anzahl an Kernen zu skalieren, die noch gar nicht zur Verfügung steht.” Die Entwickler hätten begriffen, dass sie für eine Zukunft programmieren müssten, die dem Stand der derzeitigen Innovationen weit voraus ist.
Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…
Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…
Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…
Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…
Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.
Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…