Oracle Exadata Database Machine X4-8. (Bild: Oracle)
Die Exadata Database Machine X4-8 sorgt dank hoher DRAM-Kapazitäten für eine schnelle Verarbeitung von In-Memory-Prozessen. In zeitkritischen Szenarien kann Oracle auf diese Weise Latenzzeiten reduzieren.
Die Systemlösung auf Basis des Xeon E7-8895 v2 mit 15 Kernen richtet Oracle die optimierte Hardware speziell auf den Einsatz von Ressourcen-intensiven Aufgaben, wie Online Transaktionsverarbeitung (OLPT), Data Warehousing oder die Big-Data-Analyse. Damit eigne sich die Exadata Database Machine laut Oracle auch für In-Memory und Database-as-a-Service.
Gegenüber der Vorgängerversion könne die neue Hardware vor allem aufgrund des neuen Intel Xeon E7-Prozessors die Leistung etwa verdoppeln. Denn durch die 15 Kerne des Prozessors verdopple Oracle die Zahl der Kerne, die als Datenbank-Rechenkerne bereitstehen. Als Arbeitsspeicher kann der Anwender pro Compute Node auf 6 TB und nachdem es in einem Rack zwei Einschübe gibt, auf 12 TB pro Rack zugreifen.
In Form von Plattenspeichern stehen 672 TB und als PCI Flash-Speicher stehen 44 TB Pro Rack bereit. Die lokale Speicherkapazität verdopple sich auf diese Weise. Zudem sorgt die X4-8 auch für die transparente Speicherung von weniger zeitkritischen Daten auf den langsameren Platten oder Flash-Speichern. Dank neuer PCIeCards sind nun alle Ports aktiv, ein neues Infiniband verdopple laut Oracle die Bandbreite der X4-8.
Auch wenn ein Datenbank-Knoten ausfalle, könne der Prozess weiterlaufen, heißt es von Oracle. Durch diese Hochverfügbarkeitsfunktion können Unternehmen umfassende DBaaS- oder Konsolidierungs-Initiativen in der Private Cloud umsetzen.
Zudem sei die Exadata Database Machine X4-8 voll abwärtskompatibel und interoperabel zu früheren Versionen der Exadata Database Machine. So könnten Anwender die neuste Version einfach in die vorhandene Infrastruktur integrieren. So unterstützte die neue Version der Oracle Exadata Software alle früheren Exadata Hardware-Generationen sowie Oracle Database 12c und Oracle Database 11g Release 2.
Obwohl 84 Prozent der Befragten Digitalisierung als entscheidenden Erfolgsfaktor sehen, hat gerade einmal die Hälfte…
Aus Sicht vieler Führungskräfte sind junge Talente oft unzureichend auf ihre Jobprofile vorbereitet, da sie…
Umfrage: Bürokratisches Beschaffungswesen, strikte Regulierung und fehlendes Risikokapital bremsen digitale Verteidigungs-Innovationen.
Initiative von Cisco und Amperion ermöglicht schnellere Datenübertragungsgeschwindigkeiten mithilfe der Routed Optical Networking (RON)-Technologie.
Manufacturing-X als Antwort auf internationale Zollkonflikte, globale Lieferkettenprobleme und Abhängigkeit von meist US-amerikanischen Tech-Konzernen.
Laut Studie ist jeder dritte Security-Experte davon überzeugt, dass Cyber-Immunität die Häufigkeit von Angriffen reduzieren…
View Comments
Bitte vorrechnen!
ich kommt bei 4 Speicherkanälen mit jeweils 6 DIMMs auf 768GB.
Und nicht pro kern, sondern pro CPU!
«Als Arbeitsspeicher kann der Anwender pro Prozessorkern auf 6 TB und damit 12 TB pro Rack zugreifen.»
Hallo Nixname,
wir hatten diese Information vom Hersteller. Daher werden diese jetzt auch an dieser Stelle geprüft.
Liebe Grüße
Martin Schindler
6TB pro CPU werden auch erst ab 256GB DIMMs möglich, die gibt es aber noch nicht!
256er DIMMs wird es auch nur als DDR4 geben, geht also mit diesem server nie.
intel selbst gibt aktuell 1,5TB an, geht aber auch noch nicht, 64GB DIMMs kommen erst!
aktuell ist man auf 24x 32GB pro CPU beschränkt!
http://ark.intel.com/de/products/79209/Intel-Xeon-Processor-E7-8895-v2-37_5M-Cache-2_80-GHz
Hallo Nixname,
vielen Dank noch einmal für den wichtigen Hinweis. Leider hatten wir die Informationen aus eine Unternehmensmitteilung übernommen. Diese wurde inzwischen korrigiert: Compute-Node wurde dabei aus der englischen Meldung als Rechenkern übersetzt, gemeint waren aber Einschübe.
Nachzulesen hier: https://emeapressoffice.oracle.com/Press-Releases/New-Oracle-Exadata-Database-Machine-Optimized-for-Large-Scale-In-Memory-and-Database-Cloud-Workloads-46e8.aspx
Liebe Grüße und nochmals vielen Dank
Martin Schindler