350 Anwender von SAP HANA
Mit einem neuen technischen Programm will SAP die Verbreitung der In-Memory Technologie HANA weiter vorantreiben.
Seit rund einem Jahr ist die In-Memory-Plattform HANA allgemein verfügbar. Jetzt versucht SAP mit dem HANA Distinguished Engineer bei Anwendern mehr technologisches Wissen rund um die Plattform aufzubauen. Es handelt sich dabei um eine neue Gruppe oder Community, die technisches Wissen rund um HANA transportieren soll. Derzeit gibt es laut SAP knapp 1800 zertifizierte Berater für HANA.
Das Distinguished Engineer hat SAP zusammen mit den Partnern Bluefin Solutions, Deloitte Consulting, IBM Global Business Solutions sowie weiteren unabhängigen Beratern gestartet. Die Gruppe steht allen Entwicklern offen, die ihre Fähigkeiten rund um HANA-basierte Kundenlösungen erweitern wollen.
“Im Janur wurde SAP HANA zur am schnellsten wachsenden Technologie in der Geschichte von SAP, und jetzt feiern wir das erste Jubiläum”, so Technologie-Vorstand Vishal Sikka in einer Präsentation. So könne SAP jetzt mehr als 350 Endnutzer melden und in mehr als 150 Implementierungen greifen heute schon über 64.000 Endnutzer auf die Plattform zu. SAP nennt neben 2000 AWS-Instanzen auch 16 Anwender, die mit HANA gegenüber einem herkömmlichen Platten-System ihre Leistung um den Faktor 10.000 steigern konnten.
Über HANA könnten Anwender jetzt in einer Plattform Projekte für OLTP sowie OLAP, Big- und Fresh-Data sowie strukturierte und unstrukturierte Daten verwalten. Dabei müssten die Anwender weder auf Tuning, noch auf Indices noch auf Caching zurückgreifen. Datenkompressionen ließen sich um den Faktor 20 verbessern und eine Abfrage in einem Business-Warehouse lasse sich über HANA bereits in 300 bis 500 Millisekunden abarbeiten, Ad-hoc-Abfragen dauern unter HANA 800 Millisekunden bis 2 Sekunden. SAP teilt mit, dass sich über HANA 770.000 Datensätze pro Sekunde speichern lassen. Als Bulk sind 1 GB pro Minute möglich und mit Data Services ermöglicht HANA 2,5 TB pro Stunde. Zudem lasse sich der Hauptspeicher auf bis zu 500 TB skalieren um wirklich große Datensätze zu verarbeiten.