Categories: Cloud

Build 2015: Microsoft startet Azure Data Lake

Auf der Entwicklerkonferenz Build stellt Microsoft neue Speichertechnologien auf Basis von Azure vor. Ab heute ist als Preview die “Elastic Database” verfügbar. Mit dieser Erweiterung von Azure SQL Database, können Anwender Pools von Daten erstellen, in denen Datenbanken mit unvorhersehbaren Kapazitätsanforderungen zusammengefasst werden.

So können Entwickler oder ISVs elastische Ressourcen für Hunderte oder Tausende Datenbanken bereitstellen und damit Spitzenlasten abfangen. Neben der Plattform selbst liefert Microsoft auch Tools, über die Abfragen über diese Datenbanken hinweg gefahren werden können. Zudem liefert Microsoft eine zentrale Policy-Verwaltung für diese Pools. Neben neuen Sicherheitsfeatures wie Row-level-Security und Dynamic DataMasking, verbessert Microsoft auch die Volltextsuche der Azure-SQL-Datenbank.

Das Azure SQL Data Warehouse soll als Preview im Verlauf des Jahres verfügbar werden. Mit dieser neuen Option für Azure will Microsoft den Steigenden Bedarf nach elastischen Data-Warehousing-Lösungen in der Cloud begegnen. Anwender können damit bedarfsgerecht auch einzelne Queries abrechnen.

Das Azure SQL Data Warehouse basiert auf der Massively Parallel Processing Architektur, die derzeit auch SQL Server der Analytics Platform System Appliance zugrunde liegen. Unterstützt werden Tools wie Power BI für die Datenvisualisierung, Azure Machine Learning für Advanced Analytics, Azure Data Factory für die Daten Orchestrierung und der Hadoop-verwaltete Bid-Data-Service Azure HDInsight.

Dem Konzept des Data-Lakes kommt Microsoft mit dem Azure Data Lake entgegen. Dieses Hyper-Scale-Data-Store für umfassende analytische Workloads soll die Begrenzungen traditioneller Analytic-Infrastrukturen auflösen. Die Idee ist es, sämtliche Daten in ihrem nativen Format in einen “See” strömen zu lassen.

Verschiedene Anwendungen können dann einfach auf dieses Zentrale Datenreservoire zugreifen. Dafür ist natürlich ein durchsatzstarker Speicher nötig. Azure Data Lake ist ein auf Hadoop basierendes Datei System, das auch mit HDFS kompatibel ist. Zudem bietet Azure Data Lake eine Integration mit Azure HDInsight. Künftig sollen auch Revolutio-R Enterprise, Clouder oder Hortonworks unterstützt werden. Der Preview soll im Laufe des Jahres verfügbar werden.

“In der Industrie ist das Konzept des Data-Lakes vergleichsweise neu. Es ist ein unternehmensweites Repository, in dem an einem Ort alle Arten von Daten gesammelt werden, ohne formale Unterscheidung und ungeachtet der Größe, Struktur oder wie schnell es eingespielt wird”, erklärt Oliver Chiu, Produkt Marketing für Hadoop und Big Data bei Microsoft. So liefert beispielsweise EMC mit den der aktuellen Produkreihe Isilon entsprechende Hardware für Data Lakes.

Mit dem Datei-Systeme Azure Data Lake sollen Anwender dann in der Lage sein, über Hadoop oder andere analytischen Werkzeuge Muster in dem Datensee zu erkennen. Dieses Konzept brigt einige Vorteile. Chiu erklärt zum Beispiel, dass damit die Daten kostengünstig vorbereitet werden können, bevor diese in ein Data Warehouse geladen werden.

Chiu erklärt weiter: “Es kann große Dateien ohne Größenbegrenzung speichern. Es unterstützt große Mengen von kleinen Speicher-Schritten und dank niedriger Latenzen eignet es sich für Web-Seiten-Analyse, Internet of Things und Analytics in Sensoren und anderen Anwendungen.”

Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

18 Stunden ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago