Die Anforderungen an Datenbanken sind mit der Digitalisierung erheblich gestiegen. Es werden wesentlich mehr Daten erzeugt und gespeichert als früher. Viele Geschäftsprozesse sind komplett vom ununterbrochenen Zugriff auf echtzeitfähige Datenbanken abhängig, und es greifen mehr Menschen auf Datenbanken zu.
Früher nutzten vor allem Mitarbeiter die in den unternehmensinternen Datenbanken hinterlegten Daten. Das ist heute anders: Neben den Mitarbeiter haben häufig Geschäftspartner, Lieferanten, Kunden oder andere Interessenträger Zugriff auf die internen Datenbestände. Sind Daten einmal nicht verfügbar, bleiben schlimmstenfalls wichtige Geschäftsprozesse einfach stehen. Ein Online-Shop beispielsweise kann ohne permanente Zugriffsmöglichkeit auf seine Produkt- und Preisdatenbank nicht existieren. Entsprechend verursachen Ausfälle schnell horrende Schäden und beeinträchtigen den Ruf von Unternehmen.
Um die Gegebenheiten und Herausforderungen bei der Datenbanknutzung in Unternehmen genauer zu untersuchen, befragte Unisphere Research Ende 2017 im Auftrag von Quest Software 285 IT-Entscheidungsträger und -Spezialisten aus Unternehmen, die zur Independent Oracle User Group gehören. 40 Prozent von ihnen waren Datenbankadministratoren. Etwa die Hälfte der Befragten kam aus Unternehmen mit mehr als 5000 Mitarbeitern. 15 Prozent der Unternehmen stammten aus der Finanzbranche, 14 Prozent aus dem Sektor IT-Dienstleistungen/-Beratung/-Integration, 12 Prozent aus der Gesundheitsbranche und 11 Prozent aus der öffentlichen Verwaltung.
Eine Betrachtung der Datenbankkapazitäten und der Zahl der Datenbanken zeigt, dass inzwischen Größenordnungen und Komplexitätsgrade erreicht werden, bei denen sich durch rein manuell angestoßene Maßnahmen Ausfälle kaum noch sicher flächendeckend verhindern lassen dürften. Immerhin 31 Prozent der Befragten gehen davon aus, dass die zu speichernden Datenmengen in drei Jahren um mehr als 50 Prozent jährlich wachsen werden. Für 2017 meldeten nur 15 Prozent der Befragten derart starkes Wachstum. Die Zahl der Unternehmen mit einem eher geringen Datenwachstum von bis zu zehn Prozent nimmt dagegen perspektivisch ab.
Auch die Größen der verwalteten Datenbanken wachsen: Datenbanken mit Terabyte-Volumen galten noch vor wenigen Jahren als exotisch. Bei der Untersuchung von Unisphere Research aber gaben 20 Prozent der Befragten an, ihre die größte verwaltete Datenbank sei inzwischen über 200 TByte groß, ein bislang nahezu unvorstellbares Volumen. Nur 27 Prozent konnten vermelden, dass ihre größte Datenbank ein Volumen unter 5 TByte hat – Tendenz vermutlich weiter aufwärts.
Besonders großer Handlungsdruck geht von der Tatsache aus, wie viele Datenbanken inzwischen geschäftskritisch sind. Fallen sie aus, ist der gesamte Geschäftsbetrieb unmittelbar gefährdet. 25 Prozent der Befragten gaben an, dass mehr als 25 Prozent ihrer Datenbanken unternehmenskritisch seien, also keinesfalls ausfallen dürften. Bei 38 Prozent der Befragten sind 26 bis 50 Prozent der vorhandenen Datenbanken geschäftskritisch. Da ist es wenig verwunderlich, wenn 63 Prozent der Umfrageteilnehmer die Verfügbarkeit von Anwendungen als ihr wichtigstes Anliegen benennen, erst danach folgen Leistung und Datensicherheit.
Realistischerweise werden die Auswirkungen von Datenbankausfällen als äußerst kritisch bewertet: In erster Linie befürchten die Befragten unzufriedene Kunden und Umsatzverluste oder eine Verlangsamung des Geschäftsbetriebs. Aber auch die eigene Reputation bis hin zu den Karriereaussichten könnten leiden, fürchten die Umfrageteilnehmer: 53 Prozent gaben an, Datenbankausfälle führten unmittelbar zu einem Vertrauensverlust der Führungsebene und wesentlichen Interessenvertretern gegenüber der IT. Auch Zeitdruck und Überstunden gehören nach den Kommentaren der Umfrageteilnehmer zu den unliebsamen Auswirkungen von Datenbankproblemen.
Dabei sind Ausfälle nicht Einzelereignis, sondern eher die Regel: Nur 7 Prozent der Befragten verzeichnen jährliche Ausfälle von weniger als zehn Minuten. 43 Prozent müssen sich dagegen zehn bis 50 Stunden jährlich Ausfallzeit – also bis zu mehr als einer Woche – mit entsprechenden Schwierigkeiten herumschlagen, bei 3 Prozent der Befragten überschritten die Ausfallzeiten sogar desaströse 100 Stunden jährlich.
Dennoch ist die stetig wachsende Leistungsanforderung der wichtigste Motor neuer Datenbankprojekte: 71 Prozent wollen in den kommenden 12 Monaten Projekte aufsetzen, die die Datenbankleistung steigern. Auf Platz 2 liegt die Aufrüstung aktueller Datenbanken, gefolgt von Datenintegration für Geschäftsintelligenz und Datensicherheit und der Hinzufügung neuer Funktionen, zu denken wäre hier beispielsweise an In-Memory-Integration oder No-SQL-Datenbanken.
Immerhin 27 Prozent planen eine Migration der Datenbank in die Cloud – ein Wert, der noch vor wenigen Jahren, als Cloud aus Sicherheitsgründen misstrauisch beäugt wurde, nicht vorstellbar war. Das mag auch damit zu tun haben, dass eine Cloud-Umgebungen Unternehmen Investitionen in Hardwareinfrastruktur ersparen und sich leicht skalieren lassen. So plant mehr als die Hälfte, 52 Prozent, der befragten oracle-Nutzer, in fünf Jahren ihre Oracle-Umgebung in der Cloud auszuführen. Beim SQL-Server sind es 51 Prozent. Heute liegen die entsprechenden Werte bei 14 beziehungsweise 13 Prozent. Mit anderen Worten: Der Anteil der Datenbankbetreiber, die die Cloud als Betriebsumgebung nutzen wollen, wird sich in den kommenden drei Jahren um den Faktor drei bis vier erhöhen.
Insgesamt 73 Prozent der Befragungsteilnehmer wollen ihre Datenbanken spätestens innerhalb der nächsten fünf Jahre in die Cloud migrieren, wobei jeweils etwas über 30 Prozent schon im kommenden Jahr beziehungsweise in zwei bis drei Jahren diesen Schritt anpeilen. Die Cloud ist damit kein exotischer Ort mehr für betriebswichtige Datenbanken, sondern eine kommende Standard-Betriebsumgebung in einer hybriden Welt: Nebeneinander existieren ERP-Systeme, die auf lokale Daten und Personaldatenbanken zugreifen oder Daten an sie liefern, Kundenkontakte werden durch Salesforce.com unterstützt, die Produktionsplanung greift unter Umständen auf Datenbanken von Lieferanten oder Kunden zu und umgekehrt.
Replikationen durchzuführen gehört unter solchen Umständen zum täglichen Brot der Datenbankadministratoren. Denn Daten sollen sich dort befinden, wo sie den größten Wert für die Kunden generieren. Sollen IT-Spezialisten die Qualität von Replikationsleistungen beurteilen, kommt es ihnen vor allem auf geringe Latenz, Bedienerfreundlichkeit, insbesondere der Vergleichs- und Synchronisierungsfunktionen, heterogene Datenbankunterstützung und einfache Lösungen bei Konflikten an.
Das ist ein Umfeld, in dem die Anbieter von Replikationsservices aus der Cloud (SaaS – Software as a Service) punkten können. Die befragten Unternehmensvertreter halten solche Services, bei denen Replikation als Dienstleistung bezogen wird, zu 57 Prozent für sehr wichtig oder einigermaßen wichtig, vier Prozent gaben sogar an, sie seien entscheidend.
Verwendet werden Replikationsservices vor allem für die Wiederherstellung im Notfall. Doch das ist längst nicht das einzige Anwendungsszenario. Die Services haben vielfältig Nutzeffekte. Unternehmen setzen sie auch ein, um Meldearbeitslasten oder Backup-Arbeitslasten von Transaktionsdatenbanken sinnvoller zu verteilen, Daten zu integrieren oder Datenbanken Peer-to-peer zu replizieren. Dies alles sind Aufgaben, die sich in den komplexen Datenbank-welten von Unternehmen heute ohne Replikationsservices aus der Cloud nur mit unverhältnismäßig mehr Aufwand und Risiken durchführen ließen.
Die Cloud und das durch die Digitalisierung verursachte Datenwachstum verkomplizieren also einerseits das Leben der Datenbankverwalter. Sie ermöglichen aber andererseits auch neue, moderne Werkzeuge wie Replikationsservices aus der Cloud, die helfen, viele komplexe Aufgaben aus dem Datenbankmanagement einfacher lösbar zu machen. So können Unternehmen optimalen Nutzen aus den steigenden Datenmengen und ihrer verteilten, heterogenen Datenbanklandschaft ziehen.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.