Eine bessere Informationsverwaltung, die Umsetzung von Big-Data-Anforderungen und die Bereitstellung einfacher und benutzerfreundlicher Lösungen, nennt SAP als die wichtigsten Neuerungen in der Version 4.2 der beiden Datenmanagement-Lösungen Data Services und Information Steward.
Mit der neuen Version können Datenqualitätsverantwortliche feststellen, welche finanziellen Auswirkungen eine unzureichende Datenqualität auf Bereiche wie die Informationsverwaltung, die Analyse von Big Data, Business Intelligence und Datenmigration hat.
So hält der SAP Information Steward eine neue Funktion zur Analyse von geschäftlichen Auswirkungen, mit der die Benutzer mittels Was-wäre-wenn-Analysen für unterschiedliche Qualitätsstufen und Kosten Einsparpotenziale aufdecken und Kennzahlen zu den finanziellen Auswirkungen fehlerhafter Daten überwachen können.
Auch bei der Nutzerführung hat SAP neue Funktionen eingeführt. Diese werden über eine Art Wizard Schritt für Schritt durch die Entwicklung einer Lösung geleitet. Über diese Lösung können die Mitarbeiter dann die Qualität der Informationsressourcen bewerten und bei unzureichender Qualität Gegenmaßnahmen ergreifen.
Integrierte Funktionen erlauben es, Daten zu analysieren und zu bewerten. Über vordefinierte Inhalte liefert die Lösung zudem automatisch Empfehlungen zur Verbesserung der Datenqualität. Diese Vorschläge werden darüber hinaus mit Workflows ergänzt, die zusätzliche Überprüfungsschritte und die Anpassung der verwendeten Regeln ermöglichen.
Über eine verbesserte Integrationsfähigkeit kann der SAP Information Steward nun auch in die Anwendung SAP Master Data Governance integriert werden. Somit können die Nutzer Daten unmittelbar im Anschluss an die Analyse der Datenqualität korrigieren. Dabei muss keine weitere Oberfläche geöffnet werden.
“Bei American Water verfolgen wir mit unserem Datenverwaltungsprogramm das Ziel, den Lebenszyklus von Daten in unseren Abläufen zu verankern”, erläutert Veronica Kinsella, die für die Unternehmensdaten von American Water verantwortlich ist. “Wir integrieren deshalb SAP Data Services und SAP Information Steward in unsere Systeme, um eine umfassende Lösung zur Sicherstellung der Datenqualität realisieren zu können.” Laut Kinsella sei es so möglich, bereits im Vorfeld die Daten zu überprüfen und Scorecards und Überwachungsberichte zu erstellen, um die Qualität der Daten in allen Phasen des Lebenszyklus zu überprüfen.
Eine neue benutzerfreundliche Oberfläche erleichtert es den Datenqualitätsverantwortlichen durch die Konsolidierung von Dubletten einen optimalen Datensatz zu erstellen. Benutzerdefinierbare Survivorship-Regeln für den optimalen Datensatz verringern laut SAP zusätzlich den manuellen Aufwand und ermöglichen die Umsetzung eines standardisierten Governance-Prozesses.
Über das Hinzufügen von Standorten zu Adressen lassen sich die Wertschöpfung der Daten weiter erhöhen. Hier hat SAP erst vor wenigen Tagen eine Kooperation mit dem Geoinformationsspezialisten Esri bekann gegeben. Inzwischen liefere SAP Data Services Informationen zu 240 Ländern ab. Neue Erweiterungen gibt es für die Adressbereinigung in 36 Ländern und eine erweiterte Geokodierung für 20 Länder zur Verfügung. Adressen, die um Breitengrad- und Längengradinformationen ergänzt wurden, können mit geografischen und topologischen Merkmalen kombiniert werden. Dadurch sind zusätzliche Analysen und Einblicke in operative Abläufe möglich.
Neben der Unterstützung für Apache Hadoop steht nun auch ein vereinfachtes Software Developer Kit (SDK) für SAP Data Services zur Verfügung, mit dem sich verschiedene neue Datenquellen auswerten lassen, unter anderem NoSQL-Datenbanken, soziale Medien und Cloud-Lösungen. Die neuen SAP Data Services lassen sich auch mit der In-Memory-Plattform integrieren. Laut Nuclus Research, das dieser Kombination den Technology ROI-Award im Mai verliehen hatte, könne bereits nach vier Monaten ein ROI von über 400 Prozent erreicht werden. Diese ermöglichte die Standardisierung und den Abgleich der Daten und das ohne Einbezug von externen Dienstleistern und ohne zusätzliche Mitarbeiter, die für die Datenqualität verantwortlich sind.
Auch SAP selbst setzt natürlich diese Lösung ein: “Mit der Lösung für die Standardisierung und den Abgleich von Daten können wir Kundendaten aus unterschiedlichen Quellen – auch aus Unternehmen, die wir vor Kurzem übernommen haben – wesentlich schneller in unsere Systeme integrieren und profitieren von einer höheren Datenqualität”, so das Fazit von Maria Villar, Group Vice President für Global Data Management, Global Customer Operations, SAP AG.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…