Durch hohe Datenqualität richtige Entscheidungen treffen
Datenqualität schafft einen effektiveren Fluss von qualitativen oder quantitativen Informationen und trägt somit zu fundierteren Entscheidungen in Unternehmen bei.
Was ist Datenqualität?
Datenqualität bezeichnet die Aufbereitung von Daten, um spezifische Anforderungen von Businessanwendern zu erfüllen. Daten sind der wertvollste Aktivposten Ihres Unternehmens, daher sollten Sie regelmäßige Analysen der Datenqualität durchführen, ehe sie diese für die allgemeine Nutzung freigeben. Besonders da sich Entscheidungen, die anhand fehlerhafter Daten getroffen werden, negativ auf Ihr Unternehmen auswirken können.
Wie unzureichende Datenqualität Kosten verursacht
Wie gehaltvoll die Erkenntnisse sind, die ein Unternehmen aus Daten ableiten kann, hängt vor allem von der Datenqualität ab. Minderwertige Daten können in jeder Abteilung entstehen und unterschiedliche Probleme aufweisen. Allem voran hindern Sie Unternehmen an der Gewinnung neuer Erkenntnisse und beeinträchtigen somit auch die Qualität zukünftiger Entscheidungen.
Datenqualität ist für viele Entscheider ein leidiges Thema. Laut dem Global CEO Outlook 2016 von Forbes Insights und KPMG sind 84 % aller Entscheider nicht von der Qualität der Daten überzeugt, die sie zu Business-Intelligence-Zwecken nutzen. Unzureichende Datenqualität kann aber sehr teuer werden. Eine von MIT Sloan durchgeführte Studie kommt zu dem überraschenden Ergebnis, dass schlechte Daten 15-25 % des Gesamtumsatzes kosten können.
Kennzahlen zur Messung der Datenqualität
Die gute Nachricht: Ihr Unternehmen muss keine weiteren Einbußen durch schlechte Daten hinnehmen – weder zeitlich noch finanziell. Beachten Sie folgende sechs Metriken während Sie Datenqualität messen, um eine optimale Performance Ihrer Unternehmenssysteme sicherzustellen:
- Normierung der Metrikergebnisse: Dadurch lassen sich Daten interpretieren und miteinander vergleichen.
- Kardinale Skalierung: Dies ermöglicht es, die Entwicklungskurve der Metrikergebnisse nachzuverfolgen und geeignete wirtschaftliche Maßnahmen abzuleiten.
- Sensibilisierbarkeit: Die Datenqualität wird dadurch für eine bestimmte Anwendung und Zielsetzung mess- und bewertbar.
- Aggregierbarkeit: Dies schafft die Möglichkeit der Messung der Datenqualität auf Attributwert-, Tupel-, Relationen- sowie Datenbankebene. So werden die Metrikergebnisse auf allen Ebenen aggregierbar.
- Operationalisierbarkeit mittels Messverfahren: Messverfahren wie Definitions- oder Wertebereich machen Metriken in der Praxis anwendbar.
- Fachliche Interpretierbarkeit: Metrikergebnisse sollten durch Dritte nachzuvollziehen sein. Dies schafft eine fachliche Interpretation und Reproduktion.
Datenqualität definieren, auswerten und sichern
Wollen Unternehmen fundierte, datenbasierte Entscheidungen treffen, müssen sie zunächst die Datenqualität einer Analyse unterziehen Dies gilt für Organisationen jeder Größe, Branche und Ausrichtung. Allerdings gibt es zahlreiche Datenarten und -quellen, deren Qualität sich je nach Nutzungsgrund und -art unterschiedlich auf das Unternehmen auswirken kann. Deshalb sollten Datennutzer im Unternehmen gemäß den oben beschrieben Metriken vorab feste Ziele definieren. Welchem Zweck dienen die Daten? Wofür sollen sie eingesetzt werden?
Daten haben einen Mehrwert, wenn sie einen Geschäftsprozess oder eine auf Business Intelligence basierende Entscheidungsfindung unterstützen. Deshalb sollten in den vereinbarten Kriterien für Datenqualität stets der Mehrwert berücksichtigt werden, den die Daten dem Unternehmen bieten. Verfügen Daten in einem bestimmten Kontext über ein besonders hohes Mehrwertpotenzial, müssen bei der Definition der Datenqualität entsprechend strenge Regeln gelten. Aus diesem Grund sollten Unternehmen bei der Definition von Datenqualitätsstandards nicht nur die eigentlichen Dimensionen der Kennzahlen zur Messung der Datenqualität (und natürlich die nötigen externen Qualitätsstandards) berücksichtigen. Sie müssen sich auch der Folgen bei Nichtbeachtung der Standards bewusst werden.
Wie unzureichende Datenqualität Kosten verursacht
Probleme mit unzureichender Datenqualität sollten vor der Nutzung der Daten angegangen werden – direkt an ihrem Ursprungsort. Verifizieren und standardisieren Sie Daten bevor diese in die Backend-Systeme Ihres Unternehmens gelangen, kostet Sie dies etwas einen Euro. Bereinigen Sie derartige Daten jedoch erst zu einem späteren Zeitpunkt und an verschiedenen Speicherorten, steigen die Kosten auf das Zehnfache. Wenn Sie Daten beim Eintritt ins Unternehmen verifizieren oder standardisieren, bevor sie in Ihre Backend-Systeme gelangen, kostet Sie die Standardisierung etwa einen Euro. Bereinigen Sie die Daten erst später an ihren diversen Speicherorten, steigen die Kosten auf das Zehnfache. Demnach können Daten von geringer Qualität, die im System belassen werden und schließlich als Grundlage für Entscheidungen dienen, ein Unternehmen bis zu 100 Euro kosten. Im Vergleich dazu steht nur ein Euro bei Standardisierung und Validierung am Eintrittspunkt.
So wird die Analyse der Datenqualität ein Erfolg
Damit Ihr Unternehmen erfolgreich bleibt, brauchen Sie einen durchgängigen, proaktiven und kollaborativen Datenqualitätsansatz. Jedes Team innerhalb des Unternehmens (nicht nur IT und Technik) sollte Verantwortung für die Datenqualität übernehmen. Nur so lässt sich jedes einzelne System abdecken. Zudem benötigen Sie Regeln und Richtlinien, die sicherstellen, dass schlechte Daten gar nicht erst ins Unternehmen gelangen und Kosten verursachen.
Klingt nach einer Sisyphos-Aufgabe? Weit gefehlt! Hier ist Ihre Roadmap, um diesen Ansatz zu implementieren:
1. Bilden Sie ein interdisziplinäres Team, um die Datenqualität zu prüfen
Bringen Sie als Kernteam für die Datenqualität Datenarchitekten, Businessentscheider, Datenwissenschaftler und Datenschutzexperten zusammen. Die Leitung sollte ein Implementierungsexperte übernehmen, der das Team steuert, motiviert und gleichzeitig Datenqualitätsprojekte initiiert.
2. Definieren Sie gleich zu Beginn Ihre Erwartungen an die Datenqualität
Warum ist Datenqualität entscheidend? Die Antwort auf diese Frage können Ihnen die Kollegen aus dem operativen Business liefern. Stellen Sie sicher, dass Sie und Ihr Team ein klares Ziel vor Augen haben und definieren Sie Zielsetzungen, die sich nachhaltig auf das Geschäft auswirken.
3. Greifen Sie regulatorischen Änderungen vor und sorgen Sie für Compliance
Gehen Sie kurzfristige Compliance-Aufgaben, z. B. die Einhaltung der DSGVO gemeinsam mit Ihrem Datenqualitätskernteam an. So sorgen Sie zeitnah für Mehrwert und sichern sich strategische Transparenz.
4. Setzen Sie sich ehrgeizige Ziele mit maximalem Nutzen
Definieren Sie bei der Planung Ihrer Datenqualitätsinitiative ruhig ambitionierte, businessrelevante Ziele. Das verschafft Ihrem Projekt die Aufmerksamkeit des Top-Managements und motiviert Ihr Team.
5. Sorgen Sie trotzdem für kurzfristige Erfolge
Ein erster Schritt dazu ist, das Unternehmen in die Datenverwaltung zu involvieren. So könnten Sie beispielsweise das Onboarding von Daten optimieren, Daten schneller in die Cloud migrieren oder Ihre Salesforce-Daten bereinigen.
6. Bleiben Sie im Hinblick auf die Datenqualität realistisch
Definieren Sie nachvollziehbare Kennzahlen zur Messung der Datenqualität, die von allen akzeptiert und verstanden werden und nutzen Sie diese aktiv. Datenqualität und operativer Erfolg hängen unmittelbar zusammen. Berücksichtigen Sie also auch entsprechende Leistungskennzahlen wie die Entwicklung des ROI oder der Kosteneinsparungen.
7. Feiern Sie Ihre Erfolge
Wenn Sie ein Projekt mit messbaren Ergebnissen abschließen, so können Sie dies ruhig angemessen feiern. Natürlich sind dabei Know-how und Fachwissen entscheidend.
Die Datenqualität unternehmensweit verwalten
Mit einem proaktiven Ansatz können Sie die Datenqualität messen und prüfen, bevor minderwertige Daten Ihre zentralen Systeme erreichen. Allerdings ist es eine komplexe Aufgabe, sämtliche Daten in stationären und mobilen Anwendungen, in der Cloud und im Internet stets im Blick zu behalten. Diese Art von Kontrolle über alle Systeme, Standorte und Domains lässt sich nur realisieren, wenn Sie Daten in Echtzeit überwachen können. Dies funktioniert im Rahmen von Datenintegration.
Um die Verbreitung fehlerhafter Daten zu vermeiden, müssen Sie in erster Linie entsprechende Kontrollregeln in die Datenintegrationsprozesse implementieren. Mithilfe der richtigen Datenqualitätstools und integrierter Daten können Sie den einen oder anderen „Whistleblower“ für sich arbeiten lassen, der einige der Ursachen für Datenqualitätsprobleme aufdeckt.
Die Kosten minderwertiger Daten lassen sich in Form von vergebenen Chancen, schlechten Entscheidungen und dem Aufwand für die Fehlerfindung und -behebung quantifizieren. Eine kollaborative Datenverwaltung und die nötigen Tools für die Datenkorrektur am Ursprungsort sind der sichere Weg, um für alle Beteiligten Datenqualität sicherzustellen. Informieren Sie sich über die zahlreichen Apps, mit denen Talend Data Fabric diese Ziele unterstützt.
Sind Sie bereit, mit Talend durchzustarten?
Weitere Artikel zu diesem Thema
- Data-Profiling: Definition, Tools und Nutzen
- Datenintegrität: Bedeutung, Arten & Risiken
- Was ist Datenredundanz?
- Datensynchronisation: Definition, Methoden, Herausforderungen
- Leistungsstarkes Datenqualitätsmanagement mit Talend
- Data Quality Tools richtig auswählen und Datenqualität sichern
- Einsatz von maschinellem Lernen für Data Quality