Datenqualität in einem BI System verbessert vorgelagerte Prozesse

von

„Nur Daten mit guter Qualität garantieren den Unternehmenserfolg!“

Für Datenqualität lohnt es sich genau hinzuschauen

Mit zunehmender Digitalisierung zeigen sich nicht nur Daten, sondern auch deren Qualität als ein wichtiger Träger für den Unternehmenserfolg. Dabei wird jedoch die Datenqualität in vielen Unternehmen oft unabsichtlich vernachlässigt.

Ein wichtiges Beispiel für die Relevanz qualitativ relevanter Daten sind beispielsweise Quartals- oder Jahresbilanzen im Finanzbereich, die an eine Aufsichtsbehörde gesendet werden. Sie erfordern eine hohe Genauigkeit und Aktualität, da etwaige Fehler teure Konsequenzen mit sich ziehen würden.

Daher sollten wir uns die Frage stellen, wo die Ursachen schlechter Datenqualität liegen und wann man diese am besten lösen kann.

Bis zu 15-mal günstiger sind Datenqualitätsprobleme an der Quelle zu beheben

Grundsätzlich lassen sich zunächst interne wie auch externe Ursachen als Grund für schlechte Datenqualität identifizieren. Eine Ursache im internen Bereich ist die falsche Interpretation der zu erfassenden Daten sowie die unvollständige Erfassung aufgrund fehlender Informationen. Eine Ursache im externen Bereich können beispielsweise zugekaufte Adressen sein, die bereits fehlerhafte Daten enthalten und so die Datenqualität verschlechtern.

Viele dieser Ursachen lassen sich schon wirkungsvoll eindämmen, indem die man seine Mitarbeiter entsprechend schult, um ihnen den Wert der eigenen Unternehmensdaten bewusst zu machen. Eine hohe Data Awareness der Mitarbeiter macht schnell deutlich, wie wichtig die richtige Erfassung von Daten in den operativen Systemen ist. Es entstehen sonst bzw. entstanden schon hohe Kosten, wenn die grundlegenden Daten in den Kernprozessen unzureichend gepflegt sind.

Außerdem sollte man zugekaufte Daten genau aussuchen und kontrollieren damit man seine Systeme nicht mit fehlerhaftem externem Material verdirbt. Dabei wird ganz schnell klar, das Übel muss an der Wurzel angepackt werden. Je später man in der Verarbeitungskette versucht fehlerhafte Daten „zu korrigieren“, desto teurer wird es.

Dabei zeigt oft erst eine Datenintegration wie in einem BI-System Mängel auf, die zur Beseitigung in den Vorsystemen führt und damit zu einer gesteigerten Prozesseffizienz beiträgt.

Bis zu 60 Kriterien decken fehlerhafte Daten auf – aber 3 davon sind besonders relevant

Taucht man tiefer in die Thematik ein, finden sich ca. 60 Datenqualitätskriterien zur Beurteilung vorhandener Daten zur Weiterverarbeitung. Allerdings sind nicht alle 60 von unmittelbarer Relevanz bzw. praktischer Bedeutung und werden somit in ihrer Gesamtheit nur selten verwendet.

Die drei am häufigsten verwendeten Datenqualitätskriterien sind Vollständigkeit, Aktualität und Glaubwürdigkeit. Dabei besteht bei diesen Kriterien eine Abhängigkeit. Die Daten sollten möglichst keine Lücken aufweisen, zeitnah erfasst worden sein und eine gewisse Glaubwürdigkeit haben.

Ein Beispiel für Glaubwürdigkeit wäre ein Datenfeld mit einem vorgegebenen Zahlenbereich im Bereich von 10.000 € bis 90.000 €. Findet sich dort entgegen der Erwartung eine Zahl von 50 €, sollte man also genauer hinschauen, da sie weitaus kleiner ist als das definierte Intervall und somit einen Fehler darstellen dürfte.

Bei operativen Systemen wird so ein Ausreißer oft „vor dem Bildschirm ausgeglichen“. Der zuständige Mitarbeiter interpretiert die 50 € als plausible 50.000 € und dem Auftrag steht nichts im Weg. Der operative Betrieb des Unternehmens funktioniert zwar, aber im System bleibt der falsche Wert von 50 € stehen, weil „es ja sonst keinen stört“.

Erst die Integration zeigt Unzulänglichkeiten und vor allem fehlerhafte Prozesse auf

Was operativ vielleicht nicht stören mag, rächt sich später in der dispositiven Betrachtung. Erst die Zusammenführung mit anderen Datenquellen und der Versuch der Aggregation macht solche Missstände in den Vorsystemen offensichtlich. An diesen Punkten sind schon viele Datawarehouse Projekte gescheitert. Hierin begründet sich die Erfahrung, dass zumeist 80% der Realisierungszeit eines DWH für die Daten aufgewendet werden.

Meistens werden bei der Integration in ein BI System überhaupt erst Datenqualitätsprobleme erkannt. Denn diese zeigen sich mit aller Konsequenz, wenn Zusammenhänge zwischen verschiedenen Datenbanken hergestellt werden, die zusammengeführt werden sollen. Dabei können sich beispielsweise Adressen, Namen oder Telefonnummern doppeln, wichtige Schlüsseldaten zur Verknüpfung fehlen „plötzlich“ oder sind im Format nicht kompatibel.

DataIntelligence BI Service sorgt im Mittelstand für bessere Prozesse

Abschließend lässt sich folgendes feststellen. Sowohl die Erkennung, Lösung und Vermeidung von schlechter Datenqualität als auch die Wahl der richtigen Datenqualitätskriterien sind zwei entscheidende Grundbausteine.

Aufgezeigt und erfasst werden in der Qualitätsanalyse der Datenintegration nicht nur Unzulänglichkeiten in den Vorsystemen, sondern häufig auch Fehler in den operativen Prozessen. Genau das macht eine Datenqualitätsanalyse bei der Integration unterschiedlicher Quellen besonders wertvoll!

Sprechen wir darüber wie das praktisch für Sie aussehen kann, um eventuelle finanzielle Schäden einzugrenzen, die bei unzureichender Datenqualität entstehen.

Herzlichst Michael Beth

Zurück