Anhand der Parallelen von Datenqualität und Arbeitssicherheit wird in diesem Whitepaper dargestellt, welche Kriterien den langfristigen Erfolg einer Datenqualitätsinitiative beeinflussen.
Nachhaltiger Erfolg benötigt Datenqualität
In unserer digitalisierten Welt basiert der Erfolg aller Bereiche einer Organisation auf Datenqualität (siehe auch Gartner Studie von 2021):
Sie ist Voraussetzung für Digitalisierung und Nutzung von KI, die Grundlage fundierter Entscheidungen. Ineffiziente Nacharbeiten können dank ihr vermieden werden. Allerdings ist die Einführung einer erfolgreichen und nachhaltigen Datenqualitätsinitiative nicht einfach.
In meinen acht Jahren als Unternehmensberater habe ich mich intensiv mit Datenqualität beschäftigt und dabei ein fundiertes Wissen in diesem Bereich aufgebaut.
Mit diesem Whitepaper zeige ich, wie man Datenqualität zu einem langfristigen Erfolg führen kann. Nach Betrachtung der Schlüsselthemen:
- Fokussierung auf Messung der konkreten Probleme und
- Bewusstsein für Datenqualität zu schaffen,
wird ein pragmatisches Einführungsvorgehen skizziert.
Datenqualität beruht auf Ursachenerkennung, Bewusstseinsbildung und Prävention/ Behandlung von Problemen. Arbeitssicherheit nutzt die gleiche Vorgehensweise. Daher eignet es sich als Vorlage.
Fokussierung auf Messung
Oft setzen Firmen den Fokus entweder auf Datenkorrektur oder Prävention. Der Fokus sorgt einerseits für schnelle Effekte, andererseits wird die Vermessung der Probleme übergangen, mit der man die Wirksamkeit belegen oder nächste Schritte ableiten könnte. Ohne die Messung bleibt nur die Initiative zum Erfolg oder Fehlschlag zu klären – also sie so oder so abzubrechen. Daher ist es nötig Datenqualität zu messen.
Ein Bauer ist so beschäftigt die Hühner einzufangen, dass er nicht die Zeit findet den Hühnerstall zu reparieren. Was ich dem Bauer in diesem Fall raten würde? – Die Hühner mit GPS ausstatten! Damit findet man sie leichter und kann sobald der Stall Löcher bekommt, diese Anhand der Bewegung ermitteln.
Messungen ermöglichen Verständnis, Kontrolle und die Kommunikation von Erfolgen. Weniger Zeit für Fangen und Reparatur zu benötigen, oder eine geringere Zeit in der die Hühner nicht im Stall sind wären Möglichkeiten den Erfolg zu definieren. Eine Bewertung ist nur durch Fokus auf eine objektive Vorher-Nachher-Messung von Problemen und Qualitätsregeln möglich.
Probleme direkt zu messen – z.B. wie viel Zeit verbringt der Bauer mit der Wartung des Hühnerstalls und dem Einfangen der Hühner – schafft Transparenz über das Ausmaß der Probleme.
Qualitätsregeln – wie lange braucht das Fangen eines Huhns, wie oft entkommt ein Huhn, wie lange wurden Bestandteile des Stalls nicht mehr gewartet - fokussieren Ursachen und bieten damit einen Lösungsansatz.
Die Messung der Probleme selbst zeigt also nur den Bedarf der Qualitätsregeln. Die Qualitätsregeln zeigen dann, wie weit man die einzelnen Aspekte im Griff hat. Für effektive Maßnahmen, müssen die richtigen Regeln gefunden und ausformuliert werden.
Nicht alle Regeln werden sinnvoll sein: Wenn der Zaun so gewartet wird, dass keine Hühner mehr entkommen, macht es für den Bauern keinen Sinn schnelleres Fangen zu trainieren.
Ersichtlicher Zweck jeder Regel
Eine Datenqualitätsregel ist genau dann hilfreich, wenn sie zu reibungslosen Prozessen und vertrauenswürdigen Daten beiträgt. Wenn das Ziel der Regel bekannt ist, erhöht dies das Verständnis und damit die Akzeptanz. Dies sorgt für bessere Kommunikation und verhindert, dass Datenbereinigung zum Selbstzweck wird. Daher sollte die Dokumentation der Regel den Zweck immer mit beinhalten.
Quellen für maßgefertigte Qualitätsregeln
Es gilt die hilfreichsten Regeln zu finden, und das immer wieder. Neben der initialen Erstellung der Regeln ist eine kontinuierliche Verbesserung durch Erweiterung und Anpassung des Regelkatalogs notwendig. Anforderungen ändern sich mit der Zeit, und aktives Bereinigen macht weitere Probleme erst erkennbar. Dabei helfen folgende Inspirationsquellen:
- Dialog & Vorschlagsbox: Der Wert der Regeln entsteht Bottom-Up durch Erfüllung von Nutzerbedürfnissen. Das Datenqualitätsteam übernimmt Verwaltung und Abstimmung, und definiert die Regeln gemeinsam mit den Nutzern. Ein Dialog erzeugt mehr Ideen und deklariert Qualität als gemeinsame Aufgabe.
- Analyse von Tickets: Durch Analyse erhält man Problem-Definition, Häufigkeit und Lösung. Dies hilft den Bedarf zu verstehen.
- Rule-Mining: Abhängigkeit zwischen Attributen wird analysiert und in Regeln umgewandelt. Basierend auf Werten verschiedener Attribute wird die Plausibilität eines anderen Attributs bestimmt. Rule-Mining benötigt die Abhängigkeiten als Input und kennt auch die Ziele der Regeln nicht. Es hilft Ideen zu generieren, die dann aber durchdacht werden müssen.
Bewusstsein für Datenqualität
Wie schon angedeutet, müssen Qualitätsprobleme objektiv und transparent dargestellt werden. Es darf nicht als Schwäche angesehen werden Qualitätsprobleme einzugestehen.
Ziel ist es ein ebenso omnipräsentes Bewusstsein für Datenqualität zu schaffen, wie das für Arbeitssicherheit: So, wie der Arbeitsschutz durch Sicherheitsbewusstsein die Arbeitswelt wandelte, muss Datenqualität ein Qualitätsbewusstsein schaffen, das offenen Umgang und weitreichenden Wandel ermöglicht.
Stellen Sie sich eine Datenqualitätsaktion mit Plakaten auf dem ganzen Campus oder regelmäßigen Emails an alle vor:
10s Achtsamkeit ersetzen 10h Nacharbeit!
Tippfehlerprüfung vorm Speichern vermeidet aufwändige Korrekturen.
Absurd? – Denken sie darüber nach wie selbstverständlich Handwaschanleitungen, Erinnerungen
Passwörter zu schützen, oder Hinweise das nasser Boden rutschig ist inzwischen sind.
Präsenz und Selbstverständlichkeit bestimmen den Erfolg der Arbeitssicherheit maßgeblich mit und ermöglichen offen über Probleme zu reden. Das Mandat – Bewusstsein für die Wichtigkeit des Themas zu schaffen – macht Arbeitssicherheit zum Selbstläufer. Diese Prinzipien lassen sich auf Datenqualität übertragen. Die Abbildung zeigt wichtige Erfolgsfaktoren, die dazu beitragen, dass alle sich beteiligen und man durch die Präsenz und Wichtigkeit eine selbsterhaltene Initiative bekommt und die sich auch übertragen lassen.
Das Qualitätsteam treibt den Wandel
Es geht jetzt also darum diese Selbstverständlichkeit und Problemoffenheit in der Firma zu etablieren.
Das Erfolgsprinzip etwas zu normalisieren ist, dies vorgelebt zu bekommen: Ein autonomes und datengetriebenes Qualitätsteam verkörpert die für den Wandel relevanten Werte und trägt sie durch Öffentlichkeitsarbeit in das ganze Unternehmen.
Damit wird der Samen für den benötigten kulturellen Wandel gepflanzt, und dieser wächst durch jeden geteilten Erfolg. So verhilft das Team als Vorreiter und Vorbild der Datenqualität zur Normalität.
Inkrementelle Einführung: schnelle Ergebnisse, langfristiger Wandel
Es bietet sich ein agiler Ansatz an, die durch Fokussierung auf wenige Regeln ein grundlegendes Qualitätsmanagement einführt und schnell erste Ergebnisse erzielt. Mit diesen Ergebnissen zeigt man allen Beteiligten einen für sie direkten Mehrwert auf und schafft so Akzeptanz für den weiteren Ausbau des Qualitätsmanagements.
Außerdem unterstreicht der Ansatz die Autonomie und Werte, die das Qualitätsteam vorlebt.
Einführungsvorgehen
Erfahrungsgemäß ist eine Anpassung der Herangehensweise an das Umfeld und die Ausgangslage der Organisation nötig. Insbesondere die Einbettung des Teams in die Organisation und die Regeln der Zusammenarbeit müssen geklärt werden. Danach beginnt die Durchführung:
- Auf Basis bekannter Probleme erarbeitet man einen ersten Satz von Qualitätsregeln gemeinsam mit den Datennutzern.
- Mit diesen Regeln misst man die Datenqualität als Referenzwert.
- Man bereinigt benötigte Daten und/oder verhindert neue Regelverstöße.
- Abschließend werden die Erfolge mit allen Beteiligten präsentiert und wertgeschätzt.
- In Folge erweitert und verbessert man den Regelkatalog kontinuierlich.
Zur Einführung ist es hilfreich eine unabhängige Unterstützung hinzuzuziehen. Dabei sollten die Selbstbefähigung des eigenen Qualitätsteams und auf den Kunden zugeschnittene Lösungsansätze im Fokus stehen, um langfristigen Erfolg sicherzustellen.
Datenqualität analog Arbeitssicherheit
Datenqualität ist notwendig für Digitalisierung und Nutzung von KI-Technologie, ermöglicht bessere Entscheidungen und vermeidet signifikante Verluste. Damit ist Datenqualität ein entscheidender Faktor für langfristige Wettbewerbsfähigkeit.
Es ist fast unvorstellbar, wie viel die Arbeitssicherheit gewandelt hat: z.B. ist die Häufigkeit tödlicher Arbeitsunfälle um einen Faktor 30 zurückgegangen. Stellen Sie sich vor, Sie übertragen diesen Erfolg auf Datenqualität.
Wann: Jetzt! - Mit Basycon als erfahrenem Partner
Geeignete Tools sind vorhanden, es geht darum der Datenqualität einen entsprechenden Stellenwert einzuräumen. Damit ist Ziel und Weg klar: Wer jetzt handelt kann sich einen strategischen Vorsprung verschaffen!
Beim Weg das volle Potential Ihrer Daten auszuschöpfen, haben Sie mit Basycon einen erfahrenen Partner, der Sie rundum unterstützt.
Wir bei Basycon sind überzeugt, dass es zu einer erfolgreichen Lösung einen ganzheitlichen Blick von der Strategie bis zur Umsetzung sowie hohe Expertise und Erfahrung braucht, um allgemeine Lösungen auf Ihre spezielle Situation anzupassen. Unsere Berater haben alle einen MINT-Hintergrund sowie hohe IT-Expertise und sind es gewöhnt, Probleme in der Tiefe zu verstehen und elegante, pragmatische Lösungen zu finden.
Über den Autor
Nach seiner Promotion in Physik an der Universität Duisburg-Essen ist Markus Küpper seit 2016 als Unternehmensberater bei Basycon tätig. Seine Schwerpunkte als Berater sind Datenmigration und Datenqualität mit Fokus auf den SAP-Geschäftspartner. Dabei hat er zahlreiche internationale Rollouts unterstützt.