Für eine optimale Bewertung und Messung der Datenqualität sowie der Ableitung gezielter Verbesserungsmaßnahmen, müssen im Vorfeld entsprechende Datenqualitätskriterien definiert werden.
In der April-Ausgabe des Harvard Business Manager habe ich einen interessanten Artikel zu den Schlüsselfaktoren von erfolgreichen Innovationen gelesen.
Nachfolgend eine kurze Zusammenfassung des Artikels.
Stelios Kavadias, Kostas Ladas und Christoph Loch1 gingen im Rahmen einer Studie der Frage nach: Wie lässt sich eine Branche revolutionieren? Hierzu untersuchten sie 40 Unternehmen aus unterschiedliche Branchen mit unterschiedlich erfolgreichen Geschäftsmodellen.
Technik und Markt verbindet
Erkenntnisse aus der Studie können wie folgt zusammengefasst werden.
Wer "ja" zur Digitalisierung sagt, muss auch "ja" zu besserer Datenqualität sagen
"76% aller Organisationen glauben, dass ungenaue Daten ihre Fähigkeit behindert, ein herausragendes Kundenerlebnis zu bieten (Experian, DQ-Studie 2016)."
Alles deutet darauf hin, dass wir zukünftig immer stärker Sprachassistenzsysteme nutzen werden. Der prominenteste Vertreter ist Siri. Mit dem zunehmenden Erfolg zogen Google und Amazon nach. Im Bereich der Daten-Analyse ist der bekannteste Vertreter Watson von IBM. Weitere werden sicherlich folgen.
Datenqualitätsmanagement nach der "Friday Afternoon Measurement" Methode
Entscheidungsträger, Führungskräfte, Datenwissenschaftler und Manager müssen oft schnell beurteilen, ob sie einem Datensatz vertrauen können, ob sie ihn in eine Analyse einbeziehen oder ob eine neue Richtung einschlagen werden muss. Es gibt viele Möglichkeiten, aber die grundlegende Frage ist, "habe ich ein Problem mit der Datenqualität?"
Mit der Methode "Friday Afternoon Measurement (FAM)" von Thomas C. Redman, kann diese Frage schnell beantwortet werden. Die Methode richtet sich an Manager auf jeder Ebene, deren Entscheidungsfähigkeit stark von Daten abhängig ist. Mit der fortschreitenden Digitalisierung von Geschäftsprozessen steigt zunehmend das Risiko fehlerhafter Entscheidungen sowie einer verzögerten Erfüllung von Prozesszielen aufgrund schlechter Datenqualität. Die FAM-Methode hilft, das aktuelle Niveau der Datenqualität zu messen, die möglichen Auswirkungen gut einzuschätzen und entsprechende Handlungsoptionen abzuleiten. Die Methode ist unabhängig von Branche, Unternehmen, Prozesse und Daten einsetzbar.
Durch die stark wachsende Anzahl datengetriebener Geschäftsmodelle gibt es keinen Ausweg für das Qualitätsmanagement, sich verstärkt mit dem Thema Datenqualität zu beschäftigen. Datenqualität als Risikofaktor ist schon etwas länger bekannt. Negative Auswirkungen schlechter Datenqualität auf das gesamte System einer Organisation werden zukünftig durchschlagender sein.
Digitales Formularmanagement steigert die Effizienz - Voraussetzung für die Verbesserung ist einwandfreie Datenqualität
Ein Großteil von Formularen wird noch immer auf Papier ausgedruckt und per Hand ausgefüllt, anschließend wieder eingescannt und bestenfalls in einem Dokumentenmanagementsystem abgelegt und verschlagwortet. Digitales Formularmanagement bietet die Möglichkeit, diesen Prozess erheblich effizienter und damit wirtschaftlicher zu gestalten.
Ein eigener Erfahrungsbericht mit einem Datenprovider
Vor einigen Wochen meldete sich telefonisch die Vertrieblerin eines Datenproviders bei mir mit der Frage, ob es für die ACT Gruppe interessant wäre für die Kundenakquise detaillierte Kontaktdaten von Unternehmen zu bekommen, die unsere Webseite besucht haben.
Grundsätzlich war ich interessiert und wollte wissen,
a) wie dies im Zusammenhang mit der ACT Webseite technisch gelöst wird und b) welche Daten mit welcher Qualität angeboten werden.
Zusätzlich zu den qualifizierten Adressen könne man uns auch entsprechende Ansprechpartner zur Verfügung stellen.
Mit den effektiven Denkprozessen aus der TOC (Theory of Constraints) Durchbruchslösungen im Datenqualitätsmanagement schaffen
Ein Bewusstsein dafür, dass ein dringender Handlungsbedarf besteht ein übergreifendes und nachhaltiges DQM einzuführen, ist in vielen Organisationen noch gering ausgeprägt.
Wenn sich um das Thema Datenqualität gekümmert wird, dann meist auf lokale Einheiten beschränkt und situativ bedingt. Je nach Handlungsdruck werden immer wieder Einzelmaßnahmen durchgeführt. In der Regel stört schlechte Datenqualität den Flow von Prozessen und es erfordert immer wieder Nachbearbeitungsschleifen im laufenden Betrieb, bis ein Prozess effektiv abgeschlossen werden kann. Zusätzlich stören immer wieder die ad hoc initiierten Datenkorrekturmaßnahmen den Regelbetrieb.
Ein Qualitätsmanagement-System (QMS) ist nur dann nachhaltig und zukunftsgerichtet, wenn Unternehmen ein Datenqualitätsmanagement (DQM) in das QMS integrieren. Denn ein solches Managementsystem ist entscheidend für die erfolgreiche Umsetzung der Digitalen Transformation.
Warum bringt ein Wechsel der strategischen Ausrichtung auf ein prozessorientiertes Datenqualitätsmanagement einen größeren Nutzen für die gesamte Organisation? Er schafft die überlebenswichtige Verknüpfung unterschiedlicher Management-Systeme in Organisationen.
Je mehr Daten ein Unternehmen erzeugt, desto wichtiger ist es, dass es sich auf diese auch verlassen kann. Eine Entscheidung, die auf fehlerhaften Daten basiert, kann fatale Folgen haben. Verhindern lassen sich diese Probleme, wenn die Datenqualität direkt an die Geschäftsprozesse gekoppelt wird.
Die Veröffentlichung der DIN EN ISO 9001:2015 steht unmittelbar bevor. Trotz fortschreitender Digitalisierung nimmt die neue Norm keinen Bezug darauf, wie Unternehmen mit Daten umgehen sollen. Das ist eine gravierende Lücke.
Daten- und Informationsqualität war jahrelang nur ein Thema für IT-Spezialisten. Doch je größer die Datenbestände durch elektronische Datenverarbeitung werden, umso wichtiger wird für jedes Unternehmen eine gute Daten- und Informationsqualität.
Ergebnisse zum Thema Datenqualität aus der Studie „BIG DATA Future – Chancen und Herausforderungen für die deutsche Industrie“, 02/2015 v. MHP, a Porsche Company.
Die Studie beantwortet die Frage, wo genau die Industrieunternehmen in Deutschland bei der Umsetzung von Big Data stehen. Hierzu wurden online und anonym 254 Entscheider aus deutschen Industrieunternehmen zwischen August und Oktober 2014 befragt.
Gute Datenqualität sichert den Erfolg von Omni-Channel-Strategien
Omni-Channel, das nächste große Ding im Retailing. Im Gegensatz zum Multi-Channel, wo Kunden die verschiedenen Vertriebskanäle hintereinander nutzen, bietet Omni-Channel die Möglichkeit die Vertriebskanäle parallel zu nutzen.
Seit Jahren investieren Unternehmen in Qualitätsmanagementsysteme, um ihre Prozesse an den Kundenwünschen auszurichten. Trotz aller Erfahrungen und Weiterentwicklungen auf diesem Gebiet wurde die Qualität der Daten bisher nahezu vernachlässigt. Das soll sich mit einer überarbeiteten Version der Norm DIN EN ISO 9001, die 2015 veröffentlicht wird, ändern. Diese berücksichtigt verstärkt den risikobasierten Ansatz. Der Ansatz zielt darauf ab, frühzeitig unternehmensgefährdende Risiken zu berücksichtigen, zu bewerten und zu vermeiden. Dabei gibt es erste Anzeichen in Richtung Daten- und Informationsqualität.
So regeln Sie die gesamte Daten- und Informationslogistik
Eine Data- und Information Governance (DIG) ist das unternehmensweite Rahmenwerk für ein Compliance-konformes Daten- und Informationsmanagement. Solch ein Rahmenwerk regelt den Umgang und die Steuerung der gesamten Daten- und Informationslogistik, bildet die Qualität-Standards ab und definiert das Informationsdesign.