Daten sind der wichtigste Rohstoff des 21. Jahrhunderts. Der Unternehmensalltag ist voller Situationen, bei denen Daten eine zentrale Rolle spielen. Bei der stammdatenbasierten Einführung einer neuen Software, müssen Geschäftspartner, Kundenadressen und der Materialstamm sauber gepflegt sein, damit die Folgeprozesse reibungslos ablaufen. Bei der Überführung von Quelldaten in ein neues System gilt: Je weniger Fehler in den Quelldaten existieren, desto geringer wird auch die Fehlerzahl im neuen System sein. Dieser Aspekt ist umso bedeutender, wenn man bedenkt, dass sich vorhandene Fehler in komplexeren Umgebungen sogar verstärkt auswirken können.

 

Ebenso sollten Unternehmen die Datenqualität bei Migrationsprojekten im Blick haben, um im neuen System mit sauberen Daten arbeiten zu können. Auch ein kompletter Technologiewechsel, etwa von SAP ERP auf SAP S/4HANA, gelingt am besten auf einer bereinigten Datengrundlage. Und wo es um die Digitalisierung einer bisher manuellen Datenerfassung geht, laufen automatisierte Prozesse ins Leere, wenn sich die Datenbasis als allzu fehlerhaft erweist.

 

Saubere Basis für Entscheidungen

Außer bei neuer Software, Migrationen und Automatisierungen sind saubere Daten auch als Fundament für die Steigerung von Performance und Wettbewerbsfähigkeit wichtig. Schließlich braucht die Unternehmensführung bei datenbasierten Geschäftsentscheidungen die Gewissheit, dass sie sich auf die Aussagekraft der vorhandenen Daten verlassen kann. Diese vielfältigen Beispiele machen deutlich, dass eine stringente Qualitätsstrategie immer auch die Datenqualität in den Blick nehmen muss. Denn Unternehmen können nur wirklichen Nutzen aus ihren Daten ziehen, wenn diese qualitativ möglichst hochwertig sind.

 

Hindernisse für hohe Datenqualität

Angesichts der großen Bedeutung einer hohen Datenqualität kommt unweigerlich die Frage auf, woran Unternehmen in der Praxis bei dem Versuch scheitern, diese Qualität sicherzustellen. Ein wichtiger Faktor ist der Mangel an personellen und zeitlichen Ressourcen. Es kann recht aufwendig sein, die Qualität der vorhandenen Daten zu prüfen und gegebenenfalls eine erforderliche Optimierung vorzunehmen. Diese Aufgaben mit internen Kapazitäten zu bestreiten, erweist sich für Unternehmen oft als enorme Herausforderung.

 

Zudem kann fehlendes Fachwissen eine Rolle spielen. Gilt es doch, im Rahmen einer Daten- und Adressbereinigung eine Vielzahl von Fragen zu klären. Welche Tabellen lassen sich für das Validieren von internationalen Adressdaten heranziehen? Mit welchen Parametern muss ein entsprechendes Programm versehen werden, damit es Dubletten identifizieren kann? Wie wird eine Dublette überhaupt definiert?

 

Häufig verfügen Unternehmen nicht über eine geeignete Software für die Adressvalidierung und die Dublettenbereinigung. In diesem Fall stellt nicht nur die Anschaffung einer solchen Software einen Kostenfaktor dar, sondern auch die Schulung der Mitarbeiter in der Bedienung des Programms. Häufig lassen sich die tatsächlichen Kosten für eine solche Maßnahme am Anfang noch gar nicht zuverlässig abschätzen.

 

Wie lassen sich saubere Daten gewährleisten?

An der Tatsache, dass Unternehmen in hohem Maße von gepflegten Daten profitieren und für ihren geschäftlichen Erfolg darauf angewiesen sind, besteht wohl kein Zweifel. In der Praxis zeigt sich jedoch, dass Unternehmen aus unterschiedlichen Gründen – von personellen Engpässen über mangelndes Know-how bis hin zu fehlenden Tools – Schwierigkeiten haben, eine hohe Datenqualität zu erreichen und dauerhaft zu sichern. Sie sind also gefordert, im Rahmen ihrer individuellen Möglichkeiten einen Weg zu finden, um ihre Daten sauber zu halten und so eine unabdingbare Voraussetzung für den zukünftigen Unternehmenserfolg zu schaffen.

Gesteigerte Datenqualität zum Festpreis

Weitere interessante Beiträge: