Ein zentrales Prinzip der Informatik lässt sich auch auf die Datenqualität übertragen: "GIGO" steht in der IT für "Garbage In – Garbage Out"[1] (Müll rein – Müll raus) und besagt, dass die Ergebnisse nur Müll sein können, wenn die Systeme mit Müll "gefüttert "werden. Da ein Computer prinzipiell nicht unterscheiden kann, ob die Eingaben seines Anwenders für den beabsichtigten Zweck geeignet sind, wird er sie unbewertet weiterverarbeiten und zu einem Ergebnis führen – welches bei Müll-Eingaben dann eben Müll-Ausgaben sind. Zentrale Voraussetzung für die Datenqualität ist daher die qualitätskonforme Eingabe und Speicherung der Daten, da eine nachträgliche Korrektur unzureichender Dateneingaben erst identifiziert werden muss und somit zeit- und kostenintensiv ist. Daher muss das GIGO-Prinzip in allen Anwenderköpfen unumstößlich implementiert und verankert werden. Anstelle von "GIGO" spricht man im Datenmanagement auch vom "First Time Right"-Prinzip (von Beginn an korrekt).

Von der Geschäftsleitung bis zum Sachbearbeiter muss auch allen klar werden und sein, dass eine gute Datenqualität nicht mit einem einmaligen Projekt erreicht werden kann. Einige Sofortmaßnahmen bringen zwar schnelle Erfolge – auf denen sich allerdings niemand dauerhaft ausruhen sollte. Hohe Datenqualität ist ein dynamischer Prozess, der nie abgeschlossen ist. Es ist ein ewiger Kreislauf zwischen Messen – Analysieren – Korrigieren – Dokumentieren.

Um die strategische Bedeutung zu unterstreichen und ein durchgängiges System im Unternehmen zu haben, empfiehlt sich die Einführung eines "Data-Governance-Systems". Data Governance steht für strukturiertes Management von Daten. Es beinhaltet Vorgaben, Richtlinien und Prozesse, um die Qualität sowie den Schutz und die Sicherheit von Daten zu gewährleisten. Neben den unternehmensindividuellen Verfahren zur Optimierung der Datenqualität enthält dieses System zusätzlich einen Plan, wie die ambitionierten Anforderungen umgesetzt werden sollten. So sollte z. B. die Entdeckung von fehlerhaften Daten nicht nur zu einem erhobenen Zeigefinger und der Aussage "da müssen wir in Zukunft besser aufpassen!" führen. Vielmehr sollte es einen definierten Prozess geben, wer im Fall der Fälle was wie zu tun hat.

Hilfreich ist es auch, die Möglichkeiten der EDV-Systeme zur Verbesserung und Sicherung der Datenqualität zu kennen. Diese können von einfachen Programmeinstellungen wie Muss-Felder bis hin zu komplexen Anpassungen wie Workflows, Freigabeverfahren, Berechtigungsgruppen oder Datenfeld-Ausblendungen reichen. Sofern die Möglichkeiten nicht bekannt sind, empfiehlt es sich, eine Analyse der systemseitigen "On-Board-Mittel" durchzuführen und zusätzlich die Anpassungsfähigkeit hinsichtlich individueller Anforderungen in Erfahrung zu bringen.

 
Praxis-Beispiel

Individuelle Anpassung des Rechnungswesen-Systems

Das Rechnungswesen-System der CopyKing GmbH verfügt über die zeitsparende Funktion, neue Debitoren und Kreditoren mit einer Kopierfunktion anzulegen. Dies soll die Erfassung von Unternehmen mit weitgehend identischen Stammdaten (z. B. eine GmbH & Co. KG und die dazugehörige Verwaltungs-GmbH) erleichtern.

Eine Analyse der Datenqualität bei Debitoren und Kreditoren hat ergeben, dass viele Flüchtigkeitsfehler auf genau diese Kopierfunktion zurückzuführen sind. So wurde beispielsweise nach einer Anlage mittels Kopierfunktion übersehen, die kopierte Steuernummer des ursprünglichen Unternehmens durch die abweichende Steuernummer des neu anzulegenden Unternehmens zu ersetzen.

Aufgrund der Häufung dieser Fehler wurde die Kopierfunktion durch eine individuelle Anpassung des Rechnungswesen-Systems zur Verbesserung der Datenqualität deaktiviert. Der Nutzen einer komfortablen und schnellen Dateneingabe durch die Kopierfunktion wurde zugunsten einer besseren Datenqualität aufgegeben.

Abschließend ist noch zu betonen, dass eine hohe Datenqualität die volle Triebkraft und Unterstützung des Managements erfordert. Es sollte niemals ein eigenständiges Projekt der IT-Abteilung oder der Finanzbuchhaltung sein, das neben allen anderen Projekten einfach so durchgeführt wird. Wer auch immer in einem Unternehmen das Projekt Datenqualität in Angriff nimmt, braucht die volle Rückendeckung der Geschäftsleitung – vom ersten Kick-off bis zur regelmäßigen, routinemäßigen Wiederholung des Prozesses.

[1] IT-Experten sind den beiläufigen Klischees folgend bei der Ausübung ihrer Arbeit bequem; deshalb hätten sie sich angeblich bei Ausarbeitung der GIGO-Phrase beim FIFO-Prinzip aus dem Rechnungswesen bedient.

Das ist nur ein Ausschnitt aus dem Produkt Haufe Finance Office Premium. Sie wollen mehr?

Anmelden und Beitrag in meinem Produkt lesen


Meistgelesene beiträge