Carsten Bork, Khalid Sabeeh
Volatile Wertberichtigungen bei einem MRO-Unternehmen als Ausgangspunkt
Das Unternehmen im Projektbeispiel ist ein internationaler Anbieter von Maintenance-, Repair- und Overhaul-Dienstleistungen. Teil des Geschäftsmodells ist die Flatrate-Versorgung der Kunden mit Bauteilen im Rahmen vertraglich vereinbarter Servicelevel. Die Versorgung wird dabei mit einem globalen Materialpool gewährleistet, aus dem heraus die Kunden mit Bauteilen versorgt werden. Kommerziell wird dies i. d. R. in Form eines Flatrate-Vertrages auf Basis der Nutzungsanteile am Materialpool abgegolten. Die Kostenbelastung des Materialpools erfolgt durch eine Abschreibung auf die bevorrateten Bauteile.
Für die Ermittlung der Abschreibungen wurde eine Poolabschreibungsmethode basierend auf den Restnutzungsdauern der Bauteile eingeführt. Im Zuge der Einführung der Poolbewertungsmethode entstanden deutliche Änderungen in der Materialabbildung und -bewertung mit teils nicht erklärbaren Effekten.
Die Materialwertberichtigung setzt sich dabei aus einer Vielzahl an komplexen Einzeleffekten zusammen, welche starken monatlichen Schwankungen unterliegen und nicht einzelnen Geschäftsvorfällen zuzuordnen bzw. i. S. d. unternehmerischen Zielsetzungen zu beeinflussen sind. Aufgrund fehlender Transparenz über die Entstehung der Wertberichtigungen, die das Ergebnis stark belasteten, war das dargestellte Projekt erforderlich. Die zugrundeliegende Datenmenge und -charakteristik machte einen Advanced-Analytics-Ansatz notwendig, um die Auswertbarkeit der umfangreichen Datenbestände aus den IT-Systemen (insbesondere SAP MM und SAP FI) sicherstellen zu können.
Zielsetzung: Ergebnisstabilisierung und Transparenz über Wirkungszusammenhänge
Das Gesamtziel des Projektes lag demnach in der methodischen Unterstützung zur Herstellung von Transparenz über die relevanten kaufmännischen Effekte, sowie in der Optimierung der kaufmännischen Bewertung des Materialpools. Damit verbunden war die Auflösung signifikanter Ergebniseffekte, die unterjährig nicht erklärbar sind und zu starken Verwerfungen führen.
2.1 Erste Zielsetzung: Verständnis schaffen
Hypothesenbasiertes Vorgehen, um die Zielrichtung festzulegen
Erstes Ziel war es, Verständnis über die zugrundeliegenden Geschäftsvorfälle sowie die stark volatilen Effekte der Materialwertberichtigung zu schaffen. Dies umfasste
- die Abgrenzung relevanter Effekte mit bedeutender Ergebniswirkung,
- die Schaffung von Verständnis über die Ursache-Wirkungs-Zusammenhänge sowie
- die Ableitung einer Methodik zur Quantifizierung der einzelnen Effekte.
Hierzu wurden mit Vertretern aus unterschiedlichen Unternehmensbereichen, u. a. dem Materialmanagement, dem Controlling und der Buchhaltung, Interviews geführt. Basierend auf den Geschäftsvorfällen wurden in Workshops Hypothesen definiert, die zur Erklärung der Intransparenz und Volatilität der Materialwertberichtigungen herangezogen werden sollten. Die Hypothesen wurden in Cluster eingeteilt und anschließend entsprechend der Priorität und des Analyseaufwands bewertet.
2.2 Data Sourcing: Wo kommen die Daten her?
Datenquellen gezielt und strukturiert ausdefinieren
Die für die Analyse relevanten Datenbestände müssen festgelegt und spezifiziert werden. Eine gezielte Definition des relevanten Datenbestandes minimiert den Aufwand bei der Datenextraktion und reduziert die Komplexität der Datenanalyse. Der notwendige Datenbestand kann mittels der Beantwortung von strukturierten Leitfragen eingegrenzt werden. Steht bspw. der Wertefluss im Vordergrund der Datenanalyse, so können diese Leitfragen entlang der verschiedenen Bereiche des Werteflusses gegliedert werden, beginnend bei Sales & Distribution bis hin zum Finanzwesen.
Abb. 4: Beispielhafte Datenquellen entlang des Werteflusses
Ziel ist es mittels der Leitfragen den Analysefokus zu bestimmen und die notwendigen Daten einzugrenzen. Essenzielle Informationen in den Datenbeständen sind hierbei i. d. R. Zeitpunkt, Menge und Wert des Datenpunktes. Gemeinsame Workshops zwischen den einzelnen Fachbereichen und der IT-Abteilung können diesen Prozess beschleunigen und vermeiden unnötige Schleifen.
Oftmals erfordert die Datenanalyse, Datensätze aus verschiedenen internen IT-Systemen und externen Datenquellen. Die dadurch entstehenden Systemschnittstellen müssen einheitlich spezifiziert werden und erfordern somit eine technische Konkretisierung.
Hinreichende Spezifikation der Daten erforderlich
Die Identifikation, Spezifikation und Abstimmung der relevanten Datensätze bedeutet bei Advanced-Analytics-Projekten einen hohen Aufwand und entsprechenden Zeitbedarf. Dies stellt einen wesentlichen Unterschied zu klassischen Ad-hoc-Datenabfragen dar, welche im Nachgang kurzfristig angepasst oder erweitert werden können. Der Abzug Hunderter GB an Daten erfordert klare Analyseziele und ein abgestimmtes Analysekonzept, um nicht unnötige Schleifen bei der Datenerfassung und -erhebung zu verursachen.
Viele Unternehmen sind mit der Verarbeitung solch großer Datenmengen noch nicht vertraut, was bei Advanced-Analytics-Projekten oftmals zu Herausforderungen wie die Sicherstellun...