Volker Abel, Stefan Ruhland
Die intensive Nutzung von Daten und Technologien hat in der Finanzdienstleistungsindustrie eine lange Tradition: Bereits in den 1910er Jahren wurden die ersten Kreditratings in den USA vergeben und in den 1950er Jahren begann der großflächige Einsatz von elektronischer Datenverarbeitung in Finanzdienstleistungsunternehmen. Seither ist es durch die Skalierung der Datennutzung und der damit einhergehenden Datengenerierung zu einer regelrechten Datenexplosion gekommen (s. Abb. 3).
Abb. 3: Entwicklung der Datenmengen und deren Anwendungsbereiche in der Finanzdienstleistungsindustrie
In der modernen Banksteuerung mit ihrer engen Verwobenheit zu aufsichtsrechtlichen Anforderungen sind Daten heute nicht mehr wegzudenken. Vielmehr stehen Daten und deren Qualität, nach initialem Fokus vor einigen Jahren (z. B. im Zuge der Implementierung von BCBS 239), nun wieder verstärkt im Mittelpunkt heutiger aufsichtsrechtlicher Prüfungen. Grund hierfür sind unter anderem die Altlasten aus über Jahrzehnten gewachsenen Systemlandschaften und Datenhaushalten, die inzwischen oftmals am Ende ihres Lebenszyklus angelangt sind und hohe Komplexität aufweisen (sog. Legacy-Systeme).
Auswirkungen der frühen Datennutzung auf Finanzdienstleitungsinstitute
Der zuvor beschriebene Sachverhalt von komplexen Legacy-Systemlandschaften wird auch als technische "Schulden" bezeichnet und stellt eine Herausforderung für viele Bankhäuser in ihren modernen Gesamtbanksteuerungsanforderungen dar. Die Gründe hierfür sind vielfältig, jedoch häufig auch auf den Umstand der strikten, aufsichtsrechtlich geforderten Trennung der Finanz- und Risikobereiche zurückzuführen.
In Folge der organisatorischen Trennung haben die Finanz- und Risikobereiche in vielen Häusern eigene Datenhaushalte aufgebaut. Eine fehlende gemeinsame Verwendung der Daten, gepaart mit unzureichender Abstimmung zwischen den Funktionsbereichen, führt in der Praxis dazu, dass die Datenhaushalte sich voneinander unabhängig entwickeln und somit im Zeitverlauf zunehmend divergieren (s. Abb. 4).
Im Ergebnis kommt es in der Berichtslandschaft häufig zu Inkonsistenzen, die auf Synonyme (unterschiedliche Begriffe für identische Inhalte), aber auch Homonyme (mehrfache Belegung eines Begriffs mit unterschiedlichen Inhalten) zurückzuführen sind. Daraus folgt, dass diese Daten und Ergebnisse nicht mehr abstimmbar und nur durch forensische Detailanpassungen mit erheblichem Aufwand überführbar sind. Hieraus resultieren in der Praxis dann teilweise nicht eindeutige, im schlimmsten Fall sogar gegensätzliche Handlungsempfehlungen und Steuerungsimpulse.
Abb. 4: Probleme durch verschiedene Datenhaushalte und deren fehlende Abstimmbarkeit
Erschwerend kommt hinzu, dass Daten zur Banksteuerung oftmals nur in einem monatlichen Turnus bereitstehen und i. d. R. vergangenheitsorientiert sind. D. h. untermonatliche Entscheidungen oder klassische What-if-Fragestellungen können oftmals nur unzureichend unterstützt werden.
Auch im Rahmen des eigentlichen Geschäftsabschlusses (z. B. bei der Kreditvergabe) nutzen Kreditinstitute aktuell nicht alle technologischen Möglichkeiten sowie Datenpotenziale. Die typischen Datenquellen im Rahmen der Kreditentscheidung, -bepreisung und -überwachung basieren weiterhin überwiegend auf klassischen Datenbereichen, wie z. B. der Dauer der Geschäftsbeziehung, Kreditwürdigkeitseinschätzungen von Auskunfteien sowie Bilanzen und Selbstauskünften der Kunden. Potenziale aus der Detailanalyse weiterer Datenbereiche (z. B. Konsumverhalten, Social Media Nutzung, etc.) werden oftmals noch nicht genutzt.