November 2022

 

Das Bankgeschäft ist seit jeher ein Geschäft mit Informationen. Der Umgang mit Informationen und Daten hat sich professionalisiert und wird immer mehr als eigenständige Disziplin wahrgenommen. Banken tragen diesem Trend Rechnung, indem sie dezidierte Abteilungen für das Data Management etablieren. Der Regulator hingegen spiegelt die hohe Relevanz des Data Managements durch einen eigenständigen regulatorischen Gegenstand (in BCBS 239 oder MaRisk).
Als Folge der Digitalisierung liegen diese Informationen zunehmend als Datenpunkte vor, was die Anforderungen an das Handling der für das Bankgeschäft erforderlichen Informationen grundlegend verändert. Der Erfolg der Bank bei der Entwicklung, Bereitstellung und Vermarktung ihrer Produkte und Services, aber noch viel mehr im Rahmen der Banksteuerung, hängt von der Fähigkeit ab, diese Datenpunkte effizient zu erheben, zu erzeugen, zu verarbeiten sowie zu interpretieren und zu kontextualisieren. Exzellenz im Data Management wird zum zentralen Erfolgsfaktor einer Bank.

Wie wird sich ein modernes Data Management für die Banksteuerung voraussichtlich entwickeln?

Obwohl die Erfüllung der regulatorischen Anforderungen einen zentralen, häufig auch den ersten Aufgabenbestandteil der Data Management-Einheit darstellt, entwickeln diese Einheiten richtigerweise zunehmend auch einen Dienstleistungs-Charakter für die Fachabteilungen (unter anderem die Banksteuerung). So beruhen die Informationen beispielsweise zur Steuerung einer Bank nicht nur auf validen Datenpunkten (unter anderem durch Prüfungen zur Verfügbarkeit, Vollständigkeit, Korrektheit und Integrität), sondern die Datenpunkte müssen kontextualisiert und plausibilisiert werden, um eine Einschätzung zu Nutzbarkeit, Interpretierbarkeit und Aussagekraft dieser Datenpunkte als Information zu erhalten.

Derzeit sind die Maßnahmen und Methoden im Data Management besonders auf die Validierung der Datenpunkte ausgerichtet. Dazu gibt das Data Management überwiegend „binäre“ Einschätzungen ab (also zum Beispiel verfügbar-nicht verfügbar/vollständig-unvollständig/richtig-falsch etc.). Für Datenpunkte, die einen recht engen Kontext abbilden oder beschreiben, sind diese Maßnahmen üblicherweise auch angemessen und ausreichend. Dies betrifft im besonderen „eindimensionale” Daten, die das „Was?” und „Wer?” der Geschäftstätigkeiten beschreiben (zum Beispiel Terms & Conditions eines Produkts, Merkmale eines Wertpapiers, Merkmale von Kunden oder Emittenten, etc.).

Daneben existieren allerdings zahlreiche „mehrdimensionale” Daten, die deutlich größere und komplexere Kontexte abbilden, die insbesondere für die Banksteuerung von enormer Bedeutung sind, zum Beispiel Kennzahlen bezüglich Finanzen/Erfolg (P&L), Eigenkapitalbedarf (RWA), Liquidität (LCR), Rentabilität (RoRAC), Risiko (VaR); häufig in unterschiedlichen Dimensionen (Gesamtbank, Division/Geschäftsbereich, Legal Entity, pro Kunde, pro Produkttyp etc.). Für derartige mehrdimensionale Daten hat das Data Management einen weitergehenden Beitrag – nämlich eine Einschätzung zur Nutzbarkeit, Interpretierbarkeit und Aussagekraft – zu leisten. 

Eine simple Aggregation und Verdichtung der granularen Qualitätschecks auf Ebene der eindimensionalen Daten greift für eine Aussage auf Ebene der mehrdimensionalen Daten in aller Regel zu kurz. Da Banken in zunehmendem Maße „data-driven“ werden und ihre Entscheidungen fakten- und evidenzbasiert treffen, sind in der Banksteuerung immer mehr Informationen sowie Beziehungen zwischen Informationen zu berücksichtigen. Die Komplexität zur Kontextualisierung und Plausibilisierung der hierfür erforderlichen Daten im Data Management wächst dabei überproportional und die Komplexität des Kontextes sowie der Kontexte zueinander bestimmt zwangsläufig die im Data Management einzusetzenden Maßnahmen und Methoden.

 

Maßgebliche Services und Ziele des Data (Quality) Managements und entsprechende, weiterzuentwickelnde Methoden

Herausforderung und zugleich Ziel des Data Management der Zukunft bestehen darin, automatisiert und mit hinreichender inhaltlicher Tiefe, die im Unternehmen verfügbaren Datenpunkte in eine Aussage über die Güte der darin enthaltenen Informationen zu überführen – insbesondere hinsichtlich Nutzbarkeit, Interpretierbarkeit und Aussagekraft der Information.

Organisatorische Aspekte des Data Managements

Durch Anwendung vordefinierter Analyse-„Schablonen“, die gemeinsam mit den Fachbereichen (= Owner der Kontexte)
erstellt werden, kann das Data Management die Datenqualitäts-Sicherungsmaßnahmen (also validieren, kontextualisieren, plausibilisieren) automatisiert und effizient durchführen.
Bei organisatorischer Unabhängigkeit des Data Managements wird zudem der Erklärungs- und Abstimmungsbedarf
zwischen Fachbereichen erheblich reduziert.

Die Weiterentwicklung des Data Managements zu einer Einheit, die der unternehmensweiten Datenqualität, aber auch der Aussagekraft der Daten verpflichtet ist, entzieht sich einer „One-Size-fits-All“-Lösung. Zudem haben sich am Markt bisher keine "leading practices" herausgebildet, insbesondere was das Design der fortgeschrittenen Methodiken zur Kontextualisierung und Plausibilisierung von Informationen anbelangt. Für die Orientierung bei der Bestimmung der institutsspezifischen fit-for-purpose-Lösung bedarf es erprobter Ansätze, die Definition, das Design und die Umsetzung von Data Management-Methoden zu beschleunigen.

Kontakt zu unseren Expertinnen und Experten für Banksteuerung

Wünschen Sie weitere Informationen?

Wenn Sie mehr über diese Publikation erfahren möchten, wenden Sie sich bitte an unsere Experten, die gerne von Ihnen hören.