Verwendung von maschinellem Lernen zur Lösung von Herausforderungen bei der Datenabstimmung in Finanzdienstleistungen

Im Finanzdienstleistungssektor geht es zunehmend um die Geschwindigkeit und Genauigkeit der Datennormalisierung und -abstimmung. Banken, Vermögensverwalter, Depotbanken, Broker-Dealer, Portfoliomanager, Marktversorger usw. sind alle grundsätzlich datengesteuert. Tausende von Mitarbeitern erfassen, vergleichen, berechnen und melden täglich riesige Datenmengen in allen Bereichen des Unternehmens.

Daten abzugleichen, damit sie aggregiert, analysiert und gemeldet werden können, ist eine nie endende Aktivität in Finanzdienstleistungen. Ein Großteil dieser Abstimmungsarbeit wird von Datenteams mit herkömmlichen ETL-Tools erledigt, aber Tabellenkalkulationen und manuelle Prozesse sind weit verbreitet. Ineffizienzen und Kosten gibt es zuhauf, insbesondere beim Onboarding neuer Datenquellen.

Ineffizienzen bei der Datenabstimmung sind genau die Art von „Low Hanging Fruit“, die grundlegendes maschinelles Lernen lösen kann. Ein Vielfaches des Wertes in Bezug auf Zeit, Betriebskosten und die Vermeidung regulatorischer Sanktionen kann durch den Einsatz von maschinellem Lernen an wichtigen Datenabstimmungspunkten erschlossen werden.

Ineffizienzen bei der Datenabstimmung können in jedem Teil des Unternehmens auftreten, in dem:

  • Neue Datenquellen müssen mit internen oder externen Datensätzen (Kunde, Sicherheitsstamm, Position, LEI usw.) abgeglichen werden.)
  • Es werden mehrere Datenquellen/-typen verglichen oder aggregiert (Marktrisiko, Kreditrisiko, RWA, Liquiditätsstresstest, Exposure Limits, BCBS 239, etc.)
  • Interne Daten müssen mit einer externen Datenbank übereinstimmen (Transaktionsregister, Regulierungsdatenbank, 3rd Party Credit Reports, AML / KYC / CFT usw.)
  • Es gibt manuelle Kontrollen und Genehmigungsprozesse (Kunden-Onboarding, Transaktionskontrolle, Kreditkontrolle, Kreditorenbuchhaltung usw.)
  • Es gibt ein System- oder Datenmigrationsprojekt (Aggregation mehrerer Systeme zu einem, Onboarding eines neuen Systems, Erwerb eines neuen Kreditportfolios oder neuer Kundenkonten usw.)
  • Regulatorische Berichterstattung ist vorgeschrieben (Dodd-Frank, MiFID II / MiFIR, OFAC, DSGVO, etc.)
  • Audit Trails werden erstellt und analysiert (interne Audits, regulatorische Audits, CAT 613, OATS, IFRS 9, SMR, SOX, etc.)
  • Mehrere 1-zu-1-Abstimmungen werden zu mehrteiligen Abstimmungen zusammengefasst (Collateral Netting, Bank Holding Company Reporting usw.)
  • Die Marktanforderungen haben sich rasant entwickelt (mehrere Börsen, Marktstruktur, Cloud Computing, TARGET2-Abrechnungen, Versorgungsunternehmen usw.)

Die „neue Normalität“ – Warum traditionelle ETL und feste Datenstrukturen versagen

Weitreichende neue geschäftliche und regulatorische Anforderungen, die von der schnellen Verarbeitung, Abstimmung und Aggregation komplexer Daten abhängen, sind zur „neuen Normalität“ in Finanzdienstleistungen geworden. Leider passen sich traditionelle feste Datenmodell- / ETL-Ansätze diesen komplexen neuen Anforderungen nur schlecht an.

Nach dem traditionellen Modell müssen Business Analysten und ETL / Datenspezialisten technische Anforderungen erstellen, neue Datenquellen integrieren, die Daten analysieren und ETL-Prozesse anwenden, die einem festen Datenmodell nachgelagert entsprechen. Dies ist sehr komplex, nimmt viel Zeit in Anspruch und erfordert häufig die Erweiterung des Projektumfangs auf mehrere Teile des Unternehmens.

Diese Einschränkungen können vier Auswirkungen auf das Unternehmen haben:

  1. Strenge Einschränkungen bei der Aufnahme neuer Datenquellen können zu kritischen Verzögerungen führen, wenn Geschwindigkeit erforderlich ist, um ein unternehmenskritisches Ziel zu erreichen (M&A, regulatory / Compliance)
  2. Es skaliert nicht gut. Der Sprung von Workloads und Datenmengen auf BAU-Ebene zur Abwicklung großer neuer Projekte mit kurzen Zeitplänen kann die Daten- und Technologieteams ins Chaos stürzen.
  3. Die Vergangenheit definiert die Zukunft: Systeme, die auf alte Anforderungen zugeschnitten sind, können die Aufnahme neuer Daten und die Weiterverarbeitung der Daten erheblich einschränken.
  4. Neue Datentypen und -quellen können eine erhebliche Prozessumgestaltung, Schulung und Einstellung erfordern. Dies kann den Projektzeitrahmen über die vom Unternehmen oder den Aufsichtsbehörden festgelegten „Hard Stop“ -Daten hinausschieben.

Zwei weitere (sehr negative) Dinge können ebenfalls auftreten:

  • Neue geschäftliche oder regulatorische Projekte können hinter den Zeitplan zurückfallen und die verfügbaren Budgets überschreiten.
  • Geschäftsanwender vermeiden es, das Datenteam einzubeziehen, und entwickeln ihre eigenen tabellenkalkulationsbasierten Prozesse, um Daten zu integrieren und abzugleichen. Dies verursacht hohe Kosten, geringe Transparenz / Überprüfbarkeit und hohe Fehlerquoten.

Wie maschinelles Lernen die Effizienz steigern und die Kosten für den Datenabgleich senken kann

Grundlegendes maschinelles Lernen kann implementiert werden, um die Geschwindigkeits- und Kostenprobleme beim Onboarding und beim Abgleich neuer Datenquellen zu lösen.

Das Hauptproblem bei strukturierten Daten / ETL-Ansätzen ist die langsame Geschwindigkeit, mit der neue Daten aufgenommen und abgeglichen werden. Der größte „Bang for the Buck“ kann erreicht werden, indem langsame menschliche Prozesse in der anfänglichen Daten-Onboarding-Phase herausgenommen und durch eine Maschine ersetzt werden, die analysiert und sich selbst beibringt, wie man mit den neuen Daten umgeht.

Das ideale System für diesen Zweck:

  • Stellt eine Verbindung zu den meisten / allen Datenquellen her (die neue Quelle sowie vorhandene übereinstimmende Quellen sowie vorhandene strukturierte Datenquellen und ETL-Layer)
  • Nimmt Daten in einer Vielzahl von Formaten auf (csv, XML, Feed, SQL, NoSQL usw.)
  • Verarbeitet die Daten im Arbeitsspeicher, um Geschwindigkeit und Kapazität zu maximieren
  • Verfügt über eine integrierte Daten-Engine, die die Datenquellen und -muster automatisch „lernt“, sie auf wahrscheinliche Übereinstimmungen in mehreren Datensätzen analysiert, Abstimmungsausnahmen / -abweichungen hervorhebt und umsetzbare „Aufgabenlisten“ zur Lösung von Datenproblemen bereitstellt
  • Verfügt über eine benutzerfreundliche Oberfläche, mit der Analysten schnell Datensteuerungsregeln an einem zentralen Ort erstellen und automatisierte Genehmigungsprozesse implementieren können
  • Zeichnet alle Aktivitäten in einem überprüfbaren Format auf

Drei Case Studies of Machine Learning in Large Scale Reconciliation Projects

Case #1: Gebühren, Preise und Transaktionsdaten von mehr als 200 Finanzberatern an eine in den USA ansässige Vermögensverwaltungsgesellschaft

Bei einer großen in den USA ansässigen Vermögensverwaltungsgesellschaft wurde eine Abstimmungsplattform mit Funktionen für maschinelles Lernen implementiert. Vor der Implementierung des Systems musste das Betriebsteam täglich Hunderte von Datenquellen aus Excel, PDF, E-Mails und mehr als 220 Websites, die von den Finanzberatern des Unternehmens eingereicht wurden, manuell abgleichen. Dem Prozess fehlten Kontrolle, Automatisierung und aufsichtsrechtliche Überprüfung / Genehmigung.

Die Implementierung des neuen Systems beinhaltete das Verweisen auf die Datenquellen und dann die Verarbeitung der Daten im Speicher durch die Machine Learning- und Reconciliation-Engine. Wahrscheinlichkeitsbasierte Algorithmen wurden angewendet und mögliche Fehlanpassungen / Ausnahmen in einem Bericht generiert. Das Operations-Team verarbeitete diese dann und konnte schnell wiederverwendbare Matching-Regeln und Genehmigungen / Kontrollen an einem zentralen Ort entwickeln. Sobald die Regeln erstellt wurden, konnte das System automatisch die Datenqualität innerhalb bestimmter Toleranzen überprüfen, Ausnahmeberichte erstellen und eine Datei ausgeben, die vom Buchhaltungssystem des Unternehmens aufgenommen werden soll. Dies eliminierte das operationelle Risiko durch manuelles Ausschneiden und Einfügen von Daten, implementierte eine aufsichtsrechtliche Überprüfung und integrierte sie automatisch in das Buchhaltungssystem. Effizienzgewinne von mehreren Millionen Dollar pro Jahr wurden erzielt.

Fall #2: Broker-Dealer-Abgleich mehrerer Börsen mit mehreren internen Systemen für ETDs

Ein großer Broker-Dealer mit globalen Operationen handelt mit ETDs an über 80 verschiedenen Börsen. Mehrere interne Systeme werden verwendet, um die Wertpapier-, Handels-, Preis-, Positions- und Kundendaten zu erfassen und zu verarbeiten. Aufgrund der hohen Komplexität und Leistungsanforderungen, kombiniert mit einem Mangel an Abstimmung und normalisierten Kontrollrahmen, war das Unternehmen zunehmend nicht in der Lage, in neue Märkte zu expandieren. Das Unternehmen schätzte, dass es über 200 Manntage dauerte, um einen neuen Austausch zu starten.

Das Unternehmen implementierte ein Abstimmungssystem mit maschinellem Lernen und In-Memory-Matching-Funktionen. Das System nahm Daten von mehr als 80 Börsen auf und normalisierte / stimmte sie mit den verschiedenen internen Systemen mit ihren festen Datenstrukturen ab. Die Lernmaschine war in der Lage, Millionen von historischen Transaktionen schnell zu verarbeiten, Ausnahmen und Nichtübereinstimmungen anzuzeigen und Übereinstimmungsregeln vorzuschlagen. Das Unternehmen war in der Lage, 2-Börsen pro Tag anstelle von 2 pro Monat an Bord zu nehmen.

Beispiel #3: Erwerb eines neuen Geschäftskreditportfolios von einem anderen Kreditgeber

Eine Regionalbank erwarb ein Portfolio von mehreren tausend Geschäftskrediten von einem Wettbewerber. Der Onboarding-Prozess für diese Kredite würde Kunden-Onboarding, KYC / AML, Treasury, Limits, Technologie, Projektmanagement, Debitoren, das Kreditbetriebsteam der verkaufenden Bank und möglicherweise die Finanzteams der Kreditnehmer erfordern.

Die Daten wurden bei der verkaufenden Bank in verschiedenen Systemen und Formaten gespeichert und an verschiedene Kunden- und Kreditdatensätze gebunden. Das Onboarding der Kreditdaten erforderte die Analyse der Daten, den Abgleich mit dem internen LMS der Bank, die Identifizierung von Nichtübereinstimmungen und Lücken, die Erstellung von Abstimmungsregeln und den Abgleich mit internen Kundendatensätzen. Dies musste geschehen, bevor die Kredite verwaltet, in P&L- und Risikoberechnungen einbezogen und abgerechnet werden konnten. Das interne Team der Bank schätzte, dass das Onboarding des Kreditportfolios mit ihren bestehenden Systemen 5-6 Monate dauern würde, wobei jedes Darlehen analysiert werden müsste.

Die Bank entschied sich für die Implementierung eines cloudbasierten Abstimmungssystems mit Funktionen für maschinelles Lernen. Das Kreditportfolio und die zugehörigen Kunden- und Zahlungsdatensätze wurden in das System geladen und mit den internen LMS- und Buchhaltungsunterlagen der Bank abgeglichen. Das System war in der Lage, ungefähr 65% der Daten innerhalb von 1 Tag mit internen Datensätzen abzugleichen und die verbleibenden Daten zur Auflösung in einem zentralen Dashboard darzustellen. Das gesamte Portfolio wurde in 2 Wochen integriert, einschließlich neuer Matching-Regeln und Datensätze, Kontrollen und Import in das LMS des Unternehmens.

Kurz gesagt

Wie diese Beispiele zeigen, können grundlegende Funktionen für maschinelles Lernen genutzt werden, um geschäfts- und behördliche Anforderungen schnell zu erfüllen, wenn herkömmliche Ansätze für strukturierte Daten versagen. Mit der Geschwindigkeit des Wandels in Finanzdienstleistungen könnte die Untersuchung, wie maschinelles Lernen für den Datenabgleich in Ihrem Unternehmen verwendet werden kann, zu erheblichen Vorteilen führen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.