Machine Learning gebruiken om de Reconciliatieproblemen in financiële diensten op te lossen

winnen in financiële diensten gaat steeds meer over de snelheid en nauwkeurigheid van data normalisatie en reconciliatie. Banken, vermogensbeheerders, bewaarders, makelaars-dealers, portefeuillebeheerders, nutsbedrijven, enz. allemaal fundamenteel datagedreven zijn. Duizenden medewerkers aan boord, matchen, berekenen en rapporteren elke dag enorme hoeveelheden gegevens in elk onderdeel van het bedrijf.

het afstemmen van gegevens zodat deze kunnen worden geaggregeerd, geanalyseerd en gerapporteerd is een nooit eindigende activiteit in financiële diensten. Veel van dit reconciliatiewerk wordt gedaan door data teams met traditionele ETL tools, maar spreadsheets en handmatige processen zijn ongebreideld. Inefficiënties en kosten zijn overvloedig, vooral wanneer nieuwe gegevensbronnen worden ingeschakeld.

inefficiënties in de afstemming van gegevens zijn precies het soort “laaghangend fruit” dat basismachine learning kan oplossen. Veelvouden van waarde in termen van tijd, operationele kosten en het vermijden van wettelijke sancties kunnen worden ontgrendeld door het gebruik van machine learning op belangrijke data reconciliation points.

inefficiënties in de afstemming van gegevens kunnen optreden in elk deel van het bedrijf waar:

  • nieuwe gegevensbronnen moeten worden gekoppeld aan interne of externe records (klant, security master, positie, LEI, enz.)
  • meerdere gegevensbronnen / typen worden vergeleken of geaggregeerd (marktrisico, kredietrisico, risicogewogen activa, liquiditeitsstresstests, blootstellingslimieten, BCBS 239, enz.)
  • interne gegevens moeten overeenkomen met een externe recorddatabase (transactieregister, database van toezichthouders, kredietrapporten van derden, AML / KYC / CFT, enz.)
  • er bestaan handmatige controles en goedkeuringsprocedures (onboarding van klanten, transactiecontrole, leningcontrole, crediteuren, enz.)
  • er is een systeem of datamigratie project (samenvoegen van meerdere systemen in één, onboarding een nieuw systeem, het verwerven van een nieuwe kredietportefeuille of klantenrekeningen, enz.)
  • wettelijk voorgeschreven rapportage is verplicht (Dodd-Frank, MiFiD II / MiFiR, OFAC, GDPR, enz.)
  • Audit trails worden geproduceerd en geanalyseerd (interne audits, wettelijke controles, CAT 613, OATS, IFRS 9, RBE, SOX, enz.)
  • Meerdere 1-op-1 aansluitingen worden geaggregeerd in meerdelige aansluitingen (verrekening van zekerheden, rapportage van bankholdings, enz.)
  • de marktvereisten hebben zich snel ontwikkeld (meervoudige beurzen, marktstructuur, cloud computing, TARGET2-betalingen, nutsbedrijven, enz.)

de” nieuwe norm “— waarom traditionele ETL-en vaste datastructuren falen

verreikende nieuwe bedrijfs-en regelgevingseisen die afhankelijk zijn van het snel verwerken, combineren en samenvoegen van complexe gegevens, zijn de” nieuwe norm ” in financiële diensten geworden. Helaas passen traditionele vaste datamodellen / ETL-benaderingen zich slecht aan deze complexe nieuwe vereisten aan.

volgens het traditionele model moeten bedrijfsanalisten en ETL / dataspecialisten technische vereisten opstellen, nieuwe gegevensbronnen gebruiken, de gegevens analyseren en ETL-processen toepassen die overeenkomen met een vast datamodel. Dit is zeer complex, neemt veel tijd in beslag en vereist vaak uitbreiding van de projectomvang naar meerdere delen van het bedrijf.

deze beperkingen kunnen vier gevolgen hebben voor het bedrijf:

  1. rigoureuze beperkingen bij het innemen van nieuwe gegevensbronnen kunnen leiden tot kritieke vertragingen wanneer snelheid nodig is om een bedrijfskritisch doel te bereiken (M&A, regelgeving / naleving)
  2. het schaalt niet goed. Springen van Bau-niveau workloads en data volumes om grote nieuwe projecten te behandelen op korte tijdlijnen kan de data en technologie teams in chaos te gooien.
  3. het verleden bepaalt de toekomst: systemen die zijn ontworpen om aan oude behoeften te voldoen, kunnen de manier waarop nieuwe gegevens kunnen worden opgenomen en wat er met de gegevens downstream kan worden gedaan, aanzienlijk beperken.
  4. nieuwe gegevenstypen en bronnen kunnen aanzienlijke procesherwerking, opleiding en aanwerving vereisen. Dit kan duwen project tijd frames voorbij “hard stop” data gedefinieerd door het bedrijf of toezichthouders.

twee andere (zeer negatieve) dingen kunnen ook voorkomen:

  • nieuwe zakelijke of regelgevende projecten kunnen achterlopen op schema en de beschikbare budgetten overschrijden.
  • zakelijke gebruikers vermijden het datateam erbij te betrekken en ontwikkelen hun eigen op spreadsheets gebaseerde processen om gegevens aan te sluiten en te verzoenen. Dit veroorzaakt hoge kosten, lage transparantie / controleerbaarheid en hoge foutenpercentages.

hoe Machine Learning De efficiëntie kan verhogen en de Reconciliatiekosten kan verlagen

basis machine learning kan worden geïmplementeerd om de snelheid en kostenproblemen van on-boarding en het afstemmen van nieuwe gegevensbronnen op te lossen.

het grootste probleem met gestructureerde gegevens / ETL-benaderingen is de trage snelheid van het aannemen van nieuwe gegevens en matching. De grootste “bang for the buck” kan worden bereikt door het nemen van langzame menselijke processen in de eerste data onboarding fase en deze te vervangen door een machine die analyseert en leert zichzelf hoe om te gaan met de nieuwe gegevens.

het ideale systeem voor dit doel:

  • verbindt met de meeste / alle gegevensbronnen (de nieuwe bron en bestaande bronnen om te matchen, plus bestaande gestructureerde gegevensbronnen en ETL-laag)
  • neemt gegevens in een breed scala van formaten (csv, XML, feed, SQL, NoSQL, enz.)
  • Verwerkt de gegevens in het geheugen voor maximale snelheid en capaciteit
  • Heeft een ingebouwde motor die automatisch “leert” de gegevensbronnen en patronen, analyseert het voor waarschijnlijk wedstrijden over meerdere data sets, hoogtepunten verzoening afwijkingen / verschillen, en geeft bruikbare “to do” lijsten op te lossen problemen met gegevens
  • Heeft een gemakkelijk te gebruiken interface die helpt analisten snel bouwen data-regels voor de controle op een centrale locatie met de mogelijkheid tot het implementeren van geautomatiseerde goedkeuring processen
  • Registreert alle activiteiten in een controleerbare formaat

Drie Casestudies van Machine Learning in grootschalige Reconciliatieprojecten

Case # 1: Vergoedingen, prijsstelling en transactiegegevens van meer dan 200 financiële adviseurs aan een in de VS gevestigd vermogensbeheerbedrijf

een reconciliatieplatform met machine learning-mogelijkheden werd geïmplementeerd bij een groot in de VS gevestigd vermogensbeheerbedrijf. Voorafgaand aan de implementatie van het systeem, moest het Operations team handmatig honderden gegevensbronnen op een dagelijkse basis te verzoenen uit Excel, PDF, e-mails en 220+ websites ingediend door de financiële adviseurs van het bedrijf. Het proces ontbrak aan controle, automatisering en controle/goedkeuring door de toezichthouder.

bij de implementatie van het nieuwe systeem moest het naar de gegevensbronnen worden verwezen, waarna de machine learning-en reconciliatie-engine de gegevens in het geheugen kon verwerken. Waarschijnlijkheidsalgoritmen werden toegepast en potentiële mismatches / uitzonderingen werden gegenereerd in een rapport. Het Operations team verwerkte deze vervolgens en was in staat om snel herbruikbare matching regels en goedkeuringen / controles op een centrale locatie te ontwikkelen. Zodra de regels werden opgebouwd, kon het systeem automatisch de kwaliteit van de gegevens te controleren binnen gespecificeerde toleranties, genereren uitzondering rapporten, en output van een bestand te worden opgenomen door het boekhoudsysteem van het bedrijf. Dit elimineerde het operationele risico van het handmatig snijden en plakken van gegevens, geïmplementeerd toezicht, en automatisch geïntegreerd met het boekhoudsysteem. Efficiëntiewinsten van enkele miljoenen dollar per jaar werden bereikt.

geval # 2: Broker-dealer afstemming van meerdere beurzen met meerdere interne systemen voor ETD ‘s

een grote broker-dealer met wereldwijde operaties trades ETD’ s over 80+ verschillende beurzen. Meerdere interne systemen worden gebruikt om de effecten, handel, prijs, positie en klantgegevens vast te leggen en te verwerken. Door de hoge complexiteit en prestatie-eisen, gecombineerd met een gebrek aan afstemming en een genormaliseerd controlekader, was het bedrijf in toenemende mate niet in staat om uit te breiden naar nieuwe markten. Het bedrijf schatte dat het meer dan 200 mandagen duurde om aan boord van een nieuwe beurs te komen.

het bedrijf implementeerde een reconciliatiesysteem met machine learning en in-memory matching mogelijkheden. Het systeem nam gegevens op van 80 + uitwisselingen en genormaliseerde / verzoende het met de verschillende interne systemen met hun vaste datastructuren. De leermachine was in staat om snel miljoenen historische transacties te verwerken, uitzonderingen en mismatches weer te geven en matchingregels voor te stellen. Het bedrijf was in staat om aan boord 2 uitwisselingen per dag, in plaats van 2 per maand.

Voorbeeld # 3: Verwerving van een nieuwe zakelijke kredietportefeuille van een andere kredietverstrekker

een regionale bank verwierf een portefeuille van enkele duizenden zakelijke leningen van een concurrent. De onboarding proces voor deze leningen zou Client Onboarding, KYC / AML, Treasury, limieten, technologie, Project Management, debiteuren, de verkopende bank Loan Operations team, en mogelijk de leners’ Finance teams.

de gegevens werden bij de verkopende bank ondergebracht in verschillende systemen en formaten en waren gekoppeld aan verschillende klant-en kredietgegevens. Onboarding van de leninggegevens vereist het analyseren van de gegevens, matching met de interne LMS van de bank, het identificeren van mismatches en hiaten, het creëren van reconciliatieregels, en het matchen met interne klantgegevens. Dit moest gebeuren voordat de leningen konden worden beheerd, opgenomen in P & L en risicoberekeningen, en gefactureerd. Het interne team van de bank schatte dat het aan boord gaan van de kredietportefeuille 5-6 maanden zou vergen met hun bestaande systemen, waarbij elke lening moest worden geanalyseerd.

de bank koos voor de implementatie van een cloudgebaseerd reconciliatiesysteem met mogelijkheden voor machine learning. De kredietportefeuille en de bijbehorende klant-en betalingsgegevens werden in het systeem geladen en afgestemd op de interne LMS-en boekhoudgegevens van de bank. Het systeem was in staat om ongeveer 65% van de gegevens te matchen met interne records binnen 1 dag, en presenteerde de resterende gegevens in een centraal dashboard voor resolutie. De gehele portefeuille werd onboarded in 2 weken, met inbegrip van nieuwe matching regels en records, controles en import naar het bedrijf LMS.

In een notendop

zoals uit deze voorbeelden blijkt, kunnen basis mogelijkheden voor machine learning worden benut om snel te voldoen aan zakelijke en wettelijke vereisten wanneer traditionele gestructureerde gegevensbenaderingen falen. Met de snelheid van de verandering in de financiële diensten, kan het onderzoeken hoe machine learning kan worden gebruikt voor het reconcilieren van gegevens in uw bedrijf resulteren in aanzienlijke voordelen.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.