Bruke Maskinlæring Til Å Løse Utfordringer Knyttet Til Dataavstemming I Finansielle Tjenester

Å Vinne i finansielle tjenester handler i økende grad om hastigheten og nøyaktigheten av data normalisering og forsoning. Banker, kapitalforvaltere, forvaltere, meglerforhandlere, porteføljeforvaltere, markedsverktøy, etc. er alle fundamentalt data-drevet. Tusenvis av ansatte om bord, matche, beregne og rapportere enorme mengder data hver dag på tvers av alle deler av virksomheten.

Å Forene data slik at de kan aggregeres, analyseres og rapporteres er en endeløs aktivitet i finansielle tjenester. Mye av dette avstemmingsarbeidet gjøres av datateam med tradisjonelle ETL-verktøy, men regneark og manuelle prosesser er tøylesløse. Ineffektivitet og kostnader florerer, spesielt når nye datakilder kommer i gang.

ineffektivitet Av dataavstemming er akkurat den typen» lavt hengende frukt » grunnleggende maskinlæring kan løse. Multipler av verdi i form av tid, driftskostnader og unngå regulatoriske straffer kan låses opp ved å bruke maskinlæring på viktige data avstemmingspunkter.

ineffektivitet Av dataavstemming kan forekomme i alle deler av virksomheten der:

  • Nye datakilder må samsvare med interne eller eksterne poster(kunde, sikkerhetsmaster, posisjon, LEI, ETC.)
  • Flere datakilder / typer sammenlignes eller aggregeres (markedsrisiko, kredittrisiko, RWA, likviditetsstresstesting,eksponeringsgrenser, BCBS 239, etc.)
  • Interne data må samsvare med en ekstern database med post (handelsregister, regulatordatabase, 3. parts kredittrapporter, AML / KYC / CFT, etc.)
  • Det Finnes Manuelle kontroller og godkjenningsprosesser (kunde-onboarding, transaksjonskontroll, lånekontroll, leverandørgjeld, etc.)
  • det er et system-eller dataoverføringsprosjekt (aggregering av flere systemer i ett, innføring av et nytt system, anskaffelse av en ny låneportefølje eller kundekontoer, etc.)
  • Regulatorisk rapportering er påbudt (Dodd-Frank, MiFiD II / MiFiR, OFAC, GDPR, etc.)
  • Revisjonsspor blir produsert og analysert (interne revisjoner, regulatoriske revisjoner, CAT 613, OATS, IFRS 9, SMR, SOX, etc.)
  • Multiple 1-til-1 avstemminger aggregeres til flerdelte avstemminger (sikkerhetsnett, bank holdingselskap rapportering, etc.)
  • markedskravene har utviklet seg raskt (flere børser, markedsstruktur,cloud computing, TARGET2 bosetninger, verktøy, etc.)

The» New Normal » — Hvorfor Tradisjonelle ETL Og Faste Datastrukturer Mislykkes

Vidtgående nye forretnings-og regulatoriske krav som er avhengige av rask håndtering, avstemming og aggregering av komplekse data, Har blitt den «nye normalen» i finansielle tjenester. Dessverre tilpasser tradisjonelle faste datamodeller / ETL-tilnærminger dårlig til disse komplekse nye kravene.

Under den tradisjonelle modellen må Forretningsanalytikere og etl / dataspesialister opprette tekniske krav, legge inn nye datakilder, analysere dataene og anvende etl-prosesser som samsvarer med en fast datamodell nedstrøms. Dette er svært komplekst, tar betydelig tid, og krever ofte å utvide prosjektets omfang til flere deler av virksomheten.

disse begrensningene kan forårsake fire effekter på virksomheten:

  1. Strenge begrensninger for inntak av nye datakilder kan føre til kritiske forsinkelser når det kreves hastighet for å oppfylle et virksomhetskritisk mål(M & a, regulatorisk / samsvar)
  2. det skaleres ikke godt. Hoppe fra BAU-nivå arbeidsbelastninger og datamengder til å håndtere store nye prosjekter på korte tidslinjer kan kaste data og teknologi team i kaos.
  3. fortiden definerer fremtiden: Systemer designet for å møte gamle krav kan vesentlig begrense hvordan nye data kan inntas og hva som kan gjøres med dataene nedstrøms.
  4. Nye datatyper og kilder kan kreve betydelig prosess re-engineering, opplæring og ansettelse. Dette kan presse prosjekt tidsrammer forbi» hard stop » datoer definert av virksomheten eller regulatorer.

Ytterligere to (svært negative) ting kan også forekomme:

  • Nye forretnings-eller regulatoriske prosjekter kan falle bak tidsplanen og overstige de tilgjengelige budsjettene.
  • Bedriftsbrukere unngår å involvere datateamet og utvikle egne regnearkbaserte prosesser for å integrere og avstemme data. Dette medfører høye kostnader, lav gjennomsiktighet / revisjonsevne og høye feilrater.

Hvordan Maskinlæring Kan Øke Effektiviteten Og Redusere Dataavstemmingskostnader

Grunnleggende maskinlæring kan implementeres For å løse hastighets-og kostnadsproblemene ved ombordstigning og avstemming av nye datakilder.

hovedproblemet med strukturerte data / ETL tilnærminger er den langsomme hastigheten på å ta på nye data og matching. Den største «bang for the buck» kan oppnås ved å ta ut langsomme menneskebaserte prosesser i den første data onboarding-scenen og erstatte dem med en maskin som analyserer og lærer seg hvordan de skal håndtere de nye dataene.

det ideelle systemet for dette formålet:

  • Kobles til de fleste / alle datakilder (den nye kilden samt eksisterende kilder for å matche, pluss eksisterende strukturerte datakilder og ETL-lag)
  • Inntar data i et bredt spekter av formater (csv, XML, feed, SQL, NoSQL, etc.)
  • Behandler dataene i minnet for å maksimere hastighet og kapasitet
  • har en innebygd datamotor som automatisk «lærer» datakildene og mønstrene, analyserer den for sannsynlige treff på tvers av flere datasett, fremhever avstemmingsunntak / uoverensstemmelser og presenterer handlingsbare «å gjøre»-lister for å løse dataproblemer
  • Har et brukervennlig grensesnitt Som hjelper analytikere raskt å bygge datakontrollregler på et sentralt sted med muligheten til å implementere automatiserte godkjenningsprosesser
  • registrerer alle aktiviteter i et reviderbart format

tre Case Studies Of Machine Learning in Large Scale Reconciliation Projects

Case #1: Gebyrer, priser Og transaksjonsdata Fra 200 + Finansielle Rådgivere til ET Amerikansk-basert Formuesforvaltningsfirma

en avstemmingsplattform med maskinlæringsmuligheter ble implementert hos et stort AMERIKANSK-basert Formuesforvaltningsfirma. Før implementeringen av systemet måtte Driftsgruppen manuelt avstemme hundrevis av datakilder på daglig basis fra Excel, PDF, e-post og 220+ nettsteder sendt inn av firmaets Finansielle Rådgivere. Prosessen manglet kontroll, automatisering og tilsynsgjennomgang/godkjenning.

Implementering av det nye systemet involverte å peke det til datakildene, og deretter tillate maskinlæring og avstemmingsmotor å behandle dataene i minnet. Sannsynlighetsbaserte algoritmer ble brukt og potensielle uoverensstemmelser / unntak generert i en rapport. Driftsteamet behandlet deretter disse og kunne raskt utvikle gjenbrukbare samsvarsregler og godkjenninger / kontroller på et sentralt sted. Når reglene ble bygget opp, kunne systemet automatisk sjekke datakvaliteten innenfor angitte toleranser, generere unntaksrapporter og sende ut en fil som skal inntas av firmaets regnskapssystem. Dette eliminerte den operasjonelle risikoen ved å manuelt kutte og lime inn data, gjennomføre tilsynsgjennomgang og automatisk integrere den med regnskapssystemet. Effektivitetsgevinster på flere millioner dollar per år ble oppnådd.

Tilfelle # 2: Avstemming av flere børser Til flere interne systemer For Etder

En stor meglerforhandler med global drift handler Etder på tvers av 80+ forskjellige børser. Flere interne systemer brukes til å fange opp og behandle verdipapirer, handel, pris, posisjon og kundedata. På grunn av det høye kompleksitetsnivået og ytelseskravene, kombinert med mangel på forsoning og normalisert kontrollramme, var firmaet i økende grad ikke i stand til å utvide seg til nye markeder. Firmaet anslår at det tok over 200 arbeidsdager å gå ombord på en ny børs.

firmaet implementert et avstemmingssystem med maskinlæring og in-memory matchende evner. Systemet inntok data fra 80 + utvekslinger og normaliserte / avstemte det med de ulike interne systemene med sine faste datastrukturer. Læringsmotoren kunne raskt behandle millioner av historiske transaksjoner, vise unntak og uoverensstemmelser, og foreslå samsvarsregler. Firmaet var i stand til å ombord 2 børser per dag, i stedet for 2 per måned.

Eksempel # 3: Oppkjøp av en ny forretningslånsportefølje fra en annen utlåner

en regional bank kjøpte en portefølje på flere tusen forretningslån fra en konkurrent. Onboarding prosessen for disse lånene vil kreve Klient Onboarding, KYC / AML, Treasury, Limits, Teknologi, Prosjektledelse, Kundefordringer, salg bankens Lån Operasjoner team, og potensielt låntakernes Økonomi team.

dataene ble plassert i salgsbanken i forskjellige systemer og formater, og var knyttet til ulike kunde-og kredittposter. Onboarding lån data som kreves analysere data, matching med bankens interne LMS, identifisere feilmatcher og hull, opprette avstemming regler, og matche det til interne kunderegistre. Dette måtte gjøres før lånene kunne forvaltes, inkludert I P&L og risikoberegninger, og fakturert. Bankens interne team anslått onboarding låneporteføljen ville kreve 5-6 måneder med sine eksisterende systemer, med analyse hvert lån som kreves.

banken valgte å implementere et skybasert avstemmingssystem med maskinlæringsmuligheter. Låneporteføljen og tilhørende kunde – og betalingsregistre ble lastet inn i systemet og tilpasset bankens interne LMS-og regnskapsposter. Systemet var i stand til å matche omtrent 65% av dataene til interne poster innen 1 dag, og presenterte de resterende dataene i et sentralt dashbord for oppløsning. Hele porteføljen ble ombord i 2 uker, inkludert nye matchende regler og poster, kontroller og import til firmaets LMS.

I Et Nøtteskall

som disse eksemplene viser, kan grunnleggende maskinlæringsmuligheter utnyttes for å raskt møte forretnings-og myndighetskrav der tradisjonelle strukturerte datatilnærminger mislykkes. Med hastigheten på endringen i finansielle tjenester, undersøke hvordan maskinlæring kan brukes for data avstemming i firmaet kan resultere i betydelige fordeler.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert.