Utilizzo dell’apprendimento automatico per risolvere le sfide di riconciliazione dei dati nei servizi finanziari

Vincere nei servizi finanziari è sempre più la velocità e l’accuratezza della normalizzazione dei dati e la riconciliazione. Banche, gestori patrimoniali, custodi, broker-dealer, gestori di portafoglio, utility di mercato, ecc. sono tutti fondamentalmente data-driven. Migliaia di dipendenti integrano, associano, elaborano e segnalano enormi quantità di dati ogni giorno in ogni parte dell’azienda.

Conciliare i dati in modo che possano essere aggregati, analizzati e segnalati è un’attività senza fine nei servizi finanziari. Gran parte di questo lavoro di riconciliazione viene svolto dai team di dati con strumenti ETL tradizionali, ma i fogli di calcolo e i processi manuali sono dilaganti. Le inefficienze e i costi abbondano, in particolare quando si inseriscono nuove fonti di dati.

Le inefficienze di riconciliazione dei dati sono esattamente il tipo di apprendimento automatico di base” low hanging fruit ” in grado di risolvere. È possibile sbloccare multipli di valore in termini di tempo, costi operativi ed evitare sanzioni normative utilizzando l’apprendimento automatico nei punti chiave di riconciliazione dei dati.

Le inefficienze di riconciliazione dei dati possono verificarsi in qualsiasi parte dell’azienda in cui:

  • Le nuove origini dati devono essere abbinate a record interni o esterni (cliente, master di sicurezza, posizione, LEI, ecc.)
  • Più fonti / tipi di dati sono confrontati o aggregati (rischio di mercato, rischio di credito, RWA, stress test di liquidità,limiti di esposizione, BCBS 239, ecc.)
  • I dati interni devono corrispondere a un database esterno di record (repertorio di dati sulle negoziazioni, database dei regolatori, rapporti di credito 3rd party, AML / KYC / CFT, ecc.)
  • Esistono controlli manuali e processi di approvazione (onboarding del cliente, controllo delle transazioni, controllo dei prestiti, contabilità fornitori, ecc.)
  • Esiste un sistema o un progetto di migrazione dei dati (aggregare più sistemi in uno, onboarding di un nuovo sistema, acquisizione di un nuovo portafoglio di prestiti o di conti clienti, ecc.)
  • La segnalazione normativa è obbligatoria (Dodd-Frank, MiFID II / MiFIR,OFAC, GDPR, ecc.)
  • Audit trail sono prodotti e analizzati (audit interni, audit normativi, CAT 613, OATS, IFRS 9, SMR, SOX, ecc.)
  • Le riconciliazioni multiple da 1 a 1 sono aggregate in riconciliazioni multiparte (compensazione delle garanzie reali, rendicontazione della holding bancaria, ecc.)
  • I requisiti di mercato si sono evoluti rapidamente (scambi multipli, struttura del mercato, cloud computing, insediamenti TARGET2, servizi pubblici, ecc.)

La “nuova normalità” – Perché le tradizionali strutture ETL e Fixed Data falliscono

I nuovi requisiti aziendali e normativi di vasta portata che dipendono dalla rapida gestione, conciliazione e aggregazione di dati complessi sono diventati la “nuova normalità” nei servizi finanziari. Sfortunatamente, gli approcci tradizionali del modello di dati fissi / ETL si adattano male a questi nuovi e complessi requisiti.

Con il modello tradizionale, gli analisti aziendali e gli specialisti ETL / data devono creare requisiti tecnici, integrare nuove origini dati, analizzare i dati e applicare processi ETL che corrispondono a un modello di dati fisso a valle. Questo è molto complesso, richiede tempo significativo e spesso richiede l’espansione dell’ambito del progetto a più parti del business.

Queste limitazioni possono causare quattro effetti sul business:

  1. Vincoli rigorosi sull’ingestione di nuove fonti di dati possono causare ritardi critici quando la velocità è richiesta per raggiungere un obiettivo mission-critical (M&A, regulatory / compliance)
  2. Non scala bene. Saltare da carichi di lavoro e volumi di dati a livello BAU per gestire nuovi progetti di grandi dimensioni su scadenze brevi può gettare i team di dati e tecnologia nel caos.
  3. Il passato definisce il futuro: i sistemi progettati per soddisfare i vecchi requisiti possono limitare sostanzialmente il modo in cui i nuovi dati possono essere ingeriti e cosa può essere fatto con i dati a valle.
  4. Nuovi tipi di dati e fonti possono richiedere una significativa riprogettazione dei processi, formazione e assunzione. Questo può spingere i tempi del progetto oltre le date “hard stop” definite dall’azienda o dai regolatori.

Possono verificarsi anche altre due cose (molto negative):

  • I nuovi progetti aziendali o normativi possono rimanere in ritardo e superare i budget disponibili.
  • Gli utenti aziendali evitano di coinvolgere il team di dati e sviluppano i propri processi basati su fogli di calcolo per integrare e riconciliare i dati. Ciò causa costi elevati, bassa trasparenza / verificabilità e alti tassi di errore.

Come l’apprendimento automatico può aumentare l’efficienza e ridurre i costi di riconciliazione dei dati

L’apprendimento automatico di base può essere implementato per aiutare a risolvere i problemi di velocità e costi di onboarding e riconciliazione di nuove origini dati.

Il problema principale con i dati strutturati / approcci ETL è la bassa velocità di assunzione di nuovi dati e di corrispondenza. Il più grande “bang for the buck” può essere ottenuto eliminando i processi lenti basati sull’uomo nella fase di onboarding dei dati iniziali e sostituendoli con una macchina che analizza e si insegna come gestire i nuovi dati.

Il sistema ideale per questo scopo:

  • Si collega alla maggior parte / tutte le fonti di dati (la nuova fonte così come le fonti esistenti per abbinare, oltre a fonti di dati strutturati esistenti e ETL layer)
  • Ingerisce i dati in una vasta gamma di formati (csv, XML, feed, SQL, NoSQL, ecc.)
  • Elabora i dati in memoria per massimizzare la velocità e la capacità di
  • Ha un built-in motore di dati che automaticamente “impara” le fonti di dati e modelli, analizza la probabile partite in più serie di dati, evidenzia la riconciliazione eccezioni / incongruenze, e presenta utilizzabili “per fare” le liste per risolvere problemi di dati
  • È un facile da usare l’interfaccia che consente agli analisti di creare rapidamente le regole del controllo dati in una posizione centrale, con la possibilità di implementare automatizzato i processi di approvazione
  • Registra tutte le attività in un controllabili formato

Tre Case Studies of Machine Learning in Large Scale Reconciliation Projects

Case #1: Fees, pricing and transaction data from 200+ Financial Advisors to a U. S.-based Wealth Management firm

A reconciliation platform with machine learning capabilities was implemented at a major U. S.-based Wealth Management firm. Prima di implementare il sistema, il team operativo ha dovuto riconciliare manualmente centinaia di origini dati su base giornaliera da Excel, PDF, e-mail e oltre 220 siti Web inviati dai consulenti finanziari dell’azienda. Il processo mancava di controllo, automazione e revisione/approvazione della supervisione.

L’implementazione del nuovo sistema ha comportato il puntamento alle origini dati, consentendo quindi al motore di apprendimento automatico e riconciliazione di elaborare i dati in memoria. Sono stati applicati algoritmi basati sulla probabilità e potenziali disallineamenti / eccezioni generate in un report. Il team operativo li ha quindi elaborati ed è stato in grado di sviluppare rapidamente regole e approvazioni / controlli di corrispondenza riutilizzabili in una posizione centrale. Una volta che le regole sono state costruite, il sistema potrebbe controllare automaticamente la qualità dei dati entro tolleranze specificate, generare report di eccezione, e l’output di un file da ingerire dal sistema contabile dell’azienda. Ciò ha eliminato il rischio operativo derivante dal taglio e dall’incollaggio manuale dei dati, dall’implementazione della revisione di vigilanza e dall’integrazione automatica con il sistema contabile. Sono stati raggiunti guadagni di efficienza di diversi milioni di dollari all’anno.

Caso n. 2: Riconciliazione broker-dealer di più scambi a più sistemi interni per ETD

Un grande broker-dealer con operazioni globali commercia ETD in oltre 80 diversi scambi. Più sistemi interni sono utilizzati per acquisire ed elaborare i titoli, commercio, prezzo, posizione e dati dei clienti. A causa dell’elevato livello di complessità e dei requisiti prestazionali, combinati con una mancanza di riconciliazione e un quadro di controllo normalizzato, l’azienda non era sempre più in grado di espandersi in nuovi mercati. L’azienda ha stimato che ci sono voluti oltre 200 giorni uomo per imbarcare un nuovo scambio.

L’azienda ha implementato un sistema di riconciliazione con funzionalità di machine learning e di corrispondenza in memoria. Il sistema ha ingerito i dati da oltre 80 scambi e li ha normalizzati / riconciliati con i vari sistemi interni con le loro strutture dati fisse. Il motore di apprendimento è stato in grado di elaborare rapidamente milioni di transazioni storiche, visualizzare eccezioni e disallineamenti e suggerire regole corrispondenti. L’azienda è stata in grado di imbarcare 2 scambi al giorno, piuttosto che 2 al mese.

Esempio #3: Acquisizione di un nuovo portafoglio di prestiti alle imprese da un altro prestatore

Una banca regionale ha acquisito un portafoglio di diverse migliaia di prestiti alle imprese da un concorrente. Il processo di onboarding per questi prestiti richiederebbe Onboarding del cliente, KYC / AML, Tesoro, Limiti, tecnologia, gestione del progetto, crediti, il team di operazioni di prestito della banca venditrice e potenzialmente i team finanziari dei mutuatari.

I dati erano alloggiati presso la banca venditrice in diversi sistemi e formati, ed erano legati a diversi record di clienti e crediti. Onboarding dei dati di prestito necessari analizzando i dati, la corrispondenza con LMS interno della banca, identificando disallineamenti e lacune, la creazione di regole di riconciliazione, e la corrispondenza ai record dei clienti interni. Ciò doveva fare prima che i prestiti possano essere gestiti, inclusi in P & L e calcoli del rischio, e fatturati. Il team interno della banca ha stimato che l’onboarding del portafoglio di prestiti richiederebbe 5-6 mesi con i loro sistemi esistenti, con analisi di ogni prestito richiesto.

La banca ha scelto di implementare un sistema di riconciliazione basato su cloud con funzionalità di machine learning. Il portafoglio di prestiti e i record di clienti e pagamenti associati sono stati caricati nel sistema e abbinati ai LMS interni della banca e ai record contabili. Il sistema è stato in grado di abbinare circa il 65% dei dati ai record interni entro 1 giorno e ha presentato i dati rimanenti in un dashboard centrale per la risoluzione. L’intero portafoglio è stato onboarded in 2 settimane, comprese le nuove regole di corrispondenza e record, controlli e l’importazione di LMS della società.

In poche parole

Come mostrano questi esempi, le capacità di apprendimento automatico di base possono essere sfruttate per soddisfare rapidamente i requisiti aziendali e normativi in cui gli approcci tradizionali ai dati strutturati falliscono. Con la velocità del cambiamento nei servizi finanziari, indagare su come l’apprendimento automatico può essere utilizzato per la riconciliazione dei dati nella tua azienda potrebbe comportare vantaggi significativi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.