facebook LinkedIN LinkedIN - follow
IT SYSTEMS 3/2022 , AI a Business Intelligence , Banky a finanční organizace

Data Quality Fabric posouvá banky a pojišťovny k evolučně vyspělejší kontrole a ochraně dat

Aleš Kotek


Dokonalá správa dat je dnes ve světě finančních institucí samo­zřej­mos­tí. Počet jednotlivých systémů a datových skladů ale v propletených strukturách hold­ing­ových skupin, které sdružují banky, leasingové společnosti a pojišťovny, nabobtnal i na statisíce. Výzvou pro datové specialisty je tyto roztříštěné drobečky poskládat do ucelené mozaiky zákaznických, analytických a provozních dat. Za cestu k tomuto cíli dnes datoví inženýři považují vybudování Data Quality Fabric, což ve svých závěrech potvrzuje i analytická společnost Gartner.


Finanční instituce proplouvají velmi poklidnou dobou bez razantních změn legislativy. Ochranu osobních údajů vyplývající z GDPR banky i pojišťovny dávno vyřešily, v přístupu k uživatelským datům patří v porovnání s jinými sektory mezi naprostou špičku. Jak ale roky plynou, databáze bobtnají, IT struktura se rozšiřuje o nové prvky, systémy, služby a platformy. Často je tak téměř nadlidský úkon hustý datový propletenec rozplést.

Výjimkou z tohoto relativního klidu byl nástup BankID, který pro sektor bankovních a finančních institucí v Česku znamenal další skokové zvýšení komplexnosti IT infrastruktury. Bankovní identita slouží jako zdroj osobních údajů, kterými může klient banky prokázat svoji totožnost v digitálním prostředí. Kromě bank se dá využít i pro přihlášení k dalším komerčním službám a portálům veřejné správy. To je další moment, kdy se do značné míry začínají otevírat a prolínat systémy různých subjektů, institucí. Aby ovšem taková digitální identita fungovala spolehlivě a bezpečně, je v první řadě nutné stavět na stabilních základech. A těmi jsou právě data.

Krokem kupředu v datové evoluci je koncept Data Quality Fabric. Většina firem zná velmi dobře termín Master Data Management jako pasivní nástroj pro kategorizaci a třídění dat. Nově se prosazuje přístup označovaný Data Governance, kdy se firmy snaží data řídit aktivně a vytvářet stabilní procesní základ. Dá se jít ale ještě o stupínek výše. Data Quality Fabric je závoj, který překryje tyto datové principy, obejme veškeré datové zdroje a umožní údaje spravovat za asistence umělé inteligence v jedné centrální platformě.

Stavební kameny „datového závoje“

Abychom se mohli o Data Quality Fabric vůbec bavit, je nutné nejprve udělat pořádek ve firemních datových katalozích a metadatech. Konsolidace používaných systémů a jejich detailní zmapování – spolu s vytvořením firemních Glossaries vysvětlujících základní používané termíny a funkcionality – umožňuje vnést první paprsky světla do temných koutů. Součástí této „mapy“ datového světa firmy mohou být i vyřazené a nepoužívané legacy systémy, které často skrývají zajímavá tajemství. Ani nepoužívaný systém by totiž neměl například uchovávat data, ke kterým firma nemá patřičný souhlas. Což se neobejde bez podrobného mapování datových zdrojů a systémové identifikace případných neshod.

Jakmile firma ví, kde má jaká data uložena, přichází na řadu fáze zvyšování jejich kvality. Data quality specialistům je tato oblast důvěrně známá – čištění a propojování. S nasazením moderních nástrojů využívajících umělé inteligence lze značně urychlit všechny úkony, které firmy v rámci Master a Reference Data Management nástrojů využívají. Bohužel většinou pouze pro oddělené systémy či projekty, bez využití potenciálních synergií vzniklých kompletní integrací rozdrobených datových zdrojů do provázaného datového závoje.

Důležitou schopností datových nástrojů je správa osobních identifikačních údajů (PII), které patří k nejcitlivějším uživatelským datům. Každý zákazník má právo na ochranu osobních informací, jako je jméno, e-mail, adresa nebo rodné číslo, navíc může v rámci GDPR kdykoli požádat o jejich vymazání. Aby firma dokázala těmto požadavkům vyhovět, musí si být v jakýkoli moment vědoma, kde všude se konkrétní osobní údaje nachází, jak vznikly a kdo k nim může přistupovat. Pokud dojde na nejhorší a zákaznická data uniknou, může být pro regulované subjekty, jako jsou banky, extrémně složité najít mezi množstvím podružných systémů, kde k úniku došlo a která další data byla kompromitována.

Mapa informačního bludiště

Tyto nedostatky lze vyřešit právě vytvořením Data Quality Fabric a nasazením datové platformy, která umožní PII zpracovávat, pro­hle­dá­vat a analyzovat napříč téměř neomezeným množstvím systémů. Tento komplexní přístup navíc odstraní i další noční můru finančních organizací, kterou je správa souhlasů (anglicky consent man­age­ment). Dohledat, kdy dal zákazník souhlas s kontaktováním určitými kanály, je v jednom systému snadné. Ale v rozvětvené struktuře desítek tisíců systémů, kdy zákazník komunikuje s několika subjekty ve skupině zároveň, může pouhé vypovězení souhlasu představovat tvrdý oříšek. Bez konsolidace dat prakticky nerozlousknutelný.

Konsolidace a propojení veškerých podkladových datových nástrojů je v současné době oblastí, jejíž důležitost si banky, pojišťovny a další velké společnosti začínají velmi dobře uvědomovat. Řešením je všechny tyto dílky datové skládačky integrovat v jednom prostředí.

Naučte se vyprávět kompletní datové příběhy

Správně číst data a získávat relevantní informace není jednoduchý úkol v žádném odvětví, nejen v bankovnictví. Doba, kdy si firma bohatě vystačila s barevným koláčovým grafem, je dávno pryč. Data je dnes nutné umět prezentovat koncovému uživateli v co nejsrozumitelnější podobě. Nejdůležitější aspekty musí být rozeznatelné na první pohled, uživatel také očekává vysvětlení klíčových zjištění a přehledně zachycené významné změny v čase. Zjednodušeně řečeno jde o to, naučit se vyprávět kompletní datové příběhy s adekvátní úrovní detailu – skrze Data Stories. Uživatel by měl bezproblémově pochopit předávanou informaci, správně ji interpretovat a rovnou mít možnost přemýšlet o případných akcích.

Umělá inteligence – nejlepší přítel dat

Jakmile jednou firma dokáže data zkrotit a vytvořit funkční Data Quality Fabric, není nic snazšího než ji zpřístupnit uživatelům. Každý ve firmě včetně netechnických rolí dokáže v datové platformě vyhledat a zobrazit kompletní 360° datový profil zákazníka, aniž musí obtěžovat programátory a správce databází s jednoduchými dotazy, exporty, reporty a obíhat další administrativní kolečka. Zvládne tak obsloužit své datové potřeby sám na několik kliknutí, bez nutnosti dolovat data z několika systémů a pracně je spojovat dohromady.

Katalogizování a čištění dat je totiž ve spoustě firem černou dírou polykající kvanta manuální lidské práce. Místo ručního přepisování záznamů, jejich označování a spojování lze už dnes využít různé funkcionality datových platforem využívající umělé inteligence. Ta asistuje uživateli, navrhuje změny, varuje před anomáliemi, a pokud dostane k určitému úkonu svolení, provede ho nad všemi záznamy v databázi zcela autonomně. Datovému katalogu tak stačí předložit vzorový balík dat, z něhož se naučí například rozpoznat, jaký formát čísel smluv firma používá, jak vypadá e-mail nebo VIN kód.

Tyto nástroje dnes nabízí zejména cloudové technologie typu Microsoft Azure nebo AWS, nicméně jen pro data uložená v těchto zdrojích. V praxi kompletní zákaznická data nikdy nejsou v jedné databázi na jednom serveru, takže je potřeba referenční data a metadata doplňovat z dalších systémů a úložišť. Nelze na ně tedy použít AI nástroje odlišných technologií a nejjednodušší cestou k těmto pokročilým možnostem je využití datové platformy integrující vše do ucelené Data Quality Fabric.

Banky a finanční instituce patří již delší dobu k největším uchovávatelům dat. Data se stávají jedním z nejvýznamnějších aktiv nejen finančních, ale i jiných institucí. Firmy je zpracovávají a snaží se z nich vydolovat doslova maximum. Ať už se jedná o cílené oslovování stávajících či potenciálních klientů, risk management, fraud management nebo o základní zachování primární funkce dané firmy s důrazem na veškeré zákonné a regulatorní požadavky. Postupná digitalizace „všeho“ musí být zcela jistě budována na pevných datových základech. Všichni velcí zpracovatelé dat si velice správně uvědomují, že excelentní znalost a vysoká kvalita vlastních dat může již nyní přinášet významné úspory. Datová připravenost do budoucna navíc znamená náskok před konkurenty, kteří nebyli schopni reagovat na evoluci v datech včas.

Aleš Kotek Aleš Kotek
Autor článku je odborníkem na data quality a master data management ve společnosti Ataccama.
Chcete získat časopis IT Systems s tímto a mnoha dalšími články z oblasti informačních systémů a řízení podnikové informatiky? Objednejte si předplatné nebo konkrétní vydání časopisu IT Systems z našeho archivu.