- Přehledy IS
- APS (20)
- BPM - procesní řízení (22)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (33)
- CRM (51)
- DMS/ECM - správa dokumentů (20)
- EAM (17)
- Ekonomické systémy (68)
- ERP (79)
- HRM (27)
- ITSM (6)
- MES (32)
- Řízení výroby (36)
- WMS (29)
- Dodavatelé IT slueb a řeení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (39)
- Dodavatelé CRM (33)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (71)
- Informační bezpečnost (50)
- IT řeení pro logistiku (45)
- IT řeení pro stavebnictví (26)
- Řeení pro veřejný a státní sektor (27)
Hlavní partner sekce
Tematické sekce
ERP systémy
CRM systémy
Plánování a řízení výroby
AI a Business Intelligence
DMS/ECM - Správa dokumentů
HRM/HCM - Řízení lidských zdrojů
EAM/CMMS - Správa majetku a údrby
Účetní a ekonomické systémy
ITSM (ITIL) - Řízení IT
Cloud a virtualizace IT
IT Security
Logistika, řízení skladů, WMS
IT právo
GIS - geografické informační systémy
Projektové řízení
Trendy ICT
E-commerce B2B/B2C
CAD/CAM/CAE/PLM/3D tiskBranové sekce
![]() | |
| Přihlaste se k odběru newsletteru SystemNEWS, který kadý týden přináí výběr článků z oblasti podnikové informatiky | |
![]() | |
Partneři webu
Business Intelligence , AI a Business Intelligence
Chyby se v datech vyskytují od počátku
jejich automatizovaného zpracování. Vývoj
IT v posledních letech vedl a stále vede
k tomu, e se elektronicky zpracovává stále
více dat ze stále více oblastí. Na druhé
straně stále více činností je na elektronickém
hromadném zpracování dat závislých.
Velká míra nekvalitních dat významně
sniuje jejich správnou pouitelnost.
Nesprávná data vedou k nesprávným výsledkům jejich zpracování a v důsledku ke patnému fungování podnikových procesů s následkem ekonomických ztrát. Dalím důsledkem nekvality je vynakládání prostředků na správu, zpracování, archivaci nesprávných, nesmyslných a nadbytečných dat, co představuje přímé ekonomické ztráty. Tento jev je v literatuře charakterizován jako zpracování garbage in garbage out. Míra negativních dopadů zpracování nekvalitních dat se stává významnějí se zvětováním rozsahu a sloitosti informačních systémů a zvyováním důleitosti IT v podnikových procesech.
Problematikou kvality dat se dlouhodobě zabývá několik mezinárodních společností (významnějí jsou napříkld Trillium, First- Logic/Business Objects), které se na tuto agendu specializují a disponují komerčními produkty pro čitění dat. Jejich řeení se primárně vyvíjí pro severoamerický trh a je zaměřeno na střední a velké (v severoamerickém měřítku) instituce. V důsledku toho vyadují jejich řeení pro moné nasazení v naich podmínkách značné přizpůsobení. Nejde přitom o tradiční lokalizaci, jako je tomu u jiných softwarových produktů (tedy zajitění, aby daný program komunikoval s jeho uivateli v národním jazyce). To je větinou relativně snadná, i kdy pracná úloha.
V případě řeení pro zajitění kvality dat je nutné respektovat vechny zákonitosti nejen jazyka, ale i zvyklostí při jeho pouívání včetně typů vyskytujících se chyb, způsobu evidence nejrůznějích údajů, společenských a legislativních pravidel, dostupnosti a obsahu různých rejstříků a slovníků (adresy, podnikatelské subjekty, motorová vozidla, jména a příjmení a jejich konvence, ...) a dalích součástí (seznamy typických chyb a způsobů jejich opravy, statistické charakteristiky jazykových elementů, formáty zápisu různých typů údajů atd.). Je v nich třeba doplnit některé funkce, které pro primární (anglické) prostředí nebyly vytvořeny, protoe pro ně nemají smysl. Na druhou stranu obsahují jiné funkce, které nelze v odliném jazykovém a kulturním prostředí pouít.
Kromě toho jsou pro větinu naich organizací tato řeení příli nákladná (nesrovnatelně vyí náklady na nasazení, přizpůsobení a provozování proti jiným součástem podnikových systémů). Navíc dodavatelské firmy u nás ani v blízkém okolí nemají zastoupení, co limituje lokální podporu jejich řeení.
Vzniká zde mezera na trhu pro čistě lokální řeení specializovaná na řízení datové kvality, která vyvinuly lokální firmy. Na českém a slovenském trhu mezi ně patří například společnost Adastra, její aplikaci Purity.360 vyuívají ji desítky zákazníků jako Český Telecom, ČSOB a ČSOB Pojiovna, HVB Bank, Veobecná úverová banka či Consumer Finance Holding.
Aby bylo řeení úplné, mělo by se skládat z několika částí, které jako celek postihují celou problematiku kvality dat, ale je moné je vyuít i jednotlivě, kadou samostatně. Jedná se o následující součásti:
1. Identifikace, kvantifikace, klasifikace a analýza chyb a problémů v datech.
Cílem tohoto okruhu činností je poznat stav kvality dat a na jeho základě stanovit postupy, pravidla a standardy pro zvýení a udrení kvality dat. Současně podle nastavených pravidel a mezí identifikuje záznamy a skupiny záznamů, které:
3. Měření, monitorování a reportování kvality dat vytváření reportů, statistik a zpráv o stavu kvality dat vyjádřené jak číselnými, tak kvalitativními ukazateli, které se vytvářejí pravidelně během procesu analýzy a zpracování a slouí jednak jako podklady pro analýzu kvality dat, jednak pro sledování účinnosti celého řeení.
Nástroj je mono pouít jak jednorázově aplikovat jej na vechna data ji uchovávaná v systému pro jednorázové zlepení jejich kvality tak rutinně pro vechna data nově vstupující do systému s cílem zachytit skutečné a potenciální problémy u v okamiku jejich vzniku. Pro tuto druhou monost musí systém zajistit práci v reálném čase (okamitá odezva při interaktivním vstupu dat).
Nástroj lze zasadit do jakékoliv integrační architektury (DW & BI, ETL, EAI, BPI, MDM, ...) nezávisle na konkrétních aplikacích podnikového informačního systému a technologických platformách, které tyto aplikace vyuívají.
Je výhodou, pokud nasazení tohoto softwarového nástroje nevyaduje vyuívání jiných komerčních softwarových produktů (databázové systémy, aplikační servery a portály), které by generovaly dalí pořizovací a provozní náklady.
Tato znalostní báze je nedílnou součástí nástroje a pro správné vyuívání v rutinním nasazení se pravidelně udruje a aktualizuje.
Podstatnou součást jakéhokoliv řeení představuje sada metodik, které v zásadě shrnují zkuenost, je u získali jiní. Tyto metodiky obsahují pravidla, doporučení a standardy například pro následující oblasti:
Autor je ředitelem divize Purity ve společnosti Adastra.
Datová kvalita pod lupou
Vladimír Kyjonka
Chyby se v datech vyskytují od počátku
jejich automatizovaného zpracování. Vývoj
IT v posledních letech vedl a stále vede
k tomu, e se elektronicky zpracovává stále
více dat ze stále více oblastí. Na druhé
straně stále více činností je na elektronickém
hromadném zpracování dat závislých.
Velká míra nekvalitních dat významně
sniuje jejich správnou pouitelnost.
Nesprávná data vedou k nesprávným výsledkům jejich zpracování a v důsledku ke patnému fungování podnikových procesů s následkem ekonomických ztrát. Dalím důsledkem nekvality je vynakládání prostředků na správu, zpracování, archivaci nesprávných, nesmyslných a nadbytečných dat, co představuje přímé ekonomické ztráty. Tento jev je v literatuře charakterizován jako zpracování garbage in garbage out. Míra negativních dopadů zpracování nekvalitních dat se stává významnějí se zvětováním rozsahu a sloitosti informačních systémů a zvyováním důleitosti IT v podnikových procesech.
Proč nekvalitní data
Zdrojem chyb a dalích typů nekvalit jsou v zásadě dvě skutečnosti. První důvod je zjevný: data, se kterými pracují počítačové systémy, do nich vkládají lidé. A lidé dělají chyby (překlepy, zápisy do nesprávných polí, neznalost, vlastní tvořivost apod.). Druhý důvod je dán tím, e informační systémy podniků dnes sestávají z mnohdy autonomních agend, zaměřených na různé oblasti, zaloených na různých technologiích, vytvořených různými dodavateli v různých dobách. Tato inkonzistence způsobuje, e i data, která jsou prostá chyb způsobených přímo člověkem, nedokáí jednotně (a tudí správně) identifikovat a popsat konkrétního jedince, produkt či jiný subjekt.a proč to vadí právě teď
Dnením trendem v oblasti zpracování podnikových dat je integrace. V zásadě jde o snahu sjednotit fungování jednotlivých částí informačních systémů podniku navzájem a současně je propojit a ztotonit s fungováním vlastních podnikových procesů (business procesů). Cílem je zefektivnit, zpřehlednit, zrychlit, zprunit a v důsledku zlevnit jejich realizaci a vytvořit pro podnik konkurenční výhodu. V praxi jsou k této problematice různé přístupy, které se lií zaměřením úrovní, hloubkou či technikou integrace například datové sklady (DW) a business inteligence (BI), datová integrace (DI), podniková aplikační integrace (EAI), integrace podnikových procesů (BPI), architektura informačního hubu (IHA), podniková sběrnice (informačních) slueb (enterpeise service hub ESH), master data management (MDM) atd. Pro vechny přístupy je vak společné, e zajiují vzájemné automatizované předávání a sdílení dat mezi vemi částmi podnikových systémů. Pokud jsou tato data v některé části systému nekvalitní, automaticky se chyby íří i do ostatních částí. Pokud je obsah dat v různých částech vzájemně nekonzistentní, zcela to neguje účel integraceDatová kvalita pod lupou
Snaha vypořádat se s nekvalitními daty byla vdy v jisté (různě velké) míře součástí softwarových řeení zabývajících se hromadným zpracováním dat. Funkce, které tato řeení pro tento účel obsahovala, se vak vyznačují velmi omezenou schopností se s nekvalitou vyrovnat. Monost opětovného pouití daných dat se blíila nule, stejně jako monost zobecnění. Tento přístup k řeení kvality dat se ukázal jako velmi pracný a nákladný, a přitom málo účinný.Problematikou kvality dat se dlouhodobě zabývá několik mezinárodních společností (významnějí jsou napříkld Trillium, First- Logic/Business Objects), které se na tuto agendu specializují a disponují komerčními produkty pro čitění dat. Jejich řeení se primárně vyvíjí pro severoamerický trh a je zaměřeno na střední a velké (v severoamerickém měřítku) instituce. V důsledku toho vyadují jejich řeení pro moné nasazení v naich podmínkách značné přizpůsobení. Nejde přitom o tradiční lokalizaci, jako je tomu u jiných softwarových produktů (tedy zajitění, aby daný program komunikoval s jeho uivateli v národním jazyce). To je větinou relativně snadná, i kdy pracná úloha.
V případě řeení pro zajitění kvality dat je nutné respektovat vechny zákonitosti nejen jazyka, ale i zvyklostí při jeho pouívání včetně typů vyskytujících se chyb, způsobu evidence nejrůznějích údajů, společenských a legislativních pravidel, dostupnosti a obsahu různých rejstříků a slovníků (adresy, podnikatelské subjekty, motorová vozidla, jména a příjmení a jejich konvence, ...) a dalích součástí (seznamy typických chyb a způsobů jejich opravy, statistické charakteristiky jazykových elementů, formáty zápisu různých typů údajů atd.). Je v nich třeba doplnit některé funkce, které pro primární (anglické) prostředí nebyly vytvořeny, protoe pro ně nemají smysl. Na druhou stranu obsahují jiné funkce, které nelze v odliném jazykovém a kulturním prostředí pouít.
Kromě toho jsou pro větinu naich organizací tato řeení příli nákladná (nesrovnatelně vyí náklady na nasazení, přizpůsobení a provozování proti jiným součástem podnikových systémů). Navíc dodavatelské firmy u nás ani v blízkém okolí nemají zastoupení, co limituje lokální podporu jejich řeení.
Vzniká zde mezera na trhu pro čistě lokální řeení specializovaná na řízení datové kvality, která vyvinuly lokální firmy. Na českém a slovenském trhu mezi ně patří například společnost Adastra, její aplikaci Purity.360 vyuívají ji desítky zákazníků jako Český Telecom, ČSOB a ČSOB Pojiovna, HVB Bank, Veobecná úverová banka či Consumer Finance Holding.
Optimální řeení
Cílem je nabídnout řeení, je lze v podnikových systémech nasadit pro zajitění kvality dat a které bude pouitelné, přínosné a dostupné jak v lokálním prostředí (tj. bude pokrývat specifika národního jazykového a kulturního prostředí a bude finančně dostupné i pro mení a střední organizace z pohledu lokálního trhu), tak i v jiných jazykových oblastech, a dále získat a rozvinout znalosti a praktické zkuenosti z oblasti řízení kvality dat.Aby bylo řeení úplné, mělo by se skládat z několika částí, které jako celek postihují celou problematiku kvality dat, ale je moné je vyuít i jednotlivě, kadou samostatně. Jedná se o následující součásti:
- softwarový nástroj pro analýzu, čitění, unifikaci a monitorování kvality dat, jeho podpora a rozvoj,
- metodika řízení kvality dat,
- implementační team, nejlépe vybavený teoretickým i praktickým know-how z oblasti řízení kvality dat a realizace projektů řízení kvality dat v praxi (technickými, metodickými a obchodními znalostmi z této oblasti).
Co (a jak) řeí optimální softwarový nástroj
Vlastním softwarovým nástrojem by měl být nezávislý a otevřený systém, který lze nasadit do jakéhokoliv IT prostředí a zajiuje následující okruhy činností:1. Identifikace, kvantifikace, klasifikace a analýza chyb a problémů v datech.
Cílem tohoto okruhu činností je poznat stav kvality dat a na jeho základě stanovit postupy, pravidla a standardy pro zvýení a udrení kvality dat. Současně podle nastavených pravidel a mezí identifikuje záznamy a skupiny záznamů, které:
- systém automaticky opraví a upraví pro dosaení vyí kvality,
- systém opraví a upraví na základě explicitního rozhodnutí (případně ověření),
- bude třeba ručně opravit z důvodu velmi nízké kvality, neúplnosti nebo zjevné nesprávnosti, ji nelze automaticky opravit.
- čitění rozpoznání (parsing) obsahu datových poloek, opravy datových poloek (odstranění překlepů, nesprávných zápisů, formátů apod.),
- standardizace převod datových poloek na jednotný formát, který je pak mono pouít pro porovnání s rejstříky a číselníky a pro porovnání hodnot datových poloek spravovaných různými systémy,
- obohacení doplnění chybějících poloek, pokud je to moné (např. chybějících částí adresy),
- unifikace určení vech záznamů, které představují jeden konkrétní subjekt např. nalezení a jednoznačné označení vech evidovaných záznamů o konkrétní osobě, adrese, vozidle atd.,
- deduplikaci výběr nejlepího záznamu, který bude nadále reprezentovat konkrétní subjekt,
- identifikaci pro nové datové záznamy určení konkrétního subjektu (například osoby), ke kterému záznam patří.
3. Měření, monitorování a reportování kvality dat vytváření reportů, statistik a zpráv o stavu kvality dat vyjádřené jak číselnými, tak kvalitativními ukazateli, které se vytvářejí pravidelně během procesu analýzy a zpracování a slouí jednak jako podklady pro analýzu kvality dat, jednak pro sledování účinnosti celého řeení.
Nástroj je mono pouít jak jednorázově aplikovat jej na vechna data ji uchovávaná v systému pro jednorázové zlepení jejich kvality tak rutinně pro vechna data nově vstupující do systému s cílem zachytit skutečné a potenciální problémy u v okamiku jejich vzniku. Pro tuto druhou monost musí systém zajistit práci v reálném čase (okamitá odezva při interaktivním vstupu dat).
Nástroj lze zasadit do jakékoliv integrační architektury (DW & BI, ETL, EAI, BPI, MDM, ...) nezávisle na konkrétních aplikacích podnikového informačního systému a technologických platformách, které tyto aplikace vyuívají.
Je výhodou, pokud nasazení tohoto softwarového nástroje nevyaduje vyuívání jiných komerčních softwarových produktů (databázové systémy, aplikační servery a portály), které by generovaly dalí pořizovací a provozní náklady.
Nezbytné doplňky a přísluenství
Aby se produkt dal vícenásobně efektivně nasazovat, musí obsahovat sady číselníků, rejstříků a pravidel, které se opakovaně vyuívají a rozvíjejí (znalostní báze). Dodavatel je získává buď z veřejných zdrojů (registry adres, registry ekonomických subjektů, číselníky jmen a příjmení apod.), nebo je vytvářejí a doplňují v průběhu nasazení v konkrétních řeeních (například pravidla pro automatické opravy).Tato znalostní báze je nedílnou součástí nástroje a pro správné vyuívání v rutinním nasazení se pravidelně udruje a aktualizuje.
Sám software ve nevyřeí
ádný sebelepí nástroj společnostem příli nepomůe, pokud daná firma neví, jak ho správně pouít.Podstatnou součást jakéhokoliv řeení představuje sada metodik, které v zásadě shrnují zkuenost, je u získali jiní. Tyto metodiky obsahují pravidla, doporučení a standardy například pro následující oblasti:
- implementace softwarového nástroje (správná instalace, konfigurace, nastavení prostředí, začlenění do celkové architektury atd.),
- postupy, procesy a pravidla pro dalí činnosti související s nasazením produktu (plánování automatických procesů, řízení a plánovaní poloautomatických činností, audit kvality dat, provádění a vyhodnocování manuálního čitění dat, workflow atd.),
- řízení datové kvality podniku (politika datové kvality, standardy, business procesy reflektující potřeby řízení datové kvality, řízení a motivace lidských zdrojů v procesu řízení datové kvality atd.),
- zapojení produktu do různých integračních architektur,
- metodika pro zvlátní agendy (identifikace klienta, identifikace adres, identifikace motorových vozidel, houselholding atd.).
Datová kvalita ve středu zájmu celé firmy
...nebo alespoň vrcholového managementu. Oblast řízení kvality dat musí být součástí vech podnikových činností, a ne pouze doménou oddělení IT. Nízká kvalita dat má dopad právě do reálného ivota společností, a hlavně v mnoha případech znamená, e jsou ve patné kvalitě nakonec dodány i výsledky jinak dobře odvedené práce. A to je opravdu koda.Autor je ředitelem divize Purity ve společnosti Adastra.
Chcete získat časopis IT Systems s tímto a mnoha dalími články z oblasti informačních systémů a řízení podnikové informatiky? Objednejte si předplatné nebo konkrétní vydání časopisu IT Systems z naeho archivu.



















