- Přehledy IS
- APS (20)
- BPM - procesní řízení (22)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (33)
- CRM (51)
- DMS/ECM - správa dokumentů (20)
- EAM (17)
- Ekonomické systémy (68)
- ERP (77)
- HRM (27)
- ITSM (6)
- MES (32)
- Řízení výroby (36)
- WMS (29)
- Dodavatelé IT slueb a řeení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (39)
- Dodavatelé CRM (33)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (71)
- Informační bezpečnost (50)
- IT řeení pro logistiku (45)
- IT řeení pro stavebnictví (26)
- Řeení pro veřejný a státní sektor (27)
ERP systémy
CRM systémy
Plánování a řízení výroby
AI a Business Intelligence
DMS/ECM - Správa dokumentů
HRM/HCM - Řízení lidských zdrojů
EAM/CMMS - Správa majetku a údrby
Účetní a ekonomické systémy
ITSM (ITIL) - Řízení IT
Cloud a virtualizace IT
IT Security
Logistika, řízení skladů, WMS
IT právo
GIS - geografické informační systémy
Projektové řízení
Trendy ICT
E-commerce B2B/B2C
CAD/CAM/CAE/PLM/3D tisk![]() | |
| Přihlaste se k odběru newsletteru SystemNEWS, který kadý týden přináí výběr článků z oblasti podnikové informatiky | |
![]() | |
Testování AI jako pojistka před ovládnutím lidstva stroji
Za poslední rok se výrazně zvýil počet lidí, kteří ve své práci více či méně vyuívají umělou inteligenci. Uvádí se, e 8 z 10 lidí, kteří pracují na kancelářských pozicích, některý z nástrojů AI ke své práci reálně pouívají. Kadý, kdo si (spolu)práci s AI vyzkouel, oceňuje, e díky tomu kadý týden uetří i několik hodin času potřebných k nudné administrativě či přípravě pracovních podkladů. Přínosné? Na první pohled určitě. Bez rizika? Bohuel nikoli.

Zeptat se a dostat odpověď. Rychle, strukturovaně, bez větího úsilí. Takto je umělá inteligence vnímaná a vyuívaná. To podstatné ale je, jakým způsobem k získaným výstupům přistupovat. Důvěřovat nebo spíe prověřovat? Rozhodně se vyplatí druhá varianta. I běný uivatel veřejně dostupných AI toti zjiuje, e ne vdy se mu dostane relevantní odpovědi. Zaměřili jsme se na přesnost odpovědí AI a výsledky testu byly doslova okující. A 80 % odpovědí na zadané poadavky lze označit jako nepřesné, zavádějící nebo přímo nepravdivé. To ukázaly nae testy, které jsme uskutečnili na vybraných vzorcích otázek poloených veřejně dostupné AI.
O čem vlastně mluvíme v souvislosti s veřejně dostupnými nástroji umělé inteligence? Je to sada algoritmů, která je vytvořena k tomu, aby byla schopná pracovat s prakticky nekonečným mnostvím veřejně dostupných dat. A u mluvíme o Open AI, ChatGPT nebo dalích, které fungují podobně. Onu sadu algoritmů je ale moné pouít pro jakékoli jiné účely. Velmi jednodue vude tam, kde je vyuívaný počítač. Privátní typy umělé inteligence pracují s neveřejnými daty, například v bankovnictví či zdravotnictví. Často se oba typy kombinují, pak mluvíme o tzv. smíených modelech umělé inteligence. V případě privátních AI algoritmů jsou vstupní data, se kterými nástroje pracují, více pod kontrolou. U smíených AI, které do určité míry pracují i s veřejnými zdroji, se ale procento chybovosti můe blíit a oněm 80 %.
Zrozená ke lhaní?
Podstatou algoritmu, jeho nejhlubí DNA, je snaha uivateli poskytnout odpověď. Vdy a za vech okolností. Neříkat nevím, nebo na tuto otázku nedokáu odpovědět. Pokud ale AI nemá dostatek aktuálních a relevantních informací, je v těchto hraničních případech odpověď zkreslená či přímo nepravdivá.
Pro hodnocení rizikovosti vyuívání výstupů AI doporučuji na testování jednoduchý postup. Nejdříve je třeba si vyhodnotit, jestli mi odpověď AI jednodue dává na první pohled smysl. Pokud ano, poloit si otázku, jaká můe být pravděpodobnost, e jsou odpovědi správné. A nakonec se podle toho rozhodnout, jestli je tato pravděpodobnost (která se obecně můe blíit a 20 % chybovosti) dostačující pro moje potřeby. Jinými slovy: je míra rizika, e pouiji odpovědi s chybami akceptovatelná? Pokud skládám test z angličtiny a výsledek 80 % správných odpovědí mi stačí na sloení zkouky, pak je riziko akceptovatelné. Pokud stejného procenta dosáhnu při stanovení nosnosti provazového ebříku, pak je riziko zcela jistě neakceptovatelné.
Podobnou úvahu se vyplatí provést před kadým praktickým vyuitím výstupu, který veřejná AI poskytne. V případě smíených či privátních AI je ale nezbytné je podrobit testu. Míra chybovosti privátních AI je bezesporu mení ne v případě veřejných, a lze ji ovlivnit ji při samotném vývoji a implementaci. Vývoj modelů AI má několik fází a prověřována by měla být kadá z nich. První je výběr vhodného úloitě dat, například Private Azure Cloud. Pak je zvolen model AI a rovně data, která mají být vyuívána jako zdroj. Tomuto výběru je nutné věnovat náleitou pozornost, protoe na kvalitě vstupních dat závisí samozřejmě i kvalita výstupů.
Pak následuje fáze učení umělé inteligence, které je doprovázeno testováním výstupů do té doby, ne odpovědi AI dosáhnou poadované pravděpodobnosti. Teprve v tomto okamiku lze AI nasadit do praxe, ale testování tím rozhodně nekončí. Je potřeba průběně sledovat, zda se výstupy od poadované kvality neodchýlily. Veřejnou AI kadodenně testují miliony uivatelů. Opravují ji a doptávají se, čím jí učí. V privátní AI ale něco takového chybí, proto je nutné ji testovat vědomě jak v průběhu implementace, tak i při jejím pouívání.
AI versus testování
Umělá inteligence je nástroj - prostředí. Její testování proto neprověřuje pouze a výhradně spolehlivost výstupů. Kontrolovat je potřeba hned celou řadu parametrů, a to u v případě modelu jetě před jeho sputěním. Jedním z parametrů je ověření přesnosti modelu AI. Pro klasifikační modely to znamená, jak často správně klasifikuje vstupy, zatímco pro regresní modely jde o to, jak přesně odhaduje hodnoty. Cílem je dosáhnout maximální moné přesnosti pro specifickou úlohu.
Dalí testovanou oblastí systémů umělé inteligence je hodnocení jejich robustnosti. Tedy jak dobře model zvládá neobvyklé nebo nestandardní vstupy. Robustní AI systém by měl být schopen reagovat smysluplně i na vstupy, které neodpovídají obvyklému tréninkovému vzorku a měl by se správně vyrovnávat s hlukem v datech nebo s malými změnami. Kromě robustnosti ale testovaný model musí dobře fungovat i na datech, která nebyla součástí tzv. tréninkové sady. Schopnost generalizace je klíčová pro modely, které mají pracovat s reálnými daty a situacemi, kde se vstupy mohou liit od tréninkových dat. Schopnost generalizace je tedy nezbytně nutná u smíených AI systémů.
Spolehlivost a konzistence jsou dalí faktory, které jakýkoli AI systém musí splňovat. Při testování modelu je tedy rozhodující i to, aby poskytoval na stejných nebo podobných datech konzistentní výsledku. Spolehlivost pak znamená, e odpovědi modelu budou předvídatelné a stabilní v různých testovacích i provozních podmínkách. e jej neovlivní vlna veder nebo fakt, e je uprostřed týdne státní svátek. Kromě toho se během testování hodnotí i rychlost a efektivita zpracování vstupů. To je klíčové pro dobrou uivatelskou zkuenost a ochotu AI vůbec vyuívat. Pokud je AI nasazena v reálném čase, například v chatbotu nebo při zpracování obrazu, musí být odpovědi rychlé a relevantní.
Kontrola rozhodování
Zůstává vak jetě jeden parametr, který by měl být před sputěním předevím sloitějích systémů vyhodnocen, a tím je transparentnost a vysvětlitelnost. Při vývoji nových AI modelů je potřeba zajistit, e je moné porozumět samotnému procesu rozhodování. Měli bychom být schopni zpětně vysvětlit, jakým způsobem model ke svému výsledku dospěl. Předevím u sloitých AI systémů je nutné mít do budoucna kontrolu nad tím, jak se AI rozhoduje. K tomu se paradoxně celkem s úspěchem často vyuívá jiných modelů AI.
V současné době je v procesu testování AI stále pouze členem týmu, nikoli jeho lídrem. S pomocí AI můeme na základě dřívějích zkueností připravovat testovací plány a strategie. Umělá inteligence také můe napsat části kódu, nebo testovací skripty pro automatizované systémy. Moností je celá řada. Stále ale platí, e na konci procesu je člověk. Expert, který pouívá výstupy AI nebo je vkládá do správných částí procesu.
V současné době (zatím) neexistuje takový model umělé inteligence, který by byl schopen obsáhnout celý cyklus vývoje softwaru a jeho testování. Průběně navrhovat testy, brát si k nim data z běící aplikace, kombinovat je s dokumentací a validovat zadání. Zároveň připravovat testovací scénáře a v rámci nich psát skripty, které by rovnou vkládal do nástrojů, případné chyby upravoval a nahrazoval částmi kódů, které sám připravil. To je samozřejmě vize, která zatím reálná není, vývoj k ní ale směřuje.
Čas se ale krátí. Dnes máme stále jetě monost ověřovat a testovat, e kadý jednotlivý krok AI systémů je navrený správně. Stále jetě má člověk rozhodující kontrolu. Čím více ale bude automatizace postupovat, tím méně lidí se na procesu vývoje AI bude podílet. A jak klesá počet lidí, kteří do procesu vývoje vstupují, tím více roste potřeba zejména testovat, e vývoj umělé inteligence jde správným směrem.
Pokud by toti byli lidé z procesu vývoje softwaru a systémů vyloučeni, můe se jakákoli chyba multiplikovat a stát se tak pro lidstvo skutečnou hrozbou. Čím větí procento činnosti bude prováděno umělou inteligencí, tím důleitějí bude ověřování, e ve funguje správně. K této hranici se skutečně blííme, a i kdy to zní jako nadsázka, je testování a dohled nad umělou inteligencí nae jediná monost, jak se bránit proti kdysi tak populárnímu sci-fi scénáři - ovládnutí lidstva stroji.
![]() |
Martin Paták Autor článku je éfem testingu ve společnosti Qinshift. |





















