Umělá inteligence se pevně usadila v prezentacích, strategických plánech i rozvojových iniciativách řady firem. Málokdy se ale dostane až do ostrého provozu, kde by mohla skutečně ovlivnit efektivitu nebo náklady. Skutečnou výzvou totiž není vytvořit model, ale bezpečně ho integrovat do existujících procesů – tak, aby s nimi spolupracoval, ne je ohrožoval. AI integrovaná přímo do procesů nabízí cestu, jak propojit data, infrastrukturu a rozhodovací logiku způsobem, který přináší měřitelné výsledky, bez nutnosti měnit to, co už funguje.
Ambice vs. provozní realita
Podle aktuálních dat Eurostatu využívá některou formu umělé inteligence více než třetina evropských podniků, ale skutečné nasazení AI v ostrém provozu uvádí pouze 8 % výrobních firem. Většina firem tedy stále zůstává ve fázi pokusů a experimentů. Často vznikají pilotní projekty, které mají slibné výsledky, ale nikdy se z nich nestane trvalá součást provozu.
McKinsey ve své letošní studii upozorňuje, že ačkoli je AI vnímána jako strategická priorita, jen malé procento organizací ji dokáže propojit s každodenním rozhodováním. Deloitte k tomu dodává, že firmy, které zvládnou přejít od prototypů ke skutečnému provozu, začínají budovat náskok, který ostatní jen těžko doženou. Problém přitom není v technologiích nebo nápadech. Hlavní výzva spočívá v integraci – tedy v tom, jak zapojit algoritmy do reálných procesů, aniž by se při první chybě celý systém zhroutil.
Proč většina AI projektů v provozu selže
Většina AI projektů dnes vzniká jako izolovaná iniciativa. Firmy často přistupují k modelům jako k „černé skříňce“: pustí dovnitř data, dostanou ven výsledek a doufají, že to bude fungovat. Tento přístup může vypadat elegantně v sandboxovém prostředí, ale provozní realita odhalí jeho limity velmi rychle. Nejčastější překážky provozního nasazení zahrnují:
- Model funguje pouze na historických datech, ale selhává, když se změní podmínky nebo vstupní distribuce.
- Chybí systémové verzování a auditovatelnost výstupů, takže nelze zpětně ověřit, proč se model rozhodl určitým způsobem.
- Není detekce „driftu“ modelu – systém nepozná, kdy se predikce začínají odchylovat od reality.
- Slabá integrace do prostředí – modely jsou často napojené ad hoc, bez monitoringu a bez zajištění provozní stability.
Právě proto Deloitte odhaduje, že trh s MLOps platformami – tedy nástroji pro správu životního cyklu modelů – překročí v roce 2025 hodnotu čtyř miliard dolarů. Firmy hledají způsob, jak provozovat AI se stejnou disciplínou jako tradiční software: verzovat modely jako kód, validovat kvalitu dat, nasazovat přes CI/CD a monitorovat chování modelů v reálném čase.
Cloud-Native AI: stabilní provoz pro nestabilní realitu
Cloud Native Computing Foundation (CNCF) letos vydala whitepaper, který definuje pojem „Cloud-Native AI“ jako spojení principů mikroservisní architektury, kontejnerizace, kontinuální integrace a dodávky CI/CD a DevOps s provozováním umělé inteligence. Modely nejsou skripty běžící někde bokem, ale verifikovatelné a škálovatelné služby, které lze bezpečně provozovat v ostrém prostředí.
Cloud-native přístup umožňuje nasazení modelů blízko dat i rozhodovacích bodů. Výpadky nejsou katastrofou – systém se dokáže sám zotavit. Každé rozhodnutí je sledovatelné a lze ho zpětně auditovat. A protože jsou modely izolované v kontejnerech, lze je bezpečně provozovat vedle sebe bez rizika ovlivnění ostatních částí systému.
Výhodou tohoto přístupu je, že nepředpokládá kompletní změnu stávající infrastruktury. Právě naopak – umožňuje modelům vstoupit do stávajících systémů formou oddělených, ale dobře definovaných služeb.
Když si kontejner řekne, kam chce jít
Typickým příkladem praktického využití embedded AI může být reálný projekt optimalizace překladiště kontejnerů. Cílem bylo snížit počet zbytečných manipulací jeřábů tím, že se kontejnery umístí rovnou na místo, odkud budou co nejdříve vyzvednuty – ideálně bez dalšího přesunu.
Namísto nasazení nového plánovacího systému vznikla technologická mikroslužba, která komunikuje s existujícím softwarem a využívá historická data o pohybu kontejnerů, typech dopravy, dnech v týdnu a chování konkrétních zákazníků. Predikční model odhaduje čas odjezdu daného kontejneru a podle toho algoritmus navrhne jeho optimální pozici ve dvoře. Pokud chybí vstupní údaj, systém automaticky dopočítá nejpravděpodobnější variantu. Model není statický – je schopen reagovat na sezonní změny, nové trasy či atypické vzorce v chování zákazníků díky samoučícímu se přístupu založenému na rozhodovacích stromech.
Co se změnilo, je způsob, jakým se dělají rozhodnutí: model je verzován jako kód, všechny datové sady mají vlastní commit, CI/CD pipeline nasazuje změny bez odstávek a celý systém je kontinuálně monitorován. Pokud klesne přesnost predikce pod stanovenou mez, systém spustí automatický retrénink modelu. Tento přístup zajišťuje provozní stabilitu a auditovatelnost všech rozhodnutí.
Výsledkem není jen vyšší přesnost – ale konkrétní provozní dopady: snížení zbytečných přesunů o 25 %, zvýšení průchodnosti překladiště o 24 % a zlepšení využitelné kapacity dvora o 14 %. Díky nižšímu počtu přesunů navíc klesla spotřeba energie o stovky MWh ročně. Tyto výsledky nevznikly změnou hardwaru, ale tím, že se „logika“ překladiště přepsala algoritmem, který se chová jako součást systému – nikoli jako externí modul.
Tímto způsobem se z AI nestává krátkodobý experiment, ale klíčová součást provozní logiky. Výkonnost modelu se neměří dojmem, ale tvrdými čísly – každá verze má svůj digitální otisk a zpětně dohledatelné dopady na provozní efektivitu. A když se změní trh? Model se během hodin adaptuje, aniž by někdo musel ručně přepisovat pravidla.
Chytřejší rozhodování tam, kde už probíhá
Podobný přístup lze snadno přenést i do dalších oblastí. Ve výrobě může model doporučovat, kdy spustit výrobní linku s ohledem na odběr elektrické energie a dostupnost pracovníků. V energetice lze řídit spotřebu na základě předpovědí zatížení sítě a počasí. V retailu modely navrhují umístění zboží podle historických dat o pohybu zákazníků i sezonních vlivů.
V žádném z těchto případů nejde o to nahradit člověka. Jde o to využít AI k tomu, aby procesy, které už fungují, fungovaly efektivněji. Embedded AI je filozofie, která říká: umělá inteligence nemá být samostatná iniciativa, ale logická součást systému, podle kterého firma funguje. Tak, aby se nezměnilo, „co“ lidé dělají – ale „jak“ se rozhodují.
AI, která zůstane
Realita roku 2025 ukazuje, že technologie sama nestačí. Firmy, které dokážou umělou inteligenci skutečně integrovat do vlastních procesů, získávají měřitelnou výhodu – vyšší efektivitu, nižší náklady, rychlejší rozhodování. Nejde přitom o chatboty ani o roboty v halách. Jde o inteligenci, která respektuje existující pravidla, používá data, která firma už má, a funguje v prostředí, které je připravené na provozní realitu.
Zásadní roli tu hrají provozní disciplíny typu MLOps. Firmy, které modely verzují jako kód, validují vstupní data, využívají CI/CD pipeline pro nasazení a sledují chování modelu v reálném čase, získávají stabilitu i škálovatelnost. Typickým příkladem je přístup CodeNOW: model, data i infrastruktura jsou udržovány v Git repozitáři, automatické testy ověřují kvalitu, a jakmile predikce překročí práh chybovosti, systém automaticky spouští retrénink nebo revert na poslední stabilní verzi.
Jak takový MLOps v praxi vypadá:
- Datová příprava a analýza – shromáždění a validace dat (např. pomocí Apache Doris a Superset pro rychlé dotazy a vizualizaci).
- Vývoj AI modelů – trénink v prostředí jako JupyterHub se sdílenými výpočetními zdroji a kódy.
- Verzování modelů – ukládání a porovnávání verzí pomocí MLFlow, včetně auditovatelné historie.
- Nasazení – zabalení modelu do komponent a automatické nasazení přes CI/CD pipeline.
- Monitoring a údržba – sledování výkonu modelu, detekce driftu a automatický retrénink, pokud přesnost klesne.
Místo úvah o nahrazování pracovních míst se těžiště přesouvá k otázce, jak s pomocí AI lépe využívat stávající zdroje – a dělat rozhodnutí chytřeji, rychleji a s menším rizikem. Embedded AI v tomto pojetí není nástavbou, ale přirozenou součástí firemní logiky. Právě díky pevnému zakotvení v rozhodovacích procesech, jasné infrastruktuře a kontrolované správě modelů má takový přístup šanci vydržet v provozu déle než většina krátkodobých AI experimentů.
Firmy, které dokážou inteligenci zapojit jako součást procesního jádra, nikoli jako izolovanou iniciativu, budou za rok tam, kde ostatní doufají být za pět let.
 |
Patrik Horný
Autor článku je partnerem ve společnosti Stratox Enterprises a spoluzakladatelem platformy CodeNOW, která má za úkol zjednodušit vývoj softwaru i ve složité infrastruktuře. |