- Přehledy IS
- APS (20)
- BPM - procesní řízení (22)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (33)
- CRM (51)
- DMS/ECM - správa dokumentů (20)
- EAM (17)
- Ekonomické systémy (68)
- ERP (79)
- HRM (27)
- ITSM (6)
- MES (32)
- Řízení výroby (36)
- WMS (29)
- Dodavatelé IT slueb a řeení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (39)
- Dodavatelé CRM (33)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (71)
- Informační bezpečnost (50)
- IT řeení pro logistiku (45)
- IT řeení pro stavebnictví (26)
- Řeení pro veřejný a státní sektor (27)
Hlavní partner sekce
Partneři sekce
Tematické sekce
ERP systémy
CRM systémy
Plánování a řízení výroby
AI a Business Intelligence
DMS/ECM - Správa dokumentů
HRM/HCM - Řízení lidských zdrojů
EAM/CMMS - Správa majetku a údrby
Účetní a ekonomické systémy
ITSM (ITIL) - Řízení IT
Cloud a virtualizace IT
IT Security
Logistika, řízení skladů, WMS
IT právo
GIS - geografické informační systémy
Projektové řízení
Trendy ICT
E-commerce B2B/B2C
CAD/CAM/CAE/PLM/3D tiskBranové sekce
![]() | |
| Přihlaste se k odběru newsletteru SystemNEWS, který kadý týden přináí výběr článků z oblasti podnikové informatiky | |
![]() | |
Partneři webu
AI MMXXVI , IT Security
AI je v kyberbezpečnosti silným nástrojem,
pokud se pouívá realisticky
Petr Kocmich
Větina organizací dnes neřeí, zda AI do kyberbezpečnosti patří. Ta u je toti přirozenou součástí moderních bezpečnostních nástrojů od detekce hrozeb přes ochranu koncových bodů a po dohledová centra. Skutečnou otázkou je, jak s touto vestavěnou inteligencí pracovat v kadodenním provozu a zda bezpečnostní týmy dokáou její přínos skutečně vyuít.

Bezpečnostní oddělení jsou dlouhodobě personálně poddimenzovaná, počet bezpečnostních událostí roste a tlak na rychlost i správnost reakce se neustále zvyuje. AI proto přirozeně vstupuje do hry jako nástroj, který má pomoci zvládnout objem a tempo práce. Praxe vak ukazuje, e samotná přítomnost AI v nástrojích nedostatek expertů neřeí. Pokud není jasně určeno, jakou roli má AI a jakou lidé, dochází spíe k přesunu zátěe ne k její redukci.
AI dnes v kyberbezpečnosti funguje ve dvou rovinách zároveň. Na straně obrany zrychluje analýzu dat, pomáhá s korelací událostí a dává expertům lepí přehled o tom, co se v infrastruktuře děje. Současně vak stejná technologie sniuje bariéry pro útočníky umoňuje jim vytvářet přesvědčivějí phishing, efektivnějí sociální inenýrství a rychlejí průzkum cílů. Právě tento dvojí efekt zvyuje tlak na bezpečnostní týmy a klade jetě větí důraz na roli lidského úsudku.
Kde AI v kyberbezpečnosti skutečně pomáhá
Nejvyí návratnost má AI tam, kde je problémem objem, repetitivnost a potřeba rychlé orientace v datech. Typicky jde o triage a prioritizaci bezpečnostních událostí v SOC (bezpečnostní operační centrum), korelaci logů napříč nástroji, rozpoznávání anomálií v síovém provozu a identitách nebo zrychlení základní analýzy malwaru či podezřelých příloh. V praxi to znamená, e AI umí velmi rychle navrhnout, zda incident stojí za eskalaci, doplnit kontext a nabídnout prvotní hypotézu. To je přesně ten typ práce, který analytikům bere čas a energii, a přitom je z velké části mechanický.
Druhá oblast, kde AI dává smysl, je security copilot pro odborníky, který pomáhá s konfigurací bezpečnostních prvků, generováním dotazů do SIEM (monitorovacího softwaru), sumarizací incidentů do čitelné podoby pro management, nebo tvorbou prvních návrhů playbooků a dokumentací. AI zvedá produktivitu a zkracuje čas od detekce k rozhodnutí.
Třetí velmi praktická oblast je ochrana koncových uivatelů proti phishingu a podvodům. AI korelací informací (obsah, odesílatel, reputace, kontext komunikace, náhlé změny chování, čas odeslání atd.) dokáe sníit mnoství falených poplachů a zvýrazní zprávy, které opravdu stojí za pozornost.
Kde jsou limity a proč je potřeba lidská role
Limity AI v kyberbezpečnosti jsou z velké části stejné jako limity samotné AI můe halucinovat, můe si být sebejistá v nesprávném závěru, a je citlivá na kvalitu vstupů. Bezpečnostní rozhodnutí ale není jen korelace dat. Je to kvalifikované rozhodnutí co odstavit, co izolovat, jak minimalizovat dopad na byznys, jak postupovat vůči dodavateli, kdy a jak eskalovat. Tato rozhodnutí vyadují hlubí porozumění, často jsou právně a reputačně citlivá, a nedají se bezpečně delegovat na model.
Jak optimálně rozdělit role mezi AI, nástroje a lidi
V praxi se osvědčuje rozdělit systém tak, aby AI dělala rychlou, objemovou a podpůrnou práci, ale rozhodnutí a odpovědnost zůstaly u lidí. AI funguje skvěle jako asistent vyetřovatele, ne jako vyetřovatel samotný.
Typicky zdravý model v SOC vypadá tak, e AI pomáhá s normalizací a korelací dat, s prvotní prioritizací alertů, se sumarizací incidentu a návrhem moných variant postupů. Analytik rozhoduje, co je skutečný incident, volí reakci a odpovídá za výsledek. Seniorní role (IR lead, threat hunter, architekt) definují detekční logiku, nastavují politiky, udrují playbooky a validují, e automatizace nedělá kody. Pokud se zapojí automatické blokace, tak je dobré je omezit na úzké, dobře testované scénáře s jasnými guardraily, a vdy mít monost rychlého rollbacku.
U generativních AI aplikací, chatbotů nebo interních asistentů je rozdělení rolí podobné model můe navrhovat odpovědi a pomáhat obsluze, ale musí existovat lidské vrstvy kontroly a monitoring výstupů.
AI mění práci expertů, ne jejich význam
Zatímco v jiných IT disciplínách generativní AI část práce skutečně přebírá, u kyberbezpečnosti se role expertů nemění, ale zpřesňuje. Bezpečnostní odborníci zůstávají mozky obrany nastavují pravidla, definují detekční logiku, rozhodují o reakci a nesou odpovědnost za výsledek.
AI jim můe pomoci zbavit se rutiny, ale nemůe převzít odpovědnost. Právě proto je důleité, aby firmy počítaly s tím, e s nasazením AI roste hodnota zkuených lidí, nikoliv naopak. Pokud se tento fakt ignoruje, dochází k paradoxní situaci technologie má zvyovat efektivitu, ale ve skutečnosti zrychluje odchody klíčových odborníků z oboru.
Z hlediska byznysu a řízení lidských zdrojů obecně ve firmách často panuje zavádějící představa, e by měla s rozvojem AI technologií přijít výrazná úspora v oblasti personálního obsazení. Běným plánem je redukce stavů a úplné nahrazení juniorních zaměstnanců AI nástroji. Automatizace rutinních činností ale přitom dává firmám monost rozvíjet kompetence členů týmu nebo měnit a roziřovat jejich kvalifikaci.
Praktický závěr
AI je v kyberbezpečnosti silným nástrojem, pokud se pouívá realisticky. Pomáhá tam, kde lidem bere rutinu, a selhává tam, kde má nahrazovat úsudek. Firmy, které chtějí z AI těit dlouhodobě, by se neměly ptát jen na to, co automatizovat, ale také jak tím chránit své odborníky před přetíením a vyhořením.
Blízká budoucnost kyberbezpečnosti nebude čistě lidská ani plně řízená umělou inteligencí. Bude hybridní. A právě schopnost správně rozdělit role mezi AI a lidské experty rozhodne o tom, zda technologie přinese vyí efektivitu a reakceschopnost, nebo naopak přidá nechtěnou komplexitu.
![]() |
Petr Kocmich Autor článku je bezpečnostní expert skupiny Soitron. |
Chcete získat časopis IT Systems s tímto a mnoha dalími články z oblasti informačních systémů a řízení podnikové informatiky? Objednejte si předplatné nebo konkrétní vydání časopisu IT Systems z naeho archivu.

Časopis IT Systems / Odborná příloha
Archiv časopisu IT Systems
Oborové a tematické přílohy
Kalendář akcí
Formulář pro přidání akce
IT Systems podporuje
Formulář pro přidání akce



















