- Přehledy IS
- APS (20)
- BPM - procesní řízení (22)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (33)
- CRM (51)
- DMS/ECM - správa dokumentů (20)
- EAM (17)
- Ekonomické systémy (68)
- ERP (79)
- HRM (27)
- ITSM (6)
- MES (32)
- Řízení výroby (36)
- WMS (29)
- Dodavatelé IT slueb a řeení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (39)
- Dodavatelé CRM (33)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (71)
- Informační bezpečnost (50)
- IT řeení pro logistiku (45)
- IT řeení pro stavebnictví (26)
- Řeení pro veřejný a státní sektor (27)
ERP systémy
CRM systémy
Plánování a řízení výroby
AI a Business Intelligence
DMS/ECM - Správa dokumentů
HRM/HCM - Řízení lidských zdrojů
EAM/CMMS - Správa majetku a údrby
Účetní a ekonomické systémy
ITSM (ITIL) - Řízení IT
Cloud a virtualizace IT
IT Security
Logistika, řízení skladů, WMS
IT právo
GIS - geografické informační systémy
Projektové řízení
Trendy ICT
E-commerce B2B/B2C
CAD/CAM/CAE/PLM/3D tisk![]() | |
| Přihlaste se k odběru newsletteru SystemNEWS, který kadý týden přináí výběr článků z oblasti podnikové informatiky | |
![]() | |
AI Act: Umělá inteligence jako pomoc nebo hrozba?
Od 2. února 2025 je zakázáno pouívat systémy umělé inteligence, které představují hrozbu pro člověka. Firmy a úřady teď mají postupně 1,5 roku na to, aby se připravily na poadavky nařízení zvaného AI Act. Podívejme se na několik důleitých aspektů týkajících se tohoto nařízení.

AI Act je nařízení Evropského parlamentu a Rady (EU) 2024/1689, které vstoupilo v platnost dne 1. srpna 2024. Jedná o první ucelenou právní regulaci umělé inteligence, přestoe pokusy vznikaly ji dříve v několika dalích ekonomicky vyspělých zemích světa, která mimo jiné přináí i první legální definici umělé inteligence. Nařízení definuje systém umělé inteligence (systém AI) jako strojový systém navrený tak, aby po zavedení fungoval s různými úrovněmi autonomie, který po zavedení můe vykazovat adaptabilitu a který za explicitními nebo implicitními účely z obdrených vstupů odvozuje, jak generovat výstupy, jako jsou predikce, obsah, doporučení nebo rozhodnutí, které mohou ovlivnit fyzická nebo virtuální prostředí.
Nařízení má za cíl posílit bezpečnost systémů AI, které se dostanou na trh EU. Stanovuje pravidla pro jejich vývoj, uvedení na trh i samotné uívání a na základě míry rizikovosti je rozděluje do několika kategorií, přičem některé vyloeně zakazuje. V neposlední řadě vymezuje sankce, které lze za poruení pravidel uloit a které mohou spočívat ve varování a stanovení nepeněních opatření a po uloení pokut v maximální výi 35 milionů EUR či 7 % celosvětového ročního obratu organizace.
Na koho se AI Act vztahuje
AI Act dopadá na celou íři subjektů od výrobců a po koncové uivatele umělé inteligence. Prakticky se vztahuje na kadého, kdo se daný systém AI chystá uvést na trh v Evropské unii nebo jeho uívání ovlivňuje osoby nacházející se na území EU. V takovém případě toti nezáleí na místě sídla či podnikání osoby. Jinými slovy dopadá i na subjekty z třetích zemí. Povinnosti vyplývající z nařízení jsou kladeny zejména na poskytovatele, kteří systém AI vyvíjí, nechávají vyvíjet nebo ho implementují do svých provozů, ale vztahují se i na dovozce, distributory, zavádějící subjekty či zplnomocněné zástupce podílející se na implementaci nebo provozu systému AI.
Částečně u platí
AI Act nabyl platnosti 1. 8. 2024, 20 dnů po zveřejnění v Úředním věstníku, a účinnosti bude nabývat postupně. První část nařízení v rozsahu obecných ustanovení a zakázaných systémů AI u k 2. únoru 2025, k 2. srpnu 2025 pak část týkající se povinností pro obecné AI modely a určení dozorových orgánů. Od 2. srpna 2026 bude účinný takřka v celém rozsahu, vyjma zbývajících povinností pro vysoce rizikové systémy umělé inteligence, které se začnou uplatňovat od 2. srpna 2027.

Obr 1. Čtyři kategorie rizikovosti AI systémů podle nařízení Act AI.
Klasifikace rizikovosti AI systémů
Rizika spjatá se systémy AI rozděluje nařízení do čtyř kategorií od nejvyí po nejnií stupeň závanosti. Na jedné straně jsou to systémy s nepřijatelným nebo vysokým rizikem, na straně druhé pak s rizikem omezeným nebo minimálním. Systémy AI s nepřijatelným rizikem jsou jinými slovy zakázané, ty poslední zmiňované jsou v podstatě neregulované, protoe obecně jejich uívání nepředstavuje pro uivatele ádné riziko. Nejvíce povinností je spjato se systémy s vysokým rizikem, kde je mimo jiné vyadováno zavedení systému řízení rizik, vypracování technické dokumentace či povinná registrace před uvedením na trh nebo do provozu.
Rizika vyuívání AI
Pouití systému AI je bezpečné jen do doby, ne ho někdo zneuije. Při vyuívání AI nástrojů je nutné klást důraz zejména na kybernetickou bezpečnost, protoe s vyuíváním umělé intelegence souvisí i řada rizik například v podobě zkreslování reality a předkládání fiktivních záznamů. V tomto ohledu bude ke zneuívání AI docházet - u dnes jsme svědky masivního sdílení faleného audiovizuálního obsahu zejména na sociálních sítích, přičem mnohdy je těké upravenou realitu odhalit. Proto je v zájmu kadého jedince předvídat a informace si ověřovat. Ne vdy je ve takové, jak působí na první pohled, jakýkoliv údaj se můe stát terčem zneuití.
Pak je samozřejmě důleité myslet i na to, jaké informace pouíváme na vstupu, tedy jaká data do systému AI vkládáme. Zejména v případě veřejně dostupného, otevřeného systému AI je nutné si uvědomit, e do něj nemůeme vloit jen tak nějaká data. Mohli bychom tím například připravit firmu o know-how a obchodní tajemství. Neměli bychom tam vkládat ani data chráněná autorskými právy, pokud nemáme příslunou licenci, nebo data obsahující osobní údaje. To samé pak platí u dat na výstupu, kdy je nutné číst podmínky uití daného AI nástroje, ve kterých je upraveno, jakým způsobem je moné vygenerovaný obsah pouít. A i v případě takto získaných dat ze systému AI je třeba kriticky zváit a ověřit jejich správnost. V případně pouívání AI ve firemním prostředí platí dvojnásob pravidlo, e je nutné zaměstnance neustále vzdělávat a nutit kriticky přemýlet.

AI u soudu a právnických profesí
S rostoucím počtem AI řeení na trhu se dříve či poději musel k soudu dostat spor plynoucí z uívání AI. V České republice u máme jedno rozhodnutí vydané Městským soudem v Praze z října 2023, ve kterém se řeila otázka autorství ke grafice vytvořené umělou inteligencí. Soud dospěl k názoru, e grafika vytvořená umělou inteligencí není autorským dílem ve smyslu autorského zákona, a je tomu tak z důvodu, e nenaplňuje základní pojmové znaky autorského díla. Nejde toti o jedinečný výsledek tvůrčí činnosti autora, coby fyzické osoby, a tak na takovou grafiku nedopadá ádná ochrana.
AI se nejen u soudu, ale i u dalích právnických profesí, řeí pochopitelně i v jiných souvislostech, a to z pohledu jejího vyuití při kadodenních činnostech. AI ji nyní pomáhá se sepisováním jednoduchých návrhů smluv, revizí textů či reeremi judikatury. V neposlední řadě AI můe pomoci i soudcům a úředníkům při přípravě podkladů pro rozhodnutí. Co se vak týče řeení sloitějích právních otázek či vydání samotných rozhodnutí, toho AI jetě v dohledné době schopna nebude. Při takových činnostech je nutné zapojit i lidský nadhled a empatii, kterou AI postrádá.
V Evropě bezpečně
V současné době pozorujeme, e větina významných softwarových společností prvky AI do svých systémů zapojuje. Kromě nákladově efektivnějího provozu to předevím uivatelům umoňuje zjednoduit a zrychlit jejich práci, co je v dnení hektické době více ne ádoucí. S ohledem na to, jak se technologie rychle vyvíjejí a jaká rizika s sebou přináejí, je tedy právní regulace umělé inteligence na místě. V tomto ohledu Evropská unie stihla reagovat včas. Nyní zde máme ucelený právní rámec, který je předpokladem korektního chování jedinců i korporací, a u při vyvíjení nebo pouívání AI nástrojů. Díky AI Actu se v EU nedostaneme do situace, kdy nás například na ulicích budou zachycovat kamery s prvky AI. To ocení jistě kadý z nás.
![]() |
Simona Kobylková Autorka článku je právnička a odbornice na AI ve společnosti GORDIC. |

Formulář pro přidání akce


















