- Přehledy IS
- APS (20)
- BPM - procesní řízení (22)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (33)
- CRM (51)
- DMS/ECM - správa dokumentů (20)
- EAM (17)
- Ekonomické systémy (68)
- ERP (77)
- HRM (27)
- ITSM (6)
- MES (32)
- Řízení výroby (36)
- WMS (29)
- Dodavatelé IT slueb a řeení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (39)
- Dodavatelé CRM (33)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (71)
- Informační bezpečnost (50)
- IT řeení pro logistiku (45)
- IT řeení pro stavebnictví (26)
- Řeení pro veřejný a státní sektor (27)
Tematické sekce
ERP systémy
CRM systémy
Plánování a řízení výroby
AI a Business Intelligence
DMS/ECM - Správa dokumentů
HRM/HCM - Řízení lidských zdrojů
EAM/CMMS - Správa majetku a údrby
Účetní a ekonomické systémy
ITSM (ITIL) - Řízení IT
Cloud a virtualizace IT
IT Security
Logistika, řízení skladů, WMS
IT právo
GIS - geografické informační systémy
Projektové řízení
Trendy ICT
E-commerce B2B/B2C
CAD/CAM/CAE/PLM/3D tiskBranové sekce
![]() | |
| Přihlaste se k odběru newsletteru SystemNEWS, který kadý týden přináí výběr článků z oblasti podnikové informatiky | |
![]() | |
Partneři webu
Firmy mohou nevědomky sbírat biometrická data
a vystavovat se tím postihu za poruení nařízení AI Act
Evropská unie v nařízení AI Act reguluje takzvané behaviorální AI systémy. Jde o nástroje, které rozpoznávají emoce zaměstnanců, analyzují jejich chování nebo je kategorizují podle biometrických rysů. Problém je, e větina firem si ani neuvědomuje, e podobné funkce u můou mít zabudované v nástrojích, které denně pouívají, od kamerových systémů přes monitorovací software a po doplňky do videokonferencí.

koly nevěděly, e sbírají biometrická data studentů
V březnu 2025 začala videokonferenční platforma Teams automaticky sbírat hlasová a obličejová data uivatelů prostřednictvím funkce nazvané voice and face enrolment. Funkce vytváří hlasový a obličejový profil kadého účastníka videohovorů. Poskytovatel platformy tvrdil, e to zlepuje kvalitu zvuku a umoňuje softwaru rozpoznat, kdo mluví.
Úřad pro kolství v australském Novém Jiním Walesu, kde Teams pouívají koly jako hlavní komunikační platformu pro učitele a studenty, se o tom dozvěděl a po měsíci. Úřad funkci ihned vypnul a profily smazal. Případ ovem ukazuje, jak snadno se můe stát, e firma nebo instituce sbírá biometrická data, ani by o tom věděla. Poskytovatel změnu nastavení oznámil na konci roku 2024, ale ne vichni zákazníci si upozornění vimli nebo pochopili jeho dosah.
Kde se behaviorální AI schovává
Funkce vyuívající biometrii se můou objevit v nástrojích, které firma u běně pouívá. Často jako volitelný modul nebo doplněk, který někdo zapnul, ani by si uvědomil právní dopady. Videokonference a doplňky patří mezi nejčastějí zdroje rizika. Zoom v roce 2020 zruil funkci attention tracking po kritice kvůli naruování soukromí. Dnes ale nabízí analýzu sentimentu v kontaktních centrech, kde některé verze zkoumají nejen text, ale i tón hlasu. To u můe spadat pod rozpoznávání emocí z biometrických dat.
Kamerové systémy a retailová analytika představují dalí riziko. Například britský Network Rail testoval na nádraích AI analýzu emocí a demografie. Podobné moduly nabízí řada kamerových systémů jako volitelné doplňky. Firmy si často neuvědomují, e demografická analýza je forma biometrické kategorizace, která můe spadat pod regulaci.
Docházka a přístupové systémy zaloené na biometrii vyadují zvlátní pozornost. Britský úřad ICO v únoru 2024 nařídil společnosti Serco Leisure přestat pouívat rozpoznávání obličeje pro docházku. Byl to první případ, kdy úřad zakázal zaměstnavateli biometrickou docházku.
Co říká AI Act a jaké pokuty hrozí
Nařízení AI Act přímo zakazuje některé praktiky s behaviorální AI. Od 2. února 2025 platí zákaz rozpoznávání emocí na pracovitích a ve kolách. Výjimky jsou přípustné pouze pro medicínské nebo bezpečnostní účely. Zákon také zakazuje biometrickou kategorizaci podle chráněných znaků jako je politické přesvědčení, náboenství nebo sexuální orientace. A zakazuje nekontrolované stahování obličejů z internetu nebo kamerových systémů k vytváření databází.
Pokuty jsou vysoké. Za poruení zákazů hrozí a 35 milionů eur nebo 7 procent celosvětového obratu, podle toho, co je vyí. Za jiná poruení povinností a 15 milionů eur nebo 3 procenta obratu.
Riziko z pohledu kyberbezpečnosti
Zpracování biometrických dat není rizikem jen ve vztahu k monému poruení předpisů. Jde také o váné riziko z pohledu kyberbezpečnosti. Biometrické systémy sbírají nejcitlivějí data jako obličejové skeny nebo hlasové profily. Útočníci po získání těchto dat mohou vytvářet deepfake videa, falené hlasové autorizace nebo obcházet biometrické ověření. Nejde u jen o částečné informace o lidech, ale hotové klíče k jejich identitě.
Případ britské inenýrské firmy Arup potvrzuje, e riziko je reálné. V roce 2024 přila o 25 milionů dolarů při deepfake videohovoru. Policie v Hong Kongu případ nadále vyetřuje. Jde o ilustraci toho, jaké následky můe mít únik hlasových a obličejových dat.
Okamitá ochrana není sloitá
První krok je inventura platforem. Firma by měla projít vechny nástroje pro videokonference, HR, kontaktní centra, docházku a kamerové systémy. U kadého nástroje zkontrolovat nastavení a seznam aktivních doplňků. U často pouívaných komunikačních platforem jako Teams je nutné zkontrolovat aplikace třetích stran a nastavit povinné schvalování. Například u Zoomu prověřte AI Companion. Vyhledejte a vypněte jakékoliv funkce s názvem emotion, mood nebo engagement score. U kamerových systémů deaktivujte biometrické nebo demografické moduly.
Kromě technických opatření zaveďte také interní směrnici, e firma nepouívá systémy k rozpoznávání emocí. Do smluv s dodavateli přidejte klauzuli, e řeení neobsahuje zakázané funkce, a definujte monost odstoupení a smluvní pokutu při poruení.
AI nástroje se ale vyvíjí a je třeba zajistit průběný dohled
Častý předpoklad je, e pokud firma nic speciálně nezapínala, nemá ádné rizikové funkce. Případ australského úřadu pro kolství ale ukazuje opak. Dodavatel můe funkci zapnout automaticky a uivatel se o tom dozví a s odstupem.
AI Act se snaí regulovat oblast, která se velmi rychle vyvíjí. Některé funkce, které dnes vypadají nekodně, můou být za rok zakázané. A naopak, některé zakázané praktiky u dnes běí v nástrojích, které firma pouívá, ani by o tom věděla.
Nejlepí ochrana je pravidelný audit nástrojů, jasná politika a kolení zaměstnanců. A hlavně pozornost k tomu, co dodavatelé přidávají do svých produktů. Protoe to, co dnes vypadá jako uitečná funkce pro zlepení kvality zvuku, můe být zítra důvod k pokutě.
![]() |
Adam Paclt Autor článku je generálním ředitelem společnosti APPSEC. |
IT Systems podporuje
Formulář pro přidání akce












