Příloha AI , AI a Business Intelligence , IT právo

Pravidla pro AI v EU

regulují nejen vývoj AI, ale také odpovědnost za škody, které může způsobit

JUDr. Jiří Matzner, Ph.D., LLM


V Evropské unii byla nastavena pravidla pro regulaci umělé inteligence primárně prostřednictvím nařízení Evropského parlamentu (EU) 2024/1689 (tzv. AI Act). Dalším důležitým prvkem evropské regulace umělé inteligence je směrnice o odpovědnosti za umělou inteligenci, jejímž cílem je zajistit spravedlivé vymáhání náhrady škody způsobené systémy AI. V tomto článku bychom si představili základní parametry těchto dvou souborů pravidel pro regulaci umělé inteligence na úrovni EU.


Nařízení o umělé inteligenci (AI Act)

Od 1. srpna 2024 vstoupil v platnost AI Act, jehož cílem je zajistit, aby systémy umělé inteligence byly bezpečné, transparentní a důvěryhodné, respektovaly základní práva a společenské hodnoty, podporovaly inovace a posilovaly jednotný evropský trh pro umělou inteligenci. AI Act se dokonce snaží definovat umělou inteligenci. „Systémem AI“ se podle něho rozumí autonomní software, který je vyvinut pomocí technik a postupů uvedených v příloze AI Actu a který může pro určitou sadu vstupů definovaných člověkem generovat výstupy, jako např. obsah, predikce, doporučení nebo rozhodnutí, jež mají schopnost ovlivnit fyzická či virtuální prostředí. 

Na koho se AI Act vztahuje?

AI Act se primárně vztahuje na poskytovatele systémů umělé inteligence, včetně poskytovatelů tzv. GPAI systémů, kteří tyto technologie uvádějí na trh nebo do provozu v rámci EU. Regulace na předmětné subjekty dopadá bez ohledu na to, zda se nacházejí nebo jsou usazeni v EU. AI Act se vztahuje i na subjekty, které systémy umělé inteligence zavádějí do praxe (tzv. deployeři), opět pokud jsou usazeny nebo se nacházejí na území EU.
Pro běžného uživatele (občana) z AI Actu nevyplývají žádné zásadní povinnosti. Naopak, cílem nařízení je zajistit, aby systémy umělé inteligence byly pro uživatele bezpečné, nediskriminační a respektovaly jejich základní práva. Většina pravidel a požadavků stanovených AI Actem se totiž vztahuje na systémy umělé inteligence, které vzhledem ke své složitosti nebo specifickému způsobu použití mohou pro uživatele představovat zvýšenou míru rizika.

Systémy rizik umělé inteligence

Základním principem AI Actu je tzv. „risk-based approach“ – tedy čím větší riziko systém AI představuje, tím přísnější jsou na něj požadavky. AI Act definuje celkem 4 úrovně míry rizik u systémů umělé inteligence, jež kategorizuje na:
  • Nepřijatelné riziko – zakázané systémy (např. sociální skóring, kognitivní manipulace, biometrická identifikace v reálném čase na veřejných místech);
  • Vysoké riziko – přísně regulované systémy (např. AI užívaná v oblasti zdravotnictví, vzdělávání, bankovnictví či soudnictví);
  • Omezené riziko – systémy, u nichž je vyžadována zejména transparentnost (např. chatboti, systémy generující text, obraz či zvuk);
  • Nízké riziko – systémy bez specifických požadavků (např. AI nástroje pro úpravu fotografií či jazykové překladače).
Systémy umělé inteligence vykazující nepřijatelnou míru rizika jsou zakázané pro rozpor se základními hodnotami a cíli EU. Mezi zakázané systémy můžeme zařadit například využívání biometrické identifikace na dálku v reálném čase na veřejných prostranstvích, zavádění systémů sociálního skóringu či aplikace technik podprahového ovlivňování uživatelů.
Vysoce rizikové systémy umělé inteligence bude možné uvádět na trh jen při splnění přísných regulačních požadavků. Provozování vysoce rizikových systémů bude vyžadovat například provedení posouzení shody před jejich uvedením na trh, zavedení automatických záznamů klíčových operací (tzv. „logování“) pro účely zpětné kontroly a auditu, zavedení efektivního systému řízení rizik, vytvoření podrobné technické dokumentace či nastavení odpovídajícího lidského dohledu s cílem minimalizovat rizika spojená s užíváním těchto systémů. V neposlední řadě bude nutné vysoce rizikové AI systémy označit CE značkou a registrovat je ve speciální databázi vedené na úrovni EU.
Systémy umělé inteligence s nízkým či omezeným rizikem, které v praxi tvoří většinu systémů AI, budou podléhat jen základním požadavkům na transparentnost. Uživatelé těchto systémů by měli být především dopředu jasně informováni o tom, že komunikují a pracují se systémem umělé inteligence.
 

Směrnice o odpovědnosti za umělou inteligenci

Na rozdíl od AI Actu, jehož účelem je stanovit pravidla pro bezpečné užívání umělé inteligence, cílí směrnice o odpovědnosti za umělou inteligenci na nastavení spravedlivých podmínek pro vymáhání náhrady škody způsobené systémy umělé inteligence. V případě škody způsobené umělou inteligencí je totiž mnohdy obtížné určit, kdo za ni skutečně nese odpovědnost, přičemž současná pravidla týkající se prokazování zavinění nejsou ve vztahu k systémům umělé inteligence vyhovující. Směrnice proto zavádí mechanismy, které zjednodušují dokazování v případech škod způsobených AI.

Klíčové prvky směrnice

Prvním klíčovým prvkem směrnice je zpřístupnění důkazů. Pokud dojde ke škodě způsobené tzv. vysoce rizikovým systémem umělé inteligence, může soud nařídit provozovateli systému, aby zpřístupnil potřebné důkazy pro účely vedení soudního řízení. Důkazy musí být omezeny pouze na nezbytné informace, které jsou relevantní pro příslušné řízení. V případě nesplnění povinnosti důkazy vydat se uplatní vyvratitelná právní domněnka, že žalovaný nesplnil povinnost řádné péče.
Dalším klíčovým prvkem je zavedení vyvratitelné domněnky příčinné souvislosti mezi zaviněním žalovaného a výstupem vytvořeným systémem AI. Směrnice zavádí pravidlo, podle něhož se za určitých podmínek předpokládá příčinná souvislost mezi zaviněním a škodou způsobenou AI. Tyto podmínky budou splněny, pokud: (i) žalobce prokáže zavinění žalovaného spočívající v porušení právní povinnosti, dále (ii) bude přiměřeně pravděpodobné, že zavinění mělo dopad na výstup vytvořený systémem AI a (iii) žalobce prokáže, že tento výstup vedl ke vzniku škody. Předmětná vyvratitelná domněnka má za úkol ulehčit pozici poškozeného, jakožto žalobce, který by jinak velmi složitě nesl důkazní břemeno.

Závěrem

Evropská pravidla pro regulaci umělé inteligence jsou stále na samém počátku své existence a až čas ukáže, do jaké míry byla nastavena správně. Jelikož v současnosti sílí podpora deregulace ve prospěch urychlení vývoje (a to i v oblasti AI) z důvodu snižující se konkurenceschopnosti EU ve srovnání s jinými globálními hráči (zejm. USA a Čínou), je otázkou, v jakém směru budou evropská pravidla pro AI v budoucnu měněna. Jinými slovy, zda budou dále rozšiřována, nebo se spíše dočkáme jejich zeštíhlení. Už dnes je však zcela zřejmé, že rizikové systémy umělé inteligence bude vždy nutné určitým způsobem regulovat. 
AI Act by měl být plně aplikován do 2 let od jeho přijetí, přičemž některá ustanovení budou vstupovat v účinnost průběžně. K dnešnímu dni již nabyly účinnosti například zákazy některých nepřijatelně rizikových AI systémů nebo designace příslušných orgánů, které budou zodpovědné za dodržování AI Actu. Za porušení AI Actu totiž budou hrozit vysoké sankce, které se mohou vyšplhat až do výše 35 milionů eur nebo 7 % celosvětového ročního obratu.
 
JUDr. Jiří Matzner, Ph.D., LLM.
Autor článku je zakladatel advokátní kanceláře Matzner & Vítek a odborný asistent na právnické fakultě.
Chcete získat časopis IT Systems s tímto a mnoha dalšími články z oblasti informačních systémů a řízení podnikové informatiky? Objednejte si předplatné nebo konkrétní vydání časopisu IT Systems z našeho archivu.

Inzerce

Od papíru k AI:

Digitální transformace certifikované výroby

Certifikovaných provozů přibývá. Především těch, které jsou auditovány na plnění některé z norem managementu kvality (QMS) nebo systémů environmentálního managementu (EMS). V zájmu udržení certifikace jsou čím dál více aplikovány systémy sběru, propojování a vyhodnocování dat ze senzorů strojů. To, co poněkud vázne, je využití výsledků vyhodnocení těchto dat při operativním řízení výroby. Zde uvedený příklad poodkrývá cestu, kterou musela ujít středně velká výrobní společnost zabývající se výrobou konstrukčních plastů.