Od 2. srpna 2025 nabývají účinnosti pravidla Aktu o umělé inteligenci týkající se obecných modelů AI. Nová pravidla se dotknou zejména velkých poskytovatelů AI modelů – jako například ChatGPT, Gemini a Claude. Požadavky se týkají především bezpečnosti, transparentnosti a autorských práv.
Ještě na začátku července bylo velmi nejasné, jak pravidla AI Aktu vykládat a co přesně budou poskytovatelé od 2. srpna 2025 implementovat. Po velmi intenzivní debatě byl následně zveřejněn Kodex správné praxe pro obecné modely AI, jehož zveřejnění předpokládá přímo AI Akt. „Kodex upřesňuje, jak splnit povinnosti vyplývající z Aktu o umělé inteligenci, a současně usnadní poskytovatelům prokazování jejich souladu s požadavky AI Actu.“ uvádí seniorní advokátka Štěpánka Havlíková z pražské kanceláře Dentons.
Přínos kodexu spočívá především v tom, že požadavky nařízení převádí do konkrétních závazků týkajících se bezpečnosti, transparentnosti a autorských práv. Kodex obsahuje mimo jiné vzor formuláře pro technickou dokumentaci modelů, závazky podporující dodržování autorských práv při používání tréninkových dat, a postupy pro zajištění bezpečnosti a řízení rizik u obecných modelů AI se systémovým rizikem.
Pravidla se vztahují na obecné modely AI uvedené na trh po 2. srpnu 2025. „Pro modely uvedené na trh před 2. srpnem 2025 platí dvouleté přechodné období do srpna 2027 a souladu s požadavky AI Actu pro obecné modely musí tedy dosáhnout v této prodloužené lhůtě,“ uvádí seniorní advokátka Štěpánka Havlíková z pražské kanceláře Dentons.
Jaké změny tedy můžeme od 2. srpna 2025 očekávat? „Dá se tedy očekávat, že nové AI modely, které budou uvedeny na trh po účinnosti nových pravidel, tedy po 2. srpnu 2025, budou doprovázeny technickou dokumentací dle vzoru EU Komise, informacemi pro další subjekty v dodavatelském řetězci, kteří zamýšlí na základě AI modelů stavět další AI produkty, jakož i shrnutí, jaká data byla použita ke trénování modelu.“
Kodex správné praxe se vztahuje jak na obecné modely umělé inteligence (GPAI), tak na obecné modely AI se systémovým rizikem (GPAI-SR), které podléhají přísnějším pravidlům. Open-source GPAI jsou z některých povinností vyňaty, ledaže

spadají do kategorie modelů se systémovým rizikem. „
Kodex není právně závazný a jeho přijetí je dobrovolné,“ vysvětluje Štěpánka Havlíková. „
Výrazně však usnadní poskytovatelům prokázat, že požadavky na transparentnost, autorská práva a bezpečnost podle AI Aktu splňují“. Někteří poskytovatelé již veřejně oznámili, že Kodex podepíší. Poskytovatelé, kteří se rozhodnou kodex nepodepsat, budou muset prokázat, že k zajištění povinnosti vyplývajících z Aktu přijali vhodná, účinná a přiměřená opatření.
Vedle Kodexu správné praxe vydala Komise komplexní pokyny k rozsahu povinností poskytovatelů obecných modelů AI. Tyto pokyny mimo jiné upřesňují, kdy se model považuje za GPAI, kdy je subjekt poskytovatelem uvádějícím na trh GPAI, či jaké modely spadají pod výjimku pro open source modely. Pokyny rovněž obsahují podrobné metodiky pro zjišťování trénovacích výpočtů a podrobnosti o vymáhání povinností poskytovatelů.
Následně Komise též vydala vzorový formulář pro shrnutí dat použitých pro trénování modelů GPAI, což patří mezi jednu z povinností poskytovatelů obecných modelů. „Poskytovatelé obecných modelů se na pravidla již připravují a s ohledem na tento převratný vývoj se dají očekávat zásadní novinky při uvádění AI modelů na trh v EU,“ uzavírá Štěpánka Havlíková, seniorní advokátka z kanceláře Dentons.