JUDr. Samuel Král
Konec roku 2025 přinesl řadu zásadních soudních rozhodnutí, jež významně ovlivní právní status umělé inteligence v Evropě na evropském kontinentu. Britský soud v případu Getty Images vs. Stability AI konstatoval, že modely umělé inteligence samy o sobě nepředstavují kopii děl, na nichž jsou trénovány, a AI model neporušuje autorská práva, jestliže neuchovává původní data. Berlínský zemský soud dospěl k závěru, že AI-klon hlasu herce a dabéra Manfreda Lehmanna (oficiálního německého hlasu Bruce Willise) představuje zásah do obecného osobnostního práva, zejména při komerčním využití. Mnichovský soud ve věci GEMA vs. OpenAI naproti tomu rozhodl, že výjimka pro text a data mining (TDM) se nevztahuje na trénink modelů generativní AI na textech chráněných autorským právem, čímž podstatně zpochybnil možnost využívání chráněných dat bez souhlasu nositelů práv. V tomto shrnutí se to jeví jako jednoduché, avšak skutečnost je složitější.
Getty Images vs. Stability AI
Důležitý rozsudek o hranicích odpovědnosti generativní umělé inteligence
Britský Nejvyšší soud vydal
dlouho očekávané rozhodnutí ve věci Getty Images vs. Stability AI, jež představuje jeden z nejvýznamnějších rozsudků v oblasti
generativní umělé inteligence. Getty Images provozuje databázi obrázků a fotografií, přičemž její obchodní model je založen na prodeji licencí k těmto obrázkům. Stability AI je společnost provozující model LLM, který umožňuje generovat obrázky na základě zadaných promptů. Soud většinu žalobních nároků společnosti Getty Images zamítl a shledal pouze „historické a velmi omezené“ porušení ochranné známky iStock.
Vývoj sporu
Spor byl zahájen v lednu 2023, kdy zakladatel společnosti Stability AI veřejně prohlásil, že proces trénování modelu Stable Diffusion proběhl „v souladu s etickými a právními standardy“. Krátce nato reagovala společnost Getty Images, která společnost Stability obvinila z neoprávněného kopírování a zpracování milionů fotografií chráněných autorským právem včetně souvisejících metadat. Tyto fotografie obsahovaly rovněž vodoznaky s ochrannými známkami Getty Images a iStock. V rámci sporu Getty Images zpočátku uplatňovala mnoho porušení svých práv, včetně porušení autorských práv, práv k fotografiím a podobně. Nicméně v průběhu sporu bylo prokázáno, že pokud by snad docházelo k porušování autorských práv, docházelo k němu mimo území Spojeného království, a tudíž tato porušení nemohla být předmětem tohoto sporu před soudy Spojeného království. Getty Images postupně omezila své nároky na poslední dva, které nakonec byly soudem rozhodovány.
Autorská práva a ochranné známky
Soud se proto soustředil na dvě zbývající klíčové otázky: zda lze samotný model Stable Diffusion považovat za neoprávněnou rozmnoženinu děl společnosti Getty Images a zda docházelo k
porušování práv k ochranným známkám tím, že model generoval obrázky obsahující vodoznaky Getty Images a iStock.
V otázce neoprávněné rozmnoženiny soud dospěl k závěru, že nikoli. Bylo zjištěno, že model Stable Diffusion neuchovává původní snímky, nýbrž pouze numerické vzorce odvozené z tréninkových dat. Značný rozdíl mezi objemem tréninkových dat (220 TB) a velikostí samotného modelu (3,4 GB) podle soudu potvrzuje, že originální díla nejsou v systému fyzicky obsažena. Otázka, zda rozmnoženina fotografie uložená v operační paměti při čtení a trénování modelu představuje porušení, nebyla pro tento závěr soudu klíčová, byť ji soud rovněž vzal v úvahu.
Druhou otázkou bylo, zda výstupy modelu představují porušení ochranných známek společnosti Getty Images. V této souvislosti Getty Images namítala, že některé výstupy obsahovaly její vodoznaky. Soud připustil, že u nejstarších verzí modelu se vodoznaky mohly objevit v důsledku chyby způsobené tréninkem. Novější verze modelu však tuto vadu odstranily. Je rovněž pozoruhodné, že obrana společnosti Stability spočívala v tvrzení, že jde o zavinění uživatelů, kteří záměrně generují obrázky tak, aby obsahovaly logo iStock a Getty Images. Soud si proto vyžádal statistiky promptů a zjistil, že neexistuje důkaz o tom, že by uživatelé podobné výstupy generovali záměrně, respektive že by uživatelé používali model Stable Diffusion k záměrnému generování obrázků s logem iStock. Soud proto shledal pouze omezené porušení ochranné známky iStock (prostřednictvím první verze modelu Stable Diffusion) a ostatní nároky zamítl.
Jaké jsou závěry?
Pokud model neukládá rozmnoženiny dat, na kterých je trénován, pak podle práva Spojeného království nebude porušovat práva k obrázkům či fotografiím. To ovšem nemusí platit v rámci EU, zejména pokud jde o ukládání do operační paměti. Na druhou stranu, pokud model věrohodně zobrazí ochrannou známku náležející jinému subjektu bez jeho souhlasu a nejedná se o zneužití ze strany uživatelů, jde o neoprávněné užití ochranné známky.
Odvolání
Britský soud udělil společnosti Getty Images v prosinci 2025 povolení k odvolání proti zamítnutí nároku na porušení autorských práv. Přestože v rozhodnutí došlo k zamítnutí otázky autorských práv, soud uznal, že se jedná o natolik složitou otázku zákonného výkladu, že ji musí přezkoumat odvolací soud. Pokud by Getty v tomto bodě uspěla, mělo by to pro trh zásadní dopad. AI modely trénované bez výslovného svolení autorů by nebylo možné v rámci podnikání legálně nabízet, prodávat ani distribuovat, nejméně ve Spojeném království. Otázka ochranných známek zůstává zatím rozhodnuta a bude se čekat na závěry odvolacího soudu, jestli odvolání v tomto bodě také povolí.
Manfred Lehmann vs. YouTube
Berlínský soud rozhodl ve prospěch dabéra ve věci AI generování hlasu
Německý herec a dabér Manfred Lehmann, dlouholetý oficiální německý hlas Bruce Willise, uspěl ve sporu proti provozovateli kanálu na platformě YouTube, jenž bez jeho souhlasu využil AI-klon jeho hlasu ve dvou videích určených ke komerčnímu využití.
Vývoj sporu
Tvůrce videí provozoval na platformě YouTube úspěšný krajně pravicový kanál. Kanál byl monetizován prostřednictvím reklam a měl téměř 200 000 sledujících. Současně provozoval e-shop a obdobné platformy, na nichž prodával reklamní předměty spojené se svým kanálem a rovněž s politickou ideologií. Tvůrce videí následně vytvořil dvě videa, v nichž figuroval uměle generovaný hlas dabéra Manfreda Lehmanna. Dabér se o této skutečnosti dozvěděl a rozhodl se podat žalobu, protože spojení s krajně pravicovým kanálem poškozovalo jeho pověst.
Ochrana hlasu
Tvůrce videí argumentoval tím, že AI-hlas „zakoupil" a disponuje k němu užívacími právy. Soud se zabýval otázkou, zda může být hlas nebo jeho umělá napodobenina chráněn v rámci obecného osobnostního práva. Zatímco právo k podobizně je v německé právní úpravě výslovně zakotveno, ochrana hlasu vychází výhradně z judikatury (na rozdíl od české právní úpravy). Podle rozhodovací praxe se osobnostní právo vztahuje rovněž na komerční využití výrazných osobnostních rysů, pokud tyto mají ekonomickou hodnotu. Právě v tom soud shledal zásah, neboť použití imitace Lehmannova hlasu mělo zjevně obchodní účel.
Ačkoli nešlo o nahrávku jeho skutečného hlasu, soud zdůraznil, že způsob napodobení je z právního hlediska irelevantní. Rozhodující je, zda si významná část publika mohla mylně vyložit, že hlas byl použit se souhlasem dabéra, respektive že se jedná o jeho hlas. Tento test byl naplněn, jelikož řada diváků v komentářích označovala hlas za autentický.
Umělecká licence vs. komerční zneužití
Soud se následně také zabýval otázkou, zda použití hlasu lze ospravedlnit svobodou projevu a umělecké tvorby. Tvůrce tvrdil, že šlo o satiru politických témat. S tím soud nesouhlasil a konstatoval, že primárním cílem bylo komerční zhodnocení a že samotným videím chyběl umělecký záměr. Soud také zohlednil i reputační riziko Lehmanna z důvodu vyhraněného obsahu na tomto kanálu. Užití uměle vytvořené imitace hlasu je posled soudu zásah do obecného osobnostního práva, byť německé právo výslovnou ochranu hlasu v zákoně neupravuje, a že Lehmann má nárok na odškodnění. V tuzemsku tuto úpravu v zákoně však máme, o to může být aplikace tohoto rozhodnutí směrodatnější.
Jaké jsou závěry?
V tomto případě šlo o poměřování ochrany osobnosti a práva na svobodu slova a uměleckou svobodu. Právo na ochranu osobnosti zvítězilo. Tyto závěry budou pravděpodobně přenositelné i do našeho prostředí, včetně případné úvahy nad tím, jestli jde o dostatečnou satiru a nejedná se spíše o komerční využití bez satirického nádechu.
GEMA vs. OpenAI
Mnichovský soud vymezil hranice trénování AI na chráněných dílech
Mnichovský zemský soud vydal 11. listopadu 2025 očekávaný rozsudek ve věci GEMA vs. OpenAI. Jde o posun v přístupu k využívání autorských děl při trénování AI. Soud se postavil na stranu německého kolektivního správce GEMA a rozhodl, že trénování modelu ChatGPT na chráněných textech není kryto výjimkou pro text a data mining (TDM), tedy je k němu třeba licence. Nicméně, jak to tak bývá, tento případ je velmi specifický.
Vývoj sporu
GEMA, zastupující autory a vydavatele hudebních děl, tvrdila, že model ChatGPT generuje výstupy obsahující části textů písní totožné s originály. Dle jejich názoru tak OpenAI při trénování neoprávněně zpracovala chráněná díla a zároveň tato díla neoprávněně rozmnožila ve svém modelu. OpenAI se hájila tím, že model nevytváří kopie, ale pouze „odraz toho, co se naučil“ (viz podobně jako v Stability Diffusion), a že trénink je kryt zákonnou výjimkou pro analýzu textů a dat (TDM). Zároveň se podobně jako Stability hájila tím, že je to kvůli uživatelům, tedy ti používají OpenAI tak, aby jim generoval texty existujících písní y (opět podobně, jako Stability).
Klíčové závěry soudu
Soud se s argumentací OpenAI neztotožnil. Konstatoval, že pokud OpenAI dokáže na výstupu reprodukovat části existujících textů písní, jedná se o rozmnožování. Takové rozmnoženiny pak podle soudu nelze považovat za povolené v rámci TDM.
Trénink generativní AI tak neslouží pouze k analýze a vytvoření numerických vzorců odvozených z tréninkových dat (zase paralela se Stability), ale k vytvoření nového komerčního produktu. Soud rovněž zdůraznil, že TDM výjimka má chránit vědecký a výzkumný přístup k datům, nikoli plošné komerční využití cizích děl.
Evropa hledá rovnováhu
Rozhodnutí britského, berlínského a mnichovského soudu představují zásadní vodítka pro vývoj a právní regulaci generativní umělé inteligence v Evropě. Britský soud sice potvrdil, že využití autorských děl při tréninku neznamená zásah do práv autora, pokud model tato díla neuchovává ani nereprodukuje, ale nyní věc půjde do dovolacího řízení. Berlínský soud uzavřel, že ochrana osobnosti dopadá i na hlas a jeho syntetické napodobeniny. Mnichovský soud pak představuje
důraz na ochranu autorů a upřesňuje, že neoprávněnou rozmnoženinou může být, i pokud se LLM model naučil z autorského díla a je schopen jej reprodukovat.
Společně tato rozhodnutí potvrzují, že Evropa hledá rovnováhu mezi podporou inovací a ochranou práv v éře generativní AI. Bude zajímavé sledovat, zda a jak se závěry soudů budou dále vyvíjet a budeme nadále sledovat odvolání v těchto věcech. Zároveň je zajímavé, že základním módem obrany provozovatelů AI modelů je „hodit to na uživatele“. Je to kvůli procesní strategii, kdy cílí na neodpovědnost platforem za uživateli vkládaný obsah uživatelsky vkládaný obsah. Nicméně jsou to pořád provozovatelé AI modelů, kteří je nějak naučili, za nějakým účelem a uživatelé je pouze v souladu s tímto účelem používají (mimo excesy, samozřejmě), nebo je používají bez zábran, protože je provozovatel nenastavil (viz současné problémy s generováním nevhodného obsahu). Tato obrana nezabrala ani v jednom z případů, což lze kvitovat.
 |
JUDr. Samuel Král
Autor je odborníkem na právo duševního vlastnictví, doménových sporů, průmyslového vlastnictví, IT a kybernetické bezpečnosti. Působí jako advokát a Senior Associate ve společnosti ROWAN LEGAL Další informace o právních aspektech AI najdete na jejím webu. |