JUDr. Samuel Král
Konec roku 2025 přinesl řadu zásadních soudních rozhodnutí, je významně ovlivní právní status umělé inteligence v Evropě na evropském kontinentu. Britský soud v případu Getty Images vs. Stability AI konstatoval, e modely umělé inteligence samy o sobě nepředstavují kopii děl, na nich jsou trénovány, a AI model neporuuje autorská práva, jestlie neuchovává původní data. Berlínský zemský soud dospěl k závěru, e AI-klon hlasu herce a dabéra Manfreda Lehmanna (oficiálního německého hlasu Bruce Willise) představuje zásah do obecného osobnostního práva, zejména při komerčním vyuití. Mnichovský soud ve věci GEMA vs. OpenAI naproti tomu rozhodl, e výjimka pro text a data mining (TDM) se nevztahuje na trénink modelů generativní AI na textech chráněných autorským právem, čím podstatně zpochybnil monost vyuívání chráněných dat bez souhlasu nositelů práv. V tomto shrnutí se to jeví jako jednoduché, avak skutečnost je sloitějí.
Getty Images vs. Stability AI
Důleitý rozsudek o hranicích odpovědnosti generativní umělé inteligence
Britský Nejvyí soud vydal
dlouho očekávané rozhodnutí ve věci Getty Images vs. Stability AI, je představuje jeden z nejvýznamnějích rozsudků v oblasti
generativní umělé inteligence. Getty Images provozuje databázi obrázků a fotografií, přičem její obchodní model je zaloen na prodeji licencí k těmto obrázkům. Stability AI je společnost provozující model LLM, který umoňuje generovat obrázky na základě zadaných promptů. Soud větinu alobních nároků společnosti Getty Images zamítl a shledal pouze historické a velmi omezené poruení ochranné známky iStock.
Vývoj sporu
Spor byl zahájen v lednu 2023, kdy zakladatel společnosti Stability AI veřejně prohlásil, e proces trénování modelu Stable Diffusion proběhl v souladu s etickými a právními standardy. Krátce nato reagovala společnost Getty Images, která společnost Stability obvinila z neoprávněného kopírování a zpracování milionů fotografií chráněných autorským právem včetně souvisejících metadat. Tyto fotografie obsahovaly rovně vodoznaky s ochrannými známkami Getty Images a iStock. V rámci sporu Getty Images zpočátku uplatňovala mnoho poruení svých práv, včetně poruení autorských práv, práv k fotografiím a podobně. Nicméně v průběhu sporu bylo prokázáno, e pokud by snad docházelo k poruování autorských práv, docházelo k němu mimo území Spojeného království, a tudí tato poruení nemohla být předmětem tohoto sporu před soudy Spojeného království. Getty Images postupně omezila své nároky na poslední dva, které nakonec byly soudem rozhodovány.
Autorská práva a ochranné známky
Soud se proto soustředil na dvě zbývající klíčové otázky: zda lze samotný model Stable Diffusion povaovat za neoprávněnou rozmnoeninu děl společnosti Getty Images a zda docházelo k
poruování práv k ochranným známkám tím, e model generoval obrázky obsahující vodoznaky Getty Images a iStock.
V otázce neoprávněné rozmnoeniny soud dospěl k závěru, e nikoli. Bylo zjitěno, e model Stable Diffusion neuchovává původní snímky, nýbr pouze numerické vzorce odvozené z tréninkových dat. Značný rozdíl mezi objemem tréninkových dat (220 TB) a velikostí samotného modelu (3,4 GB) podle soudu potvrzuje, e originální díla nejsou v systému fyzicky obsaena. Otázka, zda rozmnoenina fotografie uloená v operační paměti při čtení a trénování modelu představuje poruení, nebyla pro tento závěr soudu klíčová, by ji soud rovně vzal v úvahu.
Druhou otázkou bylo, zda výstupy modelu představují poruení ochranných známek společnosti Getty Images. V této souvislosti Getty Images namítala, e některé výstupy obsahovaly její vodoznaky. Soud připustil, e u nejstarích verzí modelu se vodoznaky mohly objevit v důsledku chyby způsobené tréninkem. Novějí verze modelu vak tuto vadu odstranily. Je rovně pozoruhodné, e obrana společnosti Stability spočívala v tvrzení, e jde o zavinění uivatelů, kteří záměrně generují obrázky tak, aby obsahovaly logo iStock a Getty Images. Soud si proto vyádal statistiky promptů a zjistil, e neexistuje důkaz o tom, e by uivatelé podobné výstupy generovali záměrně, respektive e by uivatelé pouívali model Stable Diffusion k záměrnému generování obrázků s logem iStock. Soud proto shledal pouze omezené poruení ochranné známky iStock (prostřednictvím první verze modelu Stable Diffusion) a ostatní nároky zamítl.
Jaké jsou závěry?
Pokud model neukládá rozmnoeniny dat, na kterých je trénován, pak podle práva Spojeného království nebude poruovat práva k obrázkům či fotografiím. To ovem nemusí platit v rámci EU, zejména pokud jde o ukládání do operační paměti. Na druhou stranu, pokud model věrohodně zobrazí ochrannou známku náleející jinému subjektu bez jeho souhlasu a nejedná se o zneuití ze strany uivatelů, jde o neoprávněné uití ochranné známky.
Odvolání
Britský soud udělil společnosti Getty Images v prosinci 2025 povolení k odvolání proti zamítnutí nároku na poruení autorských práv. Přestoe v rozhodnutí dolo k zamítnutí otázky autorských práv, soud uznal, e se jedná o natolik sloitou otázku zákonného výkladu, e ji musí přezkoumat odvolací soud. Pokud by Getty v tomto bodě uspěla, mělo by to pro trh zásadní dopad. AI modely trénované bez výslovného svolení autorů by nebylo moné v rámci podnikání legálně nabízet, prodávat ani distribuovat, nejméně ve Spojeném království. Otázka ochranných známek zůstává zatím rozhodnuta a bude se čekat na závěry odvolacího soudu, jestli odvolání v tomto bodě také povolí.
Manfred Lehmann vs. YouTube
Berlínský soud rozhodl ve prospěch dabéra ve věci AI generování hlasu
Německý herec a dabér Manfred Lehmann, dlouholetý oficiální německý hlas Bruce Willise, uspěl ve sporu proti provozovateli kanálu na platformě YouTube, jen bez jeho souhlasu vyuil AI-klon jeho hlasu ve dvou videích určených ke komerčnímu vyuití.
Vývoj sporu
Tvůrce videí provozoval na platformě YouTube úspěný krajně pravicový kanál. Kanál byl monetizován prostřednictvím reklam a měl téměř 200 000 sledujících. Současně provozoval e-shop a obdobné platformy, na nich prodával reklamní předměty spojené se svým kanálem a rovně s politickou ideologií. Tvůrce videí následně vytvořil dvě videa, v nich figuroval uměle generovaný hlas dabéra Manfreda Lehmanna. Dabér se o této skutečnosti dozvěděl a rozhodl se podat alobu, protoe spojení s krajně pravicovým kanálem pokozovalo jeho pověst.
Ochrana hlasu
Tvůrce videí argumentoval tím, e AI-hlas zakoupil" a disponuje k němu uívacími právy. Soud se zabýval otázkou, zda můe být hlas nebo jeho umělá napodobenina chráněn v rámci obecného osobnostního práva. Zatímco právo k podobizně je v německé právní úpravě výslovně zakotveno, ochrana hlasu vychází výhradně z judikatury (na rozdíl od české právní úpravy). Podle rozhodovací praxe se osobnostní právo vztahuje rovně na komerční vyuití výrazných osobnostních rysů, pokud tyto mají ekonomickou hodnotu. Právě v tom soud shledal zásah, nebo pouití imitace Lehmannova hlasu mělo zjevně obchodní účel.
Ačkoli nelo o nahrávku jeho skutečného hlasu, soud zdůraznil, e způsob napodobení je z právního hlediska irelevantní. Rozhodující je, zda si významná část publika mohla mylně vyloit, e hlas byl pouit se souhlasem dabéra, respektive e se jedná o jeho hlas. Tento test byl naplněn, jeliko řada diváků v komentářích označovala hlas za autentický.
Umělecká licence vs. komerční zneuití
Soud se následně také zabýval otázkou, zda pouití hlasu lze ospravedlnit svobodou projevu a umělecké tvorby. Tvůrce tvrdil, e lo o satiru politických témat. S tím soud nesouhlasil a konstatoval, e primárním cílem bylo komerční zhodnocení a e samotným videím chyběl umělecký záměr. Soud také zohlednil i reputační riziko Lehmanna z důvodu vyhraněného obsahu na tomto kanálu. Uití uměle vytvořené imitace hlasu je posled soudu zásah do obecného osobnostního práva, by německé právo výslovnou ochranu hlasu v zákoně neupravuje, a e Lehmann má nárok na odkodnění. V tuzemsku tuto úpravu v zákoně vak máme, o to můe být aplikace tohoto rozhodnutí směrodatnějí.
Jaké jsou závěry?
V tomto případě lo o poměřování ochrany osobnosti a práva na svobodu slova a uměleckou svobodu. Právo na ochranu osobnosti zvítězilo. Tyto závěry budou pravděpodobně přenositelné i do naeho prostředí, včetně případné úvahy nad tím, jestli jde o dostatečnou satiru a nejedná se spíe o komerční vyuití bez satirického nádechu.
GEMA vs. OpenAI
Mnichovský soud vymezil hranice trénování AI na chráněných dílech
Mnichovský zemský soud vydal 11. listopadu 2025 očekávaný rozsudek ve věci GEMA vs. OpenAI. Jde o posun v přístupu k vyuívání autorských děl při trénování AI. Soud se postavil na stranu německého kolektivního správce GEMA a rozhodl, e trénování modelu ChatGPT na chráněných textech není kryto výjimkou pro text a data mining (TDM), tedy je k němu třeba licence. Nicméně, jak to tak bývá, tento případ je velmi specifický.
Vývoj sporu
GEMA, zastupující autory a vydavatele hudebních děl, tvrdila, e model ChatGPT generuje výstupy obsahující části textů písní totoné s originály. Dle jejich názoru tak OpenAI při trénování neoprávněně zpracovala chráněná díla a zároveň tato díla neoprávněně rozmnoila ve svém modelu. OpenAI se hájila tím, e model nevytváří kopie, ale pouze odraz toho, co se naučil (viz podobně jako v Stability Diffusion), a e trénink je kryt zákonnou výjimkou pro analýzu textů a dat (TDM). Zároveň se podobně jako Stability hájila tím, e je to kvůli uivatelům, tedy ti pouívají OpenAI tak, aby jim generoval texty existujících písní y (opět podobně, jako Stability).
Klíčové závěry soudu
Soud se s argumentací OpenAI neztotonil. Konstatoval, e pokud OpenAI dokáe na výstupu reprodukovat části existujících textů písní, jedná se o rozmnoování. Takové rozmnoeniny pak podle soudu nelze povaovat za povolené v rámci TDM.
Trénink generativní AI tak neslouí pouze k analýze a vytvoření numerických vzorců odvozených z tréninkových dat (zase paralela se Stability), ale k vytvoření nového komerčního produktu. Soud rovně zdůraznil, e TDM výjimka má chránit vědecký a výzkumný přístup k datům, nikoli ploné komerční vyuití cizích děl.
Evropa hledá rovnováhu
Rozhodnutí britského, berlínského a mnichovského soudu představují zásadní vodítka pro vývoj a právní regulaci generativní umělé inteligence v Evropě. Britský soud sice potvrdil, e vyuití autorských děl při tréninku neznamená zásah do práv autora, pokud model tato díla neuchovává ani nereprodukuje, ale nyní věc půjde do dovolacího řízení. Berlínský soud uzavřel, e ochrana osobnosti dopadá i na hlas a jeho syntetické napodobeniny. Mnichovský soud pak představuje
důraz na ochranu autorů a upřesňuje, e neoprávněnou rozmnoeninou můe být, i pokud se LLM model naučil z autorského díla a je schopen jej reprodukovat.
Společně tato rozhodnutí potvrzují, e Evropa hledá rovnováhu mezi podporou inovací a ochranou práv v éře generativní AI. Bude zajímavé sledovat, zda a jak se závěry soudů budou dále vyvíjet a budeme nadále sledovat odvolání v těchto věcech. Zároveň je zajímavé, e základním módem obrany provozovatelů AI modelů je hodit to na uivatele. Je to kvůli procesní strategii, kdy cílí na neodpovědnost platforem za uivateli vkládaný obsah uivatelsky vkládaný obsah. Nicméně jsou to pořád provozovatelé AI modelů, kteří je nějak naučili, za nějakým účelem a uivatelé je pouze v souladu s tímto účelem pouívají (mimo excesy, samozřejmě), nebo je pouívají bez zábran, protoe je provozovatel nenastavil (viz současné problémy s generováním nevhodného obsahu). Tato obrana nezabrala ani v jednom z případů, co lze kvitovat.
 |
JUDr. Samuel Král
Autor je odborníkem na právo duevního vlastnictví, doménových sporů, průmyslového vlastnictví, IT a kybernetické bezpečnosti. Působí jako advokát a Senior Associate ve společnosti ROWAN LEGAL Dalí informace o právních aspektech AI najdete na jejím webu. |