Příloha AI , AI a Business Intelligence , IT právo

Když chatbot poradí špatně, kdo za to nese odpovědnost?

Právní aspekty nasazení AI v zákaznické podpoře

Jaroslav Tajbr, Debora Cibulková


Chatboti využívající umělou inteligenci (AI) se rychle stali běžnou součástí zákaznické podpory. Firmy je nasazují kvůli jejich dostupnosti 24/7, schopnosti rychle reagovat a výraznému snížení provozních nákladů. Zákazníci si zvykli na okamžité odpovědi, ať už jde o reklamace, dotazy k produktům nebo technickou pomoc. S rostoucím využitím těchto systémů však vyvstává zásadní otázka: kdo nese odpovědnost, pokud chatbot poskytne chybnou informaci?


Představme si situaci, kdy chatbot zamítne oprávněnou reklamaci, nesprávně informuje o vlastnostech výrobku nebo uvede zákazníka v omyl ohledně podmínek služby. V takovém případě může vzniknout škoda – finanční, reputační nebo jiná. Kdo ji má nést? Vývojář systému? Provozovatel? Nebo snad samotný chatbot?

Odpovědnost za škodu v českém právním prostředí upravuje občanský zákoník (zákon č. 89/2012 Sb.). Ten stanovuje obecné principy odpovědnosti, jako je porušení zákonné nebo smluvní povinnosti. V kontextu AI však narážíme na nové výzvy – chatbot není právní subjekt, ale nástroj. Česká justice se touto problematikou zatím výslovně nezabývala, a tak by případné spory závisely na konkrétních okolnostech.

Porušení zákonné povinnosti (§ 2910 OZ)

Pokud chatbot poskytne radu v rozporu s právními předpisy, může jít o porušení povinnosti odborné péče. To platí zejména tehdy, pokud je systém prezentován jako nástroj schopný kvalifikované pomoci. Otázkou zůstává, kdo je v takovém případě „škůdcem“ – provozovatel, vývojář, nebo jiný subjekt? Nejčastěji to bude právě provozovatel systému.
V praxi je však nutné prokázat zavinění, což je u autonomních systémů komplikované. Provozovatel se může bránit tím, že chyba vznikla bez jeho vědomí a že systém jednal na základě dat, která byla správně nastavena. Navíc chatbot není právním subjektem, nelze mu tedy přičítat úmysl ani nedbalost jako člověku. Otázkou zůstává, zda je reálné a spravedlivé požadovat, aby provozovatel dohlížel na každou jednotlivou odpověď systému.

Porušení smluvní povinnosti (§ 2913 OZ)

Tento typ odpovědnosti by mohl být relevantní zejména ve vztahu mezi vývojářem systému a jeho provozovatelem. Výhodou je, že zde není nutné prokazovat zavinění – postačí samotné porušení smluvní povinnosti. Pokud tedy vývojář dodá systém, který neodpovídá sjednaným parametrům nebo selže v klíčových funkcích, může nést odpovědnost za vzniklou škodu.

Škoda způsobená pomocníkem (§ 2914 OZ)

Teoreticky by bylo možné považovat chatbota za „pomocníka“ ve smyslu zákona. Problémem je, že zákon s takovou situací nepočítá – pomocník by měl být právní subjekt, což chatbot není. Aplikace tohoto ustanovení je tedy sporná, přesto by mohla být v budoucnu předmětem právního výkladu.

Odpovědnost za škodu způsobenou věcí (§ 2936 OZ)

Pokud bychom chatbot považovali za „věc“ v právním smyslu, odpovědnost by mohla vzniknout v případě, že systém selže kvůli vadné konstrukci, nastavení nebo algoritmu. Klíčové je, zda osoba odpovědná za dohled nad systémem (např. provozovatel) tuto povinnost nezanedbala. V praxi by se zkoumalo, zda byla AI správně nastavena, testována a monitorována.

Odpovědnost za škodu způsobenou informací nebo radou (§ 2950 OZ)

Tento režim by mohl být uplatněn v případech, kdy chatbot vystupuje jménem podnikatele (např. banky nebo operátora) a poskytne zavádějící informaci, která zákazníkovi způsobí škodu. Problémem však zůstává, že chatbot není právní subjekt, což komplikuje přičitatelnost jeho výstupů provozovateli. Přesto by mohl být provozovatel odpovědný, pokud chatbot jednal v rámci jeho podnikatelské činnosti.

Evropský kontext: Nařízení o umělé inteligenci

Nařízení (EU) 2024/1689 o umělé inteligenci (tzv. AI Act), které již vstoupilo v platnost, představuje první komplexní právní rámec pro využívání AI v EU. Chatboti zákaznické podpory jsou v něm zařazeni mezi systémy s omezeným rizikem. Pokud dojde k chybě, odpovědnost zpravidla nese provozovatel systému – tedy podnikatel, který AI nasadil a využívá ji při své činnosti. Ten by měl zajistit odpovídající dohled nad jejím fungováním, včetně pravidelného testování, dokumentace a transparentnosti.
 
Jaroslav Tajbr
Autor článku je partner v advokátní kanceláři Eversheds Sutherland a vedoucí její IP/IT praxe. Specializuje se na právo elektronických komunikací, ochranu osobních údajů, kybernetickou bezpečnost, M&A, pracovní právo či litigace.
Debora Cibulková
Spoluautorka článku je advokátní koncipientka v advokátní kanceláři Eversheds Sutherland, kde působí v týmu pracovního práva. Ve své praxi se zajímá o právní aspekty technologických inovací a dopady automatizace a digitalizace na oblast práva.
Chcete získat časopis IT Systems s tímto a mnoha dalšími články z oblasti informačních systémů a řízení podnikové informatiky? Objednejte si předplatné nebo konkrétní vydání časopisu IT Systems z našeho archivu.

Inzerce

AI není jen chatbot: Tovek mění dokumenty na znalosti

Umělá inteligence se stala součástí každodenní reality a většina firem dnes tvrdí, že ji nějakým způsobem využívá. Často ale jde jen o chatovací asistenty postavené na velkých jazykových modelech typu ChatGPT, Gemini, Copilot či LLaMA. Ty jsou trénovány především na otevřených datech z internetu. Tovek jde jinou cestou – zaměřuje se na to, jak AI pomůže firmám a institucím vytěžit maximum z jejich vlastních interních dat.