Příloha AI , AI a Business Intelligence , IT právo

Když chatbot poradí špatně, kdo za to nese odpovědnost?

Právní aspekty nasazení AI v zákaznické podpoře

Jaroslav Tajbr, Debora Cibulková


Chatboti využívající umělou inteligenci (AI) se rychle stali běžnou součástí zákaznické podpory. Firmy je nasazují kvůli jejich dostupnosti 24/7, schopnosti rychle reagovat a výraznému snížení provozních nákladů. Zákazníci si zvykli na okamžité odpovědi, ať už jde o reklamace, dotazy k produktům nebo technickou pomoc. S rostoucím využitím těchto systémů však vyvstává zásadní otázka: kdo nese odpovědnost, pokud chatbot poskytne chybnou informaci?


Představme si situaci, kdy chatbot zamítne oprávněnou reklamaci, nesprávně informuje o vlastnostech výrobku nebo uvede zákazníka v omyl ohledně podmínek služby. V takovém případě může vzniknout škoda – finanční, reputační nebo jiná. Kdo ji má nést? Vývojář systému? Provozovatel? Nebo snad samotný chatbot?

Odpovědnost za škodu v českém právním prostředí upravuje občanský zákoník (zákon č. 89/2012 Sb.). Ten stanovuje obecné principy odpovědnosti, jako je porušení zákonné nebo smluvní povinnosti. V kontextu AI však narážíme na nové výzvy – chatbot není právní subjekt, ale nástroj. Česká justice se touto problematikou zatím výslovně nezabývala, a tak by případné spory závisely na konkrétních okolnostech.

Porušení zákonné povinnosti (§ 2910 OZ)

Pokud chatbot poskytne radu v rozporu s právními předpisy, může jít o porušení povinnosti odborné péče. To platí zejména tehdy, pokud je systém prezentován jako nástroj schopný kvalifikované pomoci. Otázkou zůstává, kdo je v takovém případě „škůdcem“ – provozovatel, vývojář, nebo jiný subjekt? Nejčastěji to bude právě provozovatel systému.
V praxi je však nutné prokázat zavinění, což je u autonomních systémů komplikované. Provozovatel se může bránit tím, že chyba vznikla bez jeho vědomí a že systém jednal na základě dat, která byla správně nastavena. Navíc chatbot není právním subjektem, nelze mu tedy přičítat úmysl ani nedbalost jako člověku. Otázkou zůstává, zda je reálné a spravedlivé požadovat, aby provozovatel dohlížel na každou jednotlivou odpověď systému.

Porušení smluvní povinnosti (§ 2913 OZ)

Tento typ odpovědnosti by mohl být relevantní zejména ve vztahu mezi vývojářem systému a jeho provozovatelem. Výhodou je, že zde není nutné prokazovat zavinění – postačí samotné porušení smluvní povinnosti. Pokud tedy vývojář dodá systém, který neodpovídá sjednaným parametrům nebo selže v klíčových funkcích, může nést odpovědnost za vzniklou škodu.

Škoda způsobená pomocníkem (§ 2914 OZ)

Teoreticky by bylo možné považovat chatbota za „pomocníka“ ve smyslu zákona. Problémem je, že zákon s takovou situací nepočítá – pomocník by měl být právní subjekt, což chatbot není. Aplikace tohoto ustanovení je tedy sporná, přesto by mohla být v budoucnu předmětem právního výkladu.

Odpovědnost za škodu způsobenou věcí (§ 2936 OZ)

Pokud bychom chatbot považovali za „věc“ v právním smyslu, odpovědnost by mohla vzniknout v případě, že systém selže kvůli vadné konstrukci, nastavení nebo algoritmu. Klíčové je, zda osoba odpovědná za dohled nad systémem (např. provozovatel) tuto povinnost nezanedbala. V praxi by se zkoumalo, zda byla AI správně nastavena, testována a monitorována.

Odpovědnost za škodu způsobenou informací nebo radou (§ 2950 OZ)

Tento režim by mohl být uplatněn v případech, kdy chatbot vystupuje jménem podnikatele (např. banky nebo operátora) a poskytne zavádějící informaci, která zákazníkovi způsobí škodu. Problémem však zůstává, že chatbot není právní subjekt, což komplikuje přičitatelnost jeho výstupů provozovateli. Přesto by mohl být provozovatel odpovědný, pokud chatbot jednal v rámci jeho podnikatelské činnosti.

Evropský kontext: Nařízení o umělé inteligenci

Nařízení (EU) 2024/1689 o umělé inteligenci (tzv. AI Act), které již vstoupilo v platnost, představuje první komplexní právní rámec pro využívání AI v EU. Chatboti zákaznické podpory jsou v něm zařazeni mezi systémy s omezeným rizikem. Pokud dojde k chybě, odpovědnost zpravidla nese provozovatel systému – tedy podnikatel, který AI nasadil a využívá ji při své činnosti. Ten by měl zajistit odpovídající dohled nad jejím fungováním, včetně pravidelného testování, dokumentace a transparentnosti.
 
Jaroslav Tajbr
Autor článku je partner v advokátní kanceláři Eversheds Sutherland a vedoucí její IP/IT praxe. Specializuje se na právo elektronických komunikací, ochranu osobních údajů, kybernetickou bezpečnost, M&A, pracovní právo či litigace.
Debora Cibulková
Spoluautorka článku je advokátní koncipientka v advokátní kanceláři Eversheds Sutherland, kde působí v týmu pracovního práva. Ve své praxi se zajímá o právní aspekty technologických inovací a dopady automatizace a digitalizace na oblast práva.
Chcete získat časopis IT Systems s tímto a mnoha dalšími články z oblasti informačních systémů a řízení podnikové informatiky? Objednejte si předplatné nebo konkrétní vydání časopisu IT Systems z našeho archivu.

Inzerce

AI v ERP systému

Co v praxi funguje, jak to navrhnout a proč začít po krocích

Umělá inteligence je součástí každodenního života – od chytrých vyhledávačů přes automatické překlady až po plánování tras nebo generování obrázků. Ale co ERP systémy? Je správný čas zapojit AI právě sem? Určitě ano, ale smysluplně. Tak, aby zkrátilo cestu od otázky k odpovědi, od záměru k akci, a přitom udrželo to nejdůležitější: kontrolu, bezpečnost a auditovatelnost.