- Přehledy IS
- APS (20)
- BPM - procesní řízení (22)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (33)
- CRM (51)
- DMS/ECM - správa dokumentů (20)
- EAM (17)
- Ekonomické systémy (68)
- ERP (77)
- HRM (27)
- ITSM (6)
- MES (32)
- Řízení výroby (36)
- WMS (29)
- Dodavatelé IT slueb a řeení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (39)
- Dodavatelé CRM (33)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (71)
- Informační bezpečnost (50)
- IT řeení pro logistiku (45)
- IT řeení pro stavebnictví (26)
- Řeení pro veřejný a státní sektor (27)
ERP systémy
CRM systémy
Plánování a řízení výroby
AI a Business Intelligence
DMS/ECM - Správa dokumentů
HRM/HCM - Řízení lidských zdrojů
EAM/CMMS - Správa majetku a údrby
Účetní a ekonomické systémy
ITSM (ITIL) - Řízení IT
Cloud a virtualizace IT
IT Security
Logistika, řízení skladů, WMS
IT právo
GIS - geografické informační systémy
Projektové řízení
Trendy ICT
E-commerce B2B/B2C
CAD/CAM/CAE/PLM/3D tisk![]() | |
| Přihlaste se k odběru newsletteru SystemNEWS, který kadý týden přináí výběr článků z oblasti podnikové informatiky | |
![]() | |
Rizika pouívání ChatGPT ve firemním prostředí
ChatGPT je dobrý sluha, ale zlý pán, pro jeho pouívání ve firmě nastavte pravidla
V poslední době se výrazně zvyuje popularita aplikací vyuívajících velké jazykové modely jako je ChatGPT společnosti OpenAI, Bing AI od Microsoftu nebo Bard od Google. Tyto nástroje jsou rychlé, snadno pouitelné a dostupné pro vechny. Proto není překvapivé, e je začali vyuívat zaměstnanci jak velkých, tak malých firem. Na tom není nic patného, avak nesmí se zapomenout na jednu důleitou věc.

ChatGPT a podobné aplikace zaloené na strojovém učení se začínají ve velkém prosazovat ve firemním prostředí, a to k různým účelům:
- Tvorbě obsahu dokáí připravit kvalitní prezentaci, napsat překvapivě dobrý projev, blogový příspěvek, e-mail nebo komentář.
- Generování kreativních nápadů během několika sekund dokáe vygenerovat seznam moných otázek nebo odpovědí na dané téma a pomoci s návrhem názvu článku, prezentace nebo dokonce podnikatelského záměru.
- Kontrole a revizi textů opravuje nejen gramatické chyby, ale rovně můe zkrátit nebo rozvést informace podle přání uivatele, změnit styl na formálnějí či hovorovějí a celkově zlepit kvalitu textu.
- Vyhledávání informací podobně jako Google nebo Wikipedie slouí k vyhledávání informací.
- Programování stává se častým nástrojem pro tvorbu a kontrolu programového kódu.
Systémy vyuívající velké jazykové modely ji nyní přispívají ke zlepování firemního obsahu, pomáhají zaměstnancům s různými úkoly, a dokonce se podílejí na rozhodovacích procesech, vyjmenovává Martin Lohnert, specialista pro oblast kyberbezpečnosti v technologické společnosti Soitron. Nicméně s přijetím těchto revolučních technologií přicházejí i určitá rizika, které si jak uivatelé, tak organizace často neuvědomují, z důvodu prvotního nadení.
Okamitý přínos nástrojů vyuívajících velké jazykové modely (LLM) je natolik velký, e zvědavost a nadení z nich převaují nad opatrností. Existuje několik rizik spojených s pouíváním ChatGPT ve firmách:
- Ochrana osobních a citlivých údajů při pouívání ChatGPT v podnikovém prostředí můe docházet k nechtěnému sdílení osobních či důvěrných údajů. Uivatelé často do nástroje vkládají tyto údaje bez povědomí, e jsou poskytnuty třetí straně. Byl ji zaznamenán případ, kdy chyba v ChatGPT umonila uivatelům vidět zpracovávaná data jiných uivatelů, např. historii chatu.
- Duevní vlastnictví trénování LLM je zaloeno na zpracování velkého mnoství různorodých a neznámých dat, která mohou obsahovat i materiály chráněné autorskými a vlastnickými právy. Pouití výstupů z těchto dat můe vést ke sporům o vlastnictví a licencování mezi společností a vlastníky obsahu, který byl pouit při trénování ChatGPT.
- kodlivý či zranitelný kód počítačový kód generovaný umělou inteligencí (AI) můe obsahovat zranitelná místa nebo kodlivé komponenty, co můe vést k jejich následnému pouití a íření zranitelnosti ve firemních systémech.
- Nesprávné a nepřesné výstupy aktuální generace AI nástrojů občas poskytuje nepřesné nebo úplně nesprávné informace. Byly zaznamenány případy, kdy výstupy obsahovaly zkreslený, diskriminační nebo nelegální obsah.
- Etická a reputační rizika pouití nesprávných výstupů ChatGPT ve firemní komunikaci a jejich následné sdílení můe vést společnost k etickým a reputačním rizikům.
Nezbytnost firemní politiky pro pouívání ChatGPT
S ohledem na tato rizika je nezbytné definovat pravidla, jak zaměstnanci mohou (a mají) pouívat ChatGPT při plnění svých pracovních úkolů. Firemní politika by měla slouit jako kompas, který provede společnost a její zaměstnance labyrintem systémů umělé inteligence eticky, zodpovědně a v souladu se zákony a vyhlákami, uvádí Martin Lohnert.
Při definování firemní politiky je nutné si nejprve stanovit, jakých technologií se má týkat. Má se politika vztahovat specificky na ChatGPT? Nebo obecně na nástroje generativní umělé inteligence? Zahrnuje také nástroje třetích stran, které mohou obsahovat prvky AI nebo dokonce vývoj podobných řeení?
Politika pouívání ChatGPT by měla začínat závazkem ochrany osobních údajů a bezpečnosti při práci s podobnými nástroji a stanovovat hranice tím, e dojde k jasnému definování přijatelné a nepřijatelné pouití technologií.
Měla by definovat způsoby pouití, které budou v organizaci povoleny bez omezení. Můe se jednat například o různé typy marketingových aktivit, jako je revize materiálů pro veřejné pouití, generování nápadů nebo základů materiálů pro dalí zpracování, vyjmenovává Martin Lohnert. Přitom je vak třeba pečlivě zváit právní aspekty duevního vlastnictví a dávat pozor na známé úskalí nepřesností a dezinformací.
Druhou skupinou pravidel by měly být scénáře, ve kterých je pouití povoleno, ale s dodatečnou autorizací. Typicky se jedná o případy, kdy musí být výstup z ChatGPT před jeho dalím vyuitím posouzen odborníkem (např. v případě počítačového kódu).
A třetí kategorií jsou scénáře, které jsou úplně zakázány. Sem by měly patřit vechny ostatní způsoby pouití, zejména ty, kde uivatelé do ChatGPT vkládají cokoli obsahující citlivé údaje (obchodní tajemství, osobní údaje, technické informace, vlastní kódy atd.).
Politika vyuívání LLM by měla být uitá na míru kadé společnosti poté, co důkladně identifikujete související potenciální rizika, hrozby a jejich dopady.





















