Aktuality -> Analýzy - Dnes - redakce

Jak mohou firmy ovlivnit, co o nich řekne AI?

Pro firmy hraje stále důležitější roli, co o nich nebo o jejich produktech uvádějí konverzační jazykové modely. Lidé totiž na internetu stále častěji nespoléhají jen na klasické vyhledávače, ale obracejí se přímo na nástroje jako ChatGPT nebo Gemini. Jak mohou firmy ovlivnit odpovědi jazykových modelů? Právě tomu se věnuje disciplína označovaná jako GEO neboli Generative Engine Optimization, tedy optimalizace pro generativní vyhledávání.



Způsob, jakým lidé na internetu hledají informace, se v poslední době výrazně proměňuje. Stále více uživatelů už nespoléhá pouze na klasické vyhledávače, ale získává odpovědi přímo prostřednictvím konverzačních AI nástrojů, jako jsou ChatGPT, Claude, Perplexity nebo Gemini. Například letošní průzkum agentury STEM/MARK ukazuje, že 79 procent Čechů, kteří využívají AI nástroje, je alespoň občas používá k hledání informací místo tradičních vyhledávačů.
S tím logicky roste i potřeba firem zajistit, aby se informace o nich, jejich produktech a službách dostávaly do AI přehledů a generovaných odpovědí,“ nastiňuje Jakub Lepš, generální ředitel divize datových analýz česko-americké společnosti Newsmatics. 

Důvěryhodné zdroje, konzistence a přehlednost

Co o firmě, produktu nebo konkrétní osobě řekne jazykový model, nelze v praxi přímo řídit. Výslednou podobu jeho odpovědí však lze nepřímo ovlivňovat hlavně tím, jaké informace o firmě jsou na internetu dostupné. Důležitý je i vlastní obsah firmy na webu, zejména pokud je dobře strukturovaný a ideálně potvrzený externími zdroji.
Největší roli hrají zmínky v důvěryhodných a relevantních médiích. Právě nezávislé zdroje mají pro jazykové modely největší váhu, zvlášť pokud se stejná informace potvrzuje napříč více místy,“ vysvětluje Jakub Lepš a dodává: „Rozhodující je tedy kombinace důvěryhodnosti zdroje, konzistence informací napříč více kanály a jejich jasné, dobře strukturované podoby“.
 

Riziko dezinformací a zkreslení

Vedle nových příležitostí ale s rozvojem jazykových modelů rostou i otázky spojené s důvěryhodností poskytovaných informací. Například analýza deníku The New York Times a startupu Oumi, která zkoumala faktickou správnost AI přehledů Googlu, ukázala, že v letošním únoru nástroj odpověděl správně v 91 procentech testovaných případů. Většina odhalených chyb přitom nespočívala v přímo nepravdivých tvrzeních. V některých případech AI přehledy vynechávaly důležité souvislosti nebo téma příliš zjednodušovaly.
Podle Jakuba Lepše nastává pro AI modely největší problém zejména ve chvíli, kdy se nepravdivý nebo zavádějící obsah rozšíří ve větším měřítku a začne působit jako potvrzená informace napříč více zdroji. „Problematická jsou však i nová, okrajová nebo reputačně citlivá témata, u nichž na internetu není k dispozici dostatek kvalitních a spolehlivých informací,“ doplňuje.
 
Do budoucna pak podle něj představují významnou hrozbu také koordinované dezinformační kampaně, takzvaný data poisoning. Jedná se o situace, kdy někdo systematicky šíří zkreslené nebo nepravdivé informace s cílem, aby je AI modely následně převzaly a reprodukovaly ve svých odpovědích. „Celkově platí, že kvalita informací poskytovaných jazykovými modely odpovídá kvalitě dostupných zdrojových informací. Pro firmy tak dále zůstává velkou výzvou zajistit, aby o nich byly na internetu dostupné přesné, aktuální a důvěryhodné podklady,“ uzavírá Jakub Lepš.

 
  

- PR -

Jak proměnit výrobní data v podklady pro správná rozhodnutí

V aktuálním vydání IT Systems jsme se zaměřili především na digitalizaci výrobních podniků, které zažívají velmi složité období. V posledních letech prošel český průmysl pandemií a energetickou krizí, k tomu stále trvá geopolitická nejistota a hrozba zásadního narušení dodavatelských řetězců a obchodních vztahů. Změnila tato zkušenost postoj výrobních firem k digitalizaci? Tuto otázku jsem položil hned na úvod rozhovoru s Robertem Fárkem, který stojí v čele firmy ITeuro a specializuje se na IT řešení pro výrobní firmy.