facebook LinkedIN LinkedIN - follow
Tematické sekce
 
Branžové sekce
Přihlášení SystemNEWSPřehledy
 
Tematické seriály

Jak uřídit IT projekt a nezbláznit se

Užitečné tipy a nástroje pro řešení problémů řízení inovací a vývoje produktů...

články >>

 

Industry 4.0

Průmysl 4.0

Jaký vliv bude mít čtvrtá průmyslová revoluce na výrobu a výrobní firmy?

články >>

 
Nové!

RPA - automatizace procesů

Softwaroví roboti automatizují obchodní procesy.

články >>

 
Nové!

IoT – internet věcí

Internet věcí a jeho uplatnění napříč obory.

články >>

 
Nové!

VR – virtuální realita

Praktické využití virtuální reality ve službách i podnikových aplikacích.

články >>

 
Nové!

Bankovní identita (BankID)

K službám eGovernmentu přímo z internetového bankovnictví.

články >>

 

Příručka úspěšného IT manažera

Dnes je řada IT manažerů opomíjena. Úspěšní bývají brouci Pytlíci a Ferdové...

články >>

 
 
Partneři webu
IT SYSTEMS 7-8/2014 , ITIL – Řízení IT

Panda, tučňák, kolibřík

aneb Algoritmické změny ve vyhledávačích



Effectix.comVývoj vyhledávačů není o nic pomalejší než vývoj celého internetového prostředí. V posledních několika letech prošly vyhledávací algoritmy, a především ty používané Googlem, velkými proměnami. Jaké zásadní změny přinesly, jak na ně reagovat a jaký lze předpokládat další vývoj?


Na počátku vývoje fungovaly vyhledávače především na principu katalogů. Vyhledávač si vytvořil a následně aktualizoval pevnou strukturu webových stránek a v té vyhledával nejrelevantnější výsledky. V podstatě se jednalo jen o odkaz, popis a zařazení do struktury katalogu. Dnešní fulltextové vyhledávání byla spíše jen hudba budoucnosti. Jako příklad historicky prvního velmi úspěšného vyhledávače lze uvést vyhledávač AltaVista. V českém prostředí na principu katalogu fungovaly vyhledávače Atlas, Centrum nebo i Seznam.

Uživatelé v katalogových vyhledávačích mohli ručně procházet tematicky členěnou strukturu. V rámci vyhledávání byla hlavním kritériem četnost hledaného slova na stránce. Takové katalogové struktury byly již svou podstatou značně rigidní a jejich správa vyžadovala časté „ruční“ zásahy. I to byly důvody, proč tento model nahradil mnohem flexibilnější přístup.

Budoucí zakladatelé společnosti Google přišli s radikální změnou přístupu. Namísto budování čím dál rozvětvenějšího katalogu, se inspirovali v citačním indexu z akademické sféry. Čím více je článek citovaný, tím vyšší impakt faktor má médium, ve kterém byl publikován. Citace z článků uveřejněných v médiích s vyšším impakt faktorem tuto pomyslnou autoritu přenášejí na další citované články. Larry Page a Sergey Brin tento princip převzali a modifikovali, aby lépe odpovídal jejich požadavkům. Vznikl PageRank, který udával autoritu stránky a zpětné odkazy zde hrály stejnou roli jako citace v akademické sféře. Autoři tohoto principu vycházeli z předpokladu, že na kvalitní obsah bude odkazováno více než na obsah nekvalitní. Proto jsou dodnes zpětné odkazy velmi důležitým hodnotícím kritériem.

Vznik Google zoo

Přestože vyhledávač Google provede desítky větších aktualizací vyhledávacích algoritmů ročně a nepočítaně menších aktualizací, nejvíce jsou skloňovány názvy Panda a Penguin. Za poslední přibližně tři roky měly právě takto pojmenované aktualizace největší dopad. Poněkud v pozadí zůstává aktualizace nazvaná Hummingbird (kolibřík), nicméně i té je vhodné věnovat pozornost.

V případě aktualizací algoritmů je nutné brát v potaz, že neovlivní jednorázově celosvětové vyhledávání. Aktualizace obvykle nejdříve zasáhnou „anglicky mluvící“ internet. Ostatní jazyková prostředí obyčejně ovlivní až další verze aktualizací. Také dopad aktualizací se liší. Některé ovlivní například jen půl procenta vyhledávacích dotazů, jiné třeba okolo dvanácti procent dotazů. Google zásadní aktualizace oznamuje včetně jejich očekávaného dopadu, reálný dopad se ale pozná až z naměřených dat konkrétních webů.

Panda jde po nekvalitním obsahu

První aktualizaci vyhledávacího algoritmu nazvanou Panda vypustil Google na konci února 2011. První Panda cílila především na obsahové farmy a stránky, které vykazovaly zásadní nepoměr reklamního prostoru a klasického obsahu nad přehybem. Následovala celá řada nových aktualizací tohoto zaměření. Poslední aktualizace Panda 4 tvrdě dopadla na významné hráče. Příkladem je e-Bay nebo Ask, které výrazně ztratily pozice.

Jaký vliv měla Panda 4 na české internetové prostředí? Podle dat naší společnosti došlo v období před vypuštěním Pandy 4 k poměrně zásadním výkyvům pozic u přibližně sedmi procent sledovaných klíčových slov. Nicméně v tomto případě je možné, že do hry vstoupila další aktualizace PayDay Loan 2.0. Tu Google vypustil několik dní před Pandou 4. Aktualizace PayDay Loan 2.0 byla zaměřena především na nekvalitní weby z oblastí půjček a pojištění, které jistým způsobem parazitují na relativně velké hledanosti klíčových slov spojených s těmito obory.

Obecně lze říci, že aktualizace označovaná jako Panda postihuje nekvalitní a neoriginální obsah. Největší ztráty zaznamenaly weby, které obsah různým způsobem agregují nebo jej tvoří čistě pro vyhledávače. Nejlepší prevencí je obloukem se vyhnout rizikovým praktikám, jako je tzv. keyword stuffing, tedy nadměrné užívání klíčových slov v přesné shodě, kopírovat nebo jiným způsobem agregovat obsah a vydávat ho za vlastní nebo zahlcovat web reklamami.

Google Penguin proti webspamu

Aktualizace Google Penguin lze označit jako jakési siamské dvojče Pandy, protože se jejich efekty vzájemně doplňují. Zatímco Panda postihuje nekvalitní obsah, Penguin mnohem více cílí na nedovolené praktiky v oblasti zpětných odkazů. Smyslem Penguinu je očistit výsledky vyhledávání od tzv. webspamu, tedy pro uživatele bezcenných webů, které využily nedokonalosti vyhledávacího algoritmu. To však dopadlo i na weby, které nelze označit za nekvalitní nebo „spamující“ vyhledávání. Stačí, aby měl web špatný odkazový profil, a Penguin jej může potrestat.

Důležité je se preventivě vyhnout nedovoleným praktikám. V žádném případě by se weby neměly zapojovat do automatizovaných systémů pro výměnu odkazů. Různé odkazové lišty v patičkách mohou být také příznakem nedovolených praktik. Samozřejmě by se měl udržet poměr odkazujících domén a zpětných odkazů v rozumných mezích. Pokud z jedné domény odkazuje na web statisíce zpětných odkazů, jedná se o další indicii, která může přitáhnout nežádoucí pozornost. Proto je péče o odkazový profil v období po aktualizaci Penguin mnohem důležitější než v minulosti.

V praxi se setkáváme s weby, které mají odkazový profil znečištěný nekvalitními odkazy z minulosti. V takovém případě je na místě požádat o stažení závadného odkazu nebo se od odkazu distancovat pomocí Google Webmaster Tools. V případě získávání nových odkazů by linkbuilder měl vždy dobře zvažovat, zda odkaz webu opravdu pomůže a nepoškodí jej ani v budoucnosti.

Algoritmická a manuální penalizace

V případě zásadního propadu pozic a návštěvnosti připadají do úvahy dvě události. Propad může být způsoben manuální nebo algoritmickou penalizací. V případě manuální penalizace je webmaster informován o zásahu pomocí zprávy v Google Webmaster Tools. Obvykle je manuální zásah odůvodněn. Jakmile webmaster provede změny, které by měly odstranit důvod penalizace, může požádat o přezkoumání rozhodnutí. Pokud příčiny manuální penalizace opravdu pominuly, může Google penalizaci odstranit. V případě algoritmických penalizací je situace odlišná. Penalizaci lze vypozorovat až ze samotného propadu. Penalizovaný web nedostane žádnou zprávu. Odstranit algoritmickou penalizaci trvá déle, protože je obvykle nutné počkat na další aktualizaci algoritmu.

Hummingbird a inteligentnější vyhledávač

Komplexní aktualizace celého vyhledávacího algoritmu Google zvaná Hummingbird měla mít značný dopad na kvalitu vyhledávání. Google by díky ní měl mnohem lépe rozumět jazyku. Před touto aktualizací poměrně dobře chápal různé tvary jednotlivých slov, ale nedokázal zachytit význam delší fráze. To by se právě s aktualizací Hummingbird mělo změnit. Hledající by tedy mohl položit vyhledávači otázku, bez překládání do pro vyhledávač srozumitelných frází, a vyhledávač by mu měl poskytnout odpověď v podobě relevantního výsledku. S tím úzce souvisí využití strukturovaných dat v rámci Google Knowledge Graph, který vyhledávači umožní lépe chápat vztahy mezi jednotlivými prvky obsahu. Vyhledávač je potom schopen poskytnout hledanou informaci přímo ve vyhledávání, aniž by uživatel musel navštívit další web.

Co lze očekávat v budoucnu?

Google bude zcela jistě pokračovat v potírání nedovolených praktik. Lepší porozumění jazyku i používání strukturovaných dat postaví webmastery a SEO konzultanty před nové výzvy. Celkově lze říci, že kroky, které Google dělá, vedou ke zkvalitnění výsledků vyhledávání. Proto by měl i do budoucna každý, kdo to myslí s podnikáním na internetu vážně, dávat přednost kvalitě před kvantitou.

Radim Kracík, Effectix.com Radim Kracík
Autor je SEO konzultant ve společnosti Effectix.com, vášnivý cestovatel a občasný herní vývojář. V Effectix.com se specializuje na internetový marketing, SEO, PPC, sociální média a tvorbu webů.
Chcete získat časopis IT Systems s tímto a mnoha dalšími články z oblasti informačních systémů a řízení podnikové informatiky? Objednejte si předplatné nebo konkrétní vydání časopisu IT Systems z našeho archivu.