SEO, SEM, eMarketing

Blog Radka Kubery

Gdzie mnie można znaleźć

Google+: Radek Kubera
Facebook: Radek Kubera
Forum PiO: Radek
Twitter: Radek Kubera

No i stało się – Google zaczyna karać za spam

2013-06-13 17:11:41 Już jakiś czas temu zwróciliśmy uwagę, że Google przymierza się do rozprawienia ze spamem. Jak do tej pory były to raczej nieudolne próby, tak kilka faktów, które ostatnio zaobserwowaliśmy pozwoliło dojść do wniosków, że tym razem Google posiada nowe, groźne mechanizmy, które niebawem wykorzysta do walki ze spamem. Mechanizmy te kiełkowały wraz z pojawianiem się kolejnych poprawek do algorytmu o nazwie „Pingwin” i są jego bezpośrednim następstwem.

Mechanizm opisany poniżej został najpierw przetestowany przez Google na grupach stron należących między innymi do SWLi (masowe bany w drugiej połowie tamtego roku) oraz zamkniętych grupach presell pages – już jakiś czas temu Gigantowi udało się skutecznie wyeliminować naszą sporą grupę zamkniętych presell pages, które, w moim mniemaniu, nie powinny były zostać wykryte.

Następnym sygnałem były bany na strony z unikalną treścią, wysokim PR i znajdujących się dłuższy czas w indeksie, ale bez linków. Strony miały się dobrze do momentu... aż powiesiliśmy linki wychodzące do stron linkowanych – w wielu przypadkach zakończyło się to momentalnym banem (2 tygodnie po powieszeniu linków).

Później sygnałów już było coraz więcej i dotyczyły nie tylko bezpośrednio naszego zaplecza, nie jestem w stanie opisać wszystkich – nie jest to zresztą tematem tego artykułu.

Wszystkie te sygnały spowodowały, że zaczęliśmy głęboko analizować mechanizmy, jakie może posiadać Google w celu wykrywania zaplecza i wyciągać z tego wnioski.

Koniec tamtego roku był dobrym momentem na zwrócenie na to uwagi – masowe bany ustały, co mogło spowodować „uśpienie czujności”. Nic jednak bardziej błędnego – po pierwszej fazie testów Google zaczęło się zbroić do następnego, dużego natarcia.

Przez ostatnie pół roku w wyniku analizy informacji zaczęliśmy gruntowną przebudowę zaplecza jednak widać już dziś efekty – klienci pozycjonowani nowymi metodami nie zaliczyli jakichkolwiek spadków po wejściu Pingwina 2.0. Klienci pozycjonowani starszymi metodami zaczęli się „ześlizgiwać” nieznacznie z pozycji.

No i stało się – kilka dni temu opisane mechanizmy poniżej Google użyło po raz pierwszy w stosunku do branż mocno zaspamowanych i z tego co widać – odnieśli duży sukces.
Poczytać o tym można w wątku na PiO:
Update Google - Frazy mocno spamowane
Jestem przekonany, że jest to druga część gróźb Matta Cutsa dotycząca Pingwina 2.0. Jakiś czas temu opisywałem o głównych zmianach wchodzących w Pingwinie 2.0:
Pingwin 2.0 już w Polsce
Tam też napisałem, że Pingwin 2.0 nie spisał się w stosunku do spamu. Znałem już opisane poniżej mechanizmy, jednak rozczarował mnie fakt, że w tak małym stopniu Google ukarało spam przy pierwszym uderzeniu Pingwina 2.0. Byłem tym wręcz zdziwiony. Nie wiedziałem, że szykowane jest drugie uderzenie, które właśnie nastąpiło.

Wygląda na to, że po udanym wdrożeniu mechanizmu opisanego poniżej, działania zostaną rozszerzone na wszystkie branże zaraz po tym, gdy Google osiągnie satysfakcjonujący poziom karania za spam na wybranej grupie branż.

Zatem zachęcam się do zapoznania, z jakimi mechanizmami mamy dziś do czynienia i czego powinniśmy się dziś wystrzegać przy linkowaniu naszych klientów, aby za pół roku nie spaść na wszystkie frazy na dalekie pozycje.

No to zaczynamy.
Podstawowe pojęcia, jakie będziemy wykorzystywać przy opisie:
  • Podział strony na bloki – to stary mechanizm Google, który działa na poziomie danej podstrony. Google przeprowadza detekcję bloków treści i wydziela ze strony takie bloki. Wydzielone bloki są podstawą do dalszej analizy.
  • Duplicate Content (DC) i treść zsynonimizowana – To jest mechanizm odwrotnej synonimizacji treści i porównywania takiego tekstu z tekstami na innych stronach (zarówno tego samego serwisu jak i treści na innych serwisach)
  • Exact Match i frazy konkurencyjne –  to jest ścisłe dopasowanie frazy w linku wychodzącym ze strony  do najbardziej konkurencyjnych fraz na rynku
  • strony MFS (made for SEO) – następca masowego bana; Dziś Google nie banuje już tak masowo stron zapleczowych jak kiedyś, a je flaguje.

Flagowanie stron to nowa polityka Google. Flagowanie stron zaczęło się już dawno wraz z ustaniem masowych banów.  Jest to technika dosyć przebiegła, ponieważ pozycjoner nie wie, czy dana strona została oflagowana, czy nie. Więcej, linki z tej strony mogą być traktowane w różny sposób w zależności do jakiej witryny prowadzą. O tym później. Dzięki temu pozycjoner nie usuwa takiej strony i nie stawia w jej miejsce następnych stron, bo nie ma pojęcia, czy dana strona nadal posada jakąś moc, czy nie. Oszczędza to zasoby Google – nie muszą indeksować nowo pojawiających się stron zapleczowych powstających jak grzyby po deszczu po falach banów. Pozycjonerom podniesie to wybitnie koszty pozycjonowania – tym bardziej, że linki z takiej strony mogą wręcz bardziej szkodzić niż pomagać.

Zobaczmy zatem jaki jest mechanizm detekcji takiej strony MFS (Made for SEO):

Podstawowa zasada dotycząca flagowania strony jako MFS:
  • Google zbiera szereg sygnałów określających stronę jako stronę MFS. Jeżeli sumaryczna liczba sygnałów przeważa na niekorzyść strony, strona flagowana jest automatycznie jako MFS;
  • Jeżeli algorytm ma wątpliwości, czy strona jest MFS czy nie, taka strona trafia do moderacji ręcznej;
  • Podstawowymi sygnałami dziś są: Disavow Tool, DC i desynonimizacja, Link Keyword Stuffing, typ skryptu CMS, uczestnictwo w zamkniętej grupie służącej głównie do pozycjonowania (przyszłość)

Oto opis podstawowych sygnałów:

Disavow Tool
Tego chyba nie trzeba komentować. strony, które są często zgłaszane przez to narzędzie dostają pierwszą flagę – strona MFS;

DC i desynonimizacja
To metoda oparta o analizę treści bloków strony. Składa się z kilku kroków:
wykrywanie bloków tekstu na stronie
  • sprowadzenie tekstu do postaci prostej, zdesynonimizowanej
  • porównanie postaci prostej do innych, zaindeksowanych stron w systemie
  • nadanie flagi MFS

Oto ogólny przykład desynonimizacji i ukazane w nim jest, jak Google bez problemu znajdzie i powiąże zsynonimizowane teksy na dwóch różnych stronach (dziś w dużej mierze wykorzystuje to już Panda):
Oto przykładowa teść na dwóch różnych stronach:
strona1: Wczoraj byłem w domu i zjadłem wypasiony obiad
strona2: W dniu wczorajszym byłem w mieszkaniu i pożarłem super jedzonko

Etap pierwszy: sprowadzenie do postaci prostej z pozbyciem się spójników:
strona1: Wczoraj być dom zjeść wypasiony obiad
strona2: Dzień wczoraj być mieszkanie pożreć super jedzenie

Etap drugi: desynonimizjacja
Do desynonimizacji wykorzystywana jest baza synonimów. Jest to tabela składająca się z postaci prostej oraz przypisanych do niej innych form. Oto przykład:

Forma podstawowa – synonimy
Wczoraj – Ubiegły dzień, doba temu, dzień wczoraj.....
Dom – chata, chałupa, mieszkanie, lokal...
Zjeść – pożreć, pochłonąć, wciągnąć...
Super – fajny, wypasiony, dobry, extra....
Posiłek – obiad, jedzenie, śniadanie, kolacja ….

Tak będzie wyglądać desynonimizacja na podstawie takiej próbki
strona1: Wczoraj być w dom zjeść super posiłek
strona2: Wczoraj być w dom zjeść super posiłek

Następnie algorytm określa podobieństwo takich tekstów (w tym przypadku jest 100%)
Jeżeli serwis posiada duży współczynnik tak powielonych treści w stosunku do innych stron generowana dla niej jest druga flaga - strona MFS

W ten sposób Google znajdzie takie rodzaje stron:
presell pages, prywatne strony zapleczowe oparte o synonimizację, katalogi, generatory MD5, strony generowane z RSS, fora zaśmiecone xRummerem itd.

Z naszych doświadczeń wynika, że już od dłuższego czasu Google posiada całkiem sprawny słownik synonimów, a mechanizm desynonimizacji jest dosyć dobrze dopracowany. Omawiałem to już na SEO Campie w Łodzi (serdecznie polecam) wraz z Case Studies.

Link Keywords stuffing i Exact Match
Google przez lata zdobył listę szczególnie konkurencyjnych fraz z podziałem na branże. Przeprowadzając analizę serwisu Google ustala jaki jest współczynnik linków z konkurencyjnymi frazami (ze szczegónym uwzględnieniem Exact Match) wychodzących z całego serwisu w stosunku do pozostałej ilości linków wychodzących. Jeżeli ta proporcja jest zaburzona (czyli bardzo dużo linków na konkurenyjne frazy ze szczególnym uwzględnieniem Exact Match), strona dostaje trzecią flagę – strona MFS

W ten sposób Google znajdzie następujące typy stron:
strony w SWLach, presell pages, katalogi, strony z xRummera, prywatne strony zapleczowe, strony z zaspamowanymi komentarzami itd.

Typ skryptu
Standardowo dla Google nie ma znaczenia, czy strona została uruchomiona na CMS typu Joomla, Wordpress, Drupal.
Jednak niektóre typy skryptów traktuje priorytetowo. Jeżeli strona oparta jest o standardowy skrypt wykorzystywany przede wszystkim przez SEO, strona dostaje następną flagę MFS.

W ten sposób Google znajdzie następujące typy stron:

To przede wszystkim skrypty katalogów i standarowych spamowych skryptów zasysających kanały RSS.

Udział w zamkniętej grupie stron
Ten algorytm jeszcze nie wszedł w pełni ze względu na potrzebne duże moce przerobowe. Może zadziałać przede wszystkim dzięki mechanizmowi, który już został wdrożony przez Google przy okazji Pingwina – tworzenie profilu linków dla strony pozycjonowanej.
Jeżeli Google porówna profile linków przychodzących dla kilku różnych stron, jest w stanie znaleźć część wspólną stron, które do nich linkują. W ten sposób może wyłowić zamknięte grupy stron zapleczowych – następna flaga MFS

I w ten sposób będzie w stanie rozprawić się z tym, o czym mówią już od dłuższego czasu:
wykrywanie prywatnego zaplecza, SWLe, grupy katalogów, zamknięte grupy presell pages itd.

Ostatnim etapem algorytmu jest zebranie flag i przeprowadzenie analizy:
  • jeżeli strona dostanie odpowiednio dużo flag MFS automatycznie jest tak traktowana;
  • strony podejrzane o MFS trafiają do ręcznej moderacji;

Natomiast „zabawa” zaczyna się dopiero od tego momentu. Tak jak pisałem, link z takiej strony wcale nie musi być dla nas groźny, co dodatkowo wprowadza zamęt w analizę linkowania i będzie powodować duże rozbieżności w opiniach na temat zaplecza, w zależności od tego, jaka strona jest z takiego zaplecza linkowana. W tym celu Google wprowadza sprawdzony już mechanizm badania profilu linków i dołącza do niego następny wskaźnik – ilość stron MFS linkujących do strony.

Podstawowa zasada rankingowa dla stron docelowych:
  • jeżeli do strony prowadzi proporcjonalnie mało linków ze stron oflagowanych jako MFS takie linki dalej przenoszą moc (moc jest nieco mniejsza jak moc stron nieoflagowanych);
  • jeżeli do strony prowadzi proporcjonalnie dużo linków ze stron oznaczonych jako MFS, strona drastycznie spada w wynikach wyszukiwania;

I właśnie taka zasada rankingowa weszła ostatnio w stosunku do branż o dużym udziale spamu.

Tak, jak napisałem – już od grudnia definitywnie przebudowujemy nasze zaplecze tak, aby wyeliminować każdy z tych mechanizmów. Przyniesie to w pełni dobry wynik pewnie za 2-3 miesiące, gdy Google przeniesie ten mechanizm na wszystkie branże.

Jest spora szansa, że wtedy nastąpi duże przetasowanie w wynikach aż do czasu, aż świat SEO przestawi się na inny sposób linkowania. Bez wątpienia będzie on droższy od aktualnych metod a przecież pewnie o to Gigantowi chodzi. My już dziś czujemy się przygotowani na nadchodzące zmiany.


No i na koniec nieco autoreklamy:
Właśnie uruchamiamy nowy produkt o nazwie:
Audyt strategii seo

W ramach usługi wykonujemy dla klienta audyt zaplecza, stanu jego klientów oraz strategii linkowania. Na koniec przygotowujemy raport, w którym opisujemy:
  • aktualny stan strategii seo wraz z pełną analizą zaplecza i stanu jego klientów;
  • zagrożenia wynikające z aktualnej strategii i stanu zaplecza
  • listy rekomendacji, których zadaniem jest zwiększenie bezpieczeństwa zaplecza w przyszłości (ominięcie opisanych powyżej mechanizmów), bezpieczeństwa biznesu i minimalizacja ryzyka wynikająca z pozycjonowania
  • opisanie głównych nurtów, jakimi należy się dziś kierować przy budowie zaplecza

Na koniec przeprowadzamy warsztaty, których zadaniem jest omówienie raportu oraz przekazanie wiedzy z dziedziny SEO.

Niedługo uruchomimy stronę internetową poświęconą tej usłudze. Do tej pory osoby zainteresowane zapraszam do kontaktu bezpośredniego ze mną.