SEO samogwałt – czyli jak pozycjonerzy sobie sami zrobili dobrze …

Bajka zaczynać się powinna od tego, że dawno dawno ilość linków zwrotnych prowadzących do serwisu internetowego decydowała o pozycjach danego serwisu dla danych fraz i słów kluczowych, potem sprawa zaczęła się lekko komplikować bo doszło dużo innych parametrów decydujących o tejże ilości i jakości. Wraz z rosnącą konkurencją ilość linków zwrotnych prowadzących do serwisów zaczęła rosnąć w postępie geometrycznym i przyszedł czas na różnego rodzaju automaty usprawniające (czytaj przyśpieszające i zwiększające efektywność) pracę pozycjonerów. Nie spodobało się to jaśnie nam panującej wyszukiwarce i w „trosce o jakość wyników” *** modyfikowano algorytm tak aby neutralizować znaczenie linków zdobywanych masowo – wprowadzono podział linków na „naturalne” i „nienaturalne” . Pojawił się przy okazji problem z odróżnianiem jednych od drugich bo przecież „algorytm” to durna maszyna i jak ma odróżnić odnośnik do witryny umieszczony przez „Kowalskiego” od odnośnika umieszczonego przez oprogramowanie, ale na razie tym się w korpogoogle nikt nie przejmował. Ponieważ jak już wspomniałem algorytm okazał się ułomny  wobec działań pozycjonerów powstał plan aby w znacznej części przerzucić ocenę „wartości” na użytkowników i webmasterów czy właścicieli stron.
Zintensyfikowano kontakty z właścicielami stron w panelu dla webmasterów wysyłając cenne i precyzyjne analizy w postaci informacji jak „jedna lub kilka z Twoich stron” precyzyjnie opisując problem 😛 (dla mniej zorientowanych czytać to zdanie z ironią)
Przy okazji powstał problem możliwości szkodzenia stronom konkurencji pt. „depozycjonowanie” (przez dłuższy czas korpogoogle wraz z liczną rzeszą swych białych klakierów twierdziło, że szkodzenie jest niemożliwe, koniec końców jednak fakty ich przekonały) . Problem ten wywołał poruszenie w światku i pojawiły się liczne głosy żądające możliwości neutralizacji tych szkodliwych linków zwrotnych. Nota bene skoro korpogoogle twierdziło , że algorytm doskonale odróżnia i klasyfikuje linki (szkodzące umieszczone przez konkurencję) od linków „naturalnych”  potrafiąc zneutralizować szkodliwe działanie linków konkurencji to po cholere było to całe zamieszanie ??

Prawda jest taka, że cudowny algorytm już od dawna nie daje sobie rady i ociążony jest masą błędów , tak jak każda maszyna która nie jest w stanie dorównać człowiekowi póki co.

Wracając do tematu, otóż webmasterzy i właściciele stron otrzymali możliwość zgłaszania linków które uważają za szkodliwe … Noooo i się zaczęło 😉 poszły pierdyliardy zgłoszeń na chybił trafił (bo przecież jak do tej pory była tylko precyzyjna ,czytaj z duużą ironią) informacja , że „jedna albo kilka”…) do centrali korpogoogle gdzie oczywiście informacje zostały wykorzystane do „łatania” dziurawego algorytmu. Nie wzięto jednak chyba pod uwagę tego, że znaczna część tych zgłoszeń pochodzi od właścicieli stron których nie można raczej podejrzewać o rozgarnięcie i tego, że w panice duża liczba zgłoszeń będzie na „chybił trafił”, teraz dochodzimy do clou sprawy.

Podsumowując – nie dziwmy się , że jako źródła złych linków wskazywane są odnośniki umieszczane w takich miejscach jak : katalog Dmoz, katalog Yandex, uznane portale informacyjne typu Onet, Interia czy Wirtualna Polska.
 Podziękujmy samym sobie bo na chwilę obecną wygląda to tak, że dostajemy przykłady złych linków które sami własnoręcznie zgłaszaliśmy w panice zamiast je spróbować usunąć. Inną sprawą jest to , że duża grupa pozycjonujących „za efekt”, „z gwarancjami” itp srała za przeproszeniem linkami gdzie i jak popadnie oraz to, że praktycznie 90% firm na rynku SEO jedyne co potrafi to napieprzać linkami ale to kwestia innej bajki i opiszę ją przy innej okazji.

Krzysztof Ziółkowski