Ocena linków znaczy deratyzacja i detoksyzacja na całego, czyli zdrowe podejście do pomocnych automatów…
Po ostatniej nawale korespondencji od korpogoogle która pieprzy jak potłuczona, że chroni witryny przed nieuczciwymi działaniami konkurencji a z drugiej strony z automatu wysyła (czasami debilne) przykłady „linków nieekologicznych”, które ich zdaniem szkodzą witrynie docelowej nastąpił wysyp programów jakie w domyśle mają służyć do ułatwienia pracy nad typowaniem takich linków, które potem zdesperowany właściciel strony zmuszony jest wrzucić do pliku disallow. Szczerze mówiąc jestem sceptyczny co do tego aby takie programy traktować jako wyrocznie ostateczne, dlatego się dziwię krytykującym w czambuł te programy, zaraz napiszę dlaczego.
Ktoś kto krytykuje tego rodzaju programy moim skromnym zdaniem chyba nie za bardzo pochylił się nad analizą opublikowanych przykładów złych linków i dlatego traktuje sprawę trochę po łebkach. Duża ilość parametrów branych pod uwagę wyklucza 100% dokładność analizy która powinna być stworzona na podstawie nie tylko tych parametrów branych ze strony na której ktoś umieścił link zwrotny ale przede wszystkim w oparciu o analizę całego profilu linków prowadzących do witryny. Nie wiem jak inni ale ja spotkałem się z przykładami kiedy to na jednej i tej samej stronie umieszczone zostały dwa linki prowadzące do tej samej witryny docelowej (linkowane różne podstrony) a tylko jeden z nich określony został jako toksyczny …Dlaczego jeden z nich został oznaczony jako fee ? Ano dlatego bo zawierał frazę kluczową a ogólny profil linków akurat zawierał nieomalże same takie frazy. W przypadku gdyby był inny profil linków to z bardzo dużym prawdopodobieństwem „pechowiec” nie dostałby „laurki”.
Następny przykład to link (o parametrze no follow) umieszczony w komentarzu wśród innych wielu komentarzy na poczytnym blogu pod artykułem cieszącym się dużym zainteresowaniem oraz oddźwiękiem a co za tym idzie mocno komentowanym. Na „laurkę” ten przykładowy link z całą pewnością nie zasłużył samymi parametrami strony na której się znalazł ale po prostu został wymieniony jako przykład właśnie ze względu na dupny ogólny profil wszystkich linków prowadzących do witryny.
Powyższy przykład z linkiem z komentarza można porównać z przykładem czystej spamiary zasyfionej komentami ze „skrejpa”, obydwie strony mają takie same parametry ale którą powinno się jak już zgłosić do disallow to chyba tłumaczyć nie muszę…
Wszystko to co opisałem pokrótce powyżej, myślę że unaocznia podstawową prawdę w SEO iż do każdego przypadku należy podchodzić indywidualnie a decyzja o podjęciu jakichkolwiek działań tak czy inaczej podejmowana jest nie w oparciu tylko o automaty ale w oparciu o logikę, doświadczenie oraz zdrowy rozsądek. Najważniejszą rzeczą jest zaś to, że automaty i narzędzia mają być pomocne, zaoszczędzać czas, ale póki co nie zastąpią człowieka.
Co do niezawodności automatów i ślepej wiary w ich działanie to najlepszym przykładem na błędy jest automat made in korpogoogle szukający „złych linków” i podający czasami niezłe przykłady takich linków , vide casus linku z katalogu Dmoz czy Yahoo. Tego chyba nie trzeba komentować co ? 😉
Reasumując automaty są potrzebne ale tak czy inaczej to do ludzi ich obsługujących należy ostateczna decyzja.
Krzysztof Ziółkowski
Jak Google zlikwiduje automaty to firmę wykończą składki na ZUS:D Sam bym wolał mięć automaty niż pracowników:D