Jaki jest pingwin ? Czyli moja pingwin (ia) teoria – bardziej bym go polubił gdyby nie został spieprzony …
Jak już wszystkim zainteresowanym wiadomo Google wprawadziło aktualizację algorytmu o nazwie Pingwin no i jak na razie w związku z tym panuje niezły (sorry za określenie ale myślę, że jest adekwatne) burdel w wynikch wyszukiwań.
Postanowiłem się podzielić wstępnymi wnioskami jakie mi się nasuneły po analizach wzlotów i upadków różnych serwisów i na podstawie „ściany płaczu” pod którą wielu właścicieli „poszkodowanych” właścicieli
stron internetowych wylewa swoje „gorzkie żale”.
Pingwin w założeniach miał ukrócić praktyki polegające na tworzeniu jak to googlasy nazwali ustami Matta „ściemniacza” Cuttsa – web spamu.
Jak juz kilka razy pisałem analizuję nieco inaczej od innych wszelkie aktualizacje algorytmu – staram się mysleć kategoriami GSQT (komórki odpowiedzialnej za zwalczanie „webspamu” i utrudnianie działań SEO).
Zastanawiałem się w jaki sposób ja bym starał się ograniczyć innym możliwość manipulowania innym wynikami wyszukiwań gdybym był teraz odpowiedzialny za wyniki wyszukiwań w Google.
Sprawa wbrew pozorom wydaje się prosta – wystarczy tylko przyjrzeć się masowej produkcji zaplecza przez brać SEO, w tym najbardziej popularnych dwóch trzech skryptach powielanych w tysiącach.
Są to :
- tkz precle czyli mydło szydło i powidło na bazie Wordpresów
- kilka skryptów katalogów
- rumaki, skrejpboksy i inne gówna zaśmiecające (piszę gówna bo 98% pseudopozycjonerów nie potrafi tego używać) fora internetowe i blogi fejkowymi komentarzami i profilami.
Popatrzmy jakie proste – wystarczyłoby obniżyć wartość linków wychodzących z tego rodzaju gównianych stron i mamy już pierwszy parametr który uwzględniłbym w modyfikacji algorytmu Tylko to byłoby za proste bo pozostaje kwestia linkowania strony docelowej. Dla mnie naturalnym jest, że przy „naturalnym” (hehehe naturalnym) linkowaniu każdej witryny zachowane są odpowiednie proporcje linkowania strony głównej / stron kategorii i pojedyńczych podstron – także mamy następny parametr. Dodatkowo pozostaje kwestia „wzmocnienia” znaczenia fraz/słow kluczowych użytych w treści w koralacji z tagiem tytuł – stąd wysoko w wynikach fejkowe posty z for internetowych robione rumakiem.
Teraz pozostaje sprawa Trust Ranku – czyli linkowania zwrotnego ze stron cieszących się „zaufaniem” – wątpię w to bardzo aby swoje zaplecza koleżanki i koledzy z branży dodawali masowo do płatnych katalogów mocno na dodatek moderowanych (mam na myśli takie katalogi jak wp.pl, interia.pl, onet.pl, i podobne. Parametry tematyczności witryn chyba pominę bo to oczywista oczywistość.
Reasumując , załozenia pingwiniaste są niezłe w praktyce jednak okazuje się, że nastąpiło przegiecie w jego opracowaniu (jak zwykle zresztą ostatnio w Google), najgorsze jednak jest to, że z modyfikacji na modyfikacje zamiast być lepiej jest coraz gorzej …
Reasumując w tej chwili znaczący procent oferowanego przez większość firm SEO przypomina dziecinną zabawę w „policjantów i złodziei” no i rzecz najważniejsza – każda spopularyzowana metoda pozycjonowania prowadzi do jednego – prędzej czy później jest brana na tapetę przez GSQT, bo dla Google najważniejszym celem jest doprowadzenie do tego aby SEO było nieopłacalne.
Nie mogą obniżyć wartości WordPressów i for, bo jest bardzo dużo wartościowych stron na tych skryptach. Muszą się kierować innymi parametrami niż skrypty na jakich strony są postawione.
Łatwo wyłowić precla – zwróć uwagę , że jest mało blogów o wszystkim i o niczym , o mydle szydle i powidle. Zobacz też, że na preclach dziennie powstaje chyba wiecej artów niż w niusach WP czy Onetu 🙂
Na kilka interesujących mnie fraz typowo sprzedażowych wypłynęły precle na blog.pl, blogspot.com, blog.onet.pl, poznikały sklepy, więc czymkolwiek te sklepy nie byłyby zrobione to na pewno nie powinny być za preclami na drugiej stronie wyników. Zbyt nerwowo pogmerali suwaczkami.
Prawda jest taka, że sami doprowadziliśmy do tej sytuacji, gdzie Googiel ma w zasadzie monopol. Z drugiej strony, chłopaki z G-Team tym razem lekko przesadzili, a wszelkie ich deklaracje to próba zatuszowania nieudanej aktualizacji.