Archiwa tagu: algorytmy

Przewidywanie wpływu zmian algorytmów Google

Google

Każda osoba zajmująca się SEO wie, że zmiany algorytmów Google przypominają zazwyczaj huragan. Zmiany w rankingach wyszukiwania są widoczne, nikt nie wie dokładnie co się zmieniło, z każdej strony słychać opinie „synoptyków”, czyli SEO-wców próbujących odgadnąć, w jaki sposób można dostosować się do nowych zmian w algorytmach szukających.

Na szczęście aktualizacje algorytmów nie występują zbyt często. Podczas gdy dużo częściej przypominają drogę przez mękę niż coś przyjemnego, to wyprzedzenie konkurencji pod względem zrozumienia zmian jest kluczowe w sukcesie SEO. Wystarczy nawet niewielka przewaga czasowa, by móc wyprzedzić przeciwników o parę kroków.

Analizowanie aktualizacji Google

Istnieje parę sposobów na ewaluację zmian wprowadzonych w algorytmach Google. Ja zawsze skupiam się na eksperymentach dotyczących tagów tytułowych, opisów meta i nagłówków H1.

W pierwszym kroku musimy przeanalizować przebieg czasowy aktualizacji. Zagraniczne portale zajmujące się pozycjonowaniem zazwyczaj publikują informację zaraz po potwierdzeniu aktualizacji algorytmów. Gdy masz już określony szerszy przedział czasowy gdy zaszły zmiany, wykorzystaj Google Search Console do zbadania dokładnego czasu przeprowadzenia aktualizacji oraz wpływu na wyniki na pierwszej stornie wyszukiwarki.

Po ustaleniu przybliżonego momentu wejścia aktualizacji stwórz dwa przedziały: dwa tygodnie przed aktualizacją i dwa tygodnie po niej. Eksportuj dane do Excela lub innego arkusza kalkulacyjnego i dodaj kolumnę liczącą różnicę pomiędzy pozycjami sprzed i po aktualizacji. Następnie przefiltruj dane, ja najpierw lubię patrzeć na strony, które znalazły się po zmianach wyżej niż poprzednio.

Poszukiwanie zależności

Gdy kontynuujemy ten proces, zaczniemy uzyskiwać pełny obraz tego, co zmieniło się w SEO po aktualizacji. Zanim przejdziemy do kolejnego kroku, powinniśmy przyjrzeć się gołym danym, a może uda nam się odnaleźć jakieś powtarzające się prawidłowości.

Identyfikowanie prawidłowości jest możliwe jedynie dla stron, które mają podobne wyniki. Popatrz tylko na dane znajdujące się poza odchyleniem standardowym. Jedynie w ich przypadkach miniona aktualizacja ma znaczący wpływ na pozycję w rankingu, więc to im chcemy się przyjrzeć.

W kolejnym kroku wybieramy próbkę stron o podobnych statystykach. Zmiana pozycji, przeciętna pozycja w SERP i wskaźnik CTR powinny być na podobnym poziomie. Jeśli nie uda Ci się wyodrębnić takiej próbki, to nic złego, trudno znaleźć więcej storn internetowych podobnych do siebie.

Korzystanie z crawlera

Lepszym sposobem jest wykorzystanie crawlera, czyli programu zachowującego się podobnie co boty Google. Jednym z takich narzędzi jest Screaming Frog, szybko zbiera potrzebne dane. Wklej do dokumentu tekstowego listę stron internetowych które chcesz przebadać. Następnie przeprowadź ich analizę w Screaming Frog.

Tym razem idea polega na szukaniu podobieństw między wynikami pokazywanymi przez crawlera, a elementami meta strony, jak tag tytułowy, opis meta i nagłówki. Szukamy wyróżniających się elementów, pozwalających znaleźć korelację między elementami na stronie a wzrostem pozycji w rankingach. W pewnym momencie powinniśmy uzyskać kilka odpowiednich punktów.

Powiedzmy, że udało nam się znaleźć jakąś korelację, na przykład między czasem oczekiwania a wielkością strony. Wygląda na to, że szybka odpowiedź serwera przy mniejszej wersji strony mocno wpłynęła na pozycję w rankingu. Oznacza to prawdopodobnie, że najnowsza aktualizacja algorytmów Google mocniej skupia się na szybkim otwieraniu stron.

Każda aktualizacja Google przynosi zmiany w silniku wyszukiwania, jednak jak widać, odgadnięcie ich nie jest takie proste. Czasem specjaliści od SEO nie mogą przez dłuższy czas dojść do porozumienia, tak było z jedną z aktualizacji algorytmów w marcu 2105 roku. Do dziś nie ma spójnej opinii co do natury tamtych zmian.