Archiwa kategorii: Google

Świeże spojrzenie na SEO dla firm B2B

SEO

Dawniej osiągnięcie pierwszego miejsca w rankingach wyszukiwania dla danego słowa kluczowego było celem wartym do osiągnięcia. Wystarczyło stworzyć listę słów kluczowych, napisać mnóstwo postów po 200-300 słów, dzięki czemu na Twojej stronie pojawił się dodatkowy ruch.

Dziś już to tak nie działa. W 2017 roku wyszukiwarki internetowe działają inaczej, dlatego firmy świadczące usługi B2B powinny to zrozumieć. SEO nie polega już na tym, żeby optymalizować stronę internetową pod słowa kluczowe. Zamiast tego SEO ma na celu optymalizację Twojej firmy w taki sposób, żeby grupa docelowa mogła ją znaleźć pod wieloma słowami kluczowymi i na różnych stronach w wyszukiwarce.

Oznacza to, że jeśli chcesz optymalizować swoją stronę pod SEO, musisz połączyć korzyści płatnego wyszukiwania, wyników organicznych i obecności w sieci.

Dlaczego warto łączyć różne czynniki w pozycjonowaniu pod SEO?

Według statystyk prowadzonych przez HubSpot, firmy B2B mają przeciętny współczynnik CTR na poziomie 2,55%. Z innego badania przeprowadzonego przez Advanced Web Ranking wynika, że pierwsza pozycja w rankingach organicznych ma współczynnik CTR na poziomie bliskim 30%. Co z pozostałymi 70%?

To jest właśnie kawałek tortu do ugryzienia przez Ciebie! Nie musisz być najlepszy w branży, pewnie nawet Cię na to nie stać. Jeśli Twoja strategia SEO będzie się opierać na pozycjonowaniu całej strony internetowej, możesz uszczknąć nieco więcej niż konkurencja.

Firmy B2B powinny skupić się na mniej popularnych frazach. Ciężko wypozycjonować frazę „najlepszy [nazwa usługi]”. Z drugiej strony można poszukać innych słów kluczowych, często składających się z większej liczby słów i to pod nie pozycjonować swoją witrynę. W ten sposób możesz pojawić się wysoko w wynikach wyszukiwania dla mniej popularnych fraz. Mimo to dzięki temu, że osoby wpisujące długie słowa kluczowe zazwyczaj szukają konkretnego produktu lub usługi, masz większą pewność, ze znajdą to u Ciebie.

Pozycjonuj markę, nie witrynę

W powyższym nagłówku chodzi o myślenie „big picture”. Pozycjonuj nie witrynę, a markę. Postaraj się dotrzeć do niezależnych blogerów i przedstawić im swój produkt lub usługę. Jeśli zgodzą się ją zrecenzować, nie tylko uzyskasz wartościowy link zewnętrzny, ale również (oczywiście w przypadku pozytywnych opinii) zwiększy się szansa, że potencjalny kupiec trafi na daną recenzję i zdecyduje się na Twój produkt.

W dzisiejszych czasach konsumenci (w tym przedstawiciele firm) raczej nie kupują usług czy towarów od razu na stronie sprzedawcy. Wcześniej porównują je z produktami czy usługami konkurencji i decydują się na najlepsze rozwiązanie. Według badania przeprowadzonego przez Avanade, aż 61% klientów B2B czyta recenzje na stronach trzecich przed decyzją o zakupie.

W podobny sposób pozycjonuje również Google. Strony zawierające porównania różnych produktów są dodatkowo premiowane i umieszczane wyżej w rankingach. Dlatego musisz generować jak największą liczbę recenzji. Clutch zbadał tę kwestię dla firm B2B. Okazuje się, że każda nowa recenzja dodaje około 20 wejść w ofertę danej firmy. Może się to wydawać niewiele, ale jako przedstawiciel firmy B2B wiesz, że nie jest ona nastawiona na masówkę, a na dobrze dopasowane rozwiązania dla danych przedsiębiorstw.

Z tego powodu, jeśli chcesz zwiększyć widoczność swojej firmy B2B, a także wygenerować więcej leadów, musisz zastanowić się nad zdobyciem dobrej pozycji na stronach zbierających recenzje. Warto wykupić reklamy na takich stronach. PPC w odpowiednich miejscach jest równie skuteczne co klasyczne SEO. Jak wspomniałem na początku artykułu, rzeczywistość dotycząca pozycjonowania zmieniła się w ostatnich latach.

Recenzje jako podstawa strategii lokalnego SEO

Linkbuilding

Recenzje są niezwykle ważne w dzisiejszym świecie, szczególnie w dobie internetu. Nieważne czy mowa o gwiazdkach czy ocenach liczbowych, skala ocen 1-5 jest bardzo łatwo przyswajana przez użytkowników. Rozumienie tych wielkości jest głęboko zaprogramowane w naszych mózgach – gdy szukamy szybkiej przekąski podczas pobytu w obcym mieście, prędzej wybierzemy lokal mający 4,5 gwiazdki niż ten mający 3 gwiazdki.

Długo trwała dyskusja, czy algorytm Google dotyczący lokalnych wyników wyszukiwania w podobny sposób traktuje oceny wystawiane przez użytkowników. Było wiadome, że ma to wpływ na wysokość w rankingach wyszukiwania, ale nieznana była siła tego czynnika. Zmiany wprowadzone w maju tego roku rzuciły trochę więcej światła na tę kwestię. Od jakiegoś czasu można było filtrować wyniki wyszukiwania po liczbie ocen i ich wysokości. Obecnie po wpisaniu np. frazy „Najlepsza pizza Warszawa” Google automatycznie odrzuca lokale mające poniżej czterech gwiazdek. Można z tego wywnioskować, że Google coraz większą wagę przywiązuje do recenzji danych miejsc. Dobre recenzje stają się coraz ważniejsze w lokalnym SEO.

Stały strumień recenzji

Jedną z najważniejszych rzeczy w organizowaniu strategii dotyczących recenzji jest regularne przekonywanie klientów do pisania ich. Nie ma gorszej rzeczy niż duża porcja recenzji opublikowanych w podobnym czasie, a potem cisza. Po pierwsze, sprawia to wrażenie spamowania lewymi kontami. Po drugie, jeśli od ostatniej recenzji upłynęło już parę miesięcy, użytkownik może odnieść wrażenie, że Twoja firma już upadła.

Duża fala pozytywnych recenzji może również doprowadzić do tego, że Google czy inna usługa usunie je podejrzewając, że to spam. Lepiej skupić się na pozyskaniu pozytywnych recenzji regularnie, wystarczy kilka w miesiącu. Dzięki temu Twoje usługi staną się bardzie wiarygodne zarówna dla użytkowników, jak i algorytmów wyszukiwarek czy portali z recenzjami.

Dodatkowo stare recenzje wcale nie muszą być aktualne. Według jednego z badań, 73% użytkowników nie bierze do siebie recenzji starszych niż 3 miesiące – są one zbyt przestarzałe. Mimo to łatwo natrafić na miejsca, gdzie nie pojawiła się żadna recenzja od co najmniej roku. Jest to oznaka firmy, która jest tak nijaka, że nikomu się nie chce wystawić jej recenzji.

Autentyczność kluczem do sukcesu

Niestety, bardzo często zdarza się, że nieuczciwi przedsiębiorcy starają się sztucznie zawyżyć średnią ocen swojej firmy. Jest to niestety częsta praktyka, szczególnie wśród małych firm. Zazwyczaj pokusie ulegają osoby które widzą taką strategię u konkurencji, przez co spirala się nakręca.

Problem w tym, że Google ani inne serwisy oferujące recenzje nie mają możliwości kontrolowania, czy dana opinia jest szczera, czy może została zakupiona czy wybłagana. Jako specjaliści SEO uważamy jednak, że w dłuższym terminie taka strategia może przynieść więcej złego niż dobrego. Konsumenci zachwyceni dobrymi recenzjami mogą poczuć się rozczarowani jakością usług firmy, co sprowadzi falę niezadowolonych głosów i negatywnych opinii.

Odpowiadaj na recenzje

Miłym gestem jest odniesienie się do otrzymanych recenzji. Mowa tu zarówno o tych pozytywnych, jak i negatywnych. Gdy otrzymasz dobrą recenzję, podziękuj w kilku słowach. Nie korzystaj z gotowego szablonu, napisz kilka słów od siebie.

Negatywne opinie potrzebują innego podejścia. Postaraj się odpowiedzieć na zarzuty klienta, oczywiście kulturalnie. Jeśli uważasz, że wina nie leży po Twojej stronie, wytłumacz to. Poszukaj rozwiązania, które zadowoli recenzenta, a może zdecyduje się on na usunięcie negatywnej opinii lub podniesie końcową ocenę. Przekucie jednej negatywnej oceny w pozytywną ma moim zdaniem większą wartość niż zdobycie trzech nowych opinii z 5 gwiazdkami.

Czy przejście na HTTPS może pomóc w SEO?

link-buildingowej

Na pytanie z tytułu tego artykułu możemy odpowiedzieć jednym zdaniem. Tak, to pomaga. Google chce uczynić sieć bardziej bezpieczną i zachęca twórców stron internetowych do korzystania z protokołu HTTPS. Od niedawna HTTPS jest jednym z czynników wpływających na pozycję w rankingach. Nie jest może kluczowy, ale zawsze daje dodatkowe punkty.

Mimo zalet dotyczących SEO, większość stron jeszcze nie migruje na HTTPS. Według badań przeprowadzonych przez SEMrush wzrost stron wykorzystujących HTTPS różni się w zależności od branży. Dodatkowo większość największych stron internetowych wdrożyła już bezpieczne wersje witryn.

Wykorzystywanie stron HTTPS nie jest jeszcze tak powszechne jak mogłoby się wydawać. Obecnie około 25% całego ruchu w sieci odbywa się na stronach HTTPS. Według Statoperator w czerwcu 2016 roku 10,2% stron z pierwszego miliona największych witryn ma domyślnie włączoną obsługę HTTPS.

Użycie HTTPS pośród najlepszych 100 000 witryn

Po zmniejszeniu przedziału do 100 000 największych witryn internetowych, można zauważyć trzykrotny wzrost popularności stron z HTTPS między rokiem 2014 a 2017. W ciągu ostatnich trzech lat liczba stron HTTPS wśród najlepszych 100 000 zwiększyła się z 7,6 do 31,5%. Spodziewamy się, że w ciągu najbliższych dwóch lat HTTPS będzie na ponad połowie stron internetowych z powyższej listy.

Wykorzystanie HTTPS pośród najlepszych 5000 witryn podzielonych na branże

W kolejnej części badania należy sprawdzić jak wiele z najlepszych 5000 stron podzielonych na 25 branż korzysta z HTTPS. Z badania wynika, że 41% stron wykorzystuje obecnie HTTPS.

Patrząc na poszczególne branże, 316 stron należących do kategorii sztuki i rozrywki korzysta z HTTPS, dzięki czemu ta branża ma największą liczbę stron zabezpieczonych HTTPS. Trzy branże z największym odsetkiem zabezpieczonych hasłem to: finanse (77%), Internet i łączność (63,91%) oraz biznes i przemysł (62%).

Jeśli spojrzeć na drugą stronę medalu, branże z najmniejszym odsetkiem stron wykorzystujących HTTPS to wiadomości (11,25%) oraz sport (15,95%).

Wykorzystanie HTTPS spośród firm Fortune 500 z podziałem na branże

SEMrush przeanalizował również największe amerykańskie przedsiębiorstwa. Najprostszym sposobem było wykorzystanie listy Fortune 500. Podobnie jak w poprzednim przypadku, najwięcej firm korzystających z HTTPS było w branży finansowej (70%) i usługach dla biznesu (74%). Z drugiej strony najmniejszy odsetek HTTPS był wśród firm z branży lotnictwa i obrony (8%) oraz chemicznej (9%).

Wykorzystanie HTTPS i jego korelacja z rankingiem Google

Aby sprawdzić korelację pomiędzy pozycją w rankingu wyszukiwania a wykorzystaniem HTTPS, SEMrush wylosował 100 000 fraz kluczowych na których przeprowadzono badanie.

Blisko 45% rezultatów na pierwszym miejscu oraz blisko 50% rezultatów na miejscu drugim było zabezpieczone przez HTTPS. Różnicę między pierwszym a drugim miejscem można wytłumaczyć innymi czynnikami wpływającymi na SEO.

Choć pierwsze wyniki dla poszczególnych fraz wyszukiwania ma mniejszy odsetek stron HTTPS niż drugi i trzeci wynik, im dalej tym ciekawiej wygląda sytuacja. Im niższy wynik na stronie wyszukiwania, tym mniejszy odsetek stron zabezpieczonych HTTPS. Ciężko jednak powiedzieć, czy to HTTPS jest przyczyną dalszego miejsca w rankingu, czy to raczej ogólna strategia SEO może być lepsza, a co za tym idzie, szanse na wdrożenie HTTPS są wyższe.

Zalety korzystania z HTTPS

Bezpieczeństwo i prywatność. Główną zaletą HTTPS jest fakt, że strona jest przez to bezpieczniejsza dla użytkowników. Jest to szczególnie ważne na stronach, gdzie użytkownicy podają poufne informacje – dane karty, numer PESEL itp.

Zaufanie. HTTPS to najprostszy sposób na zyskanie zaufania użytkowników. Należy dbać o zgodność certyfikatów, w przeciwnym razie jeśli będziesz twierdził, że Twoja strona ma HTTPS, a tak nie będzie, Google wyświetli odpowiednie ostrzeżenie o niebezpiecznej stronie.

Przewidywanie wpływu zmian algorytmów Google

Google

Każda osoba zajmująca się SEO wie, że zmiany algorytmów Google przypominają zazwyczaj huragan. Zmiany w rankingach wyszukiwania są widoczne, nikt nie wie dokładnie co się zmieniło, z każdej strony słychać opinie „synoptyków”, czyli SEO-wców próbujących odgadnąć, w jaki sposób można dostosować się do nowych zmian w algorytmach szukających.

Na szczęście aktualizacje algorytmów nie występują zbyt często. Podczas gdy dużo częściej przypominają drogę przez mękę niż coś przyjemnego, to wyprzedzenie konkurencji pod względem zrozumienia zmian jest kluczowe w sukcesie SEO. Wystarczy nawet niewielka przewaga czasowa, by móc wyprzedzić przeciwników o parę kroków.

Analizowanie aktualizacji Google

Istnieje parę sposobów na ewaluację zmian wprowadzonych w algorytmach Google. Ja zawsze skupiam się na eksperymentach dotyczących tagów tytułowych, opisów meta i nagłówków H1.

W pierwszym kroku musimy przeanalizować przebieg czasowy aktualizacji. Zagraniczne portale zajmujące się pozycjonowaniem zazwyczaj publikują informację zaraz po potwierdzeniu aktualizacji algorytmów. Gdy masz już określony szerszy przedział czasowy gdy zaszły zmiany, wykorzystaj Google Search Console do zbadania dokładnego czasu przeprowadzenia aktualizacji oraz wpływu na wyniki na pierwszej stornie wyszukiwarki.

Po ustaleniu przybliżonego momentu wejścia aktualizacji stwórz dwa przedziały: dwa tygodnie przed aktualizacją i dwa tygodnie po niej. Eksportuj dane do Excela lub innego arkusza kalkulacyjnego i dodaj kolumnę liczącą różnicę pomiędzy pozycjami sprzed i po aktualizacji. Następnie przefiltruj dane, ja najpierw lubię patrzeć na strony, które znalazły się po zmianach wyżej niż poprzednio.

Poszukiwanie zależności

Gdy kontynuujemy ten proces, zaczniemy uzyskiwać pełny obraz tego, co zmieniło się w SEO po aktualizacji. Zanim przejdziemy do kolejnego kroku, powinniśmy przyjrzeć się gołym danym, a może uda nam się odnaleźć jakieś powtarzające się prawidłowości.

Identyfikowanie prawidłowości jest możliwe jedynie dla stron, które mają podobne wyniki. Popatrz tylko na dane znajdujące się poza odchyleniem standardowym. Jedynie w ich przypadkach miniona aktualizacja ma znaczący wpływ na pozycję w rankingu, więc to im chcemy się przyjrzeć.

W kolejnym kroku wybieramy próbkę stron o podobnych statystykach. Zmiana pozycji, przeciętna pozycja w SERP i wskaźnik CTR powinny być na podobnym poziomie. Jeśli nie uda Ci się wyodrębnić takiej próbki, to nic złego, trudno znaleźć więcej storn internetowych podobnych do siebie.

Korzystanie z crawlera

Lepszym sposobem jest wykorzystanie crawlera, czyli programu zachowującego się podobnie co boty Google. Jednym z takich narzędzi jest Screaming Frog, szybko zbiera potrzebne dane. Wklej do dokumentu tekstowego listę stron internetowych które chcesz przebadać. Następnie przeprowadź ich analizę w Screaming Frog.

Tym razem idea polega na szukaniu podobieństw między wynikami pokazywanymi przez crawlera, a elementami meta strony, jak tag tytułowy, opis meta i nagłówki. Szukamy wyróżniających się elementów, pozwalających znaleźć korelację między elementami na stronie a wzrostem pozycji w rankingach. W pewnym momencie powinniśmy uzyskać kilka odpowiednich punktów.

Powiedzmy, że udało nam się znaleźć jakąś korelację, na przykład między czasem oczekiwania a wielkością strony. Wygląda na to, że szybka odpowiedź serwera przy mniejszej wersji strony mocno wpłynęła na pozycję w rankingu. Oznacza to prawdopodobnie, że najnowsza aktualizacja algorytmów Google mocniej skupia się na szybkim otwieraniu stron.

Każda aktualizacja Google przynosi zmiany w silniku wyszukiwania, jednak jak widać, odgadnięcie ich nie jest takie proste. Czasem specjaliści od SEO nie mogą przez dłuższy czas dojść do porozumienia, tak było z jedną z aktualizacji algorytmów w marcu 2105 roku. Do dziś nie ma spójnej opinii co do natury tamtych zmian.

Szybsze strony internetowe – PageSpeed Insights

link building

Prędkość strony jest bardzo istotnym czynnikiem w ocenianiu strony przez algorytmy Google – szczególnie w czasach większej popularności urządzeń mobilnych. Stworzone przez Google narzędzie PageSpeed Insights jest łatwym do użycia narzędziem testującym czy przypadkiem strona nie działa wolniej niż powinna. Następnie otrzymujemy wynik podsumowujący działanie strony. Jako że jest to konkretna liczba, PageSpeed Insights jest często wykorzystywany jako swoisty benchmark szybkości działania strony.

Podobnie jak to miało miejsce z PageRank lata temu, wszyscy chcą wyśrubować wynik w PageSpeed Insights i osiągnąć perfekcyjne 100 pkt. Da się ten cel osiągnąć również na małych stronach internetowych z jednym z najpopularniejszych CMS-ów (WordPress może być). Dla większości stron ten wynik jest nieosiągalny. W poniższym artykule postaramy się przybliżyć czynniki wpływające na ocenę stron w PageSpeed Insights.

Opóźnienie może mieć większy wpływ niż przepustowość

Po pierwszym spojrzeniu w zasady testu PageSpeed Insights może się wydawać, że największy wpływ ma to czy strona jest mała. Zmniejszać, optymalizować, kompresować. Rozmiar strony to jedynie jedna strona medalu. Istotny jest również czas dotarcia żądania do serwera. Następnie potrzebny jest czas na odpowiedź przez serwer.

Opóźnienia nie da się ominąć, w końcu sygnał nie może podróżować szybciej od prędkości światła. Jest to teoretycznie minimalny czas dostarczenia żądania. W rzeczywistości zajmuje to jeszcze dłużej. Dlatego niezwykle istotne jest, żeby serwer znajdował się jak najbliżej użytkownika końcowego. Jeśli działasz tylko w Polsce, wystarczy skorzystać z jednego z tutejszych serwerów.

Co więcej, nie wystarczy jedno żądanie do serwera by wyświetlić stronę. Gdy otrzymamy pierwszą część strony, przeglądarka zazwyczaj orientuje się, że musi załadować więcej zasobów do poprawnego wyświetlenia strony. CSS, JavaScript, fonty itp. W każdym przypadku żądanie musi przebyć drogę do serwera dwa razy.

Zachowaj sceptycyzm

Cała ocena otrzymana w PageSpeed Insights skupia się na rzeczach wpływających na szybkość strony. Dla dużych stron nie wszystko da się łatwo zaimplementować. W zależności od designu strony, niektóre czynniki mogą mieć większy wpływ od innych. Nie ma bo tyć wymówka, by ich nie robić – wszystkie są dobrymi praktykami i są pomocne. Nie reprezentują jednak całego obrazu – część punktów może nie być konieczna do wdrażania, w zależności od Twojej strony.

Jako przykład podam optymalizację zdjęć. O ile nie są one olbrzymie, nie musisz już tego bardziej robić. PageSpeed Insights pokazuje jedynie, ze możliwa jest dalsza kompresja, a nie czy jest ona konieczna.

Z ważniejszych rzeczy, które możemy wyciągnąć z PageSpeed Insights – staraj się w jak najmniejszej rzeczy polegać na zawartości pobieranej z innych domen. Wtedy prędkość działania zależy nie tylko od Twoich serwerów, ale również tych obsługujących inne strony – a nad nimi nie masz kontroli.

Jak zacząć poprawianie szybkości stron

Ustal cele. Jeśli nie masz zamiaru uzyskać perfekcyjnego wyniku w PageSpeed Insights, postaw sobie jakiś inny mierzalny cel. Jest to ważne, bo dzięki temu będziesz w stanie oceniać dokonywany postęp. Zobaczysz czy należy dalej zmniejszać opóźnienie, czy może samą wielkość strony.

Ustal priorytety w ładowaniu strony. Sprawdź co ładuje strona internetowa po otrzymaniu żądania. PageSpeed Insights może Ci pomóc zlokalizować „najcięższe” fragmenty Twojej strony. Możesz również ustalić kolejność ładowania się elementów na stronie. Jeśli utrzymujesz się z reklam, polecam w pierwszej kolejności załadować zawartość, a dopiero potem reklamy. Użytkownik i tak je w końcu zauważy, ale od razu otrzyma dostęp do treści i wrażenie szybkiej strony.

Jak zoptymalizować Google My Business pod firmę z wieloma oddziałami

Algorytm

Znalezienie się na liście Google My Business jest niezbędną częścią każdej strategii lokalnego SEO. Zawsze w takich przypadkach mówi się o tym, że w usłudze musi znajdować się taki sam adres co na stronie internetowej. Co w przypadku gdy mamy kilka oddziałów naszej firmy? Czy oznacza to, że zostaniemy ukarani w wynikach wyszukiwania?

Czym jest Google My Business?

Google My Business zostało przedstawione w 2014 roku jako narzędzie mające ułatwić firmom dodanie się na lokalną mapę. W ten sposób łatwiej jest ją znaleźć jeśli wyszukuje się lokalnie. Dodatkowo w usłudze można dodać swoje dane kontaktowe, adres, godziny otwarcia, galerię oraz recenzje. Jest to pierwszy krok podejmowany w strategii lokalnego SEO.

Dobrze utrzymana pozycja w Google My Business zwiększa ruch, a co za tym idzie przychód firmy.

Istotność dla SEO

Od kiedy Google zredukował liczbę lokalnych wyników wyszukiwania z 7 do 3 w 2015 roku, dla firm ważniejsze niż kiedykolwiek stało się znalezienie się na szczycie tej listy. Konkurencja jest olbrzymia, każda pomyłka może kosztować Cię wielu odwiedzających. Według amerykańskiego stowarzyszenia Local Search Association rocznie z powodu błędnych informacji w Google My Business przedsiębiorcy tracą nawet 10 mld USD potencjalnych przychodów.

Dla firm z wieloma oddziałami jest to poważny problem ponieważ każdy z nich ma swoje dane kontaktowe i adres. W jaki sposób duże firmy nie są karane za podawanie sprzecznych informacji w Google My Business?

Pierwsze kroki

Na szczęście Google jest świadome tego problemu i pozwala firmom zgłosić się do listy jako przedsiębiorstwo z wieloma lokalizacjami. Jednak by móc być zweryfikowanym przez Google w taki sposób, należy spełnić kilka warunków. Po pierwsze, należy mieć co najmniej 10 oddziałów. Po drugie, nie może to być firma usługowa. Po trzecie, nie może to być agencja zarządzająca kilkoma klientami.

Optymalizacja przedsiębiorstwa z wieloma oddziałami

Po zgłoszeniu wniosku o firmę z wieloma lokalizacjami w Google My Business, następnym krokiem jest optymalizacja tego wpisu. Zanim jednak będziesz mógł to zrobić, musisz zrozumieć warunki pozwalające na znalezienie się w lokalnej „świętej trójcy”.

Najważniejsza jest podana na początku wpisu dokładność w wypełnieniu informacji. Ten sam adres i wszelkie dane muszą znajdować się w Google My Business, na Twojej stronie internetowej, na Facebooku, Trip Advisorze itp. Boty Google przeczesują każdą z tych stron i porównują je do Twojego wpisu w Google My Business. Wszelki brak konsekwencji jest dużym znakiem dla Google, że coś jest nie tak i w rezultacie pozycja Twojej strony spadnie.

Jak się upewnić, ze Google dobrze odczyta informacje o oddziałach?

Zweryfikuj wszystkie lokalizacje za pomocą tego samego konta Google My Business. Usuń wszelkie duplikaty na listach, które mogły być stworzone przez personel poszczególnych oddziałów.

Upewnij się, że dane są zgodne. Najprościej jest skopiować dane adresowe i kontaktowe z Twojego wpisu w Google My Business i wklejać je w każde istotne miejsce.

Umieść informacje o adresie najważniejszego oddziału na stronie głównej swojej witryny. Google w ten sposób szybciej zweryfikuje poprawność danych oraz zrozumie hierarchię Twojej firmy.

Stwórz podstronę dla każdego oddziału. Nie ma sensu robić osobnej witryny dla każdego oddziału – wystarczy lista sklepów z odnośnikami do kolejnych podstron.

Wykorzystaj Local Marketing Platform do zarządzania tymi informacjami. Narzędzie to pozwala Ci zobaczyć co widzi Google, sprawdzić i edytować dane dla wszystkich Twoich oddziałów, a wszystko to w prosty i wygodny sposób za pomocą jednego interfejsu.

Jak zaimplementować zmiany w SEO korzystając z Google Tag Managera

Google

W swojej karierze zawodowej często trafiałem na problemy z implementacją zmian po stronie technicznego SEO. Działo się tak z wielu powodów – zazwyczaj strony miały dziwne CMS-y bez możliwości dopasowania poszczególnych opcji.

W takich przypadkach nie ma znaczenia jaką pracę wykonaliśmy przy identyfikacji błędów w SEO i ile rozwiązań znaleźliśmy, jeśli nie da się ich wdrożyć, są one bezużyteczne. Na szczęście istnieją alternatywne sposoby na przeprowadzenie zmian. Jedna z nich to działanie bezpośrednio na meta-CMS, czyli nadrzędnej platformie na której dopiero właściwy CMS jest zainstalowany.

Jeśli nie jest to możliwe, można wykorzystać system zarządzania tagami. W Poniższym artykule skupię się na Google Tag Manager, który jest najczęściej wykorzystywanym narzędziem tego typu (72,6% rynku). Programy do zarządzania tagami wykorzystują pojedynczy folder JavaScript, który można zapełnić tagami dla strony. Aby dodać czy edytować tagi, nie trzeba przeprowadzać żadnych zmian bezpośrednio na stronie, można to robić w ramach folderu, a tagi następnie zostaną zaimplementowane.

Jako że programy do zarzadzania tagami korzystają z JavaScipt, w przeszłości nie były widziane jako efektywny sposób do przeprowadzania zmian w technicznym SEO. Tradycjonaliści byli zdania, że Google oraz inne wyszukiwarki nie są w stanie skanować JavaScript, więc wszelkie zmiany w kodzie będą ignorowane. Jednak pojawiły się dowody na wpływ wprowadzonych zmian przez Google, również w implementacji tagów przez Google Tag Manager.

Jak przeprowadzić zmiany w HTML korzystając z Google Tag Manager

Jeśli chodzi o przeprowadzanie zmian, zazwyczaj jesteśmy zainteresowani dodawaniem nowych elementów na stronie, ich edycją lub aktualizacją oraz usuwaniem. Do każdej z tych rzeczy potencjalnie trzeba znać HTML lub obsługę CMS-a (np. WordPressa), dzięki temu wiesz którymi elementami masz się zająć. Przydatna jest również znajomość JavaScript (szczególnie jQuery) w celu dodawania elementów na stronie.

Aby dodać element na stronie HTML, musisz stworzyć odpowiedni tag HTML w Google Tag Manager. Możesz na przykład stworzyć tag noindex dla poszczególnych podstron, dzięki czemu nie będą indeksowane przez algorytmy wyszukiwarek. W przypadku Google Tag Manager każdy tag ma dodane również informacje dotyczące tego, w jakich okolicznościach ma być wdrożony. Jeśli chcemy by Google jak najszybciej zanotowało zmiany, musimy ustawić ich włączenie od razu po załadowaniu się strony. Możemy również wybrać które tagi mają się ładować na których podstronach.

Ekstrakcja danych znajdujących się na stronie

Istnieją dwa podejście co do wyciągania danych ze strony internetowej. Możesz skorzystać z wbudowanych w Google Tag Manager zmiennych, które pozwalają na ekstrakcję tekstu czy atrybutu znajdującego się na stronie. Drugim podejściem jest wykorzystanie JavaScript i/lub jQuery w tagu HTML.

W kontekście zmian w SEO, najczęściej będziesz chciał wyciągnąć dane ze strony za pomocą struktury danych wykorzystujących JSON-LD. Istnieje kilka metod pozwalających na tego rodzaju interakcję. Prostym i skutecznym sposobem jest wykorzystanie selektora CSS do zaznaczania elementów których szukasz. Istnieją odpowiednie rozszerzenia możliwe do zainstalowania w przeglądarce.

Jeśli korzystasz ze zmiennych Google Tag Manager do wyciągania danych ze strony, musisz utworzyć zmienną dla każdego interesującego Cię elementu. Wystarczy przejść do menu zmiennych i wybrać opcję utworzenia nowej pozycji.

Dla każdego elementu należy następnie stworzyć zmienną typu „DOM Element”, odpowiednie elementy wybiera się za pomocą ich ID lub wspomnianego wyżej selektora CSS. Pole atrybutu zazwyczaj pozostawia się puste, jedynym wyjątkiem są zdjęcia, gdzie wyciąga się również atrybut „src”.

Gotowe!

Nazwy domen i ich wpływ na SEO

SEO

Często otrzymujemy pytania dotyczące wpływu nazwy domeny na SEO. Czy istnieje jakaś relacja miedzy nazwą domeny a skutecznością pozycjonowania? Czy warto zawierać słowa kluczowe takie jak nazwy produktów w nazwie domeny? Czy wpływ nazwy domeny zmienia się w zależności od lokalizacji? Po co używać więcej niż jednej nazwy domeny dla witryny? W poniższym artykule odpowiem na wszystkie Wasze wątpliwości.

Czym jest nazwa domeny?

Zacznijmy od podstaw. Nazwa domeny to jej alias. Jest wygodnym sposobem na przedstawienie internautom swojego miejsca w sieci. Nazwy domen zwykle identyfikują jeden lub więcej adresów IP. W naszym przypadku nazwą domeny jest star-marketing.pl. Zauważ, że nie muszę zapisywać członu „www.”, ponieważ jest to tak naprawdę subdomena. Z drugiej strony zawarłem końcówkę „.pl”, gdyż inny skrót może prowadzić do innej domeny.

Domeny top-level

Star-marketing to nasza marka, a „.pl” to nasza domena top-level. We wczesnych latach Internetu istniały jedynie cztery domeny:

  • .com – komercyjne
  • .org – dla organizacji non-profit
  • .edu – dla szkół i uniwersytetów
  • .gov – dla stron rządowych

Następnie wprowadzone zostały domeny krajowe, czyli chociażby nasze „.pl”, czy niemieckie „.de”. Każdy kraj otrzymał swój skrót. Obecnie można zarejestrować za odpowiednią opłatą każdą domenę, choć wbrew początkowym prognozom nie wyparło to popularności domeny „.com”.

Wiek domeny

W obecnych czasach wiek domeny (czyli okres przez który istnieje) nie jest już tak ważny jak dawniej. Bardziej liczy się jej zawartość, struktura strony oraz jak dobrze strona odpowiada temu czego szukają użytkownicy wpisujący daną frazę w Google. Oczywiście to, że wiek domeny się nie liczy nie znaczy, że starsze domeny nie będą lepiej pozycjonowane. Posiadają one pewnie lepszą bazę backlinków, podstron, content itp. Oczywiście to już ma wpływ na rankingi.

Słowa kluczowe w nazwie domeny

Dawniej słowa kluczowe w nazwie domeny wpływały na wysokość w rankingach wyszukiwarek. W 2012 roku Google ogłosiło, że nastąpiła zmiana algorytmu, dzięki czemu nazwa domeny nie ma już wpływu na SERP.

W takim przypadku czy opłaca się rejestrować nazwę domeny zawierającą słowa kluczowe? Tak, ale tylko jeśli cała reszta też się zgadza. Jeśli całą strategia SEO będzie dobrze prowadzona, nazwa domeny zawierająca słowa kluczowe będzie miłym dodatkiem. Niekoniecznie dla algorytmów Google, prędzej dla użytkowników którym łatwiej będzie zapamiętać nazwę Twojej strony i dzięki temu częściej będą do Ciebie wracać.

Branding w domenie

Po wspomnianej wyżej aktualizacji algorytmów branding stał się jeszcze ważniejszy niż kiedykolwiek. O wiele bardziej opłaca się skupić na skutecznym brandingu w SEO i nazwie domeny. Nic dziwnego, większość firm wybiera taki sposób. Jeśli nazwa Twojej firmy jest prosta i łatwa do zapamiętania, to o wiele lepiej ją umieścić w nazwie domeny niż słowa kluczowe.

Oczywiście przed wyborem nazwy marki należy się upewnić, czy jest ona unikalna oraz czy właściwa domena jest dostępna do zarejestrowania. Czasem warto wykupić również tę samą nazwę z różnymi domenami top-level, choć dla małych przedsiębiorstw może to być zbyt wysoki koszt. Pamiętacie sytuację z gmail.pl? Do dziś Google nie uzyskało dostępu do tej domeny, choć Grupa Młodych Artystów i Literatów już nie istnieje od dobrych paru lat.

Z drugiej strony wykupienie wielu domen nie ma dużego wpływu na SEO ani na branding. Jeśli zamierzasz wykupić inne domeny tylko po to, żeby stworzyć przekierowanie 301, to może to nie mieć większego sensu. Jeśli zdecydujesz się na kupno kilku domen, upewnij się, że informacje zawarte w ich strukturze pozwolą je dobrze zidentyfikować algorytmom Google, w przeciwnym razie będziesz sam sobie robił konkurencję.

Ruch organiczny jako pomoc w działaniu lokalnego SEO

SEO

W ostatnich latach sposób oceniania przez Google lokalnych firm bardzo się zmienił. Dzięki upowszechnieniu urządzeń mobilnych z dostępem do internetu i lokalizacji, wpływ lokalnego SEO stał się większy niż kiedykolwiek. Dawniej wystarczyło zbudować bazę fraz kluczowych, napisać serię precli czy kupić miejsca w bazach linków. Wtedy można już było liczyć na wysoką pozycję w SERP w Google dla interesujących nas słów kluczowych. Obecnie sytuacja jest znacznie bardziej zawiła.


Z kolejnymi aktualizacjami algorytmów Google podejmowało coraz bardziej śmiałą walkę ze spamerskimi i nieetycznymi metodami podbijania rankingów. Dziś to zjawisko już właściwie nie występuje.

Lokalne SEO a klasyczne podejście

Istnieją dwa oczywiste powody dlaczego tradycyjne, organiczne SEO wiąże się z lokalnym:

  • Siła organiczna wpływa na lokalne rankingi
  • Lokalne firmy potrzebują rankingów organicznych

Dlatego dzisiejsze agencje marketingowe nie mogą działać bez wpływu organicznego SEO. Pozycjonowanie jest dużo łatwiejsze do zmierzenia niż skuteczność normalnych akcji marketingowych. Widzimy pozycję w rankingach dla wybranych słów kluczowych, liczbę kliknięć w nasze linki itp.

Dla lokalnych firm działania SEO pozwalają na zdobycie widoczności. Dzięki temu gdy ktoś znajdujących się w pobliżu danej firmy zacznie szukać usług które ona oferuje, szansa na wybranie danego przedsiębiorstwa znacznie rośnie.

Jak Google pozycjonuje wyniki w lokalnych wyszukiwaniach?

Według najnowszych zaleceń Google, największy wpływ na pozycję w rankingach lokalnych przedsiębiorstw ma:

Adekwatność. Czy osoba szukająca danego towaru czy usługi może to zrobić w Twojej firmie? Czy na Twojej stronie znajdzie odpowiedzi na nurtujące pytania?

Dystans. Jak daleko znajduje się Twoja placówka od użytkownika? Im jesteś bliżej klienta, tym wyżej znajdziesz się w rankingach.

Renoma. Na ten czynnik składa się wiele elementów. Do najważniejszych zaliczyłbym liczbę recenzji, lokalny content oraz zewnętrzne linkowanie.

Kwestie techniczne strony

Dla SEO niezwykle istotne są również kwestie techniczne stron internetowych. Warto im się przyjrzeć, a Twoja pozycja w rankingach z pewnością się polepszy. Po pierwsze sprawdź, czy wszelkie ważne podstrony na Twojej witrynie mają uzupełnione tagi tytułowe oraz dane meta. Co to takiego? To opis który widzą użytkownicy Google po wpisaniu odpowiedniej frazy kluczowej.

Zwróć uwagę na ich długość. Tag tytułowy powinien mieć między 40 a 50 znaków, a opis meta nie więcej niż 160 znaków. Jeśli będą one dłuższe, Google je przytnie, przez co nie będą się wyświetlać dobrze w wyszukiwarce. Limit ten może wydawać się niski, ale i tak jest dłuższy niż jeszcze parę lat temu.

Google My Business

Dla każdego kto chce prowadzić dobrą strategię lokalnego SEO, obecność w usłudze Google My Business jest obowiązkowa. Dzięki niej znajdziesz się w Mapach Google. Wystarczy zarejestrować w Google My Business swoją działalność i podać swój fizyczny adres. Tam zostanie wysłany list z kodem weryfikującym. Po wpisaniu go będziesz mógł zarządzać obrazem swojej działalności w Google.

Google My Business pozwala na dodanie adresu, numeru telefonu, maila czy godzin otwarcia. Użytkownicy będą również w stanie oceniać Twoją firmę i wystawiać opinie. Pamiętaj, żeby wszelkie dane teleadresowe podane w Google My Business zgadzały się z tymi opublikowanymi na stronie, tylko wtedy algorytmy szukające dobrze powiążą dane podane w usłudze z Twoją stroną internetową, ma to również wpływ na SERP.

Narzędzia dzięki którym dane z wyszukiwarek będą bardziej wartościowe

Pozycjonowanie

Sekcja Search Analytics w Google Search Console daje Ci pogląd na to jak Twoja strona radzi sobie w Google z wybranymi frazami kluczowymi. Otrzymujesz esencję danych dotyczących SEO – wrażenia, kliknięcia czy CTR zarówno na poziomie zapytania jak i strony.


 

Niestety, narzędzie to ma pewne limity

Ciężko jest nawigować pomiędzy stronami i zapytaniami. Twoje strony są zazwyczaj optymalizowane pod więcej niż jedną frazę. Może dojść do zjawiska kanibalizacji. Dodatkowo podstrony mogą wymieniać się pozycjami w SERP dla tych samych zapytań.

90 dni danych to zdecydowanie za mało. Google utrudnia śledzenie trendów długoterminowych oraz dokonywanie porównań np. kwartał do kwartału czy rok do roku.

W Search Console jest dużo danych, ale ciężko jest dotrzeć do szczegółów. Czy nie byłoby wspaniale jeśli moglibyśmy wiedzieć więcej o zmianach danych czy krzywej CTR?

Na szczęście istnieją programy, które potrafią zintegrować się z Search Console i ułatwić pracę z danymi, dzięki czemu możesz dojść do lepszych wniosków.

Console Rocket

Console Rocket to darmowe narzędzie stworzone przez platformę SEO Linkdex. Program ten daje Ci dostęp do naprawdę olbrzymiej ilości danych. Dla pojedynczej witryny może zwrócić nawet dziesiątki tysięcy fraz kluczowych. Można je potem eksportować.

Console Rocket potrafi również odpowiednio uporządkować frazy kluczowe kierujące na Twoją stronę. Narzędzie może między innymi tagować słowa kluczowe na te opatrzone nazwą Twojej marki i te bez niej.

Co więcej, można je filtrować, dzięki czemu łatwiej dotrzeć do interesujących nas słów kluczowych. Najprostsze filtry dotyczą słów kluczowych które ostatnio przestały prowadzić do Twojej strony oraz fraz które działają od niedawna. Możesz również wyświetlić swoje najlepsze i najgorsze podstrony pod względem kliknięć i CTR.

Search Analytics For Sheets

Search Analytics For Sheets to kolejne darmowe narzędzie. Oferuje możliwość udostępnienia danych z Search Console do Arkuszy Google. Razem z tym dochodzi wiele różnych funkcji nie dostępnych w normalnym interfejsie. Dodatkowo masz możliwość pracy w arkuszu.

Integracja między usługami jest prosta i przyjemna. Po otwarciu prawej zakładki zobaczysz szereg funkcji niezbędnych przy analizie otrzymanych danych. Możesz podzielić dane według dat, podstron, fraz kluczowych, kraju i urządzenia.

Największa siła tego rozwiązania to zarówno największa słabość – chodzi o Arkusze Google. Musisz lubić pracę z arkuszami i być przygotowanym do dużej obróbki danych przed otrzymaniem wyników. Jeśli lubisz tego rodzaju zabawy, Search Analytics For Sheets z pewnością ułatwi ci sprawę.

W Search Analytics For Sheets możesz również tworzyć wykresy, raporty oraz dokumenty dostępne od udostępnienia. Możliwość planowania backupów również działa świetnie. Dzięki nim możesz zachować swoje dane bez ryzyka utraty.

Search Console Helper

Ostatni produkt na liście jest płatny. Kosztuje 299 euro za roczną licencję, można za to wypróbować darmową wersję testową. Search Console Helper jest programem do ściągnięcia i uruchomienia lokalnie na komputerze. Niestety, istnieje jedynie wersja na Windowsy, na innych systemach nie da się go natywnie odpalić. Plusem wersji desktopowej jest brak konieczności podpięcia do sieci.

Wszystkie wymienione w tym artykule narzędzia korzystają z tych samych danych API, więc otrzymuje się podobne informacje. Search Console Helper idzie jednak o krok dalej. Kupując program otrzymujesz dodatkowe funkcje niedostępne w darmowych odpowiednikach, na przykład możliwość łączenia danych Google Analytics z innymi danymi pozyskanymi przez Ciebie, na przykład dotyczącymi backlinków.