Miesięczne archiwum: Kwiecień 2014

Google aktualizuje Webmaster Guidelines ? sprawdź co się zmieniło!

GoogleGoogle wczoraj na blogu Webmaster Central zamieściło informację, że wprowadziło zmiany do najnowszej wersji Webmaster Guidelines w sekcji dotyczącej przekierowań, szczególnie tych ?nietypowych?.

Jak doskonale wiemy, Webmaster Guidelines jak i samo Google stoją w ścisłej opozycji to wszelakiego rodzaju przekierowań, których podstawowym celem jest manipulacja lub próba oszukania wyszukiwarki internetowej poprzez wyświetlanie innej treści ludziom a innej algorytmom.

Aktualizacja Webmaster Guidelines w tym zakresie dotyczyła przede wszystkim uzupełnienia wiedzy o przypadki przekierowań w urządzeniach mobilnych. Google podaje tutaj przykład przekierowania, o której chodzi: Czytaj dalej

Matt Cutts: O title tagach raz jeszcze!

SEOWiem, że ostatnio publikowałem tekst na temat title tagów i tego jak powinny wyglądać po ostatnich zmianach w SERPach jednak kiedy głos w tej sprawie zabiera sam Matt Cutts nie mógłbym tego pominąć i nie podzielić się z Wami najświeższą informacją.

Głównodowodzący w Google w wydziale walki ze SPAMem postanowił wytłumaczyć kontrowersyjną według wielu kwestię:

?dlaczego w wynikach wyszukiwania mogą pojawić się inne tytułu niż znajdujące pomiędzy znacznikami title??

Cutts zasugerował, że tak naprawdę rozwiązanie to wyjdzie wszystkim na dobre. Webmasterzy, pozycjonerzy i osoby od marketingu internetowego będą poświęcali więcej uwagi szukając najbardziej optymalnych tytułów. Kiedy wreszcie się to uda i będą one odpowiadały temu co interesuje użytkowników, wtedy z całą pewnością nie zostaną zmienione i cały title tag pozostanie nianaruszony. Czytaj dalej

Google: Brak ograniczeń co do liczby linków na stronie

GooglePrzez wiele lat wśród pozycjonerów utarło się przekonanie, że im więcej linków na stronie tym gorzej może ona być oceniana przez Google. W 2008 roku Gigant z Mountain View zniósł jednak wcześniej narzucany limit 100 odnośników na jedną witrynę. W zeszłym roku natomiast Matt Cutts ponownie poruszył ten temat potwierdzając, że algorytm nie ustawia już limitu 100 linków ? głównodowodzący oddziału walki ze SPAMem nie powiedział wtedy jednak czy granica taka kiedykolwiek istniała.

Wszelkie wątpliwości rozwiał jeden z pracowników Google ? John Mueller. W temacie na forum Google Webmaster Help stwierdził, że limity tego typu nigdy nie istniały. Napisał między innymi:

?Nie ma żadnych ograniczeń co do liczby linków na stronach. Niezależnie od ich ilości nie mają one wpływu na to jak rankingowany jesteś w wynikach wyszukiwania.?

Oczywiście sprawa wygląda całkowicie inaczej kiedy mówimy o linkach nienaturalnych i spamerskich ? wtedy mogą w bardzo dużym stopniu wyrządzić krzywdę osiąganym w SERPach rezultatom. Teraz wiemy jednak, że nie ma rzeczywistego ograniczenia liczby linków na stronie. Czytaj dalej

SEO dla początkujących: Tworzymy ?idealny? tytuł strony

SEOO ile temat tworzenia title tagów był już wałkowany miliony raz to po ostatnich zmianach, które zaszły w algorytmach Google warto ponownie przybliżyć sobie to zagadnienie i zobaczyć co możemy zmodyfikować w naszej dotychczasowej strategii.

Musimy pamiętać, że czcionka w SERPach zwiększyła się z 16 do 18 pikseli i usunięte zostało podkreślenie. W rezultacie, wyniki wyszukiwania wydają się czytelniejsze i bardziej przejrzyste. Jednocześnie jednak zmalała liczba znaków, które zmieszczą się w tytule czy też opisie strony zanim zostaną automatycznie ucięte.

Przez lata wszyscy twierdzili, że idealny tytuł SEO nie powinien przekraczać długości 70 znaków. Po zmianach w tym roku mówi się natomiast o szerokości w pikselach ? tytuł nie powinien być ?szerszy? niż 512 pikseli (zazwyczaj daje to 55-60 znaków).

Czy Google nagle przeszło z pikseli na znaki? Nie. Zawsze chodziło o piksele. Google używa proporcjonalnej czcionki Arial. Oznacza to, że cienkie znaki takie jak 1 lub l zajmują mniej miejsca niż 5 lub M. Przeliczanie całości na znaki było po prostu łatwiejsze w zrozumieniu. Dlatego nowy standard to 55-60. Oczywiście im mniej tym większa szansa, że tytuł nie zostanie ucięty.

Poniżej krótka lista najważniejszych rzeczy, o których powinieneś pamiętać przy tworzeniu tytułów stron/wpisów: Czytaj dalej

Matt Cutts: Jak małe strony mogą rywalizować z ?wielkimi rybami?

GoogleWujek dobra rada ? Matt Cutts ? po raz kolejny odpowiada na pytania jednego z internautów. Tym razem głównodowodzący oddziału anty-spamowego w Google skupił się na temacie poprawy wyników w SERPach:

?W jaki sposób małe strony z bardzo dobrymi treściami mogą kiedykolwiek pokonać te posiadające ogromny traffic? Jest to zamknięte koło ? większy gracz z powodu swoich możliwości przyciąga więcej Internautów i robi się jeszcze większy. I tak w nieskończoność.?

Cutts swoją odpowiedź zaczyna od tego, że posiadanie dużej marki nie zawsze oznacza ogromny ruch na stronie i lepsze pozycjonowanie w wynikach wyszukiwania. W wielu przypadkach nie jest to prawdą ? często to małe strony są w stanie szybciej podać świeże i nowe treści. Możliwość ta jest narzędziem pozwalającym na zajęcie wyższych rankingów. Czytaj dalej

Jak zarządzać wieloma stronami WP jednocześnie?

Social Media SphereJako osoby aktywnie działające w światku internetowym na pewno prowadzicie, zarządzacie dużą ilością stron. Mogę się założyć, że ich większość postawiona jest na WordPressie. Często spotykam się z pytaniami/komentarzami czy istnieje narzędzie pozwalające na administrowanie każda z nich z jednego kokpitu?

Wyobraź sobie, że posiadasz kilkanaście stron zapleczowych lub blogów tematycznych w danej niszy i w przypadku każdego musisz logować się niezależnie, dodawać teksty, tagi, itd. Męczące prawda? Na całe szczęście istnieje rozwiązanie ? szkoda, że nie natrafiłem na nie wcześniej… :P

Odpowiedzią na potrzeby ogromnej ilości pozycjonerskiej/internetowej społeczności jest CMS Commander. Wszystkie strony WP dostępne w jednym kokpicie! Dzięki temu posiadasz swoje własne centrum dowodzenia, do którego wystarczy jeden login i jedno hasło. Czytaj dalej

Matt Cutts: Jak uniknąć kupna domeny ukaranej przez Google?

GoogleW najnowszym materiale na oficjalnym kanale Google Webmaster Help w serwisie YouTube, Matt Cutts odpowiada na kolejne pytania jednego z Internautów. Tym razem głównodowodzący zespołu ds. walki ze SPAMem w Gigancie z Mountain View został zapytany o problem zakupu domen z potencjalnymi karami nałożonymi przez algorytm:

?Jak możemy sprawdzić czy domena (kupiona poprzez rejestratora) kiedykolwiek w historii miała problemy z Google? Ostatnio kupiłem adres i okazało się, że nie jest on indeksowany w wyszukiwarce ? przez co musiałem przejść mozolny proces jego przywrócenia. W jaki sposób mogłem uniknąć problemu??

W kilkuminutowym materiale wideo (na końcu postu) Matt Cutts podaje kilka zasad i sposobów, dzięki którym upewnimy się, że nie kupujemy nazwy, która z powodu wcześniejszych działań spamerskich jest spalona w oczach Google. Po pierwsze warto wyszukać adresu w wyszukiwarce poprzez komendę ?site:domena.pl?. Jeżeli nie ujrzymy żadnych rezultatów dla tej konkretnej domeny, wtedy możemy potraktować to jako zły znak. Czytaj dalej

Google atakuje kolejną sieć gościnnych wpisów blogowych

GoogleMatt Cutts potwierdził wczoraj na Twitterze informację, że Google podjęło działania odnośnie kolejnej sieci gościnnych wpisów blogowych. Mowa tutaj o anglojęzycznym PostJoint. Co prawda wielu użytkowników twierdzi, że algorytmy nie zostawiły po całej akcji żadnych śladów, to osoby korzystające z usług PostJoint miały zauważyć spadek rankingów.

Jak się okazuje, jeżeli w pasku wyszukiwania wpisze nazwę sieci guestbloggingowej to ciężko szukać jej na pierwszej stronie a co dopiero na pierwszych miejscach wyszukiwania. Niedawno podobna kara została nałożona na My Blog Guest ? bardzo podobną stronę do wymiany wpisów na blogach. PostJoint po całej sprawie skierowało oficjalne pismo do Google stwierdzając, że ich działalność całkowicie różni się od tej prowadzonej przez My Blog Guest. Miało to pozwolić na uniknięcie przyszłych, potencjalnych kar.

Wszystko wskazuje więc, że obie sieci nie różniły się zbyt wiele od siebie jeżeli PostJoint również zostało ukarane. Czytaj dalej

Raport Google: Płatne kliknięcia 26% w górę, Cost-Per-Click 9% w dół

GoogleGoogle opublikowało po zamknięciu wczorajszej sesji na amerykańskiej giełdzie raport z działalności za pierwszy kwartał 2014 roku. Przychód Giganta z Mountain View wyniósł w tym okresie 15,4 miliarda dolarów, dochód netto 3,45 miliarda co w przeliczaniu daje dywidendę w wysokości 5,04 dolarów na pojedynczą akcję.

O ile przychody wzrosły o 19% a zysk o 3%, to dane nie zrealizowały założeń Wall Street. Analitycy spodziewali się średniego zysku na akcji z dywidendy w wysokości 5,28 dolara i przychodu większego o 0,1 miliarda. O ile jeszcze przed zamknięciem dnia akcje Google poszły w górę o 3,75% do 20,10 dolara to po otwarciu dzisiejszego ranka po kilku godzinach spadły do 17 dolarów.

W raporcie czytamy również, że płatne kliknięcia wzrosły o 26% w porównaniu z ostatnim okresem rozliczeniowym jednak wskaźnik CPC (Cost per Click) mówiący o efektywności reklamy po raz kolejny spadł w dół.

Bardziej szczegółowe informacje odnośnie raportu znajdziecie w dalszej części postu:       Czytaj dalej

Co użytkownicy Google sądzą o Pingwinie 2.1 oraz narzędziu Disavow? [ankieta]

GoogleSearch Engine Roundtable przeprowadziło wśród swoich użytkowników ankietę, badając poziom zadowolenia z poszczególnych działań giganta wyszukiwarkowego Google. najwięcej odpowiedzi ? zbieranych w przeciągu ostatnich miesięcy ? napłynęło w związku z aktualizacją wyszukiwarki do Pingwina 2.1. oraz narzędzia Disavow. Jak się okazuje zdania na ich temat są wśród użytkowników bardzo mieszane, żeby nie powiedzieć negatywne.

Pingwin 2.1 ? gorzej niż mogłoby się wydawać

Odpowiedzi na pytanie kwestionariusza odnośnie najaktualniejszej wersji algorytmu Pinguin 2.1 udzieliło prawie 30 tysięcy respondentów. Z podsumowania wynika, że 70% z nich zauważyło znaczny spadek ilości odwiedzających po aktualizacji! Oznacza to, że praktycznie ? ankietowanych ma negatywne odczucia odnośnie najświeższego pingwinka. 7% raportowało powrót wyników w SERPach do normalności po spadkach związanych z wcześniejszą wersją algorytmu i jedynie 6% stwierdziło, że zauważyło wzrost ruchu. Przy sumie zerowej wyszukiwarki wiadome jest, że jeżeli ktoś traci, ktoś musi zyskać. 17% zaznaczyło natomiast odpowiedź, ze aktualizacja algorytmu nie wpłynęła na ich strony w żaden wyraźniejszy sposób. Czytaj dalej