Kilka słów o optymalizacji strony (on-site SEO i kwestie techniczne)

optymalizacja strony

Wiele osób myśli, że wystarczy „postawić stronę” na WordPress, zainstalować kilka wtyczek i już, gotowe. Cała reszta „zrobi się sama”.. Optymalizacja strony? Zainstaluję wtyczkę SEO Yoast i po problemie…
Jest to na pewno pomocne, ale czy można zrobić coś więcej, żeby wypaść lepiej w wynikach wyszukiwania na tle konkurencji, która w ten sposób myśli i działa?
W dzisiejszym wpisie trochę o czynnikach „na stronie” (on-site) wpływających na ranking w wyszukiwarkach, w tym o kwestiach technicznych związanych z kodem strony.

Już podczas tworzenia strony www powinniśmy brać pod uwagę czy kod jest zoptymalizowany dla SEO („SEO friendly”). Poprawianie już istniejącej strony może się okazać bardziej czasochłonne i wymagać większych nakładów (szczególnie w przypadku dużych serwisów e-commerce).

Czym są czynniki rankingowe On-site SEO?

Czynniki rankingowe „on-site” wiążą się z zawartością strony internetowej, zarówno jeżeli chodzi o treść, jak i kod HTML. Czynniki on-site SEO są podstawowym aspektem podczas tworzenia audytu strony.

Co powinno się znaleźć na zoptymalizowanej stronie i jak powinna być „zbudowana”?

  • Treść powinna być wysokiej jakości, pisana dla użytkownika, a nie dla robotów wyszukiwarek (min. 700 słów). Nie powinny zawierać błędów (ortograficznych i innych). Stronami „spamowymi” o niskiej jakości zajmie się m.in. algorytm Google Panda.
    Treści i zasoby na stronie powinny być tak dobre, że użytkownicy będą chcieli podzielić się nimi z innymi i zamieszczać odnośniki do nich.
  • Wyszukiwana fraza docelowa powinna znajdować się w nagłówku strony i być związana tematycznie z zawartością całej strony.
  • Wyszukiwana fraza docelowa powinna być zawarta w co najmniej jednym nagłówku.
    Sugerowane jest, aby element H1 znalazł się jeden raz na stronie i najlepiej, aby był związany z tytułem strony.
    Wskazane jest także użycie podtytułów H2, H3 itd. w dalszej części strony.
  • Wyszukiwana fraza docelowa powinna powtarzać się kilka razy na konkretnej stronie. Nie należy zbyt gęsto powtarzać frazy, ponieważ strona może być uznana za spam. Warto używać synonimów słów kluczowych.
  • Strona powinna zawierać odpowiednie grafiki, które pomogą zilustrować frazę docelową i uatrakcyjnić stronę dla użytkownika (zyskując na jakości).
  • Podpisy do zdjęć lub grafiki powinny zawierać frazę docelową.

  • Należy włączyć obsługę mediów społecznościowych na stronie, dzięki czemu jest ona postrzegana jako bardziej wiarygodna, aktualna i atrakcyjna. Przy okazji może pomóc w zdobyciu wartościowych linków do naszej strony (czynnik off-page).
  • Ważne, żeby kod był zgodny z W3C, aby roboty mogły stronę bez przeszkód przeczytać i zaindeksować.
    Zaleca się przeniesienie skryptów .css i .js do plików zewnętrznych, aby zmniejszyć ilość kodu. Umożliwia to również użytkownikom buforowanie tych plików za pierwszym razem, w ten sposób, wyszukiwarki nie będą musiały pobrać tych plików cały czas; co wpływa na szybsze ładowanie strony.
  • Często wskazuje się również na stosunek treści do kodu strony jako ważny czynnik SEO; warto, aby przeważała treść, wtedy łatwiej robotom indeksującym skategoryzować stronę i jest większe prawdopodobieństwo, że uzna ją za bardziej wartościową.
  • Adres URL powinien zawierać słowa kluczowe (max. długość adresu to 115znaków). Zaleca się unikać upychania słów kluczowych („keyword stuffing”).
  • Strona powinna zawierać przyjazne adresy URL
  • Każda strona powinna mieć UNIKALNY tytuł (zamknięty w TITLE tagu), zawierać słowa kluczowe lub frazy docelowe; zaleca się też długość do 70 znaków lub mniej (tutaj najlepszą zasadą jest wprowadzanie słów jak najbliżej początku tytułu, żeby Google go nie obcięło).
  • Opis w META tagu: Nawet jeśli wyszukiwarki nie uznają opisu w META tagu jako czynnika rankingowego strony, to taki opis jest istotny dla odbiorców strony i może on zaważyć na tym, że to akurat Twoja strona zostanie klinkięta spośród wszystkich wyników wyszukiwania.. Powinien on zawierać słowa kluczowe. Sugerowana długość do niż 160 znaków, ale zasada jest podobna jak przy tutule – im bliżej początku, tym większe prawdopodobieństwo, że Google nam go nie skróci.
  • Dane strukturalne i mikroformaty to elementy, które wzbogacają zwykły wynik wyszukiwania o dodatkowe elementy, pomagają robotowi wyszukiwarki lepiej zrozumieć zawartość strony; o ile teoretycznie (jeszcze) nie są czynnikiem rankingowym, to mogą poprawić widoczność strony w wynikach wyszukiwania (SERP-ach) – dzięki czemu strony takie mogą być lepiej „klikalne” spośród innych wyników organicznych (wyższce CTR).
  • Tekst alternatywny obrazka powinien zawierać słowo kluczowe w znaczniku ALT; nazwa pliku również powinna odpowiadać temu co przedstawia obraz.
  • Wskazane jest użycie linków do innych stron na swojej stronie lub innych zasobów tak, aby były powiązane tematycznie ze stroną oraz były wartościowe dla użytkownika. Google może ukarać stronę zawierającą więcej niż 100 linków (tzw. farmy linków).
  • Linkowanie wewnętrzne: Kilka linków wewnętrznych (do innych stron w ramach naszej strony) są pozytywnie odbierane przez Google, zwłaszcza jeśli mamy podobną tematykę strony. Dzięki temu zwiększamy szansę na to, że użytkownik znajdzie jak najwięcej potrzebnych mu treści na naszej stronie (i spędzi na niej więcej czasu); a przy okazji pomożemy robotowi Google szybciej zaindeksować i kategoryzować naszą stronę (Więcej o linkowaniu wewnętrznym tutaj).
    Należy uważać na nieaktualne linki i wystrzegać się błędnych powiązań z nieistniejącymi już zasobami; może to spowodować, że serwis będzie gorzej postrzegany (informacje o błędach można znaleźć w narzędziach dla webmasterów).
    W przypadku większych serwisów warto zwrócić uwagę na problem z duplikacją treści i w razie konieczności stosować w nagłówku rel = canonical.
  • Zaleca się tworzenie stron przeznaczonych dla ekranów urządzeń mobilnych, w szczególności Google zaleca tworzenie stron responsywnych.
  • Zaleca się zminimalizować czas ładowania strony poprzez m.in. optymalizację i cache i
    optymalizację obrazków. Warto skorzystać z narzędzia Google Page Speed, aby sprawdzić wskazówki Google jak konkretnie możemy przyspieszyć działanie naszej strony.

on_page_seo_infographic
Źródło: backlinko.com

Czy wszystko to zrobi za nas automatyczne narzędzie wtyczka SEO Yoast? Myślę, że część rzeczy owszem, ale potrzebna jest jej odpowiednia konfiguracja i użycie „z głową” przy każdym dodawanym artykule.
Być może trochę wykroczyłam poza tematykę stricte „on-site SEO”, ale mam nadzieje, że będzie to ocenione na plus.

Duplicate content a WordPress SEO

duplicate content pictures

WordPress jest uważany za system CMS przyjazny wyszukiwarkom internetowym. Gdy zainstalujemy dodatkowo kilka przydatnych wtyczek jak SEO by Yoast czy Yet Another Related Posts Plugin (YARPP) staje się on jeszcze bardziej przyjazny wyszukiwarkom. Niemniej czasem zdarza się, że nie da się uniknąć powielania treści tzw. duplicate content. Niestety konsekwencją powielania treści często jest kara od Google i spadek w wynikach wyszukiwania.
Postaram się naświetlić, gdzie może się nam pojawić taki problem, jak sobie z nim poradzić i co na to wyżej wymienione wtyczki…

Jak sprawdzić czy moja strona ma zduplikowane treści lub czy nasze treści zostały skopiowane?

  • Najprostszym sposobem, żeby wyszukać zduplikowane treści jest skopiowanie tytułu lub fragmentu artykułu w cudzysłów i wpisanie do wyszukiwarki.
    W tym momencie myślę, że warto wspomnieć o takim operatorze wyszukiwania jak „intitle:”
    W polu wyszukiwania Google wpisujemy: site:strona.pl intitle:"slowo"
  • Można również skorzystać z wyszukiwarki skopiowanych treści z naszej witryny w internecie: copyspace.
  • Inna ciekawa wyszukiwarka www.siteliner.com pozwala sprawdzić jak wygląda duplicate content w ramach naszego serwisu. Wnioski z raportów generowanych przez ten serwis nasuwają się same. Trzeba bardzo uważać z tworzeniem opisów każdej strony, bo może on być uznany za kopię.
    Przykład pokazuje, że zaznaczony na różowo fragment jest powtórzony w 2 innych miejscach w ramach serwisu.
    siteliner duplicate content
    Innym ciekawym narzędziem do sprawdzenia linków, tytułów, nagłówków na stronie jest seo spider.
  • Google Webmasters Tools (lub Google Search Console)
    Klikając Status w wszyukiwarce – Udoskonalenia HTML Google wskazuje właścicielowi witryny czy istnieją problemy z meta opisami na stronie (również tytułami).
    duplicate gsc
  • Parametry skryptów PHP

    W Google Webmaster Tools (Google Search Console) mamy możliwość wskazać, które parametry mają być ignorowane, aby uniknąć duplikacji treści np. dla adresów http://strona.pl/podstrona?color=1
    http://strona.pl/podstrona?color=2

    URL parameters
    W systemie WordPress sytuacja często dotyczy systemu komentarzy.

    Dodawanie artykułu do kilku kategorii, tagów…

    Jak już mogliśmy zauważyć w Google Webmaster Tools (Google Search Console) jeśli strona ma ten sam tytuł lub zduplikowane opisy, to jest to sygnalizowane jako błąd.
    Kiedy mamy sytuację, że jeden artykuł jest dodany do dwóch kategorii, możemy zmodyfikować tytuł np. dodając do niego nazwę kategorii. Google potraktuje te tytuły jako różne.
    We wtyczce SEO by Yoast możemy ustawić tytuły dla stron kategorii, tagów, archiwum, archiwum autora, wyniki wyszukiwania, stronicowania itp.
    seo yoast titles

    Ustawienie we wtyczce SEO by Yoast, aby kolejne strony archiwum nie były indeksowane:
    seo yoast pagination
    Jeżeli chcielibyśmy ręcznie ustawić nagłówki można je ustawić tak:
    if ( $paged >1 ) {
    echo '< meta name="robots" content="noindex,follow" />';
    }
    if (is_search() ) {
    echo '< meta name="robots" content="noindex,follow" />';
    }
    if (is_archive() ) {
    echo '< meta name="robots" content="noindex,follow" />';
    }
    if (is_tag() ) {
    echo '< meta name="robots" content="noindex,follow" />';
    }
    if (is_trackback() ) {
    echo '< meta name="robots" content="noindex,follow" />';
    }

    Przekierowania 301 i tag „canonical”

    Rozwiązaniem problemu powielanej treści, sugerownym przez Google, jest skorzystanie z tagu rel=”canonical” lub użycie przekierowania. Używając tag rel=”canonical” wskazujemy, na której stronie znajdują się oryginalne treści, a które strony chcemy wyeliminować z wyników wyszukiwania.
    < link rel="canonical" href="http://strona.pl/produkt" />
    Z pomocą również przychodzi wtyczka SEO by Yoast – poniższa opcja jest dostępna pod każdym artykułem w zakładce zaawansowane.
    Canonical url
    Używając przekierowania 301 dla starego adresu również sugerujemy wyszukiwarce, który adres chcemy wyeliminować z indeksu.

    Adres strony z www i bez www

    Zarówno z punktu widzenia użytkownika jak i z punktu widzenia wyszukiwarki nie ma znaczenia czy strona jest z www czy bez. Niemniej Google radzi aby zdecydować się na jedną wersję, żeby uniknąć „duplicate content”.

  • Warto dodać naszą stronę do Google Webmaster Tools i wskazać jaki adres chcemy zachować z czy bez www.
    Google Search Console settings page
  • W kokpicie w Ustawieniach głównych wskazujemy adres naszej strony i system automatycznie tworzy poprawny plik .htaccess.
    powinien on wyglądać mniej więcej tak:
    RewriteEngine On
    RewriteCond %{HTTP_HOST} ^strona.pl$ [NC]
    RewriteRule ^(.*)$ http://www.strona.pl/$1 [R=301,L]
  • Nasza strona pod kilkoma, różnymi adresami www

    Może się zdarzyć sytuacja, że np. przenosimy stronę pod inny adres www. Gdy stara strona nadal widnieje w wynikach wyszukiwania i uruchamiamy nową, pojawia nam się ta sama treść w różnych miejscach. Robot wyszukiwarki to taki bardzo zagubiony użytkownik, nie wie którą powinien czytać czy ocenić wyżej (trochę upraszczając, bo wiadomo, że to nie jedyny wyznacznik tworzenia rankingu przez wyszukiwarki). Wie jednak, że ma karać w przypadku powielania treści (algorytm Google Panda).
    Z pomocą przychodzi samo Google (Webmaster Tools), które „pomaga w przenosinach naszej witryny”.
    Google Search Console move site

    Treści RSS

    Indeksowane treści z naszego kanału RSS, które pojawiają się na innych stronach mogą być uznawane przez roboty Google za zduplikowaną treść. Nie ma w tym nic złego, o ile treść jest przydatna użytkownikowi, a nie tylko generowaną treścią w celu podbijania rankingu w Google. Nie ma idealnego sposobu przeciwdziałania „kradzieży” naszej treści. Na szczęście Google coraz lepiej potrafi rozpoznać źródło treści kanałów RSS. Dobrze jest jednak dopilnować, aby adresy w naszym RSS-ie były adresami bezwzględnymi (cała ścieżka do naszej strony/artykułu).
    We wtyczce SEO by Yoast w ustawieniach zaawansowanych mamy możliwość dodać linki zwrotne do naszej strony i artykułów:
    seo yoast rss
    Można również za pomocą wtyczki YARPP dodania po treści artykułu listy powiązanych z nim wpisów.
    yarpp rss

    Pozbywanie się niechcianych linków z indeksu Google

    Może zdarzyć się sytuacja, że Google zaindeksuje nam coś czego nie chcieliśmy zaindeksować. Co wtedy?
    Zaglądamy do Google Webmasters Tools: możemy albo wysłać prośbę o usunięcie linku do Google lub użyć pliku robots.txt, aby określić sposób indeksowania.
    GSC removal
    Więcej na temat użycia pliku robots.txt można znaleźć w tym artykule O linkowaniu wewnetrznym i indeksowaniu slow-kilka.

    Czy wersja mobilna strony jest uznawana za kopię strony?

    Zdarza się, że duże serwisy mają osobną wersję dla urządzeń mobilnych dostępną pod innym adresem np. m.onet.pl… W tym wypadku (uogólniając) mamy tą samą wersję witryny pod różnymi adresami. Jednak wyszukiwarki wiedząc o tym, że jest to mobilna wersja serwisu nie traktują jej jako duplikat. Strony mobilne są indeksowane przez specjalne roboty dla nich przeznaczone. Niemniej 21 kwietnia tego roku Google oficjalnie potwierdziło, że faworyzuje w wynikach wyszukiwania responsywne strony (Responsive Web Design); i to zarówno jeżeli chodzi o wyszukiwanie mobilne jak i tradycyjne.

    Na koniec kilka słów rozsądku o tym, że nie zawsze „duplicate content” musi zaszkodzić naszej stronie: Google’s Matt Cutts: A Little Duplicate Content Won’t Hurt Your Rankings

    W razie wątpliwości zachęcamy do skorzystania z naszych usług Audytu strony lub Optymalizacji strony.

    O linkowaniu wewnętrznym i indeksowaniu słów kilka

    WordPress jest skryptem powszechnie uważanym za „SEO Friendly”. Sam Matt Cutts (Google) zawsze go polecał i podawał pozytywne przykłady z nim zwiazane. Wiele czynników, które są ważne z punktu widzenia SEO jest w nim rozwiązanych i działają automatycznie po zainstalowaniu skryptu. A dużą część można rozwiązać instalując dodatkowe rozszerzenia czyli wtyczki. Wiele, może większość, ale pewnie nie wszystkie.
    Skupmy się na modyfikacjach, które warto wprowadzić zaraz po zainstalowaniu skryptu CMS, ponieważ nie są one zaimplementowane. Pomijamy celowo w tym momencie tematy dostępne w skrypcie WP takie jak:
    odnośniki bezpośrednie (Permalinks lub tzw. „ładne linki”), stronicowanie czy kategorie.

    W jaki sposób możemy pomóc stronie piąć się wyżej w wynikach wyszukiwania, poprawiając linkowanie wewnętrzne?

    Wpisy powiązane, najczęściej czytane itp.

    Wpisy powiązane są to artykuły powiązane tematycznie z aktualnie czytanym artykułem. Są one przydatne dla użytkownika zainteresowanego konkretnym tematem, a co za tym idzie również dobrze postrzegane przez robota Google.
    Można samemu spróbować zaimplementować tę funkcjonalność lub skorzystać np. z dosyć popularnej wtyczki Yet another related post plugin.
    Warto również pisząc artykuł odnosić się do własnych archiwalnych artykułów powiązanych oczywiście tematycznie. Przykład:
    Sprawdź również Darmowe wtyczki poprawiające Twój ranking w wyszukiwarkach seo 2. Myślę, że podlinkowane obrazki również są mile widziane, po pierwsze skupiają uwagę użytkownika, po drugie uatrakcyjniają suchy tekst.
    40 wskazówek jak zoptymalizować WordPressa Yoast
    Linki do najczęściej czytanych wpisów również przekładają się często na większe zainteresowanie użytkownika naszym blogiem, a robotów na szybszą i lepszą indeksację.

    Plik robots.txt

    Plik robots.txt mówi robotom wyszukiwarek jaki zasoby na naszej stronie mają indeksować.
    Cytując Wskazówki dla Webmasterów Google:

    Za pomocą pliku robots.txt możesz zablokować indeksowanie stron wyników wyszukiwania lub innych generowanych automatycznie stron nieprzydatnych użytkownikom przechodzącym do witryny z wyszukiwarek.

    Ostatnio czytałam, że plik robots.txt może nie tylko nieskutecznie blokować indeksowanie niektórych stron w SERP-ach, ale również może nam zaszkodzić, ponieważ blokujemy w ten sposób przepływ linków (link juice). Robot wyszukiwarki jak już trafi na naszą stronę/podstronę, a okaże się ona blokowana w robots nie może dalej jej indeksować (w tym linków wewnętrznych, a co za tym idzie całego serwisu). Dlatego jak zawsze przyda się zasada złotego środka..
    Tak może wyglądać przykładowy plik – być może w lekko „nadmiarowy”. W zasadzie 2 pierwsze linijki poniższego kodu by wystarczyły dla typowego bloga, a czasem w ogóle się go nie stosuje.
    Sitemap: http://www.mojastrona.pl/sitemap.xml

    User-agent: *
    Disallow: /cgi-bin/
    Disallow: /wp-admin/
    Disallow: /wp-includes/
    Disallow: /wp-content/cache/
    Disallow: /trackback/
    Disallow: /wp-content/themes
    Disallow: /comments
    Disallow: /category/*/*
    Disallow: */trackback/
    Disallow: */feed/
    Disallow: */comments/
    Disallow: /*?
    Disallow: /readme.html
    Disallow: /xmlrpc.php

    Allow: /wp-content/uploads

    User-agent: Googlebot-Image
    Disallow:
    Allow: /*

    Warto również przeczytać zalecenia twórców WordPressa tutaj.
    Należy również pamiętać, że np stron zduplikowanych nie dodaje się do robots.txt, lecz stosuje się tag
    rel=canonical.

    Mapa strony

    Mapa strony to plik z linkami wewnętrznymi naszej strony, które chcemy indeksować. Aby wygenerować mapę strony można np. skorzystać z wtyczki SEO Yoast, a następnie odpowiednio ją skonfigurować. Następnie jest ona automatycznie aktualizowana.
    SEO Plugin by Yost - sitemap
    Powyższa wtyczka jest moim zdaniem obecnie najlepszą wtyczką poprawiającą optymalizację witryny. W tym artykule skupiam się tylko na funkcjach związanych z linkowaniem, ale… umożliwia ona również edycję plików robots.txt i .htaccess, integrację z serwisami społecznościowymi, pomaga ona również chociażby w doborze tytułów, meat tagów dla każdego rodzaju stron.

    „Okruszki” (Breadcrumbs)

    „Okruszki” czyli linki w górnej części artykułu, wskazujące w którym miejscu serwisu aktualnie się znajdujemy.
    We wcześniej wspomnianej wtyczce SEO by Yoast również zaimplementowano Breadcrumbs.

    Warto również zoptymalizować liczbę tagów i kategorii, przemyśleć strukturę strony tak, aby najbardziej linkowane były strony najbardziej dla nas ważne/wartościowe (np. same artykuły czy strona główna), a mniej podstrony kategorii.
    Więcej na ten temat można znaleźć np. Co i jak indeksowac tagi czy kategorie.