Pozycjonowanie stron internetowych

Łukasz Stusio

Specjalista SEO

Opublikowane: 20 lipca, 2021
Kategoria:
5
(4)
  • SEO a pozycjonowanie – różnice znaczeniowe
  • Konsekwencje nastawienia na SEO a nastawienia na pozycjonowanie
  • Pojęcie informacji
  • Dlaczego nastawienie na SEO a nie na pozycjonowanie jest tak istotne?
  • Wprowadzenie do działań SEO
  • Co właściwie robi wyszukiwarka?
  • Co robi specjalista SEO?
  • Co robi klient?
  • Działania SEO w praktyce
  • Koncepcja E-A-T w budowaniu wartości witryny
  • Pozyskanie i uszeregowanie danych dotyczących fraz kluczowych
  • Korekta struktury witryny
  • Widoczność
  • Ruch
  • Performance
  • Optymalizacja techniczna
  • Analityka
  • Konwersja
  • Działania dodatkowe
  • Podsumowanie

Pozycjonowanie jako niewłaściwe tłumaczenie terminu SEO oraz konsekwencje z tego wynikające

SEO

Termin SEO jest znaczeniowo o wiele szerszy i głębszy niż spolszczone „pozycjonowanie”. Oznacza wszystkie działania mające na celu dostosowanie strony do wymagań wyszukiwarki. Wymagania te ewoluują i dlatego termin SEO lepiej oddaje charakter tych działań, gdyż ich nie definiuje z nazwy. W tym kontekście termin SEO jest uniwersalny i dynamiczny – jego znaczenie pozostaje takie samo, choć działania pod nim ukryte mogą być różne w zależności od okresu historycznego.

Pozycjonowanie

Pozycjonowanie natomiast postrzegam jako jednowymiarowy, statyczny termin odnoszący się jedynie do uzyskania wysokiej pozycji w wynikach wyszukiwania: SERP. Jest też archaiczny, gdyż trafnie definiował działania specjalistów w czasach, gdy faktycznie celem była pozycja. Od niej bowiem zależała w dużej mierze skuteczność projektu, czyli konwersja. Osiągało się to często wbrew zasadom SEO nakreślonym przez Google. Doprowadziło to do degeneracji sieci przez specjalistów poprzez praktyki nie tyle nieuczciwe, co godzące w interes i dobro użytkownika. Bez zdecydowanych działań Google i aktualizacji algorytmów wyszukiwarki stałaby się ona (wyszukiwarka, nie sieć) bezwartościowa. Stąd pozycjonowanie zawsze jest obarczone grzechem pierworodnym, jakim jest skupienie się na pozycji a nie na wartości strony.

Dlatego zaryzykuję stwierdzenie, że jeśli ktoś jest dziś specjalistą od pozycjonowania – to nie jest już specjalistą.

Aktualizacje algorytmów wymusiły poniekąd zmianę działań „starych” specjalistów, jednak często nie zmianę ich myślenia. Do dziś szereg firm pozycjonuje „30 fraz”, rozlicza się za efekt, tworzy bezwartościową treść czy skupia się na masowym linkowaniu zewnętrznym. Sieć nie jest już tak pusta jak dawniej, brakuje już nawet nazw dla domen. Konkurencja jest olbrzymia, klienci świadomi. Nieświadomi są natomiast często właściciele e-biznesów i nie jest to zarzut w ich kierunku – ufają agencji i jej specjalistom i niestety zbyt często rozczarowują się efektami tej współpracy.

Konsekwencje nastawienia na SEO a nastawienia na pozycjonowanie

SEO to nastawienia na użytkownika a nie na pozycję. Różnica zasadnicza, gdyż w coraz większym stopniu i systematycznie to UX oraz trafność content’u jest dla Google decydującym czynnikiem, czy strona jest warta wyświetlenia, a nie trick’i pozycjonerskie manipulujące prymitywnym z początku algorytmem.

Samo pojęcie UX oraz content również ewoluuje i w ujęciu SEO oznacza, czy strona odpowiada oczekiwaniom użytkownika (User Experience – User Expectations: zbieżność skrótów przypadkowa, ale jakże wymowna). Oznacza to, że już nie wystarczy nafaszerować treści słowami frazami związanymi z tematem – muszą one mieć wartość informacyjną.

Czym jest informacja?

Informacja to dane pozwalające określić różnicę.

Informacje z twojej strony płyną zarówno do Google jak i do User’a, przy czym wraz z rozwojem AI zacierają się różnice między jednym a drugim, przynajmniej w kwestii interpretacji danych. Ergo: To co dobre dla User’a jest też dobre dla Google.

Jakie więc informacje płyną z Twojej strony? Co ona mówi wyszukiwarce? Poprawnie wdrożone zasady SEO sprawią, że komunikat może wyglądać tak:

  • Mam to, czego poszukuje User.
  • Dostarczę to szybko i sprawnie.
  • Dostarczę to bezpiecznie.
  • Jestem wiarygodną stroną. Nie kłamię.

Google to oczywiście sprawdzi zanim zdecyduje się pokazać stronę użytkownikowi. Jeśli taka informacja z niej płynie – to dlaczego miałby jej nie pokazać jako najlepszą możliwość – czyli na pierwszej pozycji.

Co z konkurencją? Tu dochodzimy do sedna sprawy: tak jak w sporcie zawodowym – wygrywa ten, kto popełnia najmniej błędów. Powyższa lista jest typem idealnym, raczej niemożliwym do osiągnięcia. Informacja to dane pozwalające dostrzec różnicę, więc jeśli Twoja strona jest mniej niedoskanała od tego typu niż inna – wygra.

SEO to właśnie umiejętność takiego skonfigurowania strony lub witryny (preferuję termin: website), żeby ograniczać jej niedociągnięcia, wspierać jej mocne strony cechy i wysłać do Google czytelną informację o tym aby mógł rozróżnić co jest lepsze a co gorsze dla Usera.

Google jako synonim wyszukiwarki

W artykule tym Google jest często używany naprzemiennie ze słowem wyszukiwarka. Wynika to z faktu, że na dzień dzisiejszy jej udział w rynku dla Polski jest bardziej niż dominujący.

Podział rynku dla głównych wyszukiwarek w Polsce – stan na Maj 2021 r. Source: StatCounter Global Stats – Search Engine Market Share

Dlaczego nastawienie na użytkownika jest tak istotne?

Wyobraź sobie, ile razy pojedynczy użytkownik w ciągu doby używa wyszukiwarki zostawiając w niej swoje dane, które można spieniężyć, czy choćby klikając lub oglądając reklamy. Ile jeden użytkownik w ciągu tylko jednej doby, poprzez różnego rodzaju systemy, dostarcza ostatecznie do Google pieniędzy? 10 zł? 100zł? Pomnóż to teraz przez ilość osób korzystających z Google, pomnóż przez rok, 5 lat, 10 lat – to są niewyobrażalne pieniądze, wystarczy zerknąć na zyski Google albo jachty jego twórców.

A teraz wyobraź sobie, że Google zaczyna dostarczać wyniki, które niesatysfakcjonują użytkowników. Po piątej, nieudanej próbie znalezienia takich a nie innych butów do biegania spróbujesz je znaleźć w innej wyszukiwarce – jeśli przy niej pozostaniesz, bo zaspokoiła Twoją potrzebę – Google właśnie stracił miliony dolarów. A to tylko Ty. A jeśli zrobi tak 10 milionów osób? Albo 40% użytkowników? Google nigdy do tego nie dopuści, dlatego tak bardzo inwestuje w AI interpretującą dane.

Nie pokaże Twojej strony jeśli będzie mieć cień podejrzenia, że rozczaruje ona użytkownika. Oczywiście istnieje możliwość, że ją pokaże mimo, iż jest rozczarowująca – ale tylko dlatego, że jest ona najlepszą dostępną opcją. I tak się najczęściej dzieje. Informacja to różnica – ocenił, że Twoja strona mimo wszystkich wad i tak jest lepsza niż konkurencji. A może nie jest, ale konkurencja nie potrafiła zakomunikować swojej przewagi. Na tym polega SEO.

Wprowadzenie do SEO

Działania SEO warto podjąć już na etapie planowania strony przed jej uruchomieniem. Pozwoli to na uniknięcie kosztownych w naprawie błędów i optymalizacji, a także na prawidłowe zaplanowanie struktury witryny. Są to jednak rzadkie przypadki i do specjalisty SEO trafiają w większości przypadków strony już funkcjonujące.

Strony takie, załóżmy, mają już swoją historię, która odbiła się na ich kondycji. Pytanie tylko czy wyszukiwarka jest świadoma tej kondycji i tej historii?

Co właściwie robi wyszukiwarka?

Wyszukiwarka robi trzy rzeczy:

  • crawluje
  • indeksuje
  • rankuje

Zrozumienie zależności między tymi etapami pracy wyszukiwarki jest kluczowe dla zrozumienia SEO. Zbyt często bowiem lekceważone są dwa pierwsze aspekty na rzecz ostatniego.

Crawling

Robot crawlujący stronę, czyli badający o czym ona właściwie jest, musi mieć możliwość dostania się do niej. Nie jest to takie oczywiste w przypadku strony, która ma, dajmy na to, 26 milionów URL’i. Nie musi być to witryna typu Zalando, to może być Twoja strona.

Kluczowe jest to, że jeśli coś nie może być scrawlowane, to nie może być zaindeksowane. Jeśli nie jest zaindeksowane to „nie-wiadomo-czego-dotyczy” i tak jakby nie istniało. Częstym problemem jest np. niewyłączenie z crawlowania zbędnych stron, zwłaszcza będących efektem zmiennych sesyjnych i pracy filtrów. Przy odpowiednio źle skonfigurowanej stronie (robots.txt, ustawienia w Google Search Console, brak sitemap.xml), robot crawlujący nie dotrze do wartościowych stron.

Z tą funkcją powiązane jest pojęcie Crawl budget, czyli ilości stron jakie może skrawlować podczas jednej wizyty robot crawlujący. Warto zadbać o to, aby były to te najistotniejsze z punktu biznesowego strony. Warto wspomnieć jeszcze o częstotliwości odwiedzania strony przez robota crawlującego, która jest różna w zależności od jakości strony i dynamiki aktualizacji content’u.

Linkowanie wewnętrzne

Crawlowaniu strony pomaga linkowanie wewnętrzne, czyli linki do podstron tej samej witryny. Zamknięcie takich linków w formę anchor – czyli fraza kluczowa jest jednocześnie linkiem – bardzo pomaga przy targetowaniu frazy na konkretny URL.

Głębokość witryny

Najlepiej odzwierciedla ją ścieżka widoczna w breadcrumbs – jest to ilość podstron w podstronie w ujęciu szeregowym a nie równoległym. Jeśli strona ma milion stron, jednak każda z nich jest niezależna, na tym samym poziomie a nie zagnieżdżona jedna w drugiej – to witryna ma płaską strukturę.

Głęboka struktura witryny ułożona wg zasady np. silosów tematycznych ma plusy w postaci wspierania stron nadrzędnych przez podrzędne. Jednak nastręcza to często problemów z crawlowaniem (oraz UX), gdyż należy zadbać o łatwość dostania się do ostatniego poziomu.

Paginacja

Paginacja, czyli dzielenie wyjątkowo „długich” stron z contentem typu lista produktów na mniejsze, które łatwiej przejrzeć użytkownikowi. Jest to oczywiście temat szeroki, który zdecydowanie nadaje się na oddzielny artykuł. Warto zaznaczyć jednak konieczność unikani długich tunelów paginacyjnych, które utrudniają crawlowanie, a więc i indeksację treści. Na szczęście istnieją gotowe, sprawdzone rozwiązania dla paginacji, które najczęsciej są już wbudowane w każdy popularniejszy CMS, wraz z pakietem znaczników pomagających ją interpretować typu prev/next i canonical implementowanymi automatycznie.

Indeksacja

Czyli przypisanie naszego adresu URL do odpowiedniej kategorii w katalogu Google, wraz z informacją co się na nim znajduje.

Latent semantic indexing

Latent semantic indexing – w skrócie LSI – sformułowania, które korespondują z główną tematyką strony, choć same w sobie nie byłyby jej w stanie zdefiniować, bo np. brzmią tak samo ale ich znaczenie zależy od kontekstu, w jakim zostały użyte. Są znakomite do wysycenia tematu i uwiarygodnienia treści. Indexowanie witryny to przypisanie jej przez Google do katalogu tematycznego – LSI bardzo to ułatwiają.

Można napisać cały artykuł o rowerach nie używając słowa rower, ale jeśli pojawiają się w nim frazy takie jak: łańcuch, pedały, opony, nawy brandów związanych z branżą, downhill – to wskazują one na to, że artykuł dotyczy rowerów. LSI mówią wyszukiwarce, że skoro wszystko w treści traktuje o tematyce rowerowej to ta strona z dużym prawdopodobieństwem jest właśnie o tematyce rowerowej, a więc prawdopodobnie też o rowerach jako takich.

Semantyka kodu w kontekście interpretacji treści

Indeksowanie można również nazwać interpretacją zawartości strony przez robota crawlującego. W tym miejscu warto wspomnieć o semantyce znaczników używanych w kodzie do tworzenia strony. Znaczniki nie są widoczne dla użytkownika, jednak pozwalają łatwiej interpretować treść robotowi. Bez nich Google musi się domyslać, z nimi ma często wprost wskazany kontekst znaczeniowy danej frazy, np. że podane imię i nazwisko oznacza autora opisywanej książki, a sam opis jest recenzją, z dnia takiego, a drugie nazwisko to autor recenzji, itd. Istotne jest to, że w ten sposób wykonujemy część pracy za Google – i wyszukiwarka to nagradza poprzez prawidłową indeksację oraz korzystniejszą ocenę końcową.

Część znaczników ma również tę cechę, że może zostać przeniesiona do SERP, co wyróżnia je wizualnie. Dla przykładu, może to być np. tabelka z cennikiem usług na zapytanie „Ile kosztuje SEO?”.

Znaczniki semantyczne HTML 5

Dla przykładu, dwa akapity wyżej słowo „LSI” ujęte zostało w znacznik wskazujący, iż jest to skrót – w tym znaczniku natomiast jest inny znacznik, który ten skrót rozwija:

Przykład znacznika HTML o znaczeniu semantycznym
Przykład znacznika HTML o znaczeniu semantycznym

W tym przykładzie natomiast użyłem znacznika, który wskazuje, że akapit w którym się znajduje jest definicją pojęcia w nim zamkniętego:

Przykład znacznika HTML o znaczeniu semantycznym
Przykład znacznika HTML o znaczeniu semantycznym
Mikrodane w standardzie schema.org

Znaczniki uzupełniające tagi HTML lub funkcjonujące w formacie JSON , precyzujące bardzo dosłownie informacje płynące z treści, a więc i strony jako całości. Najbardziej efektywny sposób ułatwienia wyszukiwarce interpretację treści.

Więcej informacji o formacie JSON tutaj: https://www.json.org/json-en.html

Aria

ARIA są znacznikami i zestawem atrybutów z zakresu accessibity, mającymi wspomóc użytkowników z ograniczeniami w zakresie korzystania z zasobów stron internetowych, wskazując np. wprost co jest elementem nawigacyjnym. Część znaczników HTML 5 przejęło jej funkcjonalność wskazując kierunek rozwoju web developmentu w zakresie accesibility.

Nagłówki – headers

Może nie podchodzą pod semantykę, jednak wskazują hierarchię istotności treści oraz pomagają nawigować po stronie. Stąd ich duże znaczenie dla jej interpretacji.

Poniżej struktura nagłówków tego artykułu:

Przykład struktury nagłówków tego artykułu
Przykład struktury nagłówków tego artykułu

Ranking

Ostatni etap pracy wyszukiwarki, w którym ocenia stronę względem innych. Branych pod uwagę jest przy tym tyle czynników, że wyszczególnienie ich tutaj zamieniłoby ten artykuł w książkę. Warto jednak przyjrzeć się bliżej koncepcji E-A-T, która odnosi się w szerszym kontekście do sposobu tworzenia treści i budowania pozycji witryny zgodnie z pierwotnymi założeniami Google, który miał dostarczać najbardziej wartościowe treści na zasadach tworzenia i wartościowania prac naukowych.

Koncepcja E-A-T w budowaniu wartości witryny

E-A-T to skrót od:

  • Expertise – wiedza
  • Authoritativeness – autorytet
  • Trustworthiness – wiarygodność

Koncepcja ta wskazuje jak budować strony internetowe o wysokiej jakości treści. Jest istotna zwłaszcza dla stron kategorii YMYL, które dotyczą sfer szczególnie wrażliwych dla życia użytkownika, takich jak medycyna, finanse, prawo ale i dziennikarstwo (walka z fake news’ami).

Konwersja w podejściu EAT jest na drugim planie – nie może ona bowiem wynikać z niewiedzy użytkownika i jego zagubienia w temacie. Dlatego wskazane jest np. podlinkowanie do źródła, gdzie temat jest szerzej opisany. W roli eksperta głównym zadaniem jest dostarczenie rzetelnej informacji. Wymaga ona cierpliwości. Należy pozwolić użytkownikowi zdecydować, czy to akurat ta domena zasługuje na jego zaufanie i pieniądze.

Expertise

Content w takim ujęciu powinien być użyteczny i dostarczać rzetelnej informacji – czyli na jego podstawie użytkownik powinien móc dostrzec różnicę pomiędzy jednym rozwiązaniem a innym.

Content powinien też jasno określać cel strony. Stoi w kontrze do tworzenia stron tylko po to, aby napisać cokolwiek co zawiera frazy kluczowe.

Przykładowo, będąc ekspertem podkreślamy swoje zaplecze merytoryczne w tej kwestii:

  1. Podpisać treść imieniem i nazwiskiem jej twórcy, dodając krótkie bio o autorze.
  2. Pokazać na stronie certyfikaty, ukończone szkolenia, osiągnięcia, czy to pracowników czy organizacji.
    • Nagrody
    • Konferencje
    • Publikacje
    • Tytuły naukowe założycieli lub pracowników
    • Ukończone kursy
    W skrócie – pokazać, że jeśli jest się producentem sprzętu medycznego to są za niego odpowiedzialni inżynierowie i medycy, a nie… no właśnie, kto? Informacje płynące ze stron zbyt często wskazują, że firma to tylko dział marketingu, a weryfikacje deklaracji jest niemożliwa, przez co pozostają deklaracjami, a nie faktami.
  3. Zalinkować do instytucji, które je wystawiły, pokazując tym samym, ze istnieją.
  4. Jeśli produkcja odbywa się w Europie, można to napisać. Jest to czytelna informacja, że produkty spełniają europejskie normy bezpieczeństwa.
Authoritativeness

Nie wystarczy być ekspertem, inni muszą uznać autorytet strony w tym zakresie. Aby to osiągnąć należy być rozpoznawalnym. Ekspert ma wiedzę – autorytet posłuch.

Trustworthiness

Zaufanie. Główny content nie może zawierać rzeczowych błędów, powielać bzdur nazywanych łagodnie fake news’ami. Przykład Donalda Trumpa i jego zablokowanych kont – to dobry przykład, choć nie dotyczy strony internetowej. Google ocenia jednak nie tylko reputację strony lecz również – co bardzo ważne i nowe – reputację twórcy treści. Trump mógłby więc liczyć na szczególną atencję ze strony Google.

Przegląd innych czynników rankingowych

Spośród ponad 200 czynników rankingowych, z których nie wszystkie są jawne, a na niektóre nie mamy wpływu, jak na przykład preferowanie przez Google wielkich marek czy długiej historii witryny, poniżej przedstawię jedynie kilka z różnych dziedzin dla wskazania obszarów, które są brane pod uwagę.

Mobile friendly

Urządzenia mobilne zdominowały nasze interakcje z siecią. O ile zakupy nadal preferujemy robić sprzed monitora, o tyle status zamówienia już prawdopodobnie na telefonie. Witryna nie tyle musi spełniać test Mobile Test Friendly, ile faktycznie umożliwić sprawne korzystanie z niej na urządzeniach mobilnych poprzez np. odpowiednie odstępy między elementami aktywującymi interakcje, dostosowanymi do palca a nie ostrza wskaźnika myszki.

W tej kwestii promowane jest nawet podejście mobile first, czyli projektowanie strony na telefon i dostosowywanie jej do większych innych możliwości formatu desktop.

Certyfikat SSL

Dotyczy bezpiecznego przesyłu danych, np. z formularzy czy komunikatorów. Kwestie bezpieczeństwa są szczególnie istotne w związku z powszechnością sieci i jej użytkowaniem właściwie już w każdym aspekcie życia, wliczając w to tak intymne kwestie jak dokumentacja medyczna.

Szybkość funkcjonowania strony

Wymusza m.in. efektywne tworzenie kodu przez developerów. Czynnik jak najbardziej zrozumiały, gdyż nikt nie lubi czekać na załatwienie ważnej dla niego sprawy. Mierzony przez narzędzia typu GT Metrics i Page Speed Insights. Złożoność tej kwestii zdecydowanie wymaga oddzielnego artykułu, a nawet kilku jeśli chce się zgłębić temat.

Zaplecze linkowe

Czyli ile innych stron i jakiej jakości odwołuje się do naszych treści. Tworząc artykuł ekspercki lub podając rozwiązanie konkretnego problemu jest duże prawdopodobieństwo, że będzie on podawany dalej jako rozwiązanie poprzez wstawienie linka. Jest to podstawowy mechanizm leżący u podstaw koncepcji dobierania wyników przez Google.

Oryginalny, nie skopiowany content

Google karze za kradnięcie treści. Tu ciekawostka: duplicate content to nie to samo co copied content i nie to samo co repeatable content.

  • Duplicate content – ten sam content występuje na kilku stronach. Potocznie uważa się, że Google obniża za to ranking. W dokumentacji Google nie ma jednak o tym wzmianki, nie pada nawet to sformułowanie w kontekście kar. Zduplikowany content jest rzeczą naturalną w sieci tak jak te same treści w… pracach naukowych i artykułach – dopóki wskazuje się źródło jego pochodzenia. Można to zrobic elegancko m.in. za pomocą wspomnianych mikrodanych schema.org, atrybutem canonical, czy choćby zwykłym linkiem do źródła. Kary zaczynają się gdy zduplikowany content staje copied content, czyli plagiatem lub kradzieżą.
  • Copied content – niecna praktyka przypisywania sobie czyjejść pracy. Karana przez Google poprzez obniżenie rankingu.
  • Repeatable content – najpowszechniejszy błąd spotykany w obrębie własnej witryny. Polega na powielaniu treści, np. poprzez nieznaczne jej zmienianie, na różnych podstronach. Powoduje to problem z określeniem URL’a, który powinien się pojawić na zapytanie, skoro dwie strony dają prawie tą samą odpowiedź.

Co robi specjalista SEO?

Próbuje doprowadzić stronę możliwie najbliżej stanu określonego w typie idealnym. O ile poglądowa lista efektów takiego typu idealnego jest dość krótka, o tyle czynników wpływających na osiągnięcie tego stanu jest bardzo dużo. Zgromadzone są one jako rozproszona dokumentacja:

Próbuje doprowadzić stronę możliwie najbliżej stanu określonego w typie idealnym. O ile poglądowa lista efektów takiego typu idealnego jest dość krótka, o tyle czynników wpływających na osiągnięcie tego stanu jest bardzo dużo. Zgromadzone są one jako rozproszona dokumentacja:

  • corocznie wypuszczane przez Google wytyczne dla webmasterów
  • kolejne aktualizacje algorytmów Google
  • badania efektywności UX, prowadzone np. przez Baymard Institute
  • webdevelopment i zagadnienia związane z poprawnym i efektywnym kodowaniem stron

Realizacja ich zaleceń wymaga umiejętności z różnych dziedzin oraz ogromnego nakładu pracy, dlatego przyjęło się realizować SEO w ramach prac abonamentowych rozłożonych w czasie.

Czy zmiany algorytmu Google są nieprzewidywalne?

Niektórzy specjaliści podają jeszcze nieprzewidywalne zmiany algorytmu Google jako przyczynę niekończącej się pracy SEO’wca pozycjonera. Nie zgadzam się z tym uzasadnieniem, gdyż – dla przykładu – CLS był błędem do poprawy również wtedy, gdy nie był uwzględniany jako czynnik rankingowy. Nie trzeba być wróżbitą aby przewidzieć, że ukrywanie spamowej treści w celu nasycenia strony frazami kluczowymi jest niepożądane i jest kwestią czasu aż zostanie ukrócone, klient z tym zostanie (i z nałożonym filtrem, czyli karą), a pozycjoner rozłoży ręce i powie: „Kto mógł to przewidzieć?”. Aktualizacje Google są przewidywalne – zmierzają w kierunku ukrócenia cwaniactwa pozycjonerów oraz promowania nastawionego na użytkownika SEO oraz stron spełniających standardy UX i accessibility.

Audyt witryny

Po pierwsze robi audyt witryny. Nie jeden i nie raz. Robi go za każdym razem, gdy potrzebuje danych na temat danego aspektu witryny, konfigurując ustawienia narzędzi, np. Screaming Frog, aby otrzymać wyraźny obraz badanego obszaru.

W audycie uwzględnia się takie aspekty strony jak:

  • Stopień i kierunki penetracji witryny przez roboty crawlujące.
  • Znaczenie crawlowanych stron dla użytkownika.
  • Nasycenie i jakość treści na stronie
  • Stopień indeksacji witryny i jego adekwatność do założeń biznesowych
  • Logika struktury witryny
  • Techniczne błędy witryny do poprawy, w tym między innymi te z obszaru poprawności semantycznej kodu czy performance.
  • Przystosowanie do urządzeń mobilnych
  • Historię domeny
  • Zaplecze linkowe

Raport na podstawie audytu wraz z planem SEO

Przedstawione są w nim główne obszary do poprawy wraz ze sposobem poprawy. Najlepiej wraz uzasadnieniem, gdyż lepiej aby klient miał możliwość zrozumienia zamysłu. Napisanie uzasadnienia pozwala też lepiej kontrolować swoją koncepcję.

Realizacja założeń raportu

Nawet jeśli klient ma własny zespół deweloperski, który wdroży zmiany, to zazwyczaj wymaga jest konsultacja i monitoring nad tymi pracami specjalisty SEO. Wynika to często z tego, że tematyka SEO jest kompletnie obca web developerom. Oprócz prac developerskich, które czasami wykraczają poza umiejętności specjalisty SEO, odpowiada on za zlecenie przygotowania treści, ich publikację, zaplanowanie linkowania, oczyszczenie witryny z nieporządanych efektów jej pracy.

Mimo iż teoretycznie SEO’wiec jest bardziej konsultantem, to w praktyce wykonuje szeroki wachlarz zadań od projektowania UX, UI, copywritingu, web developmentu, po opracowywanie koncepcji graficznych (też mi się to zdarzało).

Tylko firmy z odpowiednio dużymi zasobami mogą pozwolić sobie na SEO, które zajmuje się jedynie analityką, testami i optymalizacją na ich podstawie istniejących rozwiązań. W takich projektach inne kwestie, np. techniczne, są już najczęściej wyśrubowane do granic, poza którymi dalsza optymalizacja traci jakikolwiek sens ekonomiczny.

Co robi klient?

Pytanie może zaskakujące, jednak klient również pracuje nad SEO – przede wszystkim opierając współpracę o zasady partnerstwa. Bez współpracującego klienta SEO pozostaje tylko teorią w raporcie.

Współpracuje

Bez tego aspektu nie ma mowy o jakimkolwiek progresie w ramach prowadzonego projektu. Jeśli strona ma źle ułożoną strukturę to klient powinien zaakceptować to, że trzeba ją zmienić i że wiąże się to często z uciążliwymi konsekwencjami. W karierze spotkałem zaledwie kilku klientów, którzy rozumieli i akceptowali potrzebę zmian oraz zaangażowali środki aby je wprowadzać. Osiągnęli znakomite efekty, jednak było to kosztowne choćby ze względu na ilość osób zaangażowanych do projektu, cenę za ich kwalifikacje oraz czas poświęcany na analizę danych i przygotowywanie wytycznych.

Uprzedza o planowanych działaniach

Zabrzmi to niewiarygodnie, jednak nie raz zdarzyło się że rok pracy zespołu SEO poszedł w ciągu sekundy „w piach” z powodu np. zmiany motywu WordPress lub całego CMS’a, usunięcia stron, contentu, przesuwania kategorii, utraty domeny, kliknięcia button’a aktualizacji, globalnej zmiany nazewnictwa URL’i… ciężko wymienić wszystkie sposoby.

Kontroluje

Jest to bardzo istotny aspekt pracy klienta. Oparta o zasadę partnerskiej współpracy i bazująca na uzasadnieniu planowanych działań z raportu SEO nie jest utrudnieniem dla pracy zespołu SEO. Wręcz przeciwnie, angażuje obie strony w pracę nad wspólnym projektem oraz sprzyja budowaniu transparentności i zaufania.

Przejawy nadmiernej kontroli są przeważnie efektem wcześniejszej współpracy z agencją bardziej z obszaru pozycjonowania niż SEO.

Działania SEO w praktyce

Ciężko opisać szczegółowo wszystkie działania podejmowane w ramach SEO, które mają poprawić jakość witryny. Można je jednak ująć w kategorie. Warto wspomnieć o tym, iż o ile wytyczne i dobre praktyki są branży ogólnie znane, to właśnie interpretacja danych, ich synteza w spójną strukturę, umiejętność rozwiązywania problemów tak, aby nie tworzyć nowych i sposoby wdrożenia sugerowanych rozwiązań przesądzają o tym, czy jeden zespół specjalistów SEO jest lepszy od drugiego.

Pozyskanie i uszeregowanie danych dotyczących fraz kluczowych

Poprzez analizę stron konkurencji za pomocą narzędzi takich jak Semrush, danych z Google Search ConsoleGoogle Analytics, danych z ewentualnych kampanii Google Ads, oraz własnych wyszukań na podstawie sugestii Google buduje się bazę fraz kluczowych wraz z danymi liczbowymi na temat ilości zapytań, potencjalnego ruchu, trudności na przebicie się, a także charakteru preferowanego wyniku na daną frazę (kategoria, artykuł, strona produktowa itp.).

Jest to proces czasochłonny, gdyż należy sprawdzić interpretację danej frazy przez Google.

Następnie w oparciu o tą bazę przypisuje się frazy do struktury witryny odzwierciedlanaej poprzez URL’e lub układa nową. Frazom przypisuje się wagę w zależności od ich volume – czyli ilości zapytań generowanych przez użytkowników w danym okresie na daną frazę – na główne i poboczne.

Korekta struktury witryny

Struktura witryny może być, i najczęściej jest, chaotyczna. Tematy nie są zamknięte w silosach tematycznych, zachodzi kanibalizacja fraz kluczowych, linkowanie wewnętrze jest sprzeczne powodując fluktuacje w targetowaniu URL’i na frazy. Frazy mniej ogólne nie wspierają ogólniejszych.

W celu odzyskania kontroli nad architekturą witryny i planowaniu efektywnych korekcji tworzy się matrycę – jest to dwuwymiarowy arkusz kalkulacyjny zawierający wszelkie istotne dla witryny URL’e, które następnie można grupować w kategorie, podkategorie i inne typy stron, przypisując jednocześnie frazy kluczowe wg wagi. Na podstawie przypisanych fraz układa się nagłówki do danego URL’a, planuje copy, tytuł strony, opis.

Poprawnie ułożona struktura witryny jest podstawą dalszych działań SEO. Zignorowanie tego etapu pracy sprawi, że może istnieć 100 (lub 10.000, lub 100.000) stron które torpedują wysiłki zwiększenia widoczności głównych kategorii, a nawet o tym nie wiemy.

Widoczność

Widoczność to jeden ze standardowych KPI dla SEO – określa jak często wyświetla się nasza witryna (lub pojedyncza strona) na interesujące nas zapytanie użytkownika.

Bez widoczności trudno o ruch, jej wzrost jest wiec pierwszym sygnałem, że nasze działania idą w dobrym kierunku. Nasza strona powinna byc widoczna jedynie na frazy związane z tematyką strony. Źle dobrane frazy w początkowym etapie mogą spowodować zaindeksowanie strony jako odpowiedź na zapytania jej nie dotyczące. Nie będzie z tego ruchu, gdyż użytkownicy odwiedzający naszą witrynę od razu ją opuszczą. Co więcej, Google zorientuje się, że bounce rate jest wysokie i zinterpretuje to jako niedostosowanie rezultatu wyszukania na zapytanie użytkownika – i obniży ranking witryny.

Widoczność witryny można sprawdzić w GSC oraz GA. Powinny być one podłączone już przed opublikowaniem strony i zbierać dane od pierwszych chwil jej życia. Nie zawsze tak się dzieje, często narzędzia te implementuje dopiero SEO’wiec.

Ruch

Traffic – czyli ruch na stronie internetowej, to ilość użytkowników pozyskana dla strony poprzez widoczność osiąganą przez stronę na dane frazy kluczowe. Wyłączamy stąd ruch pozyskany przez działania SEM jako, że nie są bezpośrednio związane z SEO.

Ruch również mierzy się narzędziami takimi jak Google Analitycs, Google Search Console, czy nawet wbudowanymi w niektóre CMS’y narzędziami analitycznymi (jednak nie są one tak dokładne). Aby mierzyć ruch dokładnie należy skonfigurować odpowiednio te narzędzia, jednak jest to temat na oddzielny artykuł.

Ruch na witrynie można skonwertować – czyli sprawić aby strona spełniła swój cel względem użytkownika. Nie zawsze jest to bowiem konwersja pieniężna jak w przypadku e-commerce.

Volume powiązany jest z traffic w ten sposób, że np. ze 100 zapytań w maju na frazę „SEO” nasza strona może pozyskać 56 użytkowników, którzy zdecydowali się kliknąć w jakiś wynik wyszukiwania. Wtedy można powiedzieć, że mamy 56% udziału w rynku tej frazy.

Konwersja

Określenie celów biznesowych strony i ich osiąganie to właśnie poziom konwersji. SEO ma najczęściej pośredni wpływ na konwersję, gdyż zależy ona m.in. od atrakcyjności oferty klienta, jednak SEO może umożliwić warunki do konwersji, a jej wzrost jest dobrym KPI prowadzonych działań. Optymalizacja konwersji to często bardziej działania z zakresu UX i marketingu e-commerce już na stronie, gdy użytkownik tam przebywa. Obejmują optymalizację ścieżki użytkownika, procesu zakupowego, cross-selling, itp. Bez SEO nie ma jednak użytkowników – ruch organiczny pozyskiwany dzięki SEO jest nadal najskuteczniejszym kanałem ich pozyskania i cechuje się najwyższym stopniem konwersji.

Performance

Czyli wydajność działania witryny, obliczana głównie na podstawie testu w narzędziu Page Speed Insights.

Optymalizacja techniczna

Szeroki temat, gdyż rozciąga się od poprawienia templatek contentowych i szablonów stron po optymalizację sposobu renderowania strony, co przekłada się na jej ogólny odbiór przez użytkownika i szybkość. Dodatkowo działania te obejmują szereg aspektów związanych z bieżącą obsługą witryny, jak: masowe przekierowania, konfiguracja plików robots.txt czy .htaccess, migracje, a także konfigurację ustawień witryny poprzez narzędzia i pluginy dostępne dla różnych CMS’ów.

Analityka

Niezbędna do określania, co przebudowujemy na stronie. W późniejszych etapach prac, gdy witrynie nadano już zoptymalizowana strukturę i nadano kierunek rozwoju, analityka pozwoli wskazać obszary do poprawy wcześniej niewidoczne.

Działania dodatkowe

Praca agencji SEO to również szereg działań dodatkowych, które przyczyniają się do osiągniecia celów biznesowych strony klienta.

Linkowanie zewnętrzne

Pewnie dla niektórych zaskakujące jest umieszczenie tego aspektu SEO w sekcji działań dodatkowych, jednak linkowanie rozumiane jako produkcja linków dyskusyjnej jakości nie zastąpi wymienionych wyżej działań. Skupienie na linkowaniu jest zaprzeczeniem idei SEO mimo, iż potrafi przynieść wzrost pozycji. Potrafi też jednak pogrążyć stronę poprzez nałożenie kary za nieuczciwe praktyki. W teorii pozyskanie zaplecza linkowego powinno być naturalne, czyli budować się samo ze względu na wartościowy content. W praktyce, taki scenariusz jest możliwy dla wyjątkowych stron, zazwyczaj oferujących specjalistyczną wiedzę i rozwiązania, jak CSS Tricks czy Stack Overflow. Dlatego dość szybko powstał rynek linków i cała branża zajmująca się jego obsługą. Przykładem choćby White Press czy wszelkie artykuły sponsorowane w gazetach, które przeżywszy exodus wydań papierowych, przeniosły się do internetu.

SEM

Działania z zakresu marketingu internetowego mogą być przydatne dla SEO poprzez dostarczenie danych dotyczących fraz. Z kolei Google Ads korzystają z lepiej zoptymalizowanych stron. Działania SEM warto podjąć przede wszystkim dlatego, że uzupełniają model pozyskiwania użytkowników poprzez bardzo precyzyjne targetowanie oparte na budżecie, a nie ogólnie pojętej jakości witryny.

Social media

Doskonale sprawdzają się do komunikowania nowości, zmian i okazji oraz pozwolą zbudować wizerunek i charakter marki.

Zaawansowane działania UX

Baymard Institute publikuje szereg badań na temat wpływu UX na najróżniejsze aspekty zachowania użytkowników oraz jak przekłada się to na wynik strony. Oczywiście gros informacji dostępnych jest dopiero po opłaceniu szkolenia lub innej formie opłaty. Jednak nawet publikowane w social media ograniczone raporty dają wgląd w potencjał, jaki drzemie w optymalizacji UX, jeśli chodzi o zwiększenie konwersji.

Podsumowanie

Natłok treści płynących z sieci, przesyt nimi i jednocześnie ogromna konkurencja między stronami o to, która ją pokaże i sprzeda produkt, usługę, reklamę, zmonetaryzuje zasięg lub pozyska dane użytkownika – wszystko to sprawia, że strona zdana tylko na siebie jest jak dziecko bez rodzica, w dżungli. SEO będzie się zmieniać, być może do poziomu gdy AI wyszukiwarki będzie interpretować intencje użytkownika tak dobrze, że nie trzeba będzie w tym pośredniczyć poprzez treści je opisujące i dobór fraz, gdyż Google będzie dysponować językami świata w stopniu pozwalającym na interpretację myśli abstrakcyjnych. Nie jest to odległa przyszłość. Jednak nawet w niej będzie miejsce na SEO – jedynie zmieni ono swój warsztat.

Spodobał Ci się ten wpis?

Kliknij na gwiazdki, aby dodać ocenę.

Średnia ocena 5 / 5. Liczba głosów 4

Bądź pierwszy!

We are sorry that this post was not useful for you!

Let us improve this post!

Tell us how we can improve this post?