Weryfikacja ustawień technicznych sklepu pod kątem SEO

Nie tylko struktura, treść czy multimedia prezentowane w sklepie internetowym są istotne pod kątem optymalizacji pod wyszukiwarkę Google. Ogromne znaczenie ma również sposób prezentacji informacji, dostępność zasobów i szybkość procesu wczytywania się strony internetowej. Oczywiście szczegółowa analiza technicznych aspektów sklepu internetowego to zdecydowanie zadanie dla specjalisty, jednak część aspektów można zbadać na własną rękę przy użyciu dedykowanych narzędzi.

 

Sposób prezentacji informacji

Bardzo ważnym technicznym aspektem, który warto sprawdzić już na etapie wersji próbnej/deweloperskiej sklepu internetowego jest sposób wyświetlania informacji na stronach sklepu. Wszelkie istotne treści powinny być dostępne statycznie w kodzie HTML wyświetlanej strony*, a każda odrębna strona powinna posiadać swój jeden unikalny w skali serwisu adres URL. Co to oznacza i jak to sprawdzić?

* istnieją wdrożenia treści z wykorzystaniem JS, z którymi radzą sobie roboty wyszukiwarki. Jeżeli masz taką stronę, koniecznie skonsultuj się z pozycjonerem lub agencją SEO.

Wstępnej weryfikacji dokonać można manualnie – należy przeklikać się przez nawigację sklepu i sprawdzić, czy przechodząc do poszczególnych widoków (np. kategorii produktów), na pasku adresu w przeglądarce zmienia się adres URL i czy jest on dedykowany tej podstronie, którą właśnie widzimy. 

Przeglądarka (np. Google Chrome) bez specjalnych dodatków pozwoli również na weryfikację dostępności treści w kodzie HTML – należy skopiować wybrany fragment istotnej treści (np. kilka słów z opisu produktu), następnie przejść do kodu źródłowego strony z użyciem prawego przycisku myszy, wybierając „Wyświetl źródło strony” (lub kombinacja klawiszy CTRL + U), następnie przy użyciu wyszukiwarki (CTRL + F) należy sprawdzić, czy skopiowana treść znajduje się kodzie HTML.

 


Fragment strony https://deezee.pl/buty-sportowe i jej kodu źródłowego, zawierającego statycznie umieszczony opis kategorii.

 

Istnieją narzędzia skanujące serwisy WWW – z ang. crawlery – takie jak Screaming Frog, Sitebulb czy Deepcrawl, które „wędrują” po stronie w sposób zbliżony do tego, w jaki sposób czynią to roboty Google. Są to narzędzia wykorzystywane przez specjalistów SEO do weryfikacji bardzo wielu czynników technicznych i kontentowych, jednak nawet prosty skan wykonany w darmowej ograniczonej wersji Screaming Froga odpowie na pytanie – czy odpowiednie widoki sklepu stanowią odrębne podstrony i czy ich treść jest dostępna dla robotów wyszukiwarki.

 

Zrzut ekranu z narzędzia Screaming Frog z wynikami częściowego skanu domeny DeeZee.pl


Skan z domyślnymi ustawieniami narzędzia Screaming Frog pozwoli na weryfikację, jakie adresy URL zostały odnalezione. Na przykład wśród pierwszych adresów odnalezionych na stronie głównej sklepu internetowego DeeZee.pl znajdziemy adresy URL kategorii, stron informacyjnych i obrazków. Pozwala nam to potwierdzić, że poszczególne widoki w sklepie posiadają swoje własne adresy URL. Jeżeli w skanie testowanej domeny nie ma adresów podstron, jest to jasny sygnał, że coś jest nie tak ze sposobem prezentacji informacji na stronie lub z ich dostępnością.

 

Dostępność zasobów dla robotów

Dostępność określonych zasobów tworzących sklep internetowy może być umyślnie (bądź nie) ograniczana ze względu na różne kryteria dotyczące gościa odwiedzającego sklep. Rozsądną praktyką jest blokowanie dostępu robotów Google do zasobów strony podczas prac deweloperskich przy jej budowaniu – zabezpiecza się w ten sposób przed niechcianą indeksacją stron i treści demonstracyjnych. Niestety nieodpowiedzialną i dość częstą przypadłością części twórców stron, jest zapomnienie o usunięciu tego typu blokad po wdrożeniu finalnej wersji strony na domenie docelowej. Odbierając sklep, czy też analizując jego słabe rezultaty w wynikach wyszukiwarki, warto sprawdzić, czy na pewno jego podstrony są dostępne dla robotów wyszukiwarki.

Sposób na blokadę zasobów strony jest co najmniej kilka – blokada nałożona może być z wykorzystaniem m.in.:

  • pliku robots.txt,
  • tagu meta robots znajdującego się w nagłówku kodu HTML,
  • dyrektyw nagłówka odpowiedzi HTTP,
  • ustawień serwera obsługującego stronę internetową.

Wykorzystując wcześniej omawiany skan narzędziem Screaming Frog, można zweryfikować czy odnalezione adresy URL są blokowane przed robotami. W zakładce „Overview”, w tabelce podsumowania prezentowane są ogólne informacje na temat odnalezionych adresów URL:

 

 

Wśród 529 zeskanowanych adresów odnaleziono m.in. 4 wewnętrzne adresy URL blokowane przy użyciu pliku robots.txt oraz 29 adresów URL niedostępnych do indeksacji. Sytuacją zdecydowanie alarmową jest przypadek, gdy blokowane lub niedostępne do indeksacji adresy URL stanowią większość z zeskanowanych adresów. W takiej sytuacji niezwłocznie należy sprawdzić tę kwestię ze specjalistą. Natomiast pojedyncze adresy mogą być efektem celowych działań SEO.

 

Szybkość procesu ładowania strony

Do weryfikacji optymalizacji procesu wczytywania się sklepu internetowego warto wykorzystać narzędzie od firmy Google – PageSpeed Insights. Narzędzie to pozwala na analizę konkretnego adresu URL pod kątem dwóch wersji – mobilnej i desktopowej. Warto więc zweryfikować w nim kilka rodzajów podstron dostępnych w sklepie – przykładowo stronę główną, wybraną kategorię, produkt czy wpis blogowy. 

Wynikiem analizy jest między innymi ogólna ocena wydajności w skali od 0 do 100, dane dotyczące 6 współczynników opisujących różne składowe procesu ładowania się strony oraz zalecane modyfikacje, które pozwolą przyśpieszyć stronę i poprawić otrzymywane rezultaty.

 

 

PageSpeed Insights pozwala na badanie szybkości dla konkretnego adresu URL, jednak istnieją również rozwiązania, które pozwalają na hurtową analizę dla większej liczby adresów URL – również oparte o technologię Lighthouse.

 

SEMSTORM – hurtowe audyty szybkości

Jednym z takich rozwiązań jest moduł audytów w narzędziu SEMSTORM – narzędzie pozwoli nam zbadać wynik ogólnej optymalizacji oraz poszczególne czynniki Core Web Vitals (LCP, FID, CLS) dla dużej grupy adresów na raz. Adresy można wkleić ręcznie lub zaciągnąć z sitemapy naszej strony. 

 

Na liście audytów SEMSTORM pokazują się oddzielne raporty dla różnych adresów URL, np. dla konkretnej kategorii czy karty produktu.

 

W ten sposób możemy zweryfikować czy poszczególne problemy dotyczą jedynie pojedynczych adresów URL, czy nasz serwis wymaga zmian dla konkretnego rodzaju podstron (np. produktów), czy może mamy błędy globalne w skali serwisu.

Poszczególne możliwości warto omówić ze swoim webdeveloperem, dostawcą systemu SaaS lub ekspertem SEO. Na własną rękę warto zadbać o optymalizację formatu i rozmiaru obrazów umieszczanych w sklepie.

 

Konsola od Google

PageSpeed to nie jedyne narzędzie dostarczone od Google, które przychodzi z pomocą właścicielom stron i webmasterom. Podstawowym narzędziem, w którym warto uruchomić usługę niezwłocznie po uruchomieniu strony, jest narzędzie Google Search Console. Narzędzie to pozwala zarówno na analizę ruchu organicznego, który trafia na stronę z wyszukiwarki Google, jak i na bieżący monitoring wielu technicznych aspektów takich jak dostępność stron, indeksację czy poprawność danych strukturalnych zamieszczonych w serwisie. Co ciekawe Google udostępnia tam również informację o linkach przychodzących. 

 

Autor

Jakub Zeid's picture

Jakub Zeid

Senior SEO Specialist w DevaGroup, gdzie odpowiedzialny jest za kompleksowe prowadzenie kampanii SEO, głównie dla klientów z branży e-commerce. Z krakowską agencją związany od ponad 4 lat, a doświadczenie w branży SEO zbiera nieprzerwanie od roku 2009. Absolwent Akademii Górniczo-Hutniczej, opiekun wyróżnionej na Mobile Trends Awards kampanii SEO. Autor bloga o SEO - Zeid.pl

Przeczytaj także

Komentarze