Mini narzędzia pomocne w czasie analizy SEO
Spis treści:
Analiza strony pod kątem zgodności z wytycznymi Google dla webmasterów oraz zmieniającymi się ciągle algorytmami wyszukiwania to zadanie, które jest wykonywane cyklicznie w trakcie prac nad stroną www związanych z pozycjonowaniem. Ręczną analizę wspierają też narzędzia – małe i duże, płatne i darmowe.
Taka analiza jest procesem, w którym należy sprawdzić kilkadziesiąt lub nawet kilkaset czynników, zarówno jeśli chodzi o dane na stronie, jak i sytuację poza nią. W nawiązaniu do moich poprzednich wpisów – Crawlery pomocne w trakcie wykonywania audytu SEO oraz Darmowe narzędzia od Google pomocne w trakcie wykonywania audytu SEO – tym razem przedstawiam listę mniej znanych narzędzi, które w takiej analizie mogą być wykorzystane.
Narzędzia małe i duże
Większość prac, które wykonuje się w czasie procesu pozycjonowania, można wspomóc szeregiem narzędzi. Z jednej strony dostarczą one danych, a z drugiej – wykonają większość prac w danym aspekcie pozycjonowania. Zadaniem specjalisty do spraw pozycjonowania jest analiza tych wyników oraz przedstawienie rekomendacji na temat wyedytowanej strony internetowej na podstawie danych.
Narzędzia SEO to w dużej mierze małe aplikacje, których celem jest wsparcie specjalisty tylko w jednym, ściśle określonym aspekcie związanym z pozycjonowaniem strony. Często są one bezpłatne. Istnieją oczywiście zaawansowane, płatne narzędzia do analizy wielu czynników na stronie. Ich zadaniem jest crawlowanie wszystkich podstron w serwisie oraz wskazywanie potencjalnych problemów dla każdej podstrony.
Należy jeszcze wspomnieć o jednej istotnej kwestii. Wiele z dostępnych narzędzi SEO nie nadaje się do użycia na polskim rynku. Głównym powodem jest brak obsługi polskiej wersji wyszukiwarki, przez co nie otrzymujemy rekomendacji dotyczącej polskich słów kluczowych. Nasz rodzimy rynek SEO znacznie różni się też od zachodniego, jeśli chodzi o użyte techniki pozycjonowania. Sporo narzędzi „nie wie” o tych zależnościach, przez co dobra, zagraniczna aplikacja staje się na naszym rynku bezużyteczna albo jej działanie jest mocno ograniczone.
Otoczenie strony
Pierwszą grupą narzędzi, które chciałbym przedstawić, są aplikacje, których zadaniem jest sprawdzenie czynników związanych nie z samą stroną internetową, ale z jej otoczeniem.
Tester HTTP/2
To aplikacja do sprawdzenia, czy nasz serwer obsługuje HTTP/2. Ze względu na nowinki, jakie wprowadza ten standard, oraz znaczną różnicę w szybkości działania strony na tej wersji protokołu HTTP warto sprawdzić, czy serwer, na którym jest umieszczona audytowana przez nas strona internetowa, obsługuje HTTP/2.
Zasada działania narzędzia jest prosta. Wystarczy we wskazane pole wkleić adres URL strony, której serwer chcemy zweryfikować. Należy pamiętać o podaniu pełnego adresu – czyli takiego, który zawiera protokół HTTP/HTTPS. W odpowiedzi otrzymamy dwa komunikaty informujące nas, czy włączona jest obsługa protokołu HTTP/2 oraz rozszerzenia ALPN. Tester HTTP/2, który mogę polecić, znajduje się na stronie https://tools.keycdn.com/http2-test. Innym narzędziem, które wykonuje to samo zadanie, jest https://geekflare.com/tools/http2-test. Więcej na temat HTTP/2 oraz jego wpływu na pozycjonowanie można przeczytać we wpisie Kilka słów o HTTP/2.
Tester HTTPS
Kolejną ważną składową, którą warto przeanalizować za pomocą narzędzi, jest obecność na stronie certyfikatu SSL oraz połączenia szyfrowanego poprzez protokół HTTPS. Już jakiś czas temu Google poinformował webmasterów, że użycie SSL jest jednym z wielu czynników rankingowych. Obecnie nie ma praktycznie sytuacji, w której nie istnieje konieczność posiadania SSL na stronie internetowej.
Samą obecność połączenia szyfrowanego można sprawdzić w pasku adresu przeglądarki. Zwykle widnieje tam informacja w formie kłódki, która mówi o tym, że na stronie jest dostępne szyfrowane połączenie. Warto jednak skorzystać z narzędzi, które potwierdzą poprawność implementacji oraz wskażą, jak długo dany certyfikat jest jeszcze ważny.
Jednym z takich narzędzi jest SSL Checker dostępny na stronie https://www.sslshopper.com/ssl-checker.html. Po wpisaniu adresu URL domeny otrzymujemy informacje o typie certyfikatu oraz jego ważności, a także adresie IP czy serwerze. Innym narzędziem, o którym warto tutaj wspomnieć, jest SSL Instalation Checker dostępny pod adresem https://www.geocerts.com/ssl-checker oraz narzędzie Why No Padlock – https://www.whynopadlock.com/.
Informacje o adresie IP
Adres IP strony internetowej powie nam nieco więcej o jej fizycznej lokalizacji. Na jego podstawie możemy określić kraj, w którym znajduje się serwer z plikami strony, oraz sprawdzić, jakie inne strony zostały przypisane do tego samego adresu IP. Jest to ważne, gdyż Google nie lubi promować stron z tzw. złym sąsiedztwem. Czasem zdarza się, że audytowana strona jest prowadzona poprawnie, ale z uwagi na inne strony przypisane do tego samego IP, które np. rozsiewają SPAM, Google może obniżyć jej pozycję.
W celu sprawdzenia, jak sytuacja wygląda w przypadku naszej strony, możemy skorzystać z aplikacji IP Location Finder znajdującej się pod adresem https://www.iplocation.net/ip-lookup lub z alternatywnej aplikacji Reverse IP – https://dnslytics.com/reverse-ip.
Historia strony
Czasem zdarza się, że kupiona pod wpływem emocji, będąca „złotym strzałem” domena o świetnej nazwie kryje za sobą mroczną historię sprzed lat, zawierającą SPAM i linki do serwisów sprzedających viagrę. Taka zła historia może ciążyć domenie nieznacznie, ale może też za sobą pociągnąć znacznie większe konsekwencje, jeśli np. prowadziły do niej słabej jakości odnośniki.
Historię domeny można sprawdzić w serwisie archive.org lub użyć do tego narzędzia, które pobierze wszystkie dane dotyczące zadanej domeny z tego serwisu. Obsługa narzędzia https://share.streamlit.io/antoineeripret/streamlit-archive/main/app.py jest prosta – należy podać domenę, którą chcemy sprawdzić, oraz określić przedział czasowy, jaki chcemy sprawdzić. Narzędzie pokaże wszystkie zebrane przez siebie dane.
Informacje o stronie internetowej
Druga grupa narzędzi związana jest już z samą stroną internetową. Audytujący powinien się skupić dość mocno na analizie czynników związanych witryną, gdyż od poziomu optymalizacji zależy bardzo dużo, a stosunkowo łatwo jest ten obszar poprawić.
Kontrola pliku robots.txt
Plik robots.txt stanowi bramę do strony internetowej dla robotów i jest najczęściej pobieranym plikiem na stronie, gdyż za każdym razem, gdy robot pobiera jakiś zasób, musi sprawdzić, czy czasem nie ma w tym pliku dyrektywy, która zabroni mu odwiedzin. Warto więc sprawdzić, czy wszystkie najważniejsze strony są możliwe do crawlowania z poziomu tego pliku. W przypadku prostych dyrektyw w pliku robots.txt nie ma problemu, schody zaczynają się, gdy dyrektywy wyglądają mniej więcej tak:
Disallow: */*/*/*/*/*/
Disallow: */*/*/kategoria
Allow: */*/*/kategoria/*
Disallow: *sortuj-
Allow: */modules/*.js
Wówczas warto skorzystać z narzędzia, które sprawdzi adresy URL masowo i w efekcie odpowie na pytanie, czy dany adres może być odwiedzony przez robota Google. Przykładem takiego narzędzia jest Robots.txt Testing Tool – https://tamethebots.com/tools/robotstxt-checker. Podobnych narzędzi jest wiele (jedno z nich jest także udostępnione przez Google), a ich użycie zalecane jest zawłaszcza przy dużych projektach z dość rozbudowaną strukturą nakazów i zakazów w pliku robots.txt.
Analiza przekierowań
W czasie analizy SEO należy sprawdzić, czy strona zwraca kod HTTP 200 OK. Trzeba również zbadać, czy linki wewnętrzne, które do niej kierują, prowadzą od razu na zadany adres URL czy po drodze konieczne jest przejście przez strony pośredniczące albo inne przekierowania, np. pomiędzy HTTP a HTTPS. Każdy z takich przeskoków odejmuje dostępne punkty z naszego budżetu crawlowania, więc istotne jest to, by takich zbędnych przekierowań było jak najmniej. Jest to ważne zwłaszcza wtedy, gdy pomiędzy adresami A i B mamy kilka, a nawet kilkanaście zbędnych przekierowań, które są wynikiem błędów w linkowaniu, zmian adresacji z uwagi na poprzednie wersje strony czy wdrożenia połączenia szyfrowanego.
Przykładową listę maksymalnie 100 adresów URL (którą jednym kliknięciem da się skopiować ze strony np. wtyczką do przeglądarki Copy Selected Links) można sprawdzić pod kątem statusu HTTP oraz łańcucha przekierowań narzędziem HTTPstatus, które znajduje się pod adresem https://httpstatus.io/.
Problemy z linkami
Często w czasie analizy odkrywa się linki, które nie istnieją i prowadzą do strony błędu 404. Wyżej opisałem już, czym takie zjawisko może grozić, i podałem przykład narzędzia do sprawdzania masowego statusu HTTP. Warto wspomnieć jeszcze o narzędziu Dead Link Checker, które jest dostępne pod adresem https://www.deadlinkchecker.com/. Dzięki niemu możemy przecrawlować całą stronę i uzyskać listę linków, które zwracają kod 4xx lub 5xx. Na podobnych zasadach działa narzędzie Broken Links Checker, które znajduje się pod adresem https://www.brokenlinkcheck.com.
Sama lista problematycznych adresów nie wystarczy, konieczne jest jeszcze dobranie nowych podstron, na które zostaną wykonane przekierowania 301. Przy kilkunastu lub kilkudziesięciu adresach nie ma problemu, by zrobić to ręcznie, zwłaszcza gdy struktura serwisu jest w miarę dobrze ułożona. Dla większych projektów polecam narzędzie URL Redirect Matcher dostępne pod adresem https://redirect-matcher.herokuapp.com/. Aplikacja za pomocą dwóch plików CSV – zawierających strony z kodem odpowiedzi 404 z narzędzia Google Search Console oraz z pełnym skanem witryny z narzędzia Screaming Frog – przygotuje nam listę stron, na które można przekierować adresy prowadzące obecnie do strony błędu.
Mapy XML
Mapa witryny w wersji XML jest niesamowicie pomocna w szybszej indeksacji serwisu. Dzięki niej roboty Google mają łatwiejszy dostęp do nowych treści na stronie oraz do wszystkich podstron. Dodanie jej w pliku robots.txt oraz zgłoszenie w narzędziu Google Search Console może pomóc, gdy borykamy się z problemami związanymi z indeksacją. Obecnie mapy XML to dość rozbudowane struktury, które często zawierają kilkanaście plików aktualizowanych z różną częstotliwością. Obecnie najpopularniejsze systemy CMS (lub dodatki do nich) same potrafią wygenerować mapę XML. Gdyby to się z jakiegoś powodu nie powiodło, można skorzystać z narzędzia do generowania map. Jedno z nich znajduje się na stronie https://www.xml-sitemaps.com/.
Adresy, które znajdują się w takiej mapie, po czasie mogą się zdezawuować. Wówczas warto sprawdzić mapę XML pod kątem błędnych adresów, zwłaszcza jeśli była przygotowana ręcznie. Pomoże w tym aplikacja XML Sitemap Walidator dostępna pod adresem https://ipullrank.com/tools/map-broker/. Wystarczy podać adres pliku z mapą witryny (lub wgrać taki plik), a w odpowiedzi otrzymamy listę adresów URL, które nie zwracają kodu HTTP 200 OK.
Jeśli chcemy pracować na adresach z mapy witryny, możemy skorzystać z narzędzia, którego zadaniem jest pobranie wszystkich adresów podstron znajdujących się w mapie witryny oraz umieszczenie ich w nowym arkuszu Google Sheets. Opis narzędzia oraz potrzebne skrypty są dostępne na stronie https://opensourceseo.org/extract-urls-xml-sitemaps-google-sheets/.
Kontrola kodu strony
Kod strony internetowej to kopalnia wiedzy, jeśli chodzi o pozycjonowanie. Mam na myśli wynikowy kod HTML, który można podejrzeć w swojej przeglądarce, używając kombinacji klawiszy ctrl+u. To, czego w łatwy sposób nie zobaczymy, to różnica pomiędzy stroną w wersji desktopowej i mobilnej. Można skorzystać z kombinacji klawiszy ctrl+shift+m, aby uruchomić emulator urządzeń mobilnych wbudowany w przeglądarkę internetową, albo skorzystać z narzędzia Parito, które w sposób graficzny pokaże różnice pomiędzy tymi wersjami, a w dodatku przeanalizuje ich kody HTTP. Narzędzie można przetestować pod adresem https://ipullrank.com/tools/parito/.
Warto też wspomnieć o analizie różnicy pomiędzy wersjami strony z włączoną i wyłączoną obsługą JavaScript. W 2022 roku niemal każda strona korzysta z dobrodziejstw JavaScript, ale Google nie jest w stanie poradzić sobie z tak dużą ilością danych do analizy. Zawartość strony, która jest doładowana za pomocą JavaScript, jest indeksowana znacznie później niż zawartość, która jest widoczna na stronie od razu. Za pomocą narzędzia JavaScript Rendering Check możemy zobaczyć różnice pomiędzy obiema wersjami tej samej strony www. Narzędzie pozwala też na przełączenie się pomiędzy wersją desktopową a mobilną i dostępne jest pod adresem https://www.searchviu.com/en/javascript-rendering-comparison-check/.
Porównanie z konkurencją
Jednym z elementów audytu SEO jest analiza konkurencji. Do tego celu mamy cały arsenał wielkich i płatnych kombajnów, które przeanalizują linki, sprawdzą kampanie, ilość treści oraz inne dane, które można przedstawić w końcowym dokumencie.
Istnieją też darmowe narzędzia do analizy konkurencji, a w zasadzie do analizy tego, jak wygląda strona wyników wyszukiwania na zadaną frazę. Jednym z nich jest Thruuu, które dla zadanej frazy kluczowej pokaże statystyki dotyczące TOP 10 wyników wyszukiwania Google. Porówna sekcję meta, nagłówki Hx, zdjęcia oraz liczbę słów w treściach. Narzędzie można przetestować pod adresem https://app.thruuu.com/.
W tym obszarze pomoże również jedno z narzędzi z pakietu Rank Ranger. Dla wybranego kraju pokazuje ono ogólne statystyki dotyczące wszystkich wyszukiwanych słów kluczowych. Dzięki temu możemy dowiedzieć się, jaki procent wyników wyszukiwania w danym kraju zawiera reklamy, obrazki czy grf wiedzy. Dane te można sprawdzić pod adresem https://www.rankranger.com/google-serp-features.
Inne darmowe narzędzia SEO
Darmowych narzędzi SEO jest oczywiście znacznie więcej. Można napisać, że mamy do czynienia z klęską urodzaju. Problemem obecnie nie jest to, czy istnieje narzędzie przydatne w kwestii X, ale to, które narzędzie wybrać. W sieci są dostępne przeogromne listy darmowych narzędzi SEO wraz z krótkimi opisami, więc zainteresowanych odsyłam do dalszej lektury np. strony https://www.webfx.com/seo/tech/free-seo-tools-list/. Mamy tutaj ponad 200 darmowych narzędzi pomocnych w czasie analizy SEO wraz z ich krótkim opisem. Listę tę należy jednak przejrzeć, a każde narzędzie przetestować, bo jak wspomniałem na początku wpisu, wiele z nich nie działa na naszym rynku.
Podsumowanie
Analizując stronę internetową pod kątem SEO, możemy wykorzystać wiele narzędzi, z których spora część jest bezpłatna. Przedstawione powyżej narzędzia to tylko nieznaczna część z ogólnie dostępnych rozwiązań. Istnieje wiele nieporuszonych w tym artykule aspektów związanych z narzędziami pomocnymi w czasie analizy SEO. W kolejnych wpisach jeszcze powrócę do tego tematu.