Widzialni cares about Your privacy
In order to offer access to a secure, functional and attractive service, we use identifiers sent by your device and may store or read small text files (e.g. cookies) contained on your device. Based on your consent, we will process personal data, such as unique identifiers, information sent by end devices for personalization of advertisements and content, statistical demographic information for traffic measurement, we will also analyze the usefulness of certain solutions of the service, their performance in order to improve user satisfaction - hereinafter: your Data. By clicking "Accept all" you consent to the processing of your data in a broad way, including sharing it with third parties - a list of which can be found in the Privacy Policy. By clicking "Personalize" you can make your choice of settings. By clicking "Necessary only," you refuse to consent to the use of optional settings and the transfer of additional data. You can make changes to your choices at any time by clicking the padlock button in the corner of the page. Regardless of your preference settings on our site, you can also manage your browser`s privacy settings. For more information about data processing, see our Privacy Policy.
Manage preferences
Select the consents of your choice
Necessary
Necessary scripts and data stored on the end device contribute to the security and usability of the website by enabling secure access to basic functions such as site navigation and access to specific areas of the website. The website cannot be properly displayed without this group.
Functionality
This is data used to personalize your use of our website and to remember choices you make while using our website. For example, we may use functional cookies to remember your language preferences or to remember your login information, making it easier for you to use the site.
Analytics
Scripts and data used to collect information to analyze site traffic and how users use the site, how they came to the site, and to create aggregate demographic statistics about users. Analytical cookies and similar technologies allow us to measure the effectiveness of actions taken and content presented.
Marketing
Scope responsible for displaying personalized ads that may be of interest to the user based on browsing history and habits and demographic criteria. Also, third-party files that, in conjunction with files installed while browsing other websites, profile the user, providing him or her with the marketing, advertising and retargeting content deemed most appropriate.
Personalize
Accept choices
Accept all
Crawlery pomocne w trakcie wykonywania audytu SEO

Crawlery pomocne w trakcie wykonywania audytu SEO

W poprzedniej części cyklu dotyczącego narzędzi, które mogą się przydać w trakcie wykonywania audytu SEO, wspominaliśmy o pakiecie aplikacji dostarczanych przez Google. W tej części przedstawimy crawlery, które zbierają dane potrzebne do analizy strony.

Analiza kwestii technicznych w ramach audytu SEO jest czasochłonna. Ręczne wykonywanie takich procesów może nie dostarczyć zadowalających efektów z uwagi na konieczność przeglądu setek (czasem nawet tysięcy) podstron w poszukiwaniu błędów i problemów technicznych. Wykonując takie zadanie łatwo jest coś przeoczyć, dlatego też lepszym i efektywniejszym rozwiązaniem jest korzystanie z programów do crawlowania strony.

Crawlery SEO

Programy te potrafią analizować dużą ilość podstron pod kątem wielu czynników ważnych dla SEO. Zadanie to wykonywane jest automatycznie i wielowątkowo więc trwa znacznie krócej niż ręczny przegląd podstron. Daje też zdecydowanie lepsze efekty.

Na rynku dostępnych jest wiele narzędzi do sprawdzania serwisu pod kątem SEO. Brakuje jednak rozwiązań darmowych, w dodatku takich, które nadążają za zmianami w algorytmach Google. Każdy z dostępnych crawlerów różni się funkcjami i przeznaczeniem, ale co do zasady takie oprogramowanie powinno:

  • sprawdzać status http podstron oraz notować łańcuchy przekierowań,
  • sprawdzać ilość nagłówków,
  • sprawdzać sekcję meta, zwłaszcza znacznik title oraz indeksację serwisu,
  • liczyć znaki w treści i sprawdzać jej unikalność,
  • kontrolować inne wskaźniki techniczne witryny.

Efektem końcowym pracy takiego programu jest raport podsumowujący znalezione błędy. W trakcie audytowania strony należy sprawdzić taki raport, potwierdzić zasadność znalezionych błędów oraz wyciągnąć wnioski, które można wykorzystać w audycie.

Crawlery są używane w technicznej analizie strony pod kątem występowania fraz kluczowych, nasycenia atrybutów alt oraz innych działań, które są wykonywane masowo dla wszystkich podstron w witrynie.

Ustawienia crawlowania

Każde z narzędzi posiada szereg ustawień, dzięki którym możemy podać parametry, z jakimi ma pracować oprogramowanie. Najczęściej spotykanymi są:

  • wybór user agent,
  • crawlowanie stron z wykorzystaniem uprawnień do ich oglądania (podając login i hasło),
  • ograniczenie prędkości i głębokości analizowania,
  • wyłączenie respektowania adresów kanonicznych i dyrektyw w pliku robots,
  • ograniczenie analizy tylko do poszczególnych stron czy typów plików,
  • wykonywanie skryptów JS.

Programy pokazane w dzisiejszym wpisie to subiektywny wybór autora tekstu. Każdy z nich jest inny i może być wykorzystany do innych celów – także niezwiązanych z audytem. W trakcie wykonywania takiego dokumentu warto się posiłkować kilkoma narzędziami, a wyniki ich analizy porównywać.

Xenu

Oprogramowanie to jest wiekowe, a jego ostatnia aktualizacja miała miejsce we wrześniu 2010 czyli, patrząc z perspektywy SEO, kilka epok temu. Powodem umieszczenia tego programu w poniższym zestawieniu jest funkcjonalność oprogramowania – Xenu zadziała niemal na każdej stronie. Gdy inne programy odmówią posłuszeństwa czy to poprzez brak pamięci, czy też błędy wewnętrzne, Xenu niemal zawsze przeanalizuje serwis.

Interfejs tego narzędzia jest dość prosty. Po wybraniu strony do crawlowania możemy jedynie uwzględnić lub wykluczyć niektóre adresy z analizy. Program na bieżąco informuje nas o statusie  prowadzonych prac oraz jego procentowym postępie.

Crawlowanie strony za pomocą Xenu

Crawlowanie strony za pomocą Xenu

Okno główne zawiera listę znalezionych przez program linków oznaczonych kolorami czarnym – link niesprawdzony, zielonym – link sprawdzony, nie znaleziono błędów, pomarańczowym – informacja do sprawdzenia oraz czerwonym – błąd podczas sprawdzania linku. W przypadku konieczności zalogowania program wyświetli stosowne powiadomienie.

Wynik działania programu otrzymamy po skończonej analizie w pliku HTML. Dzięki niemu możemy sprawdzić jakie linki zwracają błędy (np. kod odpowiedzi 404). Błędy te możemy oglądać według strony docelowej oraz według linku.

Wynik prac programu Xenu

Wynik prac programu Xenu

Oprogramowanie to pozwala na dość pewną analizę podstron w szczególności w poszukiwaniu uszkodzonych linków wewnętrznych. Jego zaletą jest też szybkość i wielowątkowość.

WebSite Auditor

Program ten ma o wiele więcej opcji niż wcześniej wspomniany Xenu i pozwala na wykonywanie zdecydowanie szerszych analiz pod kątem SEO.

Konfiguracja crawlera pozwala na wykluczenie typów plików, ograniczenie crawlowania czy wykonanie pracy z wykorzystaniem proxy. Możemy też wybrać odpowiedniego user agent lub umożliwić wykonanie skryptów.

Okno programu w czasie pracy pokazuje nam listę zebranych adresów wraz ze sprawdzonymi parametrami. Warto zwrócić uwagę na zakładki znajdujące się w menu bocznym. To one pozwalają na szersze analizy już po zakończeniu zbierania adresów.

WebSite Auditor - crawl

WebSite Auditor – crawl

Wynikiem pracy programu jest zbiór wskazówek informujących, co można poprawić na stronie.

Każdą z nich można wyeksportować do pliku np. xls, dzięki czemu dysponujemy np. listą stron zwracających dany błąd. Możliwe jest też wygenerowanie raportu podsumowującego pracę programu, w którym znajdą się wszystkie błędy i ostrzeżenia.

WSA - audyt strony

WSA – audyt strony

Aplikacja ta jest bardzo często aktualizowana, dzięki czemu dostarcza wielu informacji na temat stanu witryny oraz kondycji poszczególnych podstron.

Z łatwością możemy sprawdzić powielone lub brakujące znaczniki czy też zweryfikować, które strony są zbyt duże lub mają zbyt długie i dynamiczne adresy. Możemy też przyjrzeć się sekcji treściowej – po wybraniu strony i wskazaniu słów następuje ich analiza z uwzględnieniem wszystkich miejsc istotnych dla pozycjonowania.

WSA - wynik audytu strony

WSA – wynik audytu strony

Screaming Frog

Program ten jest bardzo popularny i często wykorzystywany w czasie analiz stron www pod kątem pozycjonowania, także w trakcie wykonywania audytów SEO lub wytycznych optymalizacyjnych. Posiada bardzo dużo parametrów konfiguracyjnych – oprócz wymienionych już wcześniej, możemy np. wygenerować mapę XML podstron lub sprawdzić na ilu podstronach występuje szukany tekst.

Screaming Frog - interfejs narzędzia

Screaming Frog – interfejs narzędzia

Program sprawdza bardzo dużo czynników istotnych dla SEO.

Po wykonanej analizie możemy przeglądać każdą z gałęzi, które zawierają listę stron spełniającą zadane kryteria. Taki surowy format danych sprawdzi się do szybszej i dokładniejszej analizy oraz do wykorzystania w innych narzędziach.

Każdą z analiz można wyeksportować do pliku jako listę podstron wraz z dodatkowymi informacjami.

Screaming Frog - eksport danych do arkusza kalkulacyjnego

Screaming Frog – eksport danych do arkusza kalkulacyjnego

Screaming Frog bardzo dobrze radzi sobie z crawlowaniem dużych serwisów. Dzięki mnogości opcji oraz dużej licznie sprawdzanych czynników jest szeroko wykorzystywany do audytowania stron www pod kątem SEO.

Podsumowanie

Wyżej wymienione aplikacje nie są oczywiście jedynymi programami do crawlowania stron www. Każdy z programów wykonuje inne testy i zbiera dane w nieco inny sposób. Różni się też interfejs użytkownika oraz końcowy raport, który otrzymujemy po zakończeniu prac.

Kursy z marketingu internetowego online!

Zarejestruj się do bezpłatnej platformy.

Dołącz do newslettera i otrzymuj regularną dawkę wiedzy oraz ciekawostek ze świata digital marketingu!

Z naszą pomocą zawsze będziesz na bieżąco – bez spamu!

Poznaj historie, które odmienią Twój biznes

Oglądaj na YouTube!

1
Komentarze
Dodaj własny
  1. 1

    Hej, osobom mniej doświadczonym w SEO polecam Pulno.com. To polski crawler, który analizuje stronę i podpowiada co warto poprawić na stronie. Podobnie jak WebSite Auditor generuje wyniki w postaci XLS, ale dodatkowo sprawdza jeszcze duplikację treści i ma integrację z Search Console.

Komentarze są wyłączone.

O blogu

Blog powstał w celu przybliżenia marketingu internetowego w wyszukiwarkach wszystkim zainteresowanym tą tematyką. Będziemy dzielić się tutaj naszą wiedzą oraz nowościami z branży. Życzymy miłej lektury.

Szukaj