5 sposobów na uniknięcie duplikacji
Spis treści:
Jedną z dobrych praktyk pozycjonowania stron internetowych jest unikanie tworzenia powieleń treści, czyli duplikacji.
Z duplikatami mamy do czynienia, gdy dana treść jest dostępna pod wieloma adresami URL, zarówno na obszarze witryny (duplikaty wewnętrzne), jak i w całej sieci (duplikaty zewnętrzne). Powielenia mogą przyjmować różną formę – tekstu, plików multimedialnych, podstron bądź jej fragmentów (duplikaty częściowe). Z punktu widzenia wyszukiwarki internetowej, posiadanie powielonej treści wpływa na obniżenie pozycji witryny, nawet jeżeli jej kod jest zoptymalizowany poprawnie. Jeśli chcesz zachować dobry wizerunek w oczach Google, unikaj najczęstszych problemów związanych z duplikacją.
Nie publikuj skopiowanych treści
Powszechnie przyjęło się błędne przekonanie, jakoby ilość treści na stronie stanowiła ważniejszy czynnik dla pozycjonowania niż ich jakość. Nic bardziej mylnego. Nawet najlepsza zawartość witryny może wpłynąć negatywnie na jej renomę, jeżeli pochodzi z innego źródła. Problem ten dotyczy najczęściej sklepów internetowych, których zdjęcia i opisy produktów pochodzą często ze strony producenta. Google zdaje sobie sprawę, iż dana zawartość została już przedstawiona użytkownikom i nie będzie jej rankingować po raz kolejny. Dlatego też należy zadbać, aby zamieszczać treści unikalne i publikowane wyłącznie w ramach danej witryny.
Zmniejsz części wspólne podstron
Większość podstron witryny internetowej zawiera pewne podstawowe elementy – między innymi nawigację (menu) strony oraz stopkę. Często zdarza się, że elementy te mogą zawierać dodatkowe treści, wyświetlane na każdej podstronie, na której występują. Przy złożonych witrynach proces ten powoduje powstanie dużej ilości powieleń wewnętrznych. W miarę możliwości staraj się ograniczać ilość części wspólnych podstron do niezbędnego minimum. Niektóre treści, jak na przykład informacje o prawach autorskich, można zamieścić na osobnej podstronie, do której link można umieścić w stopce bądź menu strony.
Ogranicz długość wypisów
Wypisy (zajawki) artykułów pełnią istotną rolę w zwiększaniu przejrzystości serwisu oraz pozyskiwaniu uwagi internautów. Umieszczone w wynikach wyszukiwania, filtrach, bądź na stronie głównej, umożliwiają szybką organizację treści, znacząco ułatwiają przeglądanie serwisu, a także zachęcają odwiedzającego do zapoznania się z daną zawartością. Zajawki najczęściej przyjmują formę kilku pierwszych zdań tekstu umieszczonego na linkowanej podstronie. Zbyt długa treść może być potraktowana przez robota Google jako duplikat. Unikaj sytuacji, w której wypisy osiągają więcej niż dwie do trzech linijek tekstu lub przygotuj unikalną treść dla każdego z nich. Nie każdy początek artykułu musi stanowić odpowiednią zachętę do przeczytania całości.
Wyeliminuj duplikaty adresów URL
Czasami powielenia mogą powstać bez naszej zgody czy nawet wiedzy. Jeżeli witryna posiada obsługę filtrów, sortowania lub kategorii, często dochodzi do sytuacji, w której treści artykułów lub opisy produktów pojawiają się na wielu sztucznie wygenerowanych stronach. Podobnym problemem obarczone są wyniki wyszukiwania wewnętrznego, podstrony z parametrami (dotyczącymi, na przykład, prowadzonej kampanii mailingowej), kopie strony głównej pod różnymi adresami, a także witryny przenoszone na inną domenę. Ostatni przypadek jest szczególnie niekorzystny – jeżeli nie usunęliśmy nieaktualnych adresów URL, po sieci krążą podwojone wersje całych podstron. Google przed wszystkim zwraca uwagę na relewantność treści, ale także na datę ich opublikowania i jeśli ma możliwość – odwoła się do witryny, która posiada dany zasób dłużej. Co zatem robić, aby wystrzec się przypadkowych powieleń?
Rozwiązań tego problemu może być kilka. Przede wszystkim skonfiguruj odpowiednio nagłówek 301 stron-duplikatów – za pomocą pliku .htaccess, PHP lub, w przypadku WordPressa, za pomocą dodatkowej wtyczki – aby wskazywał właściwy adres URL. Dzięki temu zminimalizujesz stratę page ranku, a odwiedzający zawsze trafi na oryginalną podstronę. W sytuacji gdy jest to niemożliwe, możesz odwołać się do tagu meta rel=”canonical”, który powiąże skopiowaną stronę z oryginalnym zasobem. Dla wyników wyszukiwania, filtrów oraz mechanizmów sortowania wykorzystaj meta tag robots o wartości noindex. Dzięki temu strony nadal będą odwiedzane przez roboty, jednakże ich zawartość nie będzie znajdować się w indeksie witryny. Aby całkowicie uniemożliwić robotom dostęp do stron, możesz dodać odpowiednie zasoby do pliku robots.txt (parametr Disallow).
Dostosuj paginację witryny
Jeśli posiadasz rozbudowaną witrynę – na przykład sklep internetowy – najpewniej Twoje zasoby są pogrupowane na podstronach paginacji. W ramach procesu pozycjonowania opatrzyłeś je tekstem wspomagającym SEO, unikalnymi nagłówkami oraz tytułami. Czy to jednak wystarczy, żeby uznać optymalizację za zakończoną? Zwróć uwagę, że jeśli zdecydowałeś się umieścić powyższe elementy pozycjonujące na każdej podstronie, każda z nich zawiera zbieżne elementy. A im więcej stron paginacji, tym więcej tego typu treści zostaje powtórzonych.
Ogranicz tekst wspomagający tylko do pierwszej strony paginacji, aby wyeliminować zbędne powtórzenia. Nagłówki i tytuły zazwyczaj nie stanowią problemu dla robota Google – możesz jednak powiązać kolejne strony linkami ze znacznikami rel=”next” i rel=”prev”. W ten sposób dajesz do zrozumienia, że między kolejnymi linkami następuje ciąg logiczny, który wyszukiwarka interpretuje jako kolejno następujące po sobie podstrony.
Rzecz jasna nie są to wszystkie możliwe problemy z duplikacją. Unikanie powstawania kopii nie jest jednak trudne. Przy odpowiednim selekcjonowaniu treści oraz regularnym audycie witryny można w szybki sposób wykryć i wyeliminować najbardziej newralgiczne problemy. Na korzyść tego rozwiązania przemawia przede wszystkim szybkość i prostota wdrażania poprawek. Nie wymaga ono także nadmiernej ingerencji w kod strony – każdy jest w stanie przeprowadzić odpowiednie czynności zapobiegawcze.
Źródła: