Co to jest thin content i duplicate content?
Spis treści:
Content is king! Odkąd Google zaczęło przykładać większą wagę do jakości treści, tego typu stwierdzenia zyskały na popularności. Faktycznie zawartość witryny jest jednym z najważniejszych czynników rankingowych i z tego powodu na stronach pojawia się coraz więcej tekstów. Jednak nawet w tych, wydawałoby się, prostych działaniach można trafić na kilka pułapek, potencjalnie problematycznych dla naszego serwisu.
Treść jest ważna zarówno dla klientów, którzy chcą zdobyć więcej informacji o interesującym ich produkcie, jak i dla robotów Google, które “uważają”, że strony z dużą ilością tekstu prezentują wyższy poziom. Jednak podział na użytkowników i roboty Google staje się coraz mniej aktualny, ponieważ algorytmy wyszukiwarki są udoskonalane w taki sposób, by jak najlepiej dopasowywać treść do odbiorców. Co za tym idzie, roboty indeksujące analizują zawartość strony pod kątem czynników, na które zwracają uwagę zwykli użytkownicy sieci. Na celowniku znalazł się więc thin content oraz duplicate content.
Algorytm Panda – pierwszy krok do wartościowej treści
Dobrym przykładem tego typu zmian jest algorytm Panda, którego zadaniem jest zwiększenie widoczności serwisów z wysokiej jakości treścią. Skutki jego działania można było obserwować od 2011 roku i do dzisiaj algorytm Panda jest uważany za jedną z najbardziej istotnych aktualizacji. Wystarczy wspomnieć, że od wejścia w życie Pandy większość stron z treścią tworzoną wyłącznie na potrzeby pozycjonowania znalazło się daleko poza TOP10. Algorytm skutecznie pozbył się serwisów z dużą ilością mało wartościowych podstron czy portali opierających się w głównej mierze na skopiowanej treści.
To właśnie działania, których celem jest poprawa pozycji w wyszukiwarce za wszelką cenę, są zwalczane przez Google. Włączając w to modyfikacje treści. Co prawda, czasem zupełnie nieświadomie narażamy się na negatywne działanie algorytmów, ale efekt jest ten sam – obniżenie pozycji strony w wynikach wyszukiwania. Najpopularniejsze błędy, za które Google może dotkliwie ukarać opisane zostały poniżej.
Czym jest thin content?
To sformułowanie można przetłumaczyć jako „rzadka treść”, które całkiem dobrze obrazuje, z czym mamy do czynienia. Pod tym pojęciem kryją się wszystkie błędy, zbiorczo określane mianem treści niskiej jakości. Najważniejsze z nich to między innymi:
1. Automatycznie generowana treść
To przede wszystkim teksty stworzone za pomocą różnego rodzaju generatorów. Nierzadko to losowe akapity, które nie mają żadnego sensu, ale są nasycone słowami kluczowymi. Często można spotkać też witryny udostępniające fragmenty innych stron lub kanałów RSS. Jeżeli twórca takiej strony nie dodaje do niej żadnej własnej wartości, zostanie ona potraktowana jako automatycznie wygenerowana. Inną zakazaną przez Google praktyką jest publikowanie tekstów tłumaczonych przez automatyczne narzędzia. Korzystanie z tekstów z translatorów jest dozwolone wyłącznie, gdy wynik ich pracy zostanie sprawdzony i poprawiony przez człowieka.
2. Zbyt duże nasycenie słowami kluczowymi
Czasem, pisząc teksty, staramy się zawrzeć w nich jak największą liczbę fraz kluczowych lub kilka razy powtórzyć tę, na której najbardziej nam zależy. Jeżeli tworzymy długi tekst, to tego typu praktyka nie powinna mieć negatywnego wpływu na naszą stronę. Jednak przy krótkich treściach nadmierne nasycenie słowami kluczowymi będzie bardzo widoczne i negatywnie wpłynie na czytelność tekstu. Tworząc artykuł lub inną treść, należy pamiętać, że jej odbiorcami będą przede wszystkim ludzie i to dla nich powinniśmy tworzyć content, unikając “rzadkiej treści”. Nadmierne nasycenie słowami kluczowymi utrudnia odbiór tekstu, a do tego łatwo zostanie wykryte przez roboty indeksujące.
3. Ukryta treść
To działanie z pełnym przekonaniem można zaliczyć do black hat SEO, czyli nielegalnych praktyk, które mają na celu oszukanie algorytmów wyszukiwarki. Zazwyczaj treść ukrywa się poprzez zmianę jej wyglądu za pomocą stylów CSS, na przykład poprzez nadanie akapitowi koloru tła. Bardziej zaawansowane sposoby opierają się na wyświetlaniu zmodyfikowanej treści wyłącznie robotowi indeksującemu. Tego typu działania mogą zostać odkryte przez raterów (pracowników Google odpowiedzialnych za ręczną weryfikację stron) i wtedy należy spodziewać się surowej kary za thin content. Warto więc sprawdzać co jakiś czas kod swojej strony oraz to, w jaki sposób jest ona widoczna dla robotów indeksujących. Często zdarza się, że w wyniku ataku hakerskiego na naszej stronie pojawiają się treści, które mogą być przyczyną kary od Google.
4. Niewiele różniące się pomiędzy sobą podstrony
Niezależnie, czy nasz serwis posiada tylko kilka podstron czy jest ich kilka tysięcy, należy zadbać o to, by treść na nich była zróżnicowana. Największe problemy w tym zakresie mają zazwyczaj duże sklepy oferujące zbliżone do siebie produkty. Podobnie sprawa wygląda, jeżeli każdy z wariantów ma osobną podstronę, a opisy na nich są powielone. Dużo lepszym rozwiązaniem jest zgrupowanie wariantów na jednej podstronie i umożliwienie zakupu odpowiedniego produktu z jednego miejsca. Dzięki temu unikniemy kary za “rzadką treść”.
5. Treść o niskiej wartości dla użytkownika
Oprócz wyżej wymienionych błędów należy również wystrzegać się też innych złych praktyk. Są to między innymi:
- umieszczanie w opisie produktu wyłącznie specyfikacji technicznej – techniczny język nie jest przyjazny dla każdego klienta. Z tego powodu powinniśmy stworzyć chociaż krótki opis informujący, czym jest i do czego służy dany przedmiot. Z takiego rozwiązania będą zadowoleni zarówno klienci, jak i algorytmy wyszukiwarki, a my unikniemy kary za thin content,
- opisy nieprzekazujące żadnych konkretnych informacji – teksty, które w głównej mierze składają się z tzw. „lania wody”. Zostały one stworzone tylko po to, żeby podstrona nie była pusta, ale nie oferują żadnej wartości klientowi,
- strony typu doorway – witryny stworzone wyłącznie dlatego, by mogły zebrać i przekierować ruch na inną stronę. Jest to kolejny przykład nielegalnych praktyk, które straciły na popularności po kolejnych aktualizacjach algorytmu.
Warto również posłuchać, co na temat Thin Content ma do powiedzenia Matt Cutts szef zespołu ds. spamu w Google.
Czym jest duplicate content?
Powielenia są tematem bardzo mocno związanym z niskiej jakości treścią i kilka razy wątek duplikacji został już poruszony w tym artykule. Jednak powielenia są na tyle często spotykane, że warto poświęcić im osobny akapit. Ogólnie przyjmuje się, że duplikacja dzieli się na:
1. Powielenia wewnętrzne
To strony w obrębie witryny, które są identyczne lub różnią się między sobą w niewielkim stopniu. Wspomniane już produkty z takimi samymi opisami są świetnym przykładem duplikacji wewnętrznej. Jednak powielona treść może pojawić się też w inny sposób, np. jeżeli wyniki z wewnętrznej wyszukiwarki lub wyniki filtrowania produktów nie zostaną zablokowane przed indeksowaniem, to mogą one zostać uznane za zduplikowaną treść. Innym przypadek to dostępność naszej witryny zarówno pod adresem z przedrostkiem www, jak i bez. Roboty indeksujące mogą uznać, że jest to powielenie całej witryny i nałożyć na nią karę.
By uniknąć powieleń wewnętrznych, należy zastosować odpowiednie przekierowania, dodać linki kanoniczne, a także atrybut noindex do podstron, które nie powinny być indeksowane. Metody zależą od tego, z jakiego typu duplicate contentem mamy do czynienia. Jeżeli sami nie potrafimy określić, jakie rozwiązanie będzie najlepsze, to powinniśmy zwrócić się do agencji SEO, która pomoże nam dobrać odpowiednią metodę.
2. Powielenia zewnętrzne
Z powieleniami zewnętrznymi mamy do czynienia, gdy treść z naszej strony możemy znaleźć również w innych miejscach w internecie. Zazwyczaj oznacza to, że treści na naszej witrynie zostały skopiowane z innych stron. Jeżeli Google zorientuje się, że to nie my jesteśmy autorem zamieszczonych treści, ukara naszą witrynę spadkiem pozycji. Oprócz kary od wyszukiwarki możemy narazić się na roszczenia dotyczące łamania prawa autorskiego – trzeba pamiętać, że kopiowanie opisów produktów bez zezwolenia autora jest nielegalne.
Umieszczanie na swoich stronach opisów producenta również nie jest najlepszym pomysłem. Tego typu treść znajduje się na setkach innych witryn, przez co szanse na pojawienie się na wysokich pozycjach są bardzo małe. Dużo lepszym rozwiązaniem jest opracowanie na podstawie opisów producenta własnych, unikalnych treści. Tego typu zabieg uchroni nas przed karą za zduplikowaną treść.
Karę za duplicate content możemy sprowadzić na siebie z własnej winy. Jeżeli oprócz sklepu internetowego używamy serwisów takich jak: Dawanda, Domodi, a nawet Allegro, Google może uznać, że na naszej stronie znajduje się powielona treść. Wystarczy, że wystawiając produkty na wyżej wspomnianych serwisach używamy tych samych opisów, co w sklepie internetowym. Dawanda czy Allegro są znanymi markami i Google uznaje je za zaufane strony, z tego względu to nasza witryna zostanie posądzona o kopiowanie treści. Jak tego uniknąć? Należy przygotować dwa zestawy unikalnych opisów – jeden używany w naszym sklepie, drugi wykorzystywany na zewnętrznych portalach. Dzięki takiemu rozwiązaniu unikniemy nieprzyjemności ze strony Google.
Często słyszy się: “im więcej treści na stronie internetowej, tym lepiej”. Nie jest to jednak prawda. Priorytetem powinna być jakość, a nie ilość, z czym zgodzi się chyba każdy użytkownik internetu. Podobnego zdania jest Google, które za pomocą algorytmów stara się promować treść najwyższej jakości. Oczywiście wyszukiwarka nie jest doskonała, ale z każdą kolejną aktualizacją widzimy, jaką drogą podąża Google. Warto więc przygotować się na to, że jakość tekstów będzie coraz ważniejszym czynnikiem rankingującym i zadbać o swoje treści od zaraz.