czwartek, 7 listopada 2013

Disavow.txt - czy faktycznie szkodzi?

Opinie w tym temacie są podzielone: część branży krzyczy, że umieszczanie domen w tym pliku to podcinanie gałęzi, na której się siedzi, zaś druga część w odpowiedzi stuka się palcem w czoło. Disavow.txt intryguje mnie od chwili, w której się objawił, a że ciekawość leży w naturze mojej płci, natychmiast przystąpiłam do eksperymentowania z owym plikiem. Przez kilka miesięcy wyczyniałam rozmaite cuda, takie jak:

1. Ładowanie do disavow.txt wszystkich stron spamerskich (z generowanymi tekstami i odnośnikami umieszczanymi gdzie popadnie), na których jakieś firmy umieszczały linki do witryn Klientów, którzy uciekali od ww. firm do mnie - przykład "poprawnego" wykorzystania disavow.txt;
2. Wrzucanie hurtem do disavow.txt wszystkich darmowych katalogów SEO kierujących na strony poligonowe, a potem usuwanie owego pliku całkowicie;
3. I wreszcie umieszczanie w disavow.txt wyłącznie tego typu stron, do których pretensje zgłaszało Google w związku z filtrem ręcznym, choć osobiście uważałam, że czepia się ich kompletnie bezpodstawnie.

Co wynikło z powyższego?

1. Zdejmowanie filtra w tempie błyskawicznym (maksymalnie 12 dni), aczkolwiek były to początki całej zabawy z RR-ami i wówczas w miarę zgrabnie szło usuwanie kar.

2. Tutaj następowały rzeczy interesujące - po umieszczeniu domen (200 darmowych katalogów SEO) w disavow.txt, pozycje spadały w dół (frazy konkurencyjne, bo i takie trzymam na poligonach).


Plik został wgrany pod koniec czerwca 2013, na obrazku powyżej mamy lipiec. Spadek widać wyraźnie. W tym samym czasie zabiegałam o linki możliwie najbardziej naturalne, strona generalnie była zoptymalizowana od początku istnienia. Ponieważ był to pierwszy eksperyment tego typu, po tygodniu usunęłam disavow.txt. Po kolejnym tygodniu strona odbiła straty, a nawet zyskała na pozycjach.

Podobne eksperymenty przeprowadzałam też na innych domenach, z różnym czasem trzymania disavow.txt, ale zawsze z identycznym rezultatem. Spadek, a potem powrót. Co istotne - żadna ze stron nie była przez Google ukarana, a zrzekałam się linków z witryn uważanych przez znaczną część branży za śmieciowe (czytaj katalogi różnej maści, z przeważającą ilością SEOkatów). Ciąg dalszy zabawy trwa dla kolejnych paru domen (chcę przetrzymać taki disavow.txt przez pół roku, po tym czasie usunąć i zobaczyć co z tego wyniknie).

3. Przypomnę - zabawa z disavow.txt przy domenach ukaranych przez Google i ładowanie do niego tylko domen tego typu, które Googlarze uznali za "fe", choć moim zdaniem wcale "fe" nie były. Efekt? Filtr pozostawał niewzruszony. Dopiero po wywaleniu linków z tych adresów, które na oko uznałam za szkodliwe i uzupełnieniu disavow.txt o śmieci w stylu tych z punktu numer 1, kara była zdejmowana.

Co ważne: ze stron, które mnie się podobają, a nie podobają się Googlarzom, twardo prowadzą linki do innych moich witryn, w tym do firmowej (np. z Linksora) i nie mam najmniejszego zamiaru nic z tym robić (nawet, jeśli inni pozgłaszali je do disavow.txt dla świętego spokoju).


Z dotychczas przeprowadzonych przeze mnie testów jasno wynika, że disavow.txt jest jednak przesadnie przeklinany przez branżę i jeśli trafi do niego jakaś domena, nie zostaje ona napiętnowana i przekreślona na wieki. Nie wykluczam, że gdyby kilkadziesiąt tysięcy osób jakiś link umieściło w ww. pliku, efekt by był i domena na wartości by straciła (choć diabli wiedzą, za Googlem się nie trafi). Ale jeśli korzystamy z disavowa rozsądnie, to podnoszenie krzyku wydaje mi się osobiście reakcją mocno przesadzoną.

Testy, jak wspomniałam, trwają, więc pozwolę sobie od czasu do czasu aktualizować wpis, jeśli objawią się jakieś nowe rezultaty.

Brak komentarzy:

Publikowanie komentarza