sobota, 28 września 2013

SiteCondition - recenzja narzędzia badającego profil linków

Na premierę SiteCondition.com czekała z niecierpliwością chyba cała branża SEO i SEM skupiona wokół społeczności SEOPoland na Google+. I trudno się dziwić - zapowiedź polskiego odpowiednika systemu LinkDetox (za przeproszeniem, w cholerę drogiego) musiała wzbudzić entuzjazm. Zwłaszcza, że Google nie odpuszcza, a maile o treści "Moja strona została ukarana. Pomocy!" twardo zalewają skrzynki osób z branży. Możliwość skorzystania z narzędzia, które co prawda sprawy za nas nie załatwi, ale pomoże uporządkować profil linków, napawała entuzjazmem tak potężnym, że w dniu premiery ciężko było znaleźć dyskusje poświęcone innej tematyce. Miłośnicy SEO, bez mała z zegarkami w rękach i wypiekami na twarzy, oczekiwali na sygnał od administratorów. I wreszcie nastąpiła ta chwila.

Rejestracja w SiteCondition i nawigowanie po nim jest dziecinnie proste. System jest intuicyjny i w zasadzie wymaga od użytkownika wyłącznie:
  • utworzenia nowego projektu z nazwą domeny;
  • wrzucenia do projektu pliku wygenerowanego z Narzędzi dla Webmasterów (chodzi o linki kierujące do domeny);
  • uruchomienia projektu po otrzymaniu informacji, że plik został wgrany prawidłowo.
Teraz pozostaje nam poczekać, aż objawią się rezultaty (czas oczekiwania, co logiczne, uzależniony jest od liczby linków, które system musi zbadać).


Nad SC (nie mylić ze "StarCraftem") spędziłam kilka ostatnich dni, w związku z czym udało mi się chyba zauważyć najistotniejsze zalety i wady programu.

Przyznać trzeba, że narzędzie nie dość, że działa sprawnie, to jeszcze jest z dnia na dzień udoskonalane, co cieszy niezmiernie. Admini czytają chyba w myślach użytkowników, dokładając nowe funkcjonalności i ulepszając system. Co istotne - korzystanie z SC nie doprowadza na skraj bankructwa. Trzy pakiety z różną ilością punktów do wykorzystania (w dowolnym czasie!) w pełni powinny zaspokoić potrzeby i tych mniej i tych bardziej wymagających. A wydanie niecałych 200 zł na pakiet podstawowy choćby w celu sprawdzenia "czym to się je", warte jest swojej ceny. 

Nawigacja, jak już wspomniałam, również nie jest problematyczna, a i wyniki zaprezentowane są w sposób przejrzysty, choć tu następuje pierwszy zgrzyt. Ale po kolei, przyjrzyjmy się najpierw rezultatom przeskanowania przez SC mojej własnej strony firmowej, tj. http://artevia.pl :

SiteCondition - Linki


Już pierwszy ekran koncentrujący się na przedstawieniu danych odnośnie Linków, robi dobre wrażenie. Dostajemy sporo informacji o profilu linków: ich ilości, jakości, a nawet o ich pochodzeniu (pod kątem skryptu). Mnie najbardziej zainteresowały trzy wykresy, dzięki którym już jeden rzut oka wystarcza do oceny sytuacji. No dobra, uczciwie przyznam, że jeden rzut oka to za mało, bo wszystkie trzy diagramy pojawiają się i znikają z prędkością światła i dopiero wduszenie przycisku pauzy (chwała Bogu, że nam ten przycisk dano!) powoduje zatrzymanie rozpędzonego szaleństwa, złapanie oddechu i przystąpienie do analizy. Dobrze byłoby nieco zwiększyć odstępy czasowe pomiędzy prezentacją poszczególnych wykresów tak, by użytkownik nie musiał w panice rzucać się do zatrzymywania całości i aby mógł przejrzeć na spokojnie wszystkie informacje. Na mój gust, można też z samoczynnego przeskakiwania diagramów zrezygnować całkowicie, ostatecznie dano nam strzałki pozwalające nawigować pomiędzy wykresami i chyba każdy z ich obsługą da sobie radę.

Okej, cóż jeszcze tu mamy? Informacje kojarzące się z danymi, jakie prezentuje inny zagraniczny program, MajesticSEO (linkujące domeny, linki przychodzące, usunięte) oraz linki pominięte. Każdy link oceniony jest pod kątem jakości, liczby podstron, na których się wyświetla, otrzymujemy też jasne dane co do dofollow i nofollow. 

Po przełączeniu na zakładkę Treść otrzymujemy kolejną planszę wyników:

SiteCondition - treść

Tu wyraźnie widać, że strona badana jest pod kątem algorytmu Panda, a prześwietlane jest między innymi nasycenie strony słowami kluczowymi. Pojawiają się też pierwsze wskazówki, ale wraz z nimi - także pewien problem. Czytamy na przykład: "W serwisie znajduje się sporo podstron o małym nasyceniu frazami exact match. Może warto dooptymalizować te podstrony." Cóż, pewnie i warto, ale aż się prosi o przycisk w stylu "Pokaż te podstrony". Można rzecz jasna wybrać z listy konkretną podstronę samodzielnie i sprawdzić, co SiteCondition myśli na jej temat i czy to ona wymaga optymalizacji, ale przebijanie się przez kilkaset podstron celem "wyłuskania" tych właściwych, może wywołać zgrzyt zębów. 

Druga wskazówka umieszczona w tej zakładce głosi: "Uwaga!!! Znaleźliśmy bardzo podobną treść do Twojej witryny na innych stronach. Koniecznie napraw ten problem - w przeciwnym wypadku witryna może spaść w rankingu Google.". I choć tutaj możemy przyjrzeć się owym podejrzanym duplikatom, to zwykle okazują się one np. wpisami w dwóch czy trzech katalogach, albo stronami kompletnie z naszą niepowiązanymi (z jedną cechą wspólną - identyczny formularz kontaktowy). SC nie wykrywa za to faktycznie "zerżniętych" treści, jakie jest w stanie wyłapać Copyscape (o jego wykorzystaniu pisałam tutaj). Myślę jednak, że z czasem SiteCondition coraz lepiej będzie radzić sobie z wychwytywaniem duplikatów i wówczas konieczność korzystania z Copyscape zniknie. Nie ukrywam, byłoby miło ;)

Zakładka Słowa kluczowe ma na celu wskazanie nam błędów i wypaczeń, które mogłyby zwrócić uwagę Pingwina:

SiteCondition - słowa kluczowe
Mamy tu sporo przydatnych informacji - przykłady fraz EM, brandowych, a także dane w procentach. Jeśli haseł związanych z marką mamy mniej niż 40%, SC uprzejmie nas o tym powiadomi i zasugeruje zwiększenie ich liczby.

Intrygujące jest dla mnie hasło "jakość linków". SiteCondition na odrębnej stronie informuje co prawda jak ową jakość oblicza, ale nie informuje już co oznacza "link słabej jakości". 
Wracając na zakładkę Linki możemy sobie popatrzeć jak zostały one przez SC ocenione i samodzielnie wydedukować, cóż narzędzie może mieć na myśli. Najwyższa wartość w przypadku mojej strony to 94.73. Najniższa: 49.03. Na innych badanych przeze mnie stronach, linki najniższej jakości osiągały wartość 60 punktów "z groszami", co raczej (tak na chłopski rozum) wskazywałoby na ich przeciętną jakość, ale nie sugerowało dramatu. Niewątpliwie pomocne byłoby umieszczenie gdzieś wskazówki, jak odczytywać wspomniane wyżej liczby i które z linków mogą stronie szkodzić. Zwłaszcza, że po przejściu do ostatniej zakładki, pozwalającej na stworzenie pliku disavow.txt, sami musimy określić wartość linków, których chcemy się zrzec. Czy faktycznie odnośnik o wartości 60 punktów jest na tyle słaby i szkodliwy, by ładować go do worka ze śmieciami?

Oczywiście musimy pamiętać, że SiteCondition nie rozwiąże za nas sprawy filtra (odwołania przecież też za nas nie napisze). Jest narzędziem, które ma nam pomóc w ocenie kondycji strony. I przyznam, że jak na pierwszych kilka dni działania, radzi sobie z tym całkiem nieźle. A wprowadzenie kilku ulepszeń sprawiłoby, że SC dodatkowo zwiększyłby swoje możliwości i przyspieszył pracę. Co byłoby pomocne? Choćby:
  • wskazanie, choć w przybliżeniu, wartości przy której link uznawany jest przez SC za szkodliwy (tak, by można było wziąć go dodatkowo pod lupę);
  • wprowadzenie możliwości wyświetlania całej grupy linków słabej jakości za pomocą jednego kliknięcia;
  • wprowadzenie opcji "pokaż katalogi seo-spam" (w ten sposób przez SC określone);
  • dorzucenie opcji wyświetlania podstron, które wymagają wprowadzenia zmian w treści (z podziałem na "zbyt duże nasycenie frazami EM" i "zbyt małe nasycenie frazami EM").

Tyle obserwacji z mojej strony. Czekam na Wasze komentarze, dajcie znać co przegapiłam analizując narzędzie i jakie jeszcze ulepszenia warto byłoby w nim wprowadzić. Autor komentarza, w którym pojawi się najwięcej ciekawych wskazówek, otrzyma mały bonus w SC - 50 000 punktów do wykorzystania na analizę własnych serwisów :)

I na sam koniec, duży ukłon w stronę twórcy serwisu, którym jest +Radosław Kubera - zarówno za SiteCondition, jak i za umożliwienie podzielenia się z Wami ww. punktami :)

[EDIT: SC zrecenzował też +Artur Strzelecki - jego artykuł znaleźć można pod adresem http://www.silesiasem.pl/sitecondition-com-test-oprogramowania-do-audytow-seo]

sobota, 21 września 2013

Szkolenie w Katowicach - Google AdWords i Analytics

W serwisie Critical.pl pojawiła się dziś relacja ze szkolenia WHS i BHS, które w ubiegłym tygodniu przeprowadził w Katowicach +Artur Strzelecki i +Tomasz Wieliczko. Do Marcina dołączył się również Sebastian, dodając własne spostrzeżenia w websem.pl. Postanowiłam uzupełnić ich relacje o własne wrażenia z pozostałych zajęć, w których miałam przyjemność uczestniczyć.


We wtorek 17.09.2013 Artur poprowadził szkolenie z Google Analytics. Narzędzie niby dobrze wszystkim znane, a jednak kryjące w sobie ogrom możliwości. Bycie na bieżąco z GA nie jest sprawą prostą, do czego zresztą przyznał się sam Artur odkrywając nawet w trakcie szkolenia nowe funkcje (i tym samym automatycznie urósł w moich oczach, bo nie każdy jest równie skłonny do przyznania "O, to coś nowego. Będę musiał się temu przyjrzeć w czasie przerwy"). 

Podczas zajęć przeanalizowane zostały m.in:
  • definiowanie celów
  • tworzenie nakładek
  • tworzenie i śledzenie zdarzeń w witrynie
  • modyfikacje kodu GA w zależności od potrzeb własnych
Z dużym zainteresowaniem wysłuchałam informacji odnośnie zliczania odwiedzin na stronie - niby sprawa jasna, prosta i przyjemna, a jednak niewielkie detale całkowicie odmieniły moje spojrzenie na tę kwestię. Okazuje się, że jednak logika nie zawsze idzie w parze z pomysłami Google ;)

Artura miałam okazję pomęczyć dodatkowo po szkoleniu, zasypując lawiną pytań (jak się uczyć, to od najlepszych) i generalnie muszę przyznać, że jest to chyba najbardziej kreatywny w wynajdywaniu rozwiązań SEO człowiek, jakiego miałam okazję dotąd poznać. Niektóre jego pomysły są absolutnie genialne i wspomniał o nich również Marcin w swojej relacji (o której pisałam na początku).

Środa i czwartek (18.09-19.09.2013) upłynęły pod znakiem Google AdWords. Zajęcia poprowadziła +Kinga Gołębiewska - przesympatyczna i uzbrojona w potężną wiedzę z zakresu kampanii reklamowych Google. Pierwszy dzień szkolenia dotyczył podstaw tworzenia kampanii w AdWords, drugi koncentrował się na ich optymalizacji. Mieliśmy również okazję zapoznać się bliżej z przykładowymi pytaniami, na które narażony jest każdy chętny do zrobienia certyfikatu z AdWordsów ;) Na cały temat patrzyłam jednak z punktu widzenia jednostki siedzącej w promocji stron w wynikach organicznych i tutaj porozumienie bez słów nawiązałam z innym pozycjonerem, który również postanowił zgłębić kampanie reklamowe (pozdrowienia ślę pod adresem +Sławomira). Możliwość wykorzystania niektórych funkcji AdWords dla celów promocji stron w wynikach organicznych biła nas po oczach i wydobywała z nas zgodne "Ooooo!" przepełnione zachwytem.

Generalnie możliwość bezpośredniego kontaktu z pasjonatami SEO, którzy tematem żyją i oddychają, dodatkowo przemawia za bywaniem na szkoleniach SilesiaSEM. Wspaniała atmosfera, tworzenie niemal z marszu więzi z osobami, dla których SEO i SEM to prawdziwy żywioł, wymiana spostrzeżeń, opinii - tego się nie da ani opisać słowami ani w żaden sposób wycenić. Tego po prostu trzeba doświadczyć :) I mam nadzieję jeszcze nie raz pojawić się w Katowicach (choć połączenia z Łodzi są, delikatnie mówiąc, upiorne), choćby dla samego spotkania naprawdę mądrych i serdecznych ludzi, którzy dzielą moją pasję.

wtorek, 17 września 2013

Skradzione treści - epilog ;)

Nie tak dawno temu wspominałam w dwóch wpisach o sposobach walki z ludźmi, którzy bez najmniejszych skrupułów, metodą "kopiuj-wklej" kradną treści ze stron internetowych. Formularz, który należy wypełnić oraz dodatkowe wskazówki, znajdziecie głównie w drugim wpisie, tutaj. W chwilę przed tym, jak ów wpis popełniłam, wysłałam za pomocą wspomnianego w nim formularza zgłoszenie o kradzieży treści ze strony mojej Klientki (zrzynka bezwzględna i bezczelna, co do kropki i przecinka). I dzisiaj oto nadeszła upragniona wiadomość zwrotna od Google:

pozytywne rozpatrzenie DMCA


Jak łatwo policzyć, weryfikacja zgłoszenia i podjęcie decyzji o usunięciu skradzionej treści z SERP trwała 10 dni, więc dość krótko (przynajmniej ja nie narzekam). Widać zatem, że naprawdę poświęcenie kilku minut na wypełnienie poszczególnych pól formularza i wskazanie złodzieja, nie jest czasem straconym, ani też walką z wiatrakami.

P.S. Przed sekundą otrzymałam kolejną radosną informację, tym razem dotyczącą bloga, którego właśnie czytacie ;) Jakiś automat wygrzebał sobie z niego fragment poświęcony ankietom na FB i przerzucił na inny serwis. Kontaktu z właścicielem zautomatyzowanego cuda nie było, więc od razu przeszłam do meritum. Do czego i Was zachęcam.

niedziela, 15 września 2013

Za co kocham Google, a za co go nie znoszę

Dzisiejszy post będzie wyłącznie subiektywnym opisem moich uczuć do Google (klepanym na dużym luzie), zatem proszę nie doszukiwać się tu żadnych teorii spiskowych wymierzonych przeciw komukolwiek ;) Zważywszy bezsenną noc i trzymające mnie od kilku dni przeziębienie, na żadne knowania nie mam sił, nie wspominając już o tym, że zwyczajnie nie jestem fanką podkładania komukolwiek świni. Ot, naszła mnie ochota podzielenia się swoimi przemyśleniami na temat czegoś, przy czym spędzam większą część doby.

Do rzeczy. Google w moim życiu odgrywa rolę kolosalną, a co za tym idzie, zrodziły się we mnie rozmaite uczucia pod adresem tej firmy. Niestety są to często uczucia sprzeczne, postanowiłam więc stworzyć listę tego, co cenię u Googlarzy i tego, za co ich nie znoszę.


Za co kocham Google?
  • za moją pracę - w końcu gdyby nie ta wyszukiwarka, nie zajmowałabym się SEO (a kocham SEO);
  • za to, że pomimo zaśmiecenia SERPów, to wciąż w Google wyszukuję potrzebne mi informacje i zwykle je szybko odnajduję (czasem posiłkuję się Bingiem, przyznaję bez bicia);
  • za Google+ (dzięki któremu nawiązałam sporo fajnych znajomości branżowych i przy okazji się dokształciłam - no i wciąż dokształcam);
  • za Mapy Google, które pozwalają szybko zlokalizować poszukiwane miejsce, wyznaczyć trasę i jeszcze pokazać, gdzie w pobliżu można zjeść obiad, a gdzie wypocząć;
  • za kreatywność i innowacje, które mobilizują mnie do podążania za nimi - dzięki czemu jestem względnie "na czasie" z tym, co Googlarze wymyślą. A przyznać im trzeba, że niektóre projekty mają świetne - z niecierpliwością czekam na możliwość wypróbowania choćby Google Glasses ;)
  • za to, że zaczęli traktować SEOwców jak ludzi i wyposażyli nas w całkiem solidne narzędzia ułatwiające nam pracę (nie są to narzędzia doskonałe, ale niewątpliwie są pomocne - od GWT po formularze).


Za co warczę na Google?
  • za brak jasnych i jednoznacznych komunikatów. Matt Cutts mówi dużo, ale nie zawsze to co mówi, pokrywa się z realiami. Tak samo wygląda sprawa w pomocy Google czy opisach narzędzi (pewne fragmenty, dość istotne z punktu widzenia branży SEO, pojawiają się lub znikają - i śledź tu teraz te zmiany, człowieku...);
  • za nieszczęsne https:// - tu są oczywiście dwie strony medalu i nie można też winić za nie wyłącznie Google. Ale nie ukrywajmy, że https:// sprawia, że Google Analytics przestaje być narzędziem tak przydatnym jak kiedyś (ponieważ średnio 70% danych mieści się w worku o nazwie "not provided");
  • za monopol. Co tu dużo mówić, Google przejmuje sieć. Mamy Gmaila, YouTube'a, porównywarki cen Google, pogodę Google, fiszki Google, dokumenty i ankiety Google, Chryste Panie aż strach wymieniać dalej i pomyśleć, co jeszcze nas czeka;
  • za nieudolną walkę z tym, co wciąż można podciągnąć pod BHS, choć jest ona podobno priorytetem dla Google. Zdarza się, że po aktualizacji algorytmu traktowane metodami BHS strony lecą dalej w górę, a serwisy spod "białego kapelusza" pikują w dół - i wówczas mamy okazuję posłuchać złowieszczego chichotu +Tomasza Wieliczko ;) 


I tak na szybko, to chyba tyle. Jak widać zalet dostrzegam mimo wszystko więcej niż wad, choć "brak jasnych i jednoznacznych komunikatów" powinno się liczyć chyba potrójnie, bo często wprowadzają one zamęt, zamiast cokolwiek wyjaśnić (jak choćby z nienaturalnymi linkami - tak wiem, nie powinnam się czepiać i w ogóle nie ruszać tematu).

Jeśli w powyższej liście coś pochrzaniłam, poproszę o korektę w komentarzu. A jeśli dopisalibyście jakieś własne punkty, też dajcie znać ;)

środa, 11 września 2013

Fanpage czy grupa - co wybrać na Facebooku?

Kiedyś sprawa była jasna - oczywiście, że fanpage! Funkcjonalność pozwalająca na kontakt z fanami lub po prostu sympatykami (np. firmy czy produktu) zdawała się być strzałem w dziesiątkę. Stopniowo jednak możliwości administratorów profili firmowych zmieniały się - część opcji dodano, część usunięto i pojawiła się konsternacja. Czy rzeczywiści fanpage "to jest to"? Z drugiej strony pojawiły się grupy - społeczności, w których zwykli użytkownicy mają znacznie większe możliwości i swobodę interakcji między sobą. Co zatem jest lepsze? 

Tak naprawdę zależy to od naszych potrzeb. Załóżmy, że mamy firmę i chcemy zaistnieć na Facebooku. Spójrzmy zatem na obecną funkcjonalność zarówno grup jak i fanpage'y - tę najistotniejszą:

1. Fanpage pozwala nam:

  • dodawać posty w imieniu firmy
  • wrzucać zdjęcia lub filmy
  • umieszczać linki w treści wpisów
  • promować ofertę firmy
  • informować o ważnych wydarzeniach
  • dodać jej opis
  • wskazać branżę (np. nieruchomości)
  • otrzymywać oceny od użytkowników (coś na kształt poleceń z możliwością oceny od 1 do 5)
  • odpowiadać na posty użytkowników (choć te są mało widoczne, o ile nie są reakcją na nasz wpis)
  • korzystać z rozbudowanych statystyk prezentujących aktywność fanów, liczbę polubień etc.

2. Grupy pozwalają wszystkim jej członkom:
  • dodawać posty widoczne w głównym strumieniu
  • informować o wydarzeniach
  • dodawać zdjęcia lub filmy
  • tworzyć ankiety/sondy
  • umieszczać linki w treści postów
  • załączać pliki

    [założyciel grupy może dodatkowo ustawić dla niej opis i podać najważniejsze informacje na jej temat]

Patrząc na powyższe zestawienia można dojść do wniosku, że Fanpage powoli zmierza w kierunku zwyczajnych "aktualności" jakie często publikowano na stronach firmy. Obecnie jeśli chcemy poinformować o jakimś wydarzeniu, możemy zrobić to za pośrednictwem Facebooka i wydaje się, że jest większa szansa że odbiorcy odnotują ten wpis właśnie na FB niż gdybyśmy umieścili go na stronie. Otrzymywanie "referencji" od Klientów, możliwość pojawienia się w Facebookowej wyszukiwarce czy opcja tworzenia galerii zdjęć produktów, też nie pozostaje bez znaczenia. ALE - możliwości angażowania sympatyków firmy w jej życie i wydarzenia z nią związane, są skromne. Usunięcie sond dla profili firmowych, dodatkowo ograniczyło możliwość uzyskiwania od Klientów odpowiedzi na interesujące nas zagadnienia. A pytanie w każdym wpisie "Co Państwo sądzą na ten temat?" raczej irytuje niż zachęca do wypowiedzi. Ankieta pozwalała kliknąć w wybraną opcję i historia pokazuje, że tych kliknięć było całkiem sporo.

Grupy - cóż, tu nie otrzymamy "referencji", ale zyskamy możliwość angażowania jej członków. Swoboda dyskusji, wymiany poglądów, tworzenia ankiet i informowania o wydarzeniach sprawia, że jeśli zależy nam bardziej na budowaniu społeczności niż zwykłego "wrzucania aktualności", to właśnie na stworzeniu grupy powinniśmy się skoncentrować.

Oczywiście nic nie stoi na przeszkodzie, by mieć i jedno i drugie - choć warto pamiętać, że profil firmowy i grupa służą po prostu nieco innym celom.

wtorek, 10 września 2013

Google ufam Tobie..?

Z góry uprzedzam, że wpis ten będzie kontrowersyjny i pewnie niektórzy SEOwcy (na szczęście mam wrażenie, że stanowiący mniejszość) poczują się oburzeni. Od razu chcę zatem wyjaśnić, że poniższych słów nie kieruję do nikogo personalnie, a jedynie chcę zwrócić uwagę na pewien niepokojący mnie trend.

Otóż od dłuższego już czasu i z coraz większym niesmakiem obserwuję poczynania osób, które zdają się kochać Google miłością skrajnie ślepą. Taką, w której nie ma miejsca na zastanowienie się, zadanie pytania, na jakąś wątpliwość czy rozterkę. Ostatnio ta miłość zaczyna coraz bardziej podchodzić mi pod jakiś rodzaj fanatyzmu i tylko czekam, aż grupa wielbicieli Matta Cuttsa i spółki wyruszy na jakąś krucjatę przeciw całej reszcie branży,
z okrzykiem "Precz z linkami!" na ustach.

Dla tej grupy nie ma czegoś takiego jak "błąd ze strony Google". A jeśli Google samo przyznaje się do pomyłki, wówczas grupa bije brawo i podkreśla czynnik ludzki, który - jak wiadomo - bywa zawodny, ma prawo się mylić, ale już jest wszystko wyjaśnione. 
I zaczyna się głaskanie Google po główce. Chciałabym subtelnie zauważyć, że my, branża SEO, też jesteśmy ludźmi. Ale jakoś grupa wyznawców Złotoustego Matta zdaje się tego nie dostrzegać. Bo my, reszta branży, wcale się nie mylimy, nic z tych rzeczy! My po prostu jesteśmy jakąś zdziczałą hordą barbarzyńców - perfidnie robimy wszystko na złość wyszukiwarce, kradniemy linki, porywamy niewiasty i palimy wioski.

Nie dość na tym. W dyskusjach z ucywilizowanymi przedstawicielami Wspaniałego Świata Google, grupa jego wielbicieli ubolewa nad tym, że musi tych paskudnych barbarzyńców wciąż poskramiać, umoralniać, uświadamiać... A oni tacy oporni na wiedzę, za nic mają kulturę i ciągle im w głowie tylko te podchody mające na celu wywinięcie Google jakiegoś numeru. Katorga.

Przyznam, że powoli zaczynam mieć już tego dosyć. Bo choć z wieloma założeniami się zgadzam ("nie spamuj", "nie linkuj na oślep", "nie depozycjonuj bliźniego swego"), to jednak do fanatyzmu mi daleko. Tymczasem wychodzi na to, że o ile kiedyś funkcjonował sobie podział na Black i White (dla niektórych wciąż jest on aktualny), to opisywana przeze mnie grupa doprowadza do podziału jeszcze bardziej radykalnego: my, kochający Google ponad wszystko i oni - te wstrętne bydlaki, mające czelność debatowania nad naturalnością linków 
i zmianami w algorytmie wyszukiwarki. I do tego worka wrzucani są wszyscy jak leci - nieważne czy starają się grać fair czy też wszystkie reguły mają sobie za nic. Bez znaczenia - wszyscy są tak samo źli, ponarzekajmy na nich do tych ze Wspaniałego Świata Google i zmieszajmy z błotem, wszystkich jak leci.

Wpis chciałabym zakończyć czymś na kształt apelu do tych, którzy czują się związani z Google miłością potężniejszą od liny okrętowej. Ludzie... żyjcie jak chcecie, ale do licha - dajcie żyć innym i darujcie już sobie te swoje krucjaty, narzekania na dyskusje w branży i "nawracanie" na jedyną słuszną drogę. Bo to działa raczej jak płachta na byka i osiągacie efekt zgoła odmienny, czego ja sama jestem najlepszym przykładem. Obrzydziliście mi Google i chwilę potrwa, zanim znów będę mogła spojrzeć na nie odrobinę łaskawszym, ale wciąż krytycznym okiem.

sobota, 7 września 2013

O skutecznej walce z osobami kradnącymi treść - część 2

Wczoraj wspomniałam o metodach zgłaszania do Google serwisów, które - bez naszej zgody czy podawania jej jako źródłowej - skopiowały z niej tekst i umieściły jako własny. Informacje o tym, jak wykryć złodzieja, znajdziecie w poprzednim poście (klik). W tym natomiast opiszę alternatywną metodą sygnalizowania Google, że jakaś witryna nie powinna znajdować się w indeksie tej wyszukiwarki z powodu łamania prawa.

Możemy mianowicie bezpośrednio skorzystać z innego z dostępnych formularzy, znajdującego się tutaj. Ponieważ jest to zgłoszenie mające na celu usunięcie treści łamiących prawa autorskie, jest to jednocześnie najszybsza droga do zgłoszenia osoby/firmy, która ukradła treść z naszej strony. Formularz również wymaga uzupełnienia licznych pól i wskazania przykładów, mających na celu udowodnienie ewidentnego skopiowania treści:


Istnieje również możliwość dodatkowego zabezpieczenia swojej strony przed kradzieżą znajdujących się na niej materiałów, których jesteśmy autorami. Metod jest kilka, niestety szczerze mówiąc żadna z nich nie jest idealna:
  • umieszczenie na stronie i jej podstronach informacji, że kopiowanie danych bez zgody właściciela jest zabronione (niestety mało kto tę wiadomość przeczyta - to raz, a dwa - weźmie sobie do serca)
  • umieszczenie na stronie baneru Copyscape (jak wyżej)
  • zarejestrowanie się bezpośrednio w DMCA (za opłatą w wysokości 10$ miesięcznie zostajemy "uzbrojeni" w narzędzia ułatwiające walkę z osobami kradnącymi od nas materiały)
Niestety, jak to już nie jeden raz udowodniło życie, złodzieje i tak znajdą swoje sposoby, by dopiąć swego. Jednak w przypadku kopiowania treści taka kradzież wynika zazwyczaj z bezmyślności i braku dostrzegania konsekwencji własnych działań. Dlatego też zwykle upomnienie albo zgłoszenie strony złodzieja przynosi upragniony rezultat usunięcia skradzionych od nas materiałów.

WAŻNE: status swoich zgłoszeń można śledzić pod tym adresem.

piątek, 6 września 2013

Jak skutecznie walczyć z osobami kradnącymi treść ze stron?

Kopiowanie własności intelektualnej (a taką niewątpliwie jest stworzony samodzielnie opis na potrzeby strony internetowej) jest rzecz jasna łamaniem praw autorskich. Niestety wiele osób/firm ma to kompletnie w nosie. Pół biedy, gdy po przeczytaniu jakiegoś artykułu postanowią na jego podstawie stworzyć własny. Gorzej, gdy posuwają się do granic bezczelności kopiując np. 80% treści z jakiejś witryny i wrzucając ją do siebie. Oczywiście bez wskazania źródła, o spytaniu o zgodę nie wspominając.

Jako osoba opiekująca się stronami www moich Klientów (a stron tych jest sporo) nie jeden już raz zetknęłam się z sytuacją, w której skradziony został np. opis oferty. Zawsze wówczas reaguję, kontaktując się z właścicielem serwisu i żądając zmiany treści (przy okazji uprzejmie uprzedzając, że brak modyfikacji poskutkuje zgłoszeniem o plagiat). Jeśli to nie pomaga, sprawa wędruje do Google.

Różne rzeczy generalnie już widziałam, zwykle w przypadku wykrycia duplikatu ilość skopiowanego tekstu oscyluje w granicach 20%-40%. Jednak ostatnio doznałam prawdziwego wstrząsu widząc, że skradziono 88% treści, a strona pewnego gabinetu stomatologicznego jest pod względem tekstu w zasadzie kalką serwisu mojej Klientki! Z miejsca krew mnie zalała i rozpoczęłam działania, które - mam nadzieję - doprowadzą do usunięcia z indeksu witryny złodzieja (bo innego słowa na tę osobę jakoś nie jestem w stanie znaleźć).

No dobrze, ale jak właściwie wykryć takie duplikaty? Metody są różne. U mnie w firmie korzystamy ze starego, dobrego Copyscape:

copyscape
Wystarczy podać adres strony w przeznaczonym do tego polu, by otrzymać zwrotną informację odnośnie wykrytych duplikatów. Jeśli jakieś zostaną znalezione, Copyscape automatycznie poda nam dodatkowe dane: zaznaczone kolorem fragmenty, które są identyczne z pierwowzorem, a także liczbę skopiowanych słów, a nawet dane w procentach odnoszące się do ilości powielonych materiałów.

Korzystając z tego narzędzia musimy mieć jednak na uwadze dwie kwestie:
  • podając adres domeny, Copyscape skupi się na skanowaniu strony głównej. A zatem jeśli chcemy być pewni, że tekst z podstron nie został skradziony, musimy dodatkowo w polu wyszukiwania podać adres interesującej nas podstrony;
  • Copyscape w wersji bezpłatnej ma swoje ograniczenia i pozwala na przeprowadzenie 20 wyszukiwań w miesiącu. Można jednak wykupić dodatkowe "punkty", które tę liczbę znacznie zwiększają (nie są to jakieś zabójcze kwoty i osobiście jestem zdania, że warto w nie zainwestować)
Okej, załóżmy, że znaleźliśmy witrynę, która skopiowała od nas treść. Co teraz?
  • możemy wysłać maila lub skontaktować się telefonicznie z właścicielem strony i grzecznie (lecz stanowczo) zażądać usunięcia duplikatów, podając konkretny termin na załatwienie sprawy;
  • jeśli powyższe nie poskutkuje (albo jesteśmy doprowadzeni do ostateczności, bo skradziono nam np. 90% tekstów) możemy załatwić sprawę bezpośrednio w Google.
Do zgłaszania skradzionych materiałów służy ten oto formularz:

formularz Google do zgłaszania duplikatów
Wybieramy teraz kolejno:
  • zobacz więcej usług
  • teraz wskazujemy rodzaj skradzionej treści
  • potwierdzamy "znalezione przeze mnie materiały mogą naruszać prawa autorskie"
  • potwierdzamy, że jesteśmy właścicielami treści lub też reprezentujemy osobę, która jest ich autorem
  • wybieramy opcję "inny"
  • klikamy w link o wdzięcznej nazwie "ten formularz"
Teraz czeka nas nieco pracy, ale warto ją wykonać. Musimy wypełnić formularz zgłoszeniowy, podając swoje dane (imię i nazwisko, nazwę firmy), a także wskazać:
  • przykład skradzionej treści (wklejamy np. kilka zdań, które zostały powielone na innej witrynie i dodajemy link do naszej strony, na której te zdania są umieszczone; jeśli ukradziono nam teksty z kilku podstron, musimy podać przykład z każdej z nich - uwaga na ograniczenie w formularzu do 1000 znaków!)
  • adresy stron, na których znaleźliśmy duplikaty (wskazujemy konkretne podstrony - można ich dodać dowolną ilość, więc jeśli czyjś serwis ma 10 podstron z ukradzionym od nas tekstem, twardo wymieniamy wszystkie 10 adresów)
Podpisujemy się i zaznaczamy pola potwierdzające, że działamy w słusznej sprawie, jesteśmy przekonani o tym, że skradziono wskazane w formularzu materiały i nie mamy zamiaru nikogo wprowadzać w błąd. Raz jeszcze podajemy imię i nazwisko (traktowane jest jako podpis cyfrowy) i wysyłamy zgłoszenie.

Z mojego doświadczenia wynika, że Google poważnie traktuje łamanie praw autorskich. Kilka witryn, które pomimo kontaktu z mojej strony nie miało zamiaru zmienić treści skradzionych ze stron moich Klientów, zostało już usuniętych z indeksu wyszukiwarki. Warto zatem walczyć o swoje i gorąco Was do tego zachęcam. Zwłaszcza, że zwykle samo wspomnienie o zgłoszeniu sprawy Google działa na złodziei treści dopingująco i wystarcza do tego, by pozbyć się duplikatów.

[część druga na temat walki ze złodziejami treści]

wtorek, 3 września 2013

Nie taki filtr straszny?

Filtry za nienaturalne linki stały się już chyba codziennością. Ich wysyp w ciągu ostatnich paru miesięcy był potężny i zetknęli się z nimi chyba wszyscy w branży - nawet jeśli nie na własnych stronach, to na witrynach osób szukających pomocy przy zdjęciu kary. Mnie samej przypadła rola "wspomagacza" przy czyszczeniu dość pokaźnej liczby stron i choć było to raczej upiorne zajęcie, to jednak pozwalało na zaobserwowanie poczynań Google i poukładanie sobie w głowie odpowiedzi na pytanie "Za co tak naprawdę strona dostała filtr?".

Wiadomo już, że "złych" linków można mieć wiele i nie ponieść z tego tytułu żadnych konsekwencji. Jakim cudem? Proste - profil linków "dobrych" jest znacznie wyższy od tych złych. O ile i czy da się to obliczyć choć w przybliżeniu, należałoby pewnie zapytać osoby, które z filtra ręcznego wyszły poprzez... pozyskiwanie masy dodatkowych odnośników. Ewentualnie samych Googlarzy, ale na szczerą odpowiedź z ich strony oczywiście nie ma co liczyć ;)

Zatem do różnych stron kierować może bardzo zbliżony profil odnośników, serwisy mogą mieć linki z tych samych katalogów, precli etc. a mimo to być traktowane przez Google inaczej. Zwrócił zresztą na to uwagę +Artur Strzelecki w swoim wpisie na temat czyszczenia nienaturalnych linków. Po lekturze tego tekstu skrystalizowała mi się w głowie pewna myśl, która wcześniej miała raczej charakter czegoś na kształt przeczucia. Zapewne wpadli na to także wszyscy bardziej doświadczeni SEOwcy i zapewne sporo wcześniej, a przynajmniej w zbliżonym czasie - sądząc po dyskusjach branżowych na Facebooku ;)

Wracając jednak to wspomnianej myśli - w jednym ze swoich wcześniejszych wpisów zadałam pytanie "Co dalej, skoro wszystkie linki są obecnie złe?" (nie ukrywam, że ogłuszyło mnie rzetelnie potraktowanie jako złych linków: odnośnika z cenionego przeze mnie katalogu "rodzimego" oraz z katalogu Yandexa). Podumałam chwilę nad tym tematem, po czym wzruszyłam ramionami, bo co ma być, to będzie. I wróciłam do normalnej pracy, bez zmiany jakichkolwiek przyzwyczajeń. Nie wykopałam w kosmos swojej bazy katalogów, które uważam za wartościowe, nie zaprzestałam publikowania odnośników w treści na blogach i stronach, wszystko toczy się normalnym trybem. Kar jak nie było, tak nie ma.

W czym rzecz? W różnorodności. Jeśli mamy, dajmy na to, 1500 wpisów w SEOkatalogach i każdy ma w treści dodatkowe 3 linki, u Googlarzy może pojawić się lampka alarmowa. Ale jeśli wśród tych 1500 wpisów tylko część ma linki w treści - nikt się ich nie czepia. Jeśli 90% naszych linków pochodzi z katalogów opartych na WordPressie, średnio zadbanych (mówiąc bardzo delikatnie) to może nam się za nie oberwać. Ale jeśli mamy tylko skromną część odnośników z takich katalogów a reszta pochodzi z innych źródeł (nie zaspamowanych, nie zawalonych reklamami i nie zaśmieconych masą odnośników wychodzących), to znów - filtr jest mało prawdopodobny.

Osobiście postanowiłam więc kompletnie nie przejmować się tym, że "taki a taki link" został wskazany jako zły. Do wszystkich moich stron twardo linkuje uwielbiany przeze mnie polski katalog (uważany przez Google za przykład "złej strony") i ani myślę wpisywać go do disavow.txt. Co będzie dalej? Zobaczymy. Ale wierzę, że dobrze zoptymalizowana strona z różnorodnym profilem kierujących do niej linków, może spokojnie przetrwać burzę nakładania filtrów. Nawet jeśli wśród tych linków znajdują się odnośniki źle widziane przez Google.