poniedziałek, 25 lutego 2013

O katalogach raz jeszcze

Na forum PiO trafiłam ostatnio na wpis rozgoryczonego użytkownika twierdzącego, że zabrał się za porządkowanie swojej bazy katalogów stron i przeżył wstrząs na widok liczby nie działających już adresów. Cóż, prawda jest taka, że wypadałoby jednak od czasu do czasu "przewietrzyć" swoją bazę i sprawdzić, jak się sprawy mają. W przeciwnym razie okazać się może, że do przejrzenia będziemy mieć kilka tysięcy adresów (z których istotnie większość może nie działać - wiele katalogów powstaje bowiem na zasadzie chwilowej mody na dany skrypt i kończy swoją karierę po roku, gdy przychodzi do przedłużenia ważności domeny). Oczywiście nie trzeba tego robić ręcznie, aczkolwiek dobrze jest rzucić okiem na wybrane katalogi i sprawdzić nie tylko czy wciąż są aktywne, ale też czy w ogóle przyjmują jeszcze wpisy (całkiem spora grupa katalogów SEO ma niestety w kolejce po kilkaset stron, co nie wróży niczego dobrego).

Zmieniające się trendy

Przeglądając własną bazę katalogów, z pewną melancholią zauważyłam jak bardzo zmieniły się w ostatnich latach trendy jeśli chodzi o "wartościowe spisy stron". Na samym początku mojej przygody z pozycjonowaniem, triumf święciły katalogi qlWeb, później przyszedł czas nas Otwarty.pl mini i CNCat, około roku 2009 jeśli mnie pamięć nie myli, pojawił się Hurricane, popularność zaczął zdobywać także WordPress. W tym momencie "rynek" należy do SeoKatalogów. Za każdym razem jednak sytuacja wygląda identycznie - pojawia się nowy skrypt, powstają setki (jeśli nie tysiące) bazujących na nim katalogów, a część pozycjonerów zaczyna wieścić koniec ery starych skryptów. Wiele dobrych katalogów, postawionych na tych nieco starszych, odchodzi w niepamięć i przestaje być doceniana przez osoby pozycjonujące strony. Dlaczego? Czy wynika to z rozsyłanych wiadomości, że Google przestaje zwracać uwagę na darmowe katalogi? A może ze zwyczajnego lenistwa (wiele automatów nie radzi sobie ze starszymi "modelami" spisów)?

Tak wiele mówi się o tym, że Google lubi różnorodność. Skąd zatem ten pęd do dostarczania mu linków z tych katalogów, które są "na topie" i ignorowania innych? I to wartościowych, z dużą ilością BL, paroletnim stażem i wysokim PR (którym wiele osób wciąż się sugeruje).

Jakby ci tu dać na imię...

Przy okazji przeglądania bazy katalogów można się często złapać za głowę i zacząć zastanawiać nad tym, co u licha autor miał na myśli zaklepując sobie domenę - adresy niektórych spisów są bowiem wyjątkowo... niecodzienne. Zdarzają się oczywiście katalogi o mało wyszukanych nazwach, rezerwowanych na zasadzie "pierwsze wolne" w stylu http://www.skj.pl/ czy http://mhu.pl/. Takie adresy nikogo chyba już nie dziwią i można uznać je za neutralne. Czasem jednak osoby rejestrujące domeny pod katalogi wykazują się inwencją twórczą, która w niektórych przypadkach bawi, w innych zniesmacza, a w skrajnych - woła o pomstę do nieba.

Wiadomo, Google to nie człowiek i jest mu wszystko jedno jak też nazywa się strona, która linkuje sobie do jakiegoś wielce poważanego serwisu. Jednak już właściciel owego serwisu prawdopodobnie nie byłby zachwycony widząc, że kierują do niego linki ze stron, w adresie których widnieje np. japońskie słowo bukkake... Kutaphone.pl może być oczywiście potraktowany z pewnym przymrużeniem oka, choć i tu parę osób mogłoby się pewnie skrzywić. Różne reakcje zapewne wywoływał też (nieistniejący już) katalog o wdzięcznej nazwie niezlemajtki ;)

Jak już wyżej napisałam, nazwa domeny to w zasadzie sprawa drugorzędna - liczy się działający skrypt, sprawna i skuteczna moderacja, promowanie i "wzmacnianie" katalogu. Ale czasem warto się zastanowić czy aby na pewno zgłaszający będzie miał ochotę zapłacić za to, by jego strona pojawiła się w domenie o nazwie wprost odwołującej się do pewnych zachowań seksualnych...

piątek, 22 lutego 2013

Facebook, Twitter i Google+ z domieszką historii

Ostatnio zauważyłam, że sporo osób, które założyły sobie konta na FB i G+ swoją działalność zakończyły na procesie rejestracji. Są to oczywiście ludzie mający na głowach tysiące innych spraw niż portale społecznościowe i w znacznej większości nie są to informatycy, którzy chyba jako pierwsi korzystają z rozmaitych serwisów ze zwyczajnej ciekawości. Niektórzy wprost mówili mi (nie informatycy rzecz jasna) "Kompletnie nie wiem co z tym zrobić" -  i właśnie do tych osób, niepewnych i niezdecydowanych "co można z tym zrobić", kieruję ten post.

Era społecznościówek

Boom na portale społecznościowe ruszył (w Polsce przynajmniej) wraz z portalem grono.net, który przez kilka lat działał całkiem sprawnie i pozwalał m.in. odnaleźć dawno nie widzianych znajomych. Obecnie nie działa wcale - nie wytrzymał konkurencji, jaka nastąpiła wraz z nadejściem naszej-klasy i Facebooka.

Grono.net było ciekawostką i przyznać muszę, że przez pewien okres czasu kręciło się wokół niego całkiem sporo ludzi. Nasza-klasa też szybko okazała się hitem, jednak po zmianie polityki portalu wiele osób "ewakuowało się" z niej na najbliższą jej platformę - Facebooka.

źródło: thetechblock.com


Ten, nie należący do najbardziej intuicyjnych serwisów w dziejach, okazał się jednak miejscem o tyle dobrym, że pozwalał na utrzymywanie kontaktów ze znajomymi z całego świata. Z czasem zaczął oferować użytkownikom dodatkowe funkcje, ale wiele osób w dalszym ciągu postrzega go głównie jako "takie większe GaduGadu". Tymczasem Facebook zaczął się nam przeobrażać w całkiem niezłe narzędzie marketingowe. Za jego pośrednictwem można łatwo zwiększyć ruch na swojej stronie internetowej, zainteresować szerokie grono odbiorców asortymentem własnego sklepu www, poinformować organizowanych wydarzeniach, promocjach i konkursach. Jeśli ktoś (zwłaszcza właściciel firmy, handlowiec, menadżer - długo by wymieniać) wciąż waha się czy zakładanie konta na FB ma sens, powinien z owych wahań jak najszybciej zrezygnować. Zresztą nie jestem w stanie oprzeć się wrażeniu, że i twórcy Facebooka zmieniają swoją pierwotną wizję serwisu i coraz bardziej idą na rękę użytkownikom, którzy chcą czegoś więcej niż opcja "zagraj w grę online" i "dodaj do znajomych".

Twitter. No tak, Twittują już wszyscy, nawet politycy. I w sumie trudno się dziwić, bo to stosunkowo szybka i wygodna metoda przekazania swoim odbiorcom krótkich i treściwych informacji. Za którymi (jak dobrze pójdzie) ruszyć mogą tłumy, przekazując wiadomość dalej i dalej i dalej... A jak wieść niesie, roboty Google na popularność Twittów, nie są obojętne... ;)

Korzystajcie z niego wszyscy...

Google+ wciąż traktowane jest przez wielu jeszcze bardziej nieufnie niż Facebook i chyba Googlarze tę niechęć szybko zauważyli, skoro zaczęli kusić użytkowników linkami, za którymi biegają roboty wyszukiwarek ;) Nie zdziwiłabym się specjalnie, gdyby po osiągnięciu sukcesu (i "złowieniu" odpowiednio dużej liczby użytkowników) Google zmieniło zdanie i wszystkie odnośniki zyskałyby nielubiane przez pozycjonerów nofollow, ale teraz, gdy nawet "plus jedynki" są wskaźnikami dla wyszukiwarek, życie pozycjonerów stało się jakby piękniejsze, a samo Google+ przemieniło się w serwis, bez którego trudno wyobrazić sobie dalszą egzystencję. I właśnie z tego względu warto przełamać niechęć, konto założyć i działać (i linkować!) póki jest taka możliwość - zwiększając na swoich stronach ruch zarówno użytkowników, jak i upragnionych robotów.

źródło: antyweb.pl


W sytuacji, w jakiej ostatnio postawiło nas Google, właściwie nie mamy wyjścia - musimy grać w jego grę i według jego zasad (przynajmniej jeśli zależy nam na tym, by wykonywana przez nas praca przynosiła efekty). Jeśli jednak umiejętnie wykorzystamy te narzędzia, które Google wręcza nam gestem uniemożliwiającym odmówienia ich przyjęcia (wszak robi to z siłą prasy hydraulicznej) wykorzystajmy je tak, by przyniosły nam korzyść. A ofiarowano nam w końcu nie tylko Google+. Ale o tym przy innej okazji.

czwartek, 21 lutego 2013

Miłość od pierwszego kliknięcia ;)

Prawdopodobnie niewiele osób w branży IT kieruje się w swoich działaniach sercem (choć może się mylę?) i nie popada w zachwyty nad konkretnymi stronami, aplikacjami czy narzędziami dla webmasterów. W każdym razie osobiście nie zetknęłam się nigdy z programistą czule przyglądającemu się ekranowi monitora, na którym widniał fragment kodu. Zwykle i ja sama zwracam głównie uwagę na funkcjonalność różnych rozwiązań, jednak jako reprezentantka płci pięknej nie pozostaję zupełnie obojętna jeśli chodzi o estetykę czy tzw. smaczki. I od czasu do czasu zdarza się, że jakiś program czy też aplikacja zdobędzie moje serce.

Narzędzie doskonałe?

No nie, o ideałach nie będę się tu rozpisywać, wszak one nie istnieją - a poza tym jednak zbyt mało czasu spędziłam przy testowaniu możliwości tej aplikacji, by stwierdzić, że nie ma wad. Z całą pewnością jednak zachwyciła mnie ona na tyle, bym postanowiła poświęcić jej cały ten wpis (zresztą ten blog, traktujący jakby nie patrzeć o sieci "odmn trochę innej strony", to chyba najlepsze na to miejsce).

No dobrze, przejdźmy do clue programu.

Otóż, jak każdy zajmujący się SEO wie, pozycjonowanie wymaga stałego monitoringu (i w tym miejscu uprzejmie proszę szanownych panów Googlarzy o zamknięcie oczu na dalszy ciąg tekstu). Każdy pozycjoner ma swoje ulubione narzędzie, które do owego celu służy, a czasem takich programów ma nawet kilka. Ja przez ostatnie lata korzystałam ze skryptu, który wiernie oddawał pozycje stron (co jest najważniejsze), ale z całą pewnością nie należał do demonów szybkości. Liczba proxy, na których się opierał, dawała radę, jednak wraz ze zmianami następującymi w Google, należało ową liczbę zwiększać i zwiększać i zwiększać... Dodatkowych zgryzot przysporzyła zabawa z regionalizacją wyników. Niechętnie zatem, ale jednak zaczęłam rozglądać się za jakąś alternatywą - dodatkowo zdopingowana spotkaniem w Katowicach (szkolenie White Hat SEO - przy okazji pozdrawiam wszystkich uczestników) i wymienionymi na nim opiniami.

Sprawdziłam rozmaite narzędzia, począwszy od Googlemona, przez Serpmonster, aż po Web-toolsa (który przez wielu uważany jest za lidera na rynku). I wciąż to nie było to. Zaczynałam już rozważać zwyczajne zakasanie rękawów i potężny (i pracochłonny) update dotychczasowego skryptu (pomijając na razie irytującą kwestię proxy), aż dotarłam do cuda, znanego zapewne od dawna wszystkim siedzącym w temacie. Webpozycja.

źródło: webpozycja.pl

Tak, była o niej mowa na szkoleniu, przyjrzałam się programowi z umiarkowanym zainteresowaniem, zanotowałam parę uwag. Ale dopiero bezpośredni kontakt z tym narzędziem sprawił, że poczułam dreszcz emocji na plecach (uprzejmie przypominam, że jestem niereformowalną miłośniczką swojej pracy).

Strzał w dziesiątkę

Narzędzie to oferuje absolutnie wszystko, czego oczekiwałam od aplikacji do monitorowania pozycji. Mnogość ustawień, przejrzystość, funkcjonalność, szybkość działania, estetyczny wygląd, dodatki cieszące oko - miałam wrażenie, że otwarły się przede mną wrota Raju. Kontakt z helpdeskiem błyskawiczny i przyjazny, pełnia zrozumienia dla sugestii i grymasów użytkowników. Wysokość abonamentu dla agencji interaktywnych - jak najbardziej do zaakceptowania, zwłaszcza biorąc pod uwagę możliwości oferowane przez narzędzie.

Wady?

Jak już wspomniałam, nic nie jest idealne - trochę przeszkadzały mi wszechobecne komunikaty ogłaszające bezkonkurencyjność aplikacji (dodatkowo podkreślane mnóstwem wykrzykników), szczęśliwie dało się ten potok samozachwytu wyłączyć jednym kliknięciem i "ochy i achy" twórców przestały mnie razić (ludzie - stworzyliście naprawdę świetny produkt, obroni się sam!). Z zainteresowaniem czekam też na efekty automatycznego rozsyłania raportów pod wskazane adresy e-mail (w razie problemów nie będę się szczególnie czepiać, zwłaszcza że wyraźnie jest zaznaczone, że funkcjonalność ta jest w fazie "beta").

I w zasadzie na tym chyba muszę poprzestać. W webpozycję wpatrzona jestem jak w obrazek i mam tylko nadzieję, że ta miłość od pierwszego kliknięcia nie okaże się... ślepa... ;) Czego twórcom i użytkownikom tego narzędzia, z całego serca życzę.

niedziela, 17 lutego 2013

Ilość vs jakość

Odwieczne pytanie osób rozpoczynających swoją przygodę z pozycjonowaniem stron - co lepsze? Uzbieranie wielu linków, nawet o niskiej wartości, czy też przemyślane zdobywanie odnośników o wysokiej wartości, choć w mniejszej liczbie?

Prawdopodobnie ilu pozycjonerów, tyle opinii - zarówno w kwestii oceny wartości linka, jak i źródeł pozyskiwania odnośników. Spośród tych wizji wyłaniają się jednak dwa główne nurty, które ścierają się ze sobą i przy każdej możliwej okazji usiłują udowodnić wyższość własnych racji.

Podejście pierwsze - ilość

Zdobywanie odnośników na potęgę, bez szczególnego zwracania uwagi na źródło pochodzenia: czy to blog o myszoskoczkach, farma linków, dawno zapomniany WordPress, bliźniacze katalogi, forum o kompostownikach - nieważne. Grunt, to dopaść link, nie zwracając nawet większej uwagi na anchor - byle ten link gdzieś tam jednak był. Chodzi o to, by pozyskiwać odnośniki hurtowo i nie tracić czasu na tworzenie unikalnych opisów, wybór stron itd.

Osoby preferujące ten sposób twierdzą, że ilość zawsze wygra z jakością, a w razie problemów (filtr czy ban ze strony Google), całą zabawę można zacząć od początku - stawiając nową domenę i wracając do pozyskiwania odnośników - szybko, wygodnie (niekoniecznie tanio) i przyjemnie, bo w dużej mierze przy wykorzystaniu automatów.

Podejście drugie - jakość

Zwolennicy tej opcji wychodzą z założenia, że jeden dobry link pochodzący z mocnej strony powiązanej tematycznie z pozycjonowanym serwisem, ma na tyle dużą moc, że jest w stanie "wygrać" z kilkoma mało wartościowymi odnośnikami. Pozyskują zatem linki wolniej, ale z rozwagą - analizując możliwości dostarczane przez serwisy www i zastanawiając się gdzie opłaca się im umieścić odnośnik do swojej strony. Takie podejście wynika często z troski o promowaną domenę i pozwala zmniejszyć ryzyko nałożenia przez Google kary.

Złoty środek?

Połączenie obu metod wydaje się rozwiązaniem najkorzystniejszym. Jeśli nie będziemy zdawać się w 100% na dodawarki i synonimizatory, poświęcimy nieco czasu na analizę serwisów, na których warto umieścić link, efekty przyjdą z czasem. Nie będą może tak spektakularne jak przy metodzie zwanej "ilość", ale pozwolą na sukcesywne budowanie stabilnej pozycji, a w razie ataku nowych "zwierzątek" Google, prawdopodobnie łatwiej będzie o obronę zdobytych w ten sposób w wyszukiwarce miejsc.

Starcie różnych technik

Niewątpliwie interesujące będzie porównanie różnych strategii wykorzystanych do wypromowania strony, w czasie zbliżających się Mistrzostw Polski w Pozycjonowaniu. Początek konkursu już 01.03.2013 roku, zatem już wkrótce będzie można przekonać się jaka metoda jest najlepsza dla zagwarantowania silnej pozycji strony w wyszukiwarce - przynajmniej na okres 3 miesięcy (tyle bowiem trwać będzie rywalizacja).

wtorek, 12 lutego 2013

Jak poprawnie korzystać z katalogów stron internetowych

Katalogi stron www to wciąż dla wielu osób najlepszy sposób poinformowania innych (no dobrze, nie oszukujmy się - głównie robotów Google) o własnym serwisie internetowym. Część środowiska zajmującego się na co dzień pozycjonowaniem stron, również w dużej mierze polega na katalogach jako źródłach pozyskiwania odnośników do promowanych witryn. I w zasadzie nie byłoby w tym nic nagannego, gdyby nie dość beztroskie podejście niektórych "dodawaczy" do wpisywanych w katalogach treści. Ale o tym powiemy sobie za chwilę.

Poprawny wpis

Zacząć należałoby właściwie od poprawnego katalogu - istnieją bowiem katalogi branżowe i umieszczanie w nich swojej strony z daną branżą związaną, ma sporo sensu. Niemniej załóżmy, że niedoświadczony użytkownik nie przebiera w katalogach i dodaje wpisy do tych najpopularniejszych, czyli ogólnych. Jak taki katalog wygląda? Ma swoją strukturę i jeśli jest zadbany, zwykle posiada kilkanaście kategorii, a w nich - kolejne zakładki, np. jedną z kategorii głównych jest Internet, a przykładowe podkategorie to:


Agencje interaktywne
Aukcje internetowe
Bezpieczeństwo
Blogi
CMS
Dla webmasterów

i tak dalej, podkategorii jest zwykle kilkanaście (choć bywa, że w niemoderowanym katalogu, powstaje ich kilkaset. Warto odnotować, że niemoderowane katalogi lepiej omijać z daleka).

Gdybyśmy zatem chcieli umieścić informację o niniejszym blogu, wybralibyśmy oczywiście podkategorię Blogi i tam dodali wpis.


Zasady dotyczące konstruowania wpisów zmieniły się na przestrzeni ostatnich kilku lat dość radykalnie i o ile np. 7 lat temu większość katalogów oczekiwała krótkich opisów dla stron (maksymalnie 300 znaków), o tyle teraz przygotować się trzeba na pisanie bez mała referatów ;) Trzysta znaków zdecydowanie należy przekroczyć, a jeśli chcemy umieścić w naszym wpisie dodatkowe linki odsyłające do podstron naszej witryny (a jasną jest rzeczą, że chcemy), musimy wykazać się inwencją i stworzyć wpis przekraczający 750, a czasem i 1000 znaków.

I teraz najważniejsze. Poprawny wpis nie może być zlepkiem słów kluczowych, powtarzanych w kółko fraz, ani też haseł promocyjnych. Jeśli wpadniemy na pomysł stworzenia opisu w stylu "Najlepszy blog w sieci, dobry blog, najfajniejsze posty o sieci tylko na blogu pod adresem..." itp. itd., rozsądny moderator jednym kliknięciem wyrzuci nasze pochwalne teksty do kosza, a nie jest wykluczone, że dodatkowo wlepi bana na nasze IP uniemożliwiając nam powrót na jego stronę z nowymi poematami skleconymi ku chwale naszej witryny. Wpis jaki dodajemy, musi być przejrzysty, możliwie obiektywny i mieć charakter informacyjny, a nie promocyjny. Na przykład: "Na blogu O Internecie Od Trochę Innej Strony publikowane są wpisy poświęcone globalnej sieci oraz kwestiom takim jak pozycjonowanie stron, ich poprawnemu kodowaniu oraz promocji witryn. Posty, publikowane średnio trzy razy w tygodniu, mają charakter poradnikowy i adresowane są przede wszystkim do osób, które dopiero rozpoczęły swoją przygodę z siecią oraz branżą SEO". Taki wpis:
  • nie powoduje zgrzytania zębami u moderatorów katalogu
  • jest przyjazny użytkownikom (otrzymują jasny komunikat o tym, co znajdą na konkretnej stronie)
  • wymienia najważniejsze słowa kluczowe, ale nie jest nimi przesycony
  • liczy więcej niż 350 znaków
  • zwiększa szansę na to, że strona zostanie zaakceptowana i opublikowana w katalogu
Pamiętać też należy o krótkim i konkretnym tytule dla wpisu (w naszym przypadku byłby to np. "Blog poświęcony sieci Internet") oraz słowach kluczowych (zapisanych w następującej formie: blog, porady SEO, reklama w Internecie). A zatem piszemy słowo, po nim przecinek, po przecinku powinna znaleźć się spacja i dopiero wtedy podajemy kolejne słowo kluczowe. Staramy się pisać zwięźle, podawać rzeczywiście frazy składające się z jednego do trzech słów. Pełnymi zdaniami piszemy wyłącznie w opisie.

Dobry wpis to unikalny wpis

To kolejna rzecz, o której należy pamiętać, jeśli decydujemy się na dodanie strony do dużej liczby katalogów. Nie powinno powielać się raz wykorzystanego wpisu! O ile taki manewr stosowano namiętnie wspomnianych kilka lat temu (Google zwracało wówczas uwagę na ilość odnośników, a nie na ich jakość czy otoczenie), o tyle teraz wklejając ten sam tekst do kilkudziesięciu katalogów, możemy bardziej zaszkodzić stronie niż jej pomóc. Co więcej - wielu moderatorów katalogów wymaga unikalnego wpisu i nie daje się wyprowadzić w pole. Duplikaty bezlitośnie usuwa, a my jesteśmy w tej sytuacji potrójnie stratni:
  • straciliśmy czas wklejając wpis do katalogu, który go odrzucił
  • będziemy musieli wrócić do katalogu i napisać zupełnie nowy opis (o ile nie otrzymaliśmy bana za złamanie regulaminu katalogu)
  • straciliśmy pieniądze (większość katalogów to obecnie katalogi płatne, wymagające uiszczenia opłaty za rozpatrzenie wpisu - nie gwarantującej jego umieszczania w zasobach)
Niektórzy użytkownicy usiłują przechytrzyć zarówno Google jak i administratorów/moderatorów katalogów i korzystają z narzędzi, które automatycznie tworzą kilka lub kilkanaście wariantów jednego opisu. Nie jest to najsprytniejsze posunięcie, często bowiem takich opisów zwyczajnie nie da się czytać i na pierwszy rzut oka widać, że został on stworzony przez program, bez jakiekolwiek dbałości o styl czy gramatykę. Usiłując "wcisnąć" taki wpis czujnemu moderatorowi, ryzykujemy powrót do punktu wyjścia. No chyba, że dysponujemy wykupionym kodem do grupy katalogów, których moderatorzy automatycznie przyjmują wpisy. Istnieje jednak ryzyko, że jeśli przesadzimy - również i taki wpis z katalogu "wypadnie".

Podsumowując powyższe wywody - wpis idealny to taki, który posiada zwięzły tytuł informujący o zawartości strony, możliwie długi (1000-1200 znaków) unikalny opis zawierający słowa kluczowe, ale nie składający się wyłącznie z pozycjonowanych fraz, a jednocześnie przyjazny użytkownikowi i moderatorom katalogu (którzy przecież też są ludźmi). Nie ma co ukrywać - stworzenie kilkudziesięciu lub kilkuset całkowicie różniących się od siebie wpisów, na dodatek o odpowiedniej długości (nie podbijanej sztucznie wpisywaniem namiarów kontaktowych, adresu firmy itd. - na to zazwyczaj jest miejsce w odrębnym formularzu) jest dość męczące i z całą pewnością czasochłonne i wielu potrafi zniechęcić do tej metody promocji swojej strony.

No to może jakiś automat zrobi to za nas?

Owszem, istnieją serwisy umożliwiające umieszczanie wpisów w konkretnych katalogach na zasadzie automatu. O ile Google będzie karmione tym, co lubi najbardziej - zróżnicowanymi tekstami i odnośnikami - posiłowanie się pomocnym programem może pomóc. Osobiście jednak preferuję dodawanie ręczne, z wielu powodów. Najważniejsze z nich:
  • mam możliwość samodzielnej oceny jakości katalogu, do którego zgłaszam wpis
  • mam możliwość rejestracji (opcja taka dostępna jest choćby w seokatalogach) - po zalogowaniu i dodaniu wpisu, zawsze mogę do katalogu wrócić i, w razie potrzeby, wpis edytować
  • dodaję unikalny opis, dostosowując go do warunków stawianych przez katalog
  • nie jestem zmuszona "oszukiwać" katalogu poprzez dekodowanie tokenów - po prostu wpisuję wyświetlany na obrazku tekst
  • zwyczjnie czuję się fair wobec właścicieli katalogów, ale także i Google oraz jestem pewna dokładności wykonanej przeze mnie pracy

Wszystkich, którzy w mniejszym lub większym stopniu chcieliby działać w zakresie promocji swojej strony w oparciu o katalogi (choć nie są one absolutnie jedynym sposobem na zwiększanie popularności i rankingu serwisu w sieci), zachęcam albo do samodzielnej dbałości dotyczącej wyboru katalogu, jak i tworzenia opisów. Włożony w to wysiłek w końcu zaprocentuje. A jeśli czasu lub weny twórczej brak, warto zwrócić się o pomoc do kogoś z branży SEO, kto interesuje się zjawiskiem i na bieżąco śledzi katalogowe trendy. Na pewno podpowie jakieś dobre rozwiązanie. Albo wskaże inną drogę umożliwiającą zdobycie wysokich pozycji w wyszukiwarce. Ostatecznie nie samymi katalogami żyje SEO ;)

niedziela, 10 lutego 2013

Bitwa o PageRank

Przez wiele lat wskaźnik PageRank traktowany był przez wielu użytkowników Internetu jak wyrocznia. Gdy podskoczył na ich stronie, bez mała otwierali butelkę szampana. Gdy spadł - rozpoczynali gorączkowe zastanawianie się nad przyczynami, które mogły doprowadzić do tej tragedii.

Na aktualizację PR wyczekiwano z niecierpliwością, odliczając czas, który upłynął od ostatniej zmiany "magicznych" cyferek.

google PR

Niektórzy wciąż zresztą wpatrują się w migający w rogu przeglądarki PR niczym w Krzyż Południa, który gotów jest ich bezpiecznie przeprowadzić przez globalną sieć.

Tymczasem PageRank to wskaźnik jakich wiele, który w dodatku w ostatnich latach stracił na znaczeniu. Owszem, był taki czas, gdy PR odgrywał dość istotną rolę i świadczył o "randze" danej strony. Wysoki wskaźnik (powyżej 5) powodował, że Internauci natychmiast nabierali zaufania do witryny, na której zachęcająco mrugały do nich tak piękne cyferki, zaś widok "1" (bądź "0") oznaczał jedno - serwis jest bezwartościowy.

Zależności PageRank

A o czym tak naprawdę świadczy PageRank i skąd się on bierze? Ano z linków, zarówno tych, które znajdują się na ocenianej stronie, jak i z tych, które do niej prowadzą. Przyjęło się uważać, że odnośniki ze stron o wysokim PR zagwarantują i naszej stronie wysoki wskaźnik. Wielu traktuje te słowa jak wyrocznię
i skrzętnie omija naprawdę niezłe serwisy tylko dlatego, że ich PageRank wynosi mniej niż 2 - w rozumowaniu takich osób owa "dwójka" oznacza małą wartość strony. A nie do końca tak jest i na pewno nie w każdym przypadku.

Warto zauważyć, że PageRank wyliczany jest na podstawie algorytmu opracowanego przez jego twórców. Nie bierze on pod uwagę wielu czynników, na które uwagę zwraca przeciętny Internauta. Ostatnio natknęłam się na jedną z nielicznych już (i całe szczęście) farm linków - katalogu przyjmującego bez ładu i składu wszystkie wpisy, z błędami (w tym z błędnym kodowaniem znaków), przypisanych do niewłaściwych kategorii i tym podobne i tak dalej, bo długo można by panujący na owej stronie chaos wymieniać. Jej Page Rank? Czwórka (naliczona za pomocą algorytmu). Ale czy dla użytkownika taka witryna ma jakąkolwiek wartość? Szczerze wątpię.

Z drugiej zaś strony - istnieją  niewielkie serwisy z naprawdę ciekawą zawartością merytoryczną, które mają niski PR, ale z całą pewnością warte są odwiedzenia. Niski PageRank w ich przypadku to efekt niewielkich rozmiarów samej strony (trudniej zmieścić na niej dużą liczbę linków wewnętrznych, co wydaje się jak najbardziej logiczne i uzasadnione).

Z PR jest podobnie jak z pozycjonowaniem. Niektórzy z pozycjonerów zbyt dużą ufność pokładają w algorytmach, zbyt intensywnie obliczają liczbę linków do zdobycia, wpisy i liczbę katalogów, do których należy je "wrzucić", a mniejszą uwagę zwracają na to, co prezentuje pozycjonowana przez nich strona i co na niej można by poprawić. A to powinien być pierwszy krok przy ustalaniu jakiejkolwiek strategii mającej na celu pokazanie się w sieci. Bo PageRank to tylko dodatek. O prawdziwej wartości strony świadczy przede wszystkim znajdująca się na niej treść.

piątek, 8 lutego 2013

Jak to jest z tym pozycjonowaniem?

Hasło "pozycjonowanie" jest wśród polskich Internautów zdecydowanie bardziej rozpoznawalne niż jeszcze kilka lat temu. Co więcej - chyba każdy prowadzący stronę internetową (czy to sklep, blog, wortal) chce być dobrze "wypozycjonowany". Są jednak i tacy, którzy zaczynając działalność w sieci nieco gubią się w otrzymywanych na skrzynkę e-mail ofertach promocji ich serwisów w Internecie. A i hasło "pozycjonowanie" używane w kontekście trudnych do wyobrażenia sobie sukcesów, niewiele im mówi. Przyjrzyjmy się zatem zagadnieniu oczami laika i sprawdźmy o co właściwie z tym pozycjonowaniem chodzi.

Daj znać, że istniejesz

To w sieci najważniejsze. Założenie strony www czy bloga niewątpliwie daje satysfakcję. Ale byłoby dobrze, gdyby na tę stronę czasem ktoś zajrzał, wpis na blogu skomentował czy choćby z zainteresowaniem śledził kolejne notki (co pokazują dołączone do blogów statystyki). I tutaj w grę wchodzi właśnie pozycjonowanie, którego rolą - mówiąc jak najprościej - jest zasygnalizowanie wyszukiwarkom internetowym, że utworzona przez nas strona działa w sieci, zaś my spragnieni jesteśmy jej spopularyzowania.

Różne techniki promocyjne

Pozycjonowanie powinno być utożsamiane z optymalizacją, czyli dostosowaniem strony internetowej do potrzeb zarówno użytkowników, jak i robotów wyszukiwarek. Wiele osób niestety pomija ten etap i koncentruje się na "podbijaniu" swojej pozycji w sieci: spamuje fora internetowe, rozsyła mailingi, nęka nieznajomych na portalach społecznościowych i pozyskuje linki do swojej strony, gdzie tylko się da. Takie metody nie są mile widziane ani przez innych użytkowników Internetu, ani przez same wyszukiwarki. Zresztą wystarczy zastanowić się nad taką sytuacją: czy bylibyśmy zachwyceni, gdyby w środku nocy budziły nas telefony z informacją o otwarciu nowej cukierni w okolicy? Gdyby właściciel owej cukierni nachalnie pchał się nam do mieszkania z plikiem ulotek w ręku, a grzecznie wyproszony, usiłował natychmiast wrócić do nas przez okno? Czy nasza okolica wyglądałaby schludnie, gdyby na każdym kroku wisiały plakaty wspomnianego lokalu, z których krzyczałoby hasło "WEJDŹ DO NAS!!!"? Raczej nie jest to szczyt marzeń przeciętnego mieszkańca przeciętnego osiedla. Tymczasem Internet to właśnie takie globalne osiedle, a jego użytkownicy są jego mieszkańcami. Agresywne promowanie strony może zniechęcić do niej równie skutecznie, jak do podanej w przykładzie cukierni (bo kto po takiej akcji promocyjnej chciałby zbliżyć się choć na krok do jej właściciela?). Co więcej - takich zachowań nie tolerują także same wyszukiwarki i potrafią skutecznie ukrócić zapędy osób bezwzględnie spragnionych rozsławiania w Internecie swoich stron. Filtry i bany nakładane są coraz częściej - czy warto zatem ryzykować?

Uwaga, gwarancja!

Niepewny jak reklamować swoją stronę użytkownik, zapewne uśmiechnie się na widok maila w swojej skrzynce informującego go o gwarantowanych pozycjach w najpopularniejszej obecnie wyszukiwarce Google. Miejsce w TOP10? Żaden problem! Gwarancja wyników? Cóż to dla nas!

Niestety rzeczywistość nie pokrywa się z ofertami handlowymi, a gwarancji na uzyskanie konkretnego miejsca w wyszukiwarce dać się po prostu nie da. Dlaczego? Z wielu powodów, z których warto wspomnieć choćby o:
  • zmianach wprowadzanych bezpośrednio w wyszukiwarkach (działania, które kiedyś dawały dobre rezultaty, mogą teraz przynosić wyniki co najwyżej średnie, a w skrajnych przypadkach całkowicie stracić na znaczeniu)
  • zmianach w samej sieci (zdobyte, wartościowe odnośniki z serwisów pokrewnych tematycznie naszej stronie, zostają zamknięte przez ich właścicieli. Co to oznacza dla nas? Utratę dobrych linków, które wspomagały budowanie pozycji naszego serwisu w Internecie)
  • konkurencji - a ta przecież nie śpi! Również promuje własne serwisy, stosując mniej lub bardziej aprobowane przez Google działania. Niemniej walczy o swoje miejsce w wyszukiwarkach.
Jak zatem można, biorąc pod uwagę choćby tylko te trzy wspomniane wyżej punkty, cokolwiek gwarantować? No cóż - nie można. Jakkolwiek pięknie nie brzmiałoby hasło "gwarantujemy pierwsze miejsce" nie wolno zapominać o tym, że słów kluczowych (zwłaszcza tych, które są uznawane za konkurencyjne) zwyczajnie nie da się "na 100%" ulokować na pierwszym miejscu wyników (i to jeszcze "na stałe").

Co pozostaje?

Działania aprobowane przez wyszukiwarki i przyjazne dla użytkowników. Takie jak:
  • optymalizacja witryny i mądre pozyskiwanie odnośników do swojej strony
  • informowanie o stronie zamiast spamowania na jej temat
  • szukanie wartościowych serwisów, które zgodzą się opublikować link do naszej strony (w miejsce wrzucania linków wszędzie, gdzie tylko uda się je zamieścić)
  • częste aktualizowanie treści w serwisie
  • regularne korzystanie z narzędzi dla webmasterów i sprawdzanie jakości prowadzących do naszej strony odnośników (i w razie potrzeby "odcinanie" im dostępu do naszej witryny)
Warto pamiętać o tym, że zastosowanie całego wachlarza działań zgodnych z wytycznymi Google odnośnie optymalizacji i pozycjonowania (tzw. White SEO) wymaga poświęcenia uwagi, czasu, a także środków finansowych (i nie da się ukryć - również cierpliwości). Z tego też względu użytkownicy zlecają często promocję własnej strony osobom trzecim, które nie tylko mają doświadczenie w branży, ale też - tak zwyczajnie i po ludzku - lubią zajmować się SEO. Bo ciągłe doskonalenie swoich technik, "dopieszczanie" stron i obserwowanie jak pną się w górę w wynikach wyszukiwania, po prostu wciąga.

czwartek, 7 lutego 2013

Czy warto aktualizować przeglądarki internetowe?

Z mojego doświadczenia wynika, że wiele osób instalując przeglądarkę internetową (np. tuż po instalacji na swoim komputerze czy laptopie systemu Windows) nie zdaje sobie sprawy z tego, że istnieje możliwość jej aktualizacji. Często użytkownicy myślą "Skoro działa, to wszystko jest w porządku". Ale czy jest tak naprawdę? Przyjrzyjmy się tej kwestii z dwóch, odmiennych punktów widzenia:

  • twórcy stron inernetowych i aplikacji dedykowanych dla serwisów www (w skrócie określmy go po prostu programistą)
  • przeciętnego użytkownika Internetu


Z punktu widzenia programisty

Dość częste aktualizacje przeglądarek internetowych, to dla programistów jednocześnie zmora, jak i wybawienie. Z jednej strony bowiem błędy, z którymi zmagał się wcześniej, często są usuwane wraz z nowymi wersjami przeglądarki, poprawiane jest bezpieczeństwo użytkowników. Z drugiej strony konieczność dostosowywania wykonywanych stron dla wszystkich dostępnych przeglądarek (tych najpopularniejszych + dla ich wersji bieżących i kilku wersji "do tyłu" bywa prawdziwą katorgą. Dodatkowo każda przeglądarka ma swoje "fanaberie" i pogodzenie ich wszystkich tak, by strona wyświetlała się prawidłowo wszędzie i każdemu, to praca wymagająca dużej dozy cierpliwości. Pierwszy z brzegu przykład to Internet Explorer ze swoją niechęcią do gradientów. Konieczne jest stosowanie zupełnie odrębnych metod, by ze wspomnianą niechęcią wygrać.

Można by oczywiście zapytać, po co programiści (może nie wszyscy, ale spora grupa) przejmuje się w ogóle różnymi przeglądarkami i ich wersjami, skoro mogliby przecież postawić użytkownikom warunek i ogłosić na swojej stronie np. "Wyświetla się poprawnie pod Google Chrome w wersji 24.x". Na takie pytanie łatwo jest udzielić odpowiedzi - programiści tworzący strony internetowe, nie projektują ich dla siebie, ale dla użytkowników. To odbiorca powinien mieć możliwość komfortowego przeglądania sieci, a nie twórca stron. Stąd częste dopytywania programistów, gdy zgłaszany jest im błąd i nieprawidłowe wyświetlanie strony "Jakiej wersji przeglądarki Pan/Pani używa?". Często okazuje się, że użytkownik posiada wersję przeglądarki nawet sprzed kilku lat - nieaktualizowanej z powodów, o których zaraz napiszę niżej...

Z punktu widzenia użytkownika

Przeglądarka jest, strony na niej działają, wyszukiwarka działa, muzyki można słuchać i przeglądać filmy w Internecie. Przelewy bankowe również śmigają, a zainstalowane oprogramowanie antywirusowe nie zgłasza żadnych zagrożeń. Zatem oprogramowanie działa.

Po dojściu do takiego wniosku, wielu użytkowników zwyczajnie zapomina, że ich ulubiona przeglądarka "starzeje się" i można zafundować jej bezbolesny "lifting", do którego wystarczy kilka kliknięć. Wejście na stronę www danej przeglądarki (na końcu postu podam adresy tych najpopularniejszych) i pobrać najnowszą wersję ulubionego oprogramowania. I już po kilku minutach cieszyć można się nowiutką, piękną przeglądarką i odkryć jej nowe funkcje (których brakowało w poprzednich wersjach), obejrzeć proponowane przez jej twórców gadżety (zwane w sieci widżetami) i zakochać się w niej na nowo. Jednocześnie ułatwiając życie tysiącom programistów, którzy w pierwszej kolejności tworzą strony pod najnowsze wersje przeglądarek.

Poniżej obiecane linki do stron najpopularniejszych przeglądarek, z których można pobrać aktualizacje:


A jak sprawdzić z jakiej aktualnie wersji się korzysta?

To również proste:

  • Google Chrome:
    1) wybieramy opcję "ustawienia Google Chrome" (prawy górny róg przeglądarki, ikonka z trzema    poziomymi paskami)
    2) wybieramy "Google Chrome - informacje"
    3) natychmiast otrzymujemy dane "z pierwszej ręki" ;)
  • FireFox:
    1) klikamy w zakładkę "Pomoc" wyświetloną w górnym menu
    2) wybieramy opcję "O programie FireFox"
    3) przyglądamy się nowemu okienku, na którym widnieje informacja o naszej wersji przeglądarki
  • Internet Explorer:
    1) klikamy w ikonkę "zębatego koła" widocznego w prawym górnym rogu przeglądarki
    2) wybieramy ostatnią pozycję w list "Internet Explorer - Informacje"
    3) podobnie jak w przypadku FireFox, otrzymujemy okienko z informacjami o wersji
Jeśli zatem okaże się, że nasza przeglądarka porosła już mchem, nie obawiajmy się zaktualizować jej do najnowszej wersji :)

sobota, 2 lutego 2013

Krótko o wyszukiwarkach

Wyszukiwarki internetowe są jednym z podstawowych narzędzi, jakimi posługują się dziś Internauci. Wiele osób jako stronę startową w swojej przeglądarce ustawia właśnie ulubioną wyszukiwarkę i to ona jako pierwsza pojawia się na ekranie, niemal tuż po uruchomieniu komputera i rozpoczęcia korzystania z sieci. Skąd popularność tego właśnie narzędzia? Cóż, odpowiedź jest prosta - wyszukiwarka to potężna baza informacji, która skutecznie zmniejszyła popularność różnego typu drukowanych informatorów czy encyklopedii. Jeśli chcemy szybko uzyskać jakieś informacje, wyszukiwarka okazuje się idealnym narzędziem do odnajdywania w Internecie różnych danych, firm, osób, a nawet przepisów kulinarnych. Nie zawsze tak jednak było.

Wyszukiwarka w Twojej dłoni

Bynajmniej nie mamy na myśli telefonu komórkowego umożliwiającego przeglądanie sieci czy tableta - nie, nic z tych rzeczy. Kiedyś, wcale nie w takiej zamierzchłej przeszłości, bo raptem kilkanaście lat temu, adresy stron www wypisywane były w niewielkich książeczkach i w Polsce cieszyły się sporym zainteresowaniem (zwłaszcza wśród nieco starszych Internautów). Przypominały one mini książki telefoniczne i podawały linki do najpopularniejszych i najbardziej użytecznych (zdaniem autorów) stron www. I faktycznie - wielu polskich, początkujących Internautów, nie wyobrażało sobie korzystania z Internetu bez takiej małej ściągawki pod ręką.
źródło: Weltbild

Internet oczywiście się rozrastał, a nowe strony internetowe pojawiały się w nim szybciej, niż grzyby po deszczu. Niektóre serwisy zaś były opuszczane przez swoich twórców, a ich adresy wygasały i wracały do puli NASK-u. "Ściągi" szybko przestawały być zatem aktualne i wymagały nanoszenia przez ich użytkowników własnych korekt i uwag. Mimo to drukowane "wyszukiwarki" nie zniknęły z rynku, czego dowodem jest choćby "Taki jest Internet" wydany w roku 2001. Dużo obszerniejszy, z dodatkowymi informacjami (w tym wydrukowanymi zrzutami ekranu niektórych opisywanych stron) był całkiem dobrą opcją dla wszystkich, którzy wciąż w Internecie nie potrafili poruszać się samodzielnie i płynnie, a wskazówki i konkretne adresy były dla nich bezcenne.

źródło: Allegro

Warto też przy tej okazji wspomnieć, że adresy ciekawych serwisów www drukowała także prasa związana choćby z rynkiem gier komputerowych. To z takich czasopism gracze spisywali adresy, a następnie "wklepywali" je w swoje przeglądarki.

Należy też zauważyć, że popularność drukowanych ściąg z adresami wynikała też z warunków, w jakich
z sieci korzystali polscy Internauci na początku XXI-ego wieku. Ograniczeni przez dość wolne, a jednocześnie drogie łącze (modemy Telekomunikacji Polskiej), nie chcieli tracić czasu i pieniędzy na poszukiwanie konkretnych informacji bezpośrednio w sieci - wygodniej (i o ileż taniej!) było zawczasu przygotować sobie listę adresów do odwiedzenia i po uruchomieniu przeglądarki, wchodzić na wybrane już wcześniej strony.

Wyszukiwarki, jakie znamy dzisiaj

Pierwsza wyszukiwarka przypominająca te, z jakich korzystamy dzisiaj, powstała w zasadzie w tym samym czasie co pierwsza przeglądarka i strona internetowa - w roku 1990. Od tamtej pory przez sieć przewinęło się kilkadziesiąt różnych wyszukiwarek, z których najpopularniejszymi były:
  • 1990 Archie
  • 1992 WWW Wanderer
  • 1994 Yahoo!
             WebCrawler
  • 1995 AltaVista
  • 1996 Google - dostępne na Uniwersytecie Stanforda (pod adresem: http://google.stanford.edu)    
             HotBot
  • 1998 Google (już pod adresem http://google.com)
  • 2000 Baidu
  • 2005 MSN Search
  • 2006 Google custom search engine
  • 2007 Windows Live Search
  • 2008 Wikia Search
  • 2009 Bing
    źródło danych: Wikipedia
Polska nie zamierzała być w tyle w stosunku do zachodnich konkurentów i również tworzyła własne wyszukiwarki. Nie wymienimy ich wszystkich, ale być może pamiętacie niektóre z tych, których ttuły widnieją poniżej?
  • 1991 Emulti
  • 1996 NEToskop
             Infoseek Onet (w 2008 roku zastąpiony przez Google)
  • 2001 NetSprint
             AltaVista Interia (w 2008 roku zastąpiona przez Google)
  • 2003 Szukacz
  • 2004 Szook
             Gooru
  • 2006 Giga
             Hidee.org
             NetSeek.pl
  • 2011 Spaiki
             Swoper
    źródło danych: Wikipedia
Oczywiście zachodnie wersje wyszukiwarek również podbijały nasz rynek, polskiej wersji Google doczekaliśmy się już w 2002 roku, a pierwsza wyszukiwarka Archie zaistniała w polskiej wersji w cztery lata po swojej premierze za oceanem (czyli w 1994 roku).

And the winner is...

Nie da się ukryć, że już kilka lat temu światowy rynek zdominowała wyszukiwarka Google i to z niej najczęściej korzystają użytkownicy. Z tego też względu poświęcimy jej jeszcze wiele miejsca na tym blogu i spróbujemy również na Google spojrzeć od trochę innej strony ;)