Pozycjonowanie Linkami – Dobre czy Złe?

Pozycjonowanie Linkami – Dobre czy Złe?

Dla wielu osób synonimem pozycjonowania są linki. Faktycznie linki nadal odgrywają dużą rolę jeśli chodzi  o ranking stron.

 

W końcu każdy link to swego rodzaju „głos” na naszą stronę. Im więcej głosów, tym więcej osób o nas mówi czyli tym bardziej popularna jest nasza strona.

 

Czy aby na pewno?

linki masoweI tak i nie. Jest jednak ogromna różnica skąd dany link do naszej strony „dochodzi”. Problem polega na tym, iż większość stron na których możemy zamieszczać linki to strony na których każdy może zamieścić link.

 

Software taki jak SEnuke, Scrapebox czy GSA Search Engine Ranker to wszystko programy do zamieszczania masowych linków.

 

Cały trik polega na tym aby „zdobyć” linki do naszej strony, których nie da rady zamieścić żadnym narzędziem ani w darmowy sposób. Taki link jak najbardziej ma większą wartość ponieważ – z tej strony prawdopodobnie nie wychodzą setki innych linków a co za tym idzie Kowalski nie zamieści tam swoich linków.

 

Jak Google Decyduje o Rankingu Naszej Strony

 

Google sprawdza w jakim stopniu nasza strona jest adekwatna do wpisanego zapytania w wyszukiwarkę i wyświetla nam wyniki, które ma w swoim indeksie – mniej lub bardziej aktualne. Duuh?

 

nienaturalny przyrost linkówMogłoby się to wydawać proste i oczywiste, jednak tak nie jest. Wiele osób nadal sądzi, iż pomimo faktu, że mają stronę o „różowych słoniach” nadal mogą być #1 na frazę „szary słoń” jeśli tylko zamieszczą odpowiednio wiele linków skierowanych do swojej strony z takim właśnie ankortekstem.

 

Indeks Google jest oczywiście uaktualniany periodycznie, gdyż z dna na dzień przybywa nowych stron czy też treści na starych. Robot i algorytmy mają za zadanie „uczciwe” na pozór nadanie rankingu każdej wartościowej stronie w swoim indeksie.

 

Jeśli mamy stronę o pozycjonowaniu stron – to właśnie na tę frazę powinniśmy ją zoptymalizować. W tym momencie rozumowanie typu im więcej linków na na frazę „optymalizacja stron” tym lepszy ranking będzie błędne.

 

Google nie toleruje manipulacji linkami. Dlatego przy nadawaniu rankingu stronom w indeksie są wdrażana dodatkowe algorytmy, analizujące nieuczciwe praktyki webmasterów. Do niektórych z nich należą:

 

- ukrywanie tekstu
– ukrywanie słów kluczowych
– nieczytelny lub niepoprawny gramatycznie tekst
– nienaturalna ilość fraz kluczowych na stronie
– nad optymalizacja meta tagów
– wewnętrzne linkowanie i struktura
– multimedia na stronie
– social media – Facebook, G+

 

…oraz te poza stroną:

 

- systemy wymiany linków
– źródła pochodzenia linków
– duża ilość powtórzeń tego samego ankoru
– nienaturalny przyrost linków.

 

Weźmy pod lupę kilka z tych sygnałów:

 

1999_google_betaNienaturalna ilość fraz kluczowych na stronie:

 

Tak można było wypozycjonować stronę w 1999. Na stronie wystarczyło zamieścić listę słów kluczowych i skierować linki. Niestety te czasy bezpowrotnie minęły. Czy to dobrze?

 

Niektórzy być może nostalgicznie wspominają te czasy a niektóre osoby nadal stosują podobne praktyki dziwiąc się dlaczego ich strony nie ma w indeksie.

 

Zastanówmy się jednak nad jedną rzeczą. Jeśli byłoby możliwe osiągniecie dobrego rankingu za każdym razem dzięki manipulacją, które nie miałyby nic wspólnego z jakością naszej strony – nikt by dziś nie używał Google…

 

…no bo kto chciałby mieć całą pierwszą stronę wyników zapełnioną stronami oferującymi pożyczki gdy fraza wpisana w wyszukiwarkę brzmiała „pozycjonowanie stron”? Pewnie żaden z was.

 

Każdy z nas, z punktu widzenia użytkownika, chce adekwatny wynik. Chcemy znaleźć to czego szukamy jak najszybciej jest to możliwe.

 

Gdy użytkownik wyszukuje strony np. na temat pozycjonowania stron i wchodzi na moją stronę i spędza na niej kilkadziesiąt minut, jest to sygnał dla Google, że moja strona jest adekwatna do wyszukiwanej frazy.

 

Zadowolony użytkownik = zadowolone Google. Moja strona zyskuje wyższy ranking, bo daje użytkownikowi to czego szuka.

 

W przeciwnym razie jeśli Google wykryje iż czas na stronie spędzony przez odwiedzających jest bardzo krótki i klikają oni na inne wyniki w indeksie poniżej mojej strony, moja witryna spadnie nawet jeśli będzie miała super linki, ponieważ Google jej prawdopodobnie nada niższy wynik jakości.

 

Zakładając, że na taki „quality score” składa się 100pkt – każdy algorytm który bada osobną nieprawidłowość będzie stanowił jakiś procent tej oceny.

 

Jeśli poprawię jakość treści na mojej stronie ale linki skierowane do mojej strony nadal będą mi szkodzić, ponieważ wcześniej zamieściłem ich setki masowo i teraz nie mogę ich usunąć, być może podskoczę w indeksie gdyż podwyższyłem nieco ocenę swojej strony.

 

W zależności od stopnia w jaki przekroczymy standardy wyznaczone przez algorytmy Google, nasza strona zaliczy mniejszy lub większy spadek zarówno jak i wzrost jeśli zaczniemy naprawiać wyrządzone szkody. Logiczne.

 

Najczęstszym grzechem webmasterów – być może nawet w wielu przypadkach nieświadomym będzie nad optymalizacja w meta tagach.

 

Pozycjonowanie Stron
http://PozycjonowanieStron.pl
Super skuteczne pozycjonowanie stron w Szczecinie. Najlepsze i bezpieczne metody pozycjonowania stron.

 

Tak skonstruowany meta tag to oczywiście pewny filtr. Jeśli do tego dodamy powielone ankorteksty… nasza strona nigdy nie zobaczy wynikuTOP 100.

 

Zatem jak konstruować metatagi?

Kliknij tu aby czytać dalej…

Skomentuj

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Możesz użyć następujących tagów oraz atrybutów HTML-a: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>