Dość filozofowania. Pozycjonowanie to praktyka.

Ludzkie spojrzenie na terminy SEO wraz z przykładami i omówieniem.

Nie będziemy doktoryzować się na temat SEM, SERP czy Black/Red :) Hat SEO.

W tym miejscu chcemy zabetonować niepodważalne, podświetlić bezdyskusyjne rozganiając wszelkie wątpliwości.

Algorytm wyszukiwarki - to ścisły „przepis” i droga silnika wyszukiwarki wg. której wyznaczane są pozycje stron internetowych w jej indeksie.

algorytm seo

Zbiór zasad wsparty mechanizmami sztucznej inteligencji nigdy nie jest skończony. Każde wyszukiwanie użytkownika tworzy reguły prawdy wg. których system w sposób półautomatyczny wyciąga wnioski i modyfikuje algorytm. Największe i najbardziej znaczące dla pozycjonerów zmiany wprowadzane są ręcznie przez administratorów oraz analityków platformy.

Marketing totalny (Fusion)

idea marketingu internetowego – posiadająca pierwsze kompleksowe narzędzia do jego realizacji – polegająca na dominowaniu wszystkich wyników wyszukiwarki w obrębie słowa kluczowego zamiast wyciągania za wszelką cenę domeny klienta. Idea dla pozycjonerów korzystających z SWL-i lub zaplecza tworzonego ręcznie ciężka do zrealizowania jednak z wykorzystaniem systemów dedykowanych wbrew pozorom prosta w wdrożeniu.

Najlepiej obrazuje to bardzo dynamicznie rozwijająca się specjalizacja w branży – jedyny słuszny kierunek rozwoju dla branży seo i specjalistów marketingu internetowego w najbliższych latach.

PageRank - cichy parametr

ocena wartości stron internetowych w skali 0 -10. Algorytm dzierżawiony na wyłączność przez firmę Google, wykorzystującą ten wskaźnik między innymi do wyznaczania pozycji w własnej wyszukiwarce internetowej. Najbardziej wiarygodnym źródłem sprawdzania PageRank-u jest sam google jako, że sam go wyznacza.

Istnieje specjalny serwis API dzięki któremu serwisy zewnętrzne pozwalają użytkownikom sprawdzanie tego parametru. Serwis nie jest udostępniony w żadnych oficjalnych źródłach jednak jest możliwy do odnalezienia. Do każdego zapytania konieczne jest generowanie klucza autoryzacji do którego również na zagranicznych stronach znajduje się algorytm. Algorytm obliczania PageRanku nigdy nie został oficjalnie udostępniony.

Bot (robot) – program komputerowy przeszukujący sieć w celu zbierania i zapisywania pożądanych informacji do jej późniejszej analizy.

googlebot
  • Internauci mogą nas odnaleźć
  • Wszystko dzieje się automatycznie
  • Dostęp do wyszukiwarki nic nie kosztuje

Wszystkich (chyba ;]) najbardziej interesuje GoogleBot dlatego właśnie temu robotowi przyjrzymy się bliżej. Dowiemy się: jak działa, w jaki sposób analizuje tak duże ilości stron oraz gdzie szukać potrzebnych informacji na jego temat.

  1. Jak to działa?

    Robot Google każdego dnia zmierza się z „prostym” zadaniem odnajdywania nowych, nieznanych dotąd witryn internetowych oraz aktualizowania wyników dla tych już posiadanych. Swoją drogę rozpoczyna od domen posiadanych w indeksie wędrując w głąb nieznanego (którego jest więcej niż nam się wydaje;p) wykorzystując linki zewnętrzne nieopatrzone tagiem nofollow. Praktyka pokazuje jednak, że i takie linki Google chętnie odwiedza a jedynie ich treść nie jest udostępniana do zawartości wyszukiwarki. Wędrując po stronach robot analizuje ich zawartość tekstową przygotowując wyniki do analizy osobnego programu weryfikującego ich jakość i unikalność oraz wyznaczającego ich kolejność wg. trafności algorytmu.

  2. Jak robot analizuje tak duże ilości stron?

    Robot to jedynie symboliczne określenie. W rzeczywistości to całe farmy serwerów -aktualizujące się automatycznie z serwerów matek – posiadające uruchomiony ten sam program. Aktualna forma inteligencji wyszukiwarki każe wskazywać i rozumować ten program jako olbrzymi projekt jak widać z powodzeniem udoskonalany i rozwijany. Ilość DataCenter dostosowywana jest i będzie do prognoz rozwoju sieci do czego bot został w pełni przystosowany – skalowalność.

  3. Mało informacji na temat robota w sieci?

    Mało? W zasadzie Google w oficjalnych źródłach udostępnia mnóstwo informacji na temat samego robota oraz sposobu jego działania. Udostępnia również szczegółowe wytyczne sugerujące rozwój aplikacji i stron internetowych.

  4. Progam idealny?

    Z pewnością nie. Polscy i zagraniczni pozycjonerzy każdego dnia udowadniają, że na każde zabezpieczenie jest jakieś odbezpieczenie. Sam algorytm w ciągłym tempie utrudnia modyfikowanie wyników w celu odniesienia korzyści co jednak nadal jest możliwe.

  • bl
    Sprawdzanie backlinków - poznaj ile posiadasz linków?

    narzędzie pozwalające w sposób dokładny określić ilość linków zwrotnych do naszej witryny internetowej – domeny. Sama ilość backlinków może być często myląca a ich rozbieżność bardzo spora. Zależny jest tutaj sposób linkowania domeny docelowej – pojedynczy link w artykule czy bezpośredni i ulubiony przez branżę SEO link po całej domenie – tkz. link typu partnerzy lub polecamy. Bardziej miarodajnym parametrem jest Referring domains do którego opis i wyjaśnienie poniżej.

  • rd
    Referring domains - ile domen linkuje do Ciebie?

    ilość unikalnych domen posiadających co najmniej jeden link kierujący na naszą domenę. Parametr bardzo istotny przy wszystkich wycenach pozycjonowania oraz tworzenia obrazu linkowania konkurencji (link buliding). W sieci istnieją pojedyncze serwisy udostępniające odpłatnie ten parametr. Narzędzia te zazwyczaj posiadają spore ograniczenia co do ilość a ceny na Polskie warunki są dość wygórowane.

  • swl system
    SWL - system wymiany linków

    W teorii system wymiany linków, a w praktyce? Śmietnik! Wiekszość stron podpiętych do SWL-i woła o pomstę do nieba – ich wygląd pozostawia bardzo dużo do życzenia a zawartość merytoryczną zostawimy bez komentarza – szukaj: generatory treści, synonimizatory. Sporo osób utrzymujących strony w systemie aby zdobywać punkty po ich akceptacji podmienia np. wartościową treść na spam, podmienia templatkę na darmową dewastując tym samym użyteczność takiej witryny. Duża ilość linków wychodzących do przeróżnych witryn również nie wpływa pozytywnie. Rok 2013 to upadek SWL - Pytamy głośno? Czy to faktycznie zła wiadomość? Już dziś zmień swoje podejście do SEO

Koncepcja reklamy na frazy niszowe nie posiadające konkurencji. Frazy te posiadają znacznie mniejszą ilość wyszukiwań jednak szybciej i łatwiej jesteśmy w stanie przejąć z nich ruch – pierwszy system przechwytywania wartościowego ruchu patrz FusionSystem.

Znaczniki kodu html i xhtml - ich znaczenie powoli wygasa. Aktualnie sensownym jest uzupełnianie tagu title i description. Słowa kluczowe można sobie podarować, lepiej je zamieścić w treści artykułu lub pod nim. Pozostałe jak same wyszukiwarki przyznają liczą się w bardzo znikomym stopniu lub w ogóle. Ideą metatagów było przekazywanie dodatkowych informacji dla wyszukiwarek internetowych jednak spore i nachalne nadużycia spowodowały stopniowe zmniejszanie się ich wartości do praktycznie zera.

Nie ma się co rozpisywać. Już dawno nie działa tak jak byśmy tego chcieli. Dobre do zaindeksowania strony.

Nazwa hiperłącza przygotowana dla użytkownika, którą jak pokazują ostatnie lata GoogleBot coraz częściej pomija. W przypadku jej nadużywania można sobie sporo zaszkodzić. Nienaturalne linkowanie.

karne obniżanie domeny w wynikach wyszukiwania na wcześniej ustalony okres. Użytkownik nie jest informowany o długości filtru.

Ban

karne wyrzucenie domeny z wyników wyszukiwania. Od kilkudziesięciu miesięcy bardzo rzadkie przypadki – tylko dla domen o zakazanej tematyce np. pedofilia, sprzedaż narkotyków.

Posiadasz specjalistyczne pytanie? Zapytaj, chętnie odpowiedmy.

Załóż bezpłatne konto aby sprawdzić nasze możliwości.