wtorek, 8 stycznia 2013

Dlaczego pozycjonowanie tyle kosztuje – czyli za co tak naprawdę płaci klient?

Dlaczego pozycjonowanie tyle kosztuje – czyli za co tak naprawdę płaci klient?

Autorem artykułu jest Maciej Skibiński


Artykuł porusza kwestię wyceny usług związanych z pozycjonowaniem, wyjaśnia za co tak na prawdę płaci klient, dlaczego pozycjonowanie jest tak wartościowe i co determinuje jego koszty. Życie zawodowego pozycjonera nie jest, wbrew pozorom, wcale takie łatwe. Praca ta jest kompleksowa i wymaga znajomości mechanizmów rządzących Internetem oraz sporego doświadczenia. Pod terminem 'pozycjonowanie' kryje się tak mnóstwo skorelowanych ze sobą działań, o czym nie każdy wie. Wtajemniczeni nieco w temat znają z pewnością niektóre z podstawowych technik pozycjonowania, jednak w praktyce jest to tylko mała część prac, jakie trzeba wykonać, chcąc wypozycjonować stronę. Postaram się podać uzasadnienie cen panujących na rynku oraz korzyści jakie możemy odnieść zdając się na zawodowców.

Pozycjonowanie przykładowej strony może, w zależności od woli klienta, wynieść nawet 1000 zł miesięcznie lub więcej, przy czym podstawowym elementem wyceny jest określenie ilości oraz rodzaju fraz na jakie chcemy stronę wypozycjonować. Może się to wydawać dość wygórowaną ceną za taką usługę, ale należy pamiętać, że tak naprawdę pozycjonowanie to zestaw usług, których celem jest poprawienie naszej „widzialności" w wyszukiwarkach internetowych. Naturalnie podpisywana umowa między klientem a pozycjonerem jest określana na jakiś szczególny okres i określa także czas po jakim powinno być widać pierwsze wyniki.

Część ogólnej ceny dyktują także wydatki jakie musi ponieść pozycjoner podczas swojej pracy – na przykład podczas dodawania strony do płatnych katalogów. Nie jest to jednak podstawowy czynnik windujący cenę – głownie stanowi o tym czas jaki trzeba poświęcić temu zadaniu oraz doświadczenie danego pozycjonera.

Rodzaj oraz charakter strony, która jest przedmiotem całej operacji ma także kluczowe znacznie. Wiążę się z nią szereg zależności, które decydują jak trudne będzie jej wypozycjonwanie oraz, co się z tym wiąże, ile będzie wynosił koszt takiej usługi. Główne takie czynniki to przede wszystkim działania konkurencji na tym obszarze, ilość stron już wypozycjonowanych na daną frazę oraz ogólna ilość wyników jakie daje wyszukiwarka. Profesjonaliści wiedzą także, że kluczowa jest ilość istniejących stron, do których prowadzą linki z daną frazą w znaczniku anchor, ponieważ to one są bezpośrednią konkurencją w wynikach wyszukiwania.

W dobie coraz większej popularności kampanii reklamowych, pozycjoner musi także przeanalizować rynek na tym obszarze. W przypadku kampanii Google ad-words znaczenie odgrywa ilość zamieszczanych reklam promujących konkurencyjne strony na interesujące nas frazy kluczowe, oraz koszt jednego kliknięcia na te reklamy.

Dodatkowym utrudnieniem jest fakt, że rynek pozycjonowania szybko się zmienia, dynamicznie się rozwija. Wyszukiwarki wprowadzają ciągle modyfikacje w swoich silnikach, przez co trzeba kontrolować rynek i być elastycznym, aby pozycjonowane strony nie traciły wysokich miejsc w wynikach.

Zawodowcy w tej dziedzinie są zgodni co do jednego – praca profesjonalnego pozycjonera wymaga od niego posiadania własnego zaplecza, czyli specjalnych serwisów internetowych mogących przechowywać znaczne ilości linków do pozycjonowanych stron. Zaplecza takie są skonstruowane w specyficzny sposób, posiadają unikalną strukturę linków, co sprawia, że są one wysoko cenione przez wyszukiwarki, a co za tym idzie strony do nich dodawane również będą się cieszyć większym powodzeniem. W praktyce zaplecza są konstruowane w postaci katalogów stron, blogów internetowych, serwisów publikujących artykuły tematyczne. Wartościowe zaplecze powinno też posiadać wysoki wskaźnik PageRank – jest to specjalny czynnik, według którego wartość danego tekstu, strony jest określana poprzez ilość tekstów do niego linkujących. Oczywiście jakość tychże również nie jest bez znaczenia. Z tego względu koszt pozycjonowanie pojedynczej strony jest dyktowany trudem włożonym przez pozycjonera w budowę, administrację oraz utrzymanie całego zaplecza – musi być ono często aktualizowane, muszą pojawiać się w nim nowe linki.

Kolejnym zadaniem, z jakim pozycjoner musi się zmierzyć jest optymalizacja strony. Składa się ona z szeregu czynności, po których prawidłowym wykonaniu strona staje się przyjaźniejsza dla przeglądarek, przez co są one w stanie wyżej ją umieścić w swoich wynikach. W Internecie istnieje wiele opracowań i porad traktujących o poprawnej optymalizacji strony, jednak jest to czynność wymagająca doświadczenia oraz, niekiedy, poważnych nakładów czasowych. W naturalny sposób podnosi to sumaryczny koszt całej usługi. Pozycjoner musi przeniknąć do kodu strony i wnikliwie go analizować, wychwytując szczegóły, które z punktu widzenia wyszukiwarki są istotne. Strony charakteryzują się różnym stopniem złożoności, są konstruowane na odmiennych systemach zarządzania treścią (CMS). Możliwe jest, że stosowany na stronie system nie umożliwia optymalizacji, w związku z czym może okazać się konieczne wdrożenie nowego systemu (na przykład ICEportal 2), który posiada funkcje ułatwiające pozycjonowanie. Naturalnie wielkość całego serwisu i stopień złożoności oraz ilości podstron także mają duży wpływ na wycenę.

Reszta ceny jest leży już po stronie samego pozycjonera i on określa, jakie nakłady są konieczne do pozycjonowania danej strony. Musi on ustalić, ile osób będzie pracować nad zleceniem, jakich będą używali narzędzi – aplikacji biurowych, oprogramowania do tworzenia oraz edycji stron www, programów monitorujących pozycję stron w wyszukiwarkach, oraz od tego czy będą one darmowe czy komercyjne. ---

Maciej Skibiński Agencja Interaktywna Krakweb.pl Kraków. Nasza firma specjalizuje się e projektowaniu stron www, pozycjonowaniu stron, projektowaniu graficznym, fotografii, wdrażaniu systemów CMS. Kraków 2007

Artykuł pochodzi z serwisu www.Artelis.pl

Adder, czyli jak zautomatyzować dodawanie do katalogów i przyspieszyć pozycjonowanie stron?

Adder, czyli jak zautomatyzować dodawanie do katalogów i przyspieszyć pozycjonowanie stron?

Autorem artykułu jest Maciej Skibiński


Artykuł opisuje podstawowe funkcje skryptu automatycznego dodawania do katalogów - Adder. Charakterystyka poparta własnymi doświadczeniami z użytkowania, zawiera szereg tricków i interesujących porad, szczególnie potrzebnych nowym użytkownikom. Adder jest robotem pozwalającym na automatyczne dodawanie wpisów do katalogów opartych na skryptach QlWeb oraz CNCat. Dodatkowo w wesji 4 posiada funkcję rejestracji na forach PHPbb i dodawanie w profilu linku do Twojej strony. Jest to obecnie coraz popularniejsze narzędzie katalogowania w Internecie. Idea dodawania stron wraz z linkami do katalogów jest dość oczywista – zabieg ten jest w stanie w znaczący sposób poprawić pozycję naszej strony w wyszukiwarkach dlatego polecam bliższe przyjrzenie się temu zagadnieniu.

JAK Z NIEGO KORZYSTAĆ?

System opiera się na „konfiguracji użytkownika”, do której dodajemy swoje strony, uzupełniając je o szereg parametrów. Przede wszystkim musimy określić, jak nasz automatyczny wpis ma wyglądać w katalogu. Podajemy tytuł, opis oraz słowa kluczowe dla danej strony. Ciekawa funkcja skryptu pozwala w sposób losowy lub mieszany zarządzać dodawanymi atrybutami – w przypadku gdy wybierzemy dla tytułu sposób losowy spośród podanych przez nas tytułów zostanie wybrany jeden za każdym razem, aby nie tworzyć nienaturalnie wyglądających wpisów. Na tej samej zasadzie działa tryb mieszany i jest on głównie zalecany przy dodawaniu słów kluczowych, ponieważ spośród podanych słów kluczowych wybiera różne (losowe) kombinacje.

Oczywiście od nas zależy, na jaki rodzaj dodawania się zdecydujemy. Nie musimy dodawać do wszystkich wyżej wymienionych rodzajów katalogów. Określamy również ile automat ma dodawać wpisów dziennie oraz ile wpisów na katalog – trzeba pamiętać aby nie przekraczać wartości mogących spowodować usunięcie naszych linków.

Kolejnym i najtrudniejszym elementem konfiguracji jest określenie kategorii oraz podkategorii, do jakich mają być dodawane nasze wpisy. Cała trudność związana z tym punktem polega na tym, że struktury katalogów są niejednorodne, a nazwy kategorii głównych, mimo że traktują o tym samym, są inaczej sformułowane. Na przykład popularna kategoria, zawierająca strony o tematyce informatycznej jest, zgodnie z moimi spostrzeżeniami, sformułowana na przynajmniej pięć sposobów: Komputery i Internet, Internet i Komputery, Komputery PC i Internet, Internet, Komputery. Dla nas jest to ta sama kategoria, natomiast z punktu widzenia skryptu trzy różne. W przypadku dodawania strony do podkategorii docelowej – projektowanie stron internetowych – musimy uwzględnić każdą z wyżej wymienionych kategorii głównych.

Oprócz podawania kategorii głównych wymagane jest też podanie podkategorii, jednak one wbrew pozorom są już łatwiejsze do odgadnięcia. Poza tym, w przypadku gdy nie zostanie odnaleziona pasująca podkategoria Adder tworzy nową, podaną przez nas.

W praktyce dwa wyżej opisane kroki należą do najtrudniejszych. W moim przypadku zdecydowałem się na ręczna analizę kilkunastu wybranych katalogów, zwracając uwagę na interesujące mnie kategorie. Po zebraniu informacji w ten sposób, przystąpiłem do tworzenia indywidualnych konfiguracji dla pozycjonowanych witryn. Mimo dość wnikliwej analizy długo nie byłem w pełni usatysfakcjonowany wynikami zwracanymi przez skrypt, jednak okazało się tylko kwestią czasu aż podane przeze mnie kategorie będą miały odzwierciedlenie w rzeczywistości. Ponad wszelką wątpliwość właściwa konfiguracja kategorii jest kluczem do poprawnego działania skryptu – jest to wykonalne.

Ostanią z opcji dostępnych w konfiguracji jest podanie danych wykorzystywanych przy rejestracji na fora PHPbb. Po poprawnym podaniu wszystkich tych atrybutów możemy przystąpić do właściwego dodawania do katalogów.

Ciekawym dodatkiem jest jeszcze filtr katalogów według PageRanku. Pozwala on w łatwy sposób wyeliminować mniej wartościowe z punktu widzenia pozycjonera katalogi.

DODAWANIE A ZABEZPIECZENIA:

Jedną z podstawowych zalet Robota jest rozpoznawanie podstawowych token graficznych na QlWebach. W przypadku gdy struktura wpisywania tokenów jest niestandardowa, skrypt zwraca się o pomoc do użytkownika, przygotowując specjalny formularz z tokenem, który my musimy tylko odczytać i wpisać w odpowiednie pole. Podobnie skrypt radzi sobie z wszelkimi przekierowaniami katalogów na strony dodające wpisy.

W trakcie dodawania kilkakrotnie spotkałem się z ograniczeniami katalogów, które uniemożliwiają dodanie wpisu w przypadku gdy jego opis jest krótszy niż 100 znaków, w innym katalogu nawet 300. Skrypt w takim wypadku udostępnia formularz, w którym wczytywana jest nasza konfiguracja i możliwy jest w nią wgląd i ewentualne zmiany. Zalecam dodanie tych kilku brakujących słów w razie konieczności.

KORZYŚCI I WADY:

Podstawowymi wymiernymi zyskami jakie możemy odnieść z korzystania z tego skryptu to oszczędność czasu poprzez automatyzację katalogowania. Skrypt ma wbudowaną opcję przeglądania dodanych wpisów. Możemy się przekonać jak w rzeczywistości są dodawane. Pozwala nam to kontrolować i ewentualnie na bieżąco modyfikować ustawienia poszczególnych stron.
Tak wydajne funkcjonowanie jest wynikiem możliwości konfiguracji większej liczby opisów oraz losowego ich przydzielania. Wspomniana wcześniej opcja dodawania nowych podkategorii jest również przydatna, w momencie gdy natrafiamy na niestandardowy katalog.

Do wad należy zaliczyć mało przejrzystą nawigację i niską atrakcyjność graficzną samego skryptu, choć nie są to oczywiście aspekty kluczowe. Przeciwnie do skomplikowanej konfiguracji – jest to przeszkoda, która może na początku zniechęcić. Natomiast, jeśli przebrniemy przez nią, skrypt zrewanżuje się wysoką funkcjonalnością, którą mogę ocenić w moim przypadku na około 75% - tak wynika z moich obserwacji katalogów z podanej przez skrypt listy.

PODSUMOWANIE:

Ciężko jest jednoznacznie ocenić tę aplikację, ponieważ wiem, że budzi skrajne uczucia wśród internautów. Mogę jedynie wydać werdykt oparty o moje doświadczenia, które są pozytywne. Po poprawnej konfiguracji skrypt działa bez zarzutu i spełnia stawiane przed nim cele. Uważam, że jest w stanie zaoszczędzić wiele cennego czasu i uchronić od monotonnego zajęcia jakim jest ręczne katalogowanie.
---

Maciej Skibiński Agencja Interaktywna Krakweb.pl Kraków. Nasza firma specjalizuje się e projektowaniu stron www, pozycjonowaniu stron, projektowaniu graficznym, fotografii, wdrażaniu systemów CMS. Kraków 2007

Artykuł pochodzi z serwisu www.Artelis.pl

Google bomb - nielegalne techniki pozycjonowania

Google bomb - nielegalne techniki pozycjonowania

Autorem artykułu jest Maciej Chmielowski


Google Bomb - jedna z technik spamowania wyszukiwarek internetowych linkami, tak aby określona witryna znalazła się na jak najwyższej pozycji wyszukiwań nie wiążących się bezpośrednio z jej zawartością. Zabieg ten przeprowadzany jest przez internautów zwykle w celach humorystycznych lub politycznych (w odróżnieniu od spamu umieszczanego w celach komercyjnych). Google Bomb - jedna z technik spamowania wyszukiwarek internetowych linkami, tak aby określona witryna znalazła się na jak najwyższej pozycji wyszukiwań nie wiążących się bezpośrednio z jej zawartością. Zabieg ten przeprowadzany jest przez internautów zwykle w celach humorystycznych lub politycznych (w odróżnieniu od spamu umieszczanego w celach komercyjnych).

Nazwa pochodzi od nazwy popularnej wyszukiwarki internetowej, Google, oraz angielskiego słowa bomb oznaczajacego bombardowanie. Zgodnie z nazewnictwem, podstawowym zabiegiem z którym wiąże się ta technika jest zasypywanie wyszukiwarki linkami zwrotnymi do docelowej strony umieszczonymi w różnych serwisach WWW. Linki te opisane są hasłem, na którego wyniki wyszukiwania sprawca chce wpłynąć. Takie działanie wprowadza w błąd PageRank oraz podobnie działające algorytmy, które oceniają wartość witryn na podstawie odnośników, które na nie prowadzą.

Najbardziej znanym przykładem jest prawdopodobnie wynik wyszukiwania frazy miserable failure (ang. żałosna porażka), który na skutek spontanicznej akcji internautów od wielu lat wskazuje na pierwszym miejscu na oficjalną stronę prezydenta George W. Busha.

Do polskich osiągnięć zalicza się między innymi przekierowanie wyszukiwań słowa kretyn na stronę posła Andrzeja Leppera, oraz wiele innych przykładów wulgaryzmów przekierowujących na strony parlamentarzystów lub ugrupowań politycznych.

Jak tworzone są Google Bombs?
Organizatorzy kampanii starają się namówić największą możliwą ilość internautów do zamieszczenia na swojej stronie linka do bombardowanej strony. Czynią to poprzez zamieszczanie banerów, stworzenie specjalne strony dla kampanii Google Bomb, mailing, serwisy społecznościowe. Aktualnie wyniki Google Bombs są filtrowane ręcznie przez pracowników wyszukiwarki Google i większość popularnych i głośnych efektów Google Bombs została usunięta. ---

Maciej Chmielowski - projektowanie stron internetowych opartych o system CMS. Agencja Interaktywna Krakweb.pl

Artykuł pochodzi z serwisu www.Artelis.pl

Narzędzia pozycjonera - przydatne toolbary do przeglądarki Mozilla Firefox.

Narzędzia pozycjonera - przydatne toolbary do przeglądarki Mozilla Firefox.

Autorem artykułu jest Maciej Skibiński


Krótka charakterystyka przydatnych toolbarów do przeglądarki Mozilla Firefox - WebSEO toolbar oraz SeoQuake. Są to narzędzia, które nie powinny być obce żadnemu pozycjonerowi. Życie pozycjonera to ciężki kawałek chleba, głównie z uwagi na ogromną konkurencję w tej dziedzinie oraz kompleksowość świadczonych przez pozycjonerów usług. Zawodowi pozycjonerzy starają się ułatwić sobie ciężką i mozolną pracę wszelkimi sposobami, dzięki czemu powstaje wiele narzędzi pozwalających w jakiś sposób ogarnąć całość zagadnienia pozycjonowania.
Postaram się przedstawić dwa narzędzia dostępne do przeglądarki Mozilla Firefox – WebSEO toolbar oraz SeoQuake. Oczywiście na rynku podobnych pasków dostępnych jest o wiele więcej, jednak te dwa należą do moich ulubionych i zawierają wszystkie niezbędne opcje i wzajemnie się uzupełniają.

WebSEO toolbar to narzędzie uniwersalne charakteryzujące się przejrzystością i możliwością analizy strony pod kątem optymalizacji SEO. Jest to jedna z jego podstawowych funkcji. W skład funkcji SEO wchodzą takie narzędzia jak badanie ilości linków do strony, kontrola PageRanku, czy kontrola indeksowania podstron serwisu. Oprócz tych przydatnych funkcji pasek ma wbudowaną wyszukiwarkę korzystającą ze wszystkich najważniejszych serwisów – Google, Hm?, Netsprint, Yahoo, MSN, Onet, WP. Znajdziemy także zestaw przydatnych linków dla każdego pozycjonera SEO, połączonych z centrum informacyjnym SEO, aby użytkownik był ciągle na bieżąco. Ciągle aktualizowane informacje ze świata pozycjonowania zapewniają dostęp do wszystkich nowinek, dodatkowo wzbogacone o opcję chata zapewniają kontakt z innymi pozycjonerami. Ostatnią istotną cechą tego narzędzia jest ochrona prywatności – pozwala blokować pop-upy, czyścić pliki cookies, cache oraz historię odwiedzin stron. Naturalnie wbudowana jest także moduł aktualizujący narzędzia wraz z pojawieniem się updateów.
Warto także wspomnieć, co zaznacza producent, że jest to aplikacja całkowicie darmowa, pozbawiona jest spyware-u, wirusów i reklam, oraz nie wymaga podawania danych osobowych.

Drugie narzędzie, SeoQuake, jest podobne do WebSEO toolbar z założeń, jednak kładzie nacisk na inne aspekty optymalizacji. Razem świetnie się uzupełniają oferując użytkownikowi kompletny zestaw narzędzi czyniących pozycjonowanie lżejszym.
Po instalacji SeoQuake dokonujemy wyboru zestawy narzędzi, z którego chcemy korzystać. Warto pokusić się o zaznaczenie kompletnego zestawu aby odkryć bogactwo udostępnionych przez twórców opcji. Podstawowe funkcję są dostępne z dwóch poziomów – poziomu Google (pod wynikami w przeglądarce SeoQuake dodaje swoją stopkę zawierającą istotne dla pozycjonera informacje, m.in. PageRank strony, pozycja strony głównej w indeksie Google, MSN, Yahoo, itp.) oraz z poziomu paska narzędzi (zawiera wszystkie opcje z Google oraz szereg dodatkowych).
Wśród najciekawszych funkcji należy wymienić, wspomniane już wcześniej: PageRank, nr w indeksie podstawowych wyszukiwarek, oraz dodatkowe: ilość linków wewnętrznych oraz zewnętrznych, czy narzędzie do badania gęstości słów kluczowych w ciele strony. Naturalnie nie sposób scharakteryzować wszystkich narzędzie dostarczanych przez SeoQuake, ponieważ jest ich wiele, dodatkowo umożliwia użytkownikowi elastyczną kontrolą dostępnych narzędzi. Można własnoręcznie zmienić wiele ustawień i dostosować do indywidualnych preferencji. W celu dokładniejszych informacji polecam odwołać się do stron domowych programów - WebSEO toolbar, SeoQuake.
Chciałbym każdemu początkującemu pozycjonerowi polecić opisane przeze mnie narzędzia (bo jestem pewien, że ktoś kto zajmuję się pozycjonowaniem od jakiegoś czasu korzysta z nich bez wątpienia), gdyż w istotny sposób poprawiają one wydajność pracy i pozwalają efektywnie kontrolować pozycję i jakość naszych serwisów.
---

Maciej Skibiński Agencja Interaktywna Krakweb.pl Kraków. Nasza firma specjalizuje się e projektowaniu stron www, pozycjonowaniu stron, projektowaniu graficznym, fotografii, wdrażaniu systemów CMS. Kraków 2007

Artykuł pochodzi z serwisu www.Artelis.pl

Klikalność wyników wyszukiwania Google, czyli jak działa nasza podświadomość?

Klikalność wyników wyszukiwania Google, czyli jak działa nasza podświadomość?

Autorem artykułu jest Maciej Skibiński


Artykuł zawiera opis badań przeprowadzonych przez naukowców z Uniwersytetu Cornella w USA. Badanie zostało przeprowadzone metodą eyetrackingu i pozwala wyciągnąć ciekawe wnioski na temat zachowań użytkowników wobec pierwszej strony wyników Google. Czy zastanawialiście się kiedyś, korzystając z Google, jak wasza podświadomość i odruchy ograniczają i zawężają wyniki zwracane przez wyszukiwarkę?
Trójka pracowników naukowych Uniwersytetu Cornella (Ithaca, Stan Nowy Jork, USA) Laura A. Granka, Thorsten Joachims oraz Geri Cay przeprowadziła szczegółowe badania typowego rozkładu kliknięć na pierwszej stronie wyników Google na przykładowe zapytanie. Badanie zostało oparte na metodzie tzw. eyetrackingu, czyli śledzenia za pomocą specjalnego urządzenia ruchu gałek ocznych badanych osób – w tym wypadku użytkowników Google.

Badanie w wyraźny sposób pokazuje, na których miejscach strony z wynikami skupiamy swój wzrok oraz jak dużo czasu poświęcamy na wpatrywanie się w dany obszar, a co za tym idzie, jakich dokonujemy wyborów. Okazuje się, że nasz wzrok najpierw wędruje na pierwsze trzy pozycje wyników z dość znaczną przewagą, rzecz jasna miejsca na szczycie. Dodatkowo często spoglądamy na pasek wyszukiwania oraz na reklamy – także reklama na samej górze ma zdecydowanie większe zainteresowanie.
Gdy przeanalizujemy rozkład kliknięć okazuje się, że pierwsza pozycja absorbuje 56.36% ogólnej liczby kliknięć, a użytkownik spędza 28.43% czasu na czytaniu opisu pod pierwszym miejscem. Jasnym staje się, że pozostałe wyniki zdobywają zaledwie ułamek uwagi poświęconej pierwszemu miejscu – uśredniając około 2% ogólnej liczby kliknięć.

Badania wykazały także inną ciekawą zależność występującą w pierwszej dziesiątce wyników. Okazuje się, że 7 pozycja cieszy się mniejszym zainteresowaniem niż pozycje znajdujące się dalej, czyli od 8 do 10. Dzieje się tak dlatego, że siódma pozycja leży poza obszarem wzroku przeciętnego użytkownika na bazowej stronie bez przewijania (zakładając standardową rozdzielczość ekranu oraz wielkość czcionki w przeglądarce). W przypadku gdy użytkownik zdecyduje się na przewijanie strony, zwykle przewija do końca i ewentualnie skupia się na pozycjach ostatnich, czyli 8,9 i 10. Warto jeszcze zaznaczyć, że z tej ostatniej trójki pozycja 9 cieszy się najmniejszym zainteresowaniem.

Kolejnym aspektem badania rozkładu kliknięć było określenie ilości przeglądanych przez użytkownika wyników pod i nad wynikiem docelowym. Wynika z tego że użytkownik zanim kliknie na pierwszą pozycję, przegląda jedną pozycję niżej, a już w przypadku miejsca siódmego jest to kwestia sześciu wyników nad i trzech pod tym miejscem.

Informacje o badaniach zostały zaczerpnięte ze strony Distribution of Clicks on Google’s SERPs. Polecam lekturę tego dokumentu, ponieważ można zapoznać się z komentarzami na temat wiarygodności przeprowadzonych testów. Dwa aspekty rzucają cień na wyniki: mała liczba zbadanych użytkowników (26 osób) oraz narzucenie testowych szukanych fraz.

Chciałbym na końcu jeszcze raz wszystkim gorąco polecić zwrócenie uwagi na tego typu badania, ponieważ niezależnie od stopnia ich miarodajności, pokazują dlaczego tak istotne podczas pozycjonowania strony jest uzyskanie jak najwyższej pozycji w indeksie Google. ---

Maciej Skibiński Agencja Interaktywna Krakweb.pl Kraków. Nasza firma specjalizuje się e projektowaniu stron www, pozycjonowaniu stron, projektowaniu graficznym, fotografii, wdrażaniu systemów CMS. Kraków 2007

Artykuł pochodzi z serwisu www.Artelis.pl