poniedziałek, 4 lutego 2013

Spamerzy - nie lubiani, ale pożądani

Spamerzy - nie lubiani, ale pożądani

Autorem artykułu jest Kamil Sobczak


Kto lubi spam, niech podniesie rękę. Ale co to nikt nie lubi spamu? Przecież spam nie jest taki zły. Spam w wyszukiwarkach to dziś codzienność. Ile to razy zdarza Nam się, że szukając czegokolwiek w wyszukiwarce Google trafiamy na skopiowane informacje, które przeczytaliśmy przed chwilą w innym serwisie, nisko wartościowy katalog stron, w którym ciężko jest odszukać cokolwiek lub treść zmiksowaną synonimami na tyle, że jest niezrozumiała. Jeszcze nie dawno co druga strona była kopią wikipedii, albo katalogiem DMOZ.

Zespół Google nie był obojętny i rozpoczął kontrofensywę na kopie kopii. Czy jednak przyniosło to jakiś skutek ? W rezultacie powstały kolejne kopie, które szybko zostały zbanowane i w efekcie tworzenie czegokolwiek pod pseudonimem wikipedii stało się nierentowne. Oj jaki był wtedy lament na taką reakcję zespołu G, posty na forum o pozycjonowaniu pod tytułem Muszę się popłakać, Google zbanowało mi domenę przebijały popularnością inne tematy.

Jednak web-spamerzy okazali się twardsi i mimo porażki zaczęli wymyślać nowe niespotykane dotychczas rozwiązania. Od tej chwili spam prezentuje się jak normalna strona. Ma ładną szatę graficzną opartą na darmowym lub dedykowanym szablonie i posiada tekst skopiowany z innej strony. Ktoś kto nie widział strony oryginalnej, nawet nie podejrzewa, że trafił na duplikat. I tak rozpoczęła się era, w której kradzież tekstów różnych autorów jest na porządku dziennym. Co prawda, wyszukiwarka Google te działania wykrywa i stosuje odpowiednie sankcje, jednak banowanie w takich sytuacjach jest niezwykle niebezpieczne – zawsze może się okazać, że moderatorzy prężnej wyszukiwarki się pomylą i ukarzą nie ten serwis co trzeba. Autor strony w takiej sytuacji może napisać do Google, jednak nie zmieni to faktu, że jego strona przez kilka dni nie była aktywna w wynikach, co może się przyczynić do chwilowego zawieszenia dochodów, jakie twórca strony mógłby w tym czasie osiągnąć.

Czy Google wygra kiedyś ze spamerami ? Raczej w to wątpię. Im bardziej algorytm tej wyszukiwarki będzie skuteczny w eliminowaniu spamu, tym bardziej inteligentniej będą działać spamerzy. I tak błędne koło będzie się zamykać. W tej wiecznej i bezwzględnej wojnie zawsze będzie cierpieć jedna strona – użytkownicy wyszukujący mało popularnych wyrażeń.

Choć zabrzmi to dziwnie, to spam jest także pożądany. Mimo, że przeciętny użytkownik sobie z tego nie zdaje sprawy, to strony z mianem spamu, kształtują wyniki Google. Spam co prawda często okupuje mało popularne frazy, ale jednocześnie wypycha te wartościowe witryny, do fraz bardziej obleganych. Dlaczego tak się dzieje ? Spamerzy to czarni biznesmeni, którzy zarabiają na tym, że ktoś chce coś od nich kupić. Tym towarem są punkty systemów wymiany linków, pozwalające dopalić każdą witrynę na wyższą pozycję w naturalnych wynikach wyszukiwania. I mimo, że pracownicy Google krzyczą, że to jest nieetyczne, to takie działania oparte o SWL są niezwykle skuteczne. Jednak czy można trzymać się wytycznych Google i jednocześnie zajmować wysokie wyniki na choćby średnio popularne frazy ? Niestety, ale nie – zawsze się znajdzie ktoś, kto będzie robił coś wbrew zaleceniom i przegoni swymi działaniami konkurencję.

Zatem nie łudźmy się, że wyniki naszej ulubionej wyszukiwarki internetowej będą idealne. Wyszukiwarka to tylko algorytm – jakiś programistyczny mechanizm, który zawsze będzie miał jakieś ograniczenia i luki. Spamerzy to nie tylko zło, są i dobre strony, ale jeśli nie wierzysz to możesz porównać wyniki tej wyszukiwarki z przed kilku lat, z dzisiejszymi. To właśnie spamy i kiepskiej jakości katalogi wskazały wyszukiwarce co jest naprawdę cenne i to właśnie ich obecność sprawia, że wyszukiwarka cały czas ewoluuje. Może spam okupuje niszowe wyniki, ale te wartościowe informacje częściej wyszukiwane przez użytkowników, są teraz znacznie łatwiej dostępne.

Zatem drogi czytelniku, morał z tego jest taki - tak jak zawsze istniało dobro i zło, tak jak istnieje monopol i Microsoft, tak samo będzie istniało Google i spamerzy. ---

Klikając w TEN LINK możesz odmienić swoje życie – na lepsze. Lubisz ryzyko i twardą grę ? Więc to jest dla Ciebie odpowiednie

Artykuł pochodzi z serwisu www.Artelis.pl

Jak zdobyć wysokie pozycje w naturalnych wynikach?

Jak zdobyć wysokie pozycje w naturalnych wynikach ?

Autorem artykułu jest Kamil Sobczak


Działania, które mają istotny wpływ na pozycję strony, powinny być podjęte już na etapie tworzenia witryny. Budując stronę powinniśmy trzymać się ogólnie przyjętych standardów. Jednak poprawna konstrukcja strony nie oznacza, że osiągnie ona wysokie pozycje. Do jej osiągnięcia będziemy potrzebowali jeszcze dobrej i unikalnej treści oraz wartościowych linków. Zdobywanie wartościowych linków, to podstawa jeśli chcemy osiągnąć wysokie rankingi w wynikach wyszukiwania, dla trudnych fraz o wysokiej konkurencyjności. Obecnie najpopularniejszy sposób zdobywania linków z darmowych katalogów stron, to zdecydowanie za mało. Metoda wzajemnej wymiany linków między serwisami w strukturze A -> B i B -> A jest już nieskuteczna i filtrowana przez wyszukiwarki, jeśli strony nie mają ze sobą uzasadnionego powiązania.

Aktualnie najlepiej sprawdzają się te metody, które wymagają od właścicieli serwisów systematycznej pracy. Praca ta powinna przekładać się na kilka etapów :
- Budowa ciekawej i unikalnej treści, zamieszczanej na stronie,
- Pisanie artykułów do innych serwisów;
- Budowa własnego wizerunku.

Dobra i unikatowa treść sprawi, że właściciele innych stron chętniej będą chcieli do nas linkować. Nie bez znaczenia jest też wizerunek webmastera (pozycjonera, eksperta). Słowa (treści) osoby, które w danym środowisku budzą zainteresowanie wśród hobbistów, będą chętniej cytowane. Dobra etyka i ustawa o prawach autorskich wymaga od cytujących, aby po treści zamieścili link zwrotny do oryginału.

Jeśli tworzysz stronę o danej tematyce, to zapewne masz jakieś pojęcie o problemach związanych z tym tematem. Dlatego tez powinieneś (aś) poradzić sobie w pisaniu artykułów do przedruku i innych serwisów publicystycznych. Zapewne na początku artykuły te nie będą wybitne i znajdą się w nich pewne wpadki, to mimo początkowych trudności nabierzesz wprawy. Nawet jeśli jakiś tekst zostanie negatywnie oceniony przez użytkowników, to nie należy się poddawać – trening czyni mistrza. Pamiętaj aby w treści lub stopce zostawić link do swojej strony. Pisząc artykuły do różnych portali budujesz opinię o sobie, co jest równoważne z tym, o czym pisałem w poprzednim przykładzie.
---

Serwis zawierający Filmy erotyczne - tylko dla dorosłych. Nie lubisz płacić i chcesz mieć coś za darmo. Polecam ebooki do pobrania za free.

Artykuł pochodzi z serwisu www.Artelis.pl

Mapa strony - sposób na szybszą indeksację

Mapa strony - sposób na szybszą indeksację

Autorem artykułu jest Kamil Sobczak


Jak zwiększyć liczbę zaindeksowanych podstron w wyszukiwarce Google i ułatwić nawigację użytkownikom ? Stworzenie mapy strony jest doskonałym sposobem na zwiększenie ilości zaindeksowanych podstron w wyszukiwarce Google oraz ułatwia użytkownikom znalezienie poszukiwanej informacji.

Mapy witryn dzielą się na dwa rodzaje :
- obsługiwana przez algorytmy wyszukiwarki Google, zapisana w strukturze XML ,
- klasyczna mapa obsługiwana przez użytkowników, będąca składową jednej z podstron witryny.

Mapa klasyczna jest przydatna zarówno podczas pozycjonowania, jak i wtedy gdy użytkownik ma trudności z nawigacją na stronie. Jest ona zbiorem odnośników do poszczególnych podstron, który możemy porównać do książkowego spisu treści. Dane prezentowane w tej formie są przyjazne zarówno dla użytkowników , jak i robotów wyszukiwarek, gdyż łatwo można odczytać zależności pomiędzy poszczególnymi podstronami.

mapa-strony
Rys. Klasyczna mapa strony (reklama.twojebook.net)

Mapa tworzona dla wyszukiwarek w strukturze XML, nie zawiera nazwy odnośników, a jedynie ich adresy. Do jej generowania możemy użyć bezpłatnego programu GSiteCrawler, który jako wynik swej pracy, zwróci nam plik gotowy do wysłania na serwer. Następnie nowo utworzoną mapę wystarczy zgłosić do Google Sitemaps, wskazując jej aktywny adres URL. W ten sposób algorytm wyszukiwarki będzie mógł sprawniej zaindeksować dostępne podstrony.

W sytuacjach, gdy witryna została stworzona w oparciu o systemy CMS, do generowania map możemy użyć dostępnych wtyczek. Przykładową wtyczką dla Wordpressa, będzie generator mapy Google Site Maps, który oprócz autoaktualizacji mapy odnośników, będzie zgłaszał do Google nowe podstrony, poprzez wykorzystanie mechanizmu PING. Wtyczkę Google Site Maps możemy pobrać ze strony polskiego Wordpressa (wordpress-polska.org).

Czasami zdarzają się sytuacje, że użytkownik bądź robot wyszukiwarki odwołują się do podstrony, która nie istnieje. W takiej sytuacji dobrze jest zrobić przekserowanie ze strony, która zgłasza błąd 404 (brak strony) na stronę z klasyczną mapą witryny. W ten sposób zarówno roboty jak i użytkownicy będą mieli możliwość przeszukania zasobów witryny.. ---

Jeśli poszukujesz filmów dla dorosłych, to już je znalazłeś. Tutaj znajdziesz ciekawe filmy erotyczne. Dobra zabawa gwarantowana. Dobre typy ma to forum bukmacherskie. Sprawdź

Artykuł pochodzi z serwisu www.Artelis.pl

Ocena wartości linku przychodzącego

Ocena wartości linku przychodzącego

Autorem artykułu jest Kamil Sobczak


Algorytmy wyszukiwarek są coraz bardziej inteligentne i potrafią ocenić wartość linków przychodzących do Naszej strony. Dlatego warto jest poznać kryteria, które wpływają na ocenę linku pozycjonującego.

W artykule link linkowi nie równy przedstawiłem sposób pozycjonowania stron, z wykorzystaniem tematycznego zaplecza. Sam artykuł nawiązuje w skrócie do pojęcia mocne linki, jednak nie przedstawia czynników, które wpływają na wartość odnośników skierowanych na pozycjonowaną witrynę.

Czynniki te są powiązane z zasadą naturalnego pozycjonowania, czyli takiego gdzie właściciele stron dobrowolnie zamieszczają linki do Naszej witryny. My jednak nie mamy czasu czekać na coś, co może nigdy się wydarzyć i musimy sami symulować naturalne pozycjonowanie, aby uzyskać zadowalającą pozycję w wyszukiwarkach internetowych.


Różne domeny

Aby pozycjonowanie stało się efektywne, należy zadbać by linki przychodzące prowadziły z jak największej liczby domen. Uzyskanie linków z 10 000 podstron jest nierównoważne z pozyskaniem linków z 10 000 różnych domen. Zatem 10 000 podstron nie wystarczy, aby wypozycjonować naszą stronę na średnio trudną frazę.


Różne adresy IP

Ponieważ moderatorzy wyszukiwarek zauważyli, że pozycjonerzy często linkują z różnych domen, ale z tego samego IP, więc zmodyfikowali algorytmy, które zaczęły brać ten czynnik pod uwagę, obniżając wartość odsyłacza z różnych stron na tym samym adresie.

O ile domeny możemy zakupić promocyjnie za grosze, to hostingi o różnych IP będą oznaczały znacznie większy wydatek. Serwery wirtualne, które udostępniają opcję podpięcia kilkudziesięciu domen, zwykle mają tylko jeden adres.

Zatem wydaje się, że aby posiadać wiele domen na różnych adresach IP, należy dla każdej z niej zakupić osobny serwer wirtualny u różnych hostingodawców, co z kolei wiąże się z wysokimi kosztami pozycjonowania. Koszty te możemy zredukować nabywając serwer z wydzielonym dyskiem VPS. Jednak w tej sytuacji będziemy mogli wpływać tylko na wartość klasy C. Warto jednak zaznaczyć, że jest to już lepsze rozwiązanie, niż linkowanie z domen w tej samej klasie.

Poniżej wyjaśniłem podział na klasy przykładowego adresu IP, co powinno uprościć pewne niejasności :

115.82,57.320
Gdzie
115 – to klasa A
82 – klasa B
57- klasa C

Niektóre firmy hostingowe zauważyły ten problem i chcąc się przypodobać pozycjonerom, stworzyły usługi, w których za odpowiednią dopłatą możemy dokupić kolejne adresy IP w różnych klasach A, B i C (zobacz ofertę hostinie). Jest to obecnie chyba najtańsze z możliwych rozwiązań.


Opis odnośnika (achor text)

Pozycjonując stronę, stosujemy odnośniki zawierające interesujące Nas słowa kluczowe, w postaci :

fraza pozycjonowana

W ten sposób wyszukiwarki wiedzą co zawiera strona, do której prowadzi taki odnośnik. Jednakże stosowanie tej samej nazwy dla każdego linku jest nienaturalne, co może przynieść skutki odwrotne do zamierzonych. Dlatego dla przykładowej strony z częściami do maszyn budowlanych JCB, powinniśmy użyć poniższych wartości :

części JCB
JCB części
Części zamienne JCB
Podzespoły JCB
Podzespoły do maszyn budowlanych JCB
Części do koparek JCB
Części do ładowarek JCB

SERWIS-KOP.pl
http://serwis-kop.pl

Dlaczego dwa ostatnie przykłady zawierają adres strony ? Z uwagi na fakt, że społeczności internetowe, często zamieszczają linki, które jako anchor textu używają adresu strony. Dlatego warto jest stosować takie kombinacje, gdyż w ten sposób symulujemy naturalne pozycjonowanie strony.


Nazwa domeny

Nawiązując do poprzedniego przykładu, możemy stosować domeny zawierające słowa kluczowe. Czyli weźmy przykład takiej domeny :

czesci-jcb.pl

Wyszukiwarki potrafią odczytywać słowa zawarte w domenie, jeśli są one oddzielone myślnikiem lub kropką. Zatem jeśli ktoś na forum poda adres :

czesci-jcb.pl

to robot wyszukiwarki znajdzie w nim słowa : czesci, jcb, pl.

Nie należy jednak stosować nazw domen w formach wielowyrazowych, czyli :

podzespoly-jcb-czesci-jcb.pl

gdyż wyszukiwarki mogą uznać takie działania za spam.
Jednak czynnik wynikający z nazw domen jest coraz mniej istotny. Dlatego dla strony firmowej powinniśmy się kierować nazwą marki przy wyborze domeny, natomiast nazwy domen zawierających słowa kluczowe, z powodzeniem możemy stosować dla zapleczy pozycjonerskich.


Podsumowanie

- stosuj odnośniki z różnych nazw domen
- dla każdej domeny lub poszczególnych grup domen, utrzymuj kilka adresów IP
- stosuj najróżniejsze kombinacje nazw odnośników, zawierających ważne słowa kluczowe.
- używaj od czasu do czasu adresu strony jako anchor textu.
- dla stron zapleczowych, możesz stosować domeny zawierające słowa kluczowe oddzielone myślnikiem. Jednak w przypadku strony firmowej kieruj się nazwą firmy lub marki.

---

Darmowe ebooki do pobrania. Tylko dla dorosłych filmy erotyczne do oglądania w trybie online, za darmo.

Artykuł pochodzi z serwisu www.Artelis.pl

Link linkowi nie równy

Link linkowi nie równy

Autorem artykułu jest Kamil Sobczak


Każdy twórca serwisu pragnie, aby jego strona znalazła się w 1-wszej dziesiątce wyszukiwania w Google dla wybranej frazy. Wielu autorów stron twierdzi, że kluczem do sukcesu jest ogromna ilość linków. Czy aby na pewno ? Jest w tym pewna prawda, jednak należy pamiętać o podstawowej zasadzie, o której głośno wspomina się na forum „Pozycjonowanie i optymalizacja” – link linkowi nie jest równy. Zatem reasumując - link ze strony tematycznej, który uzyskał aprobatę innych serwisów z tej samej kategorii tematycznej jest dużo silniejszy od linków pozyskanych z katalogów stron lub też innych witryn o odrębnej tematyce. Niestety w Polsce właściciele stron niechętnie linkują do innych serwisów, bez zachęty finansowej. W takiej sytuacji należy samemu zbudować tematyczne zaplecze, które nie koniecznie będzie linkowane w sposób zgodny z wytycznymi Google. Najczęściej wybieranymi formami dolinkowywania zaplecza pozycjonerskiego są :

1. Katalogi stron – jest to najprostsza forma zdobywania linków. W przypadku kilku serwisów tematycznych katalogowanie to może się odbywać ręcznie. Jednak problem pojawia się w sytuacji gdy stron pod zaplecze mamy kilkadziesiąt. W takich momentach nie jesteśmy w stanie zapanować nad równomiernym katalogowaniem i chcąc nie chcąc zmuszeni jesteśmy do użycia dodawarek ,

2. Systemy SWL (Systemy Wymiany Linków). To prosta i bardzo wygodna forma zdobywania linków, niestety bardzo niemile widziana przez Google. Dlatego należy wybierać te systemy, do których mamy zaufanie i jesteśmy przekonani, że linkowanie z SWLa nie przyniesie więcej strat niż pożytku. Osobiście polecam tu tylko te SWLe, które mają możliwość rozłożenia publikacji linków w czasie. Takim systemem jest EliteLink, który co prawda nie ma najdłuższego stażu w Internecie, ale opiera się na sprawdzonym silniku największego systemu wymiany linków stałych LinkMe. W opinii wielu pozycjonerów najlepsze efekty uzyskuje się poprzez połączenie linkowania z systemów linków stałych i linków rotacyjnych. Elementy te łączy w sobie wspomniany EliteLink, w którym dodatkowo istnieje możliwość otaczania linków tekstem, co sprawia że wyglądają one bardziej naturalnie (przynajmniej dla wyszukiwarek).

Stosowanie powyżej wymienionych technik, prawdopodobnie nie przyniesie stronom zapleczowym najwyższych pozycji, ale sprawi że zostaną one dołączone do indeksu wyszukiwarki Google. Zaplecze tematyczne jest obecnie najskuteczniejszą formą pozycjonowania, lecz też najbardziej pracochłonną. Tworząc strony zapleczowe musimy je wyposażyć w ciekawą treść, aby serwis nie budził podejrzeń moderatorów wyszukiwarki, że jest on Tworzony tylko i wyłącznie po to, by manipulować wynikami wyszukiwania.

Zaplecza tematyczne nie są pozbawione też innych wad. W trakcie ich stawiania, odczujemy jak potrafią one mocno uderzyć po kieszeni. Aby zaplecza były efektywne, muszą spełniać kilka kryteriów :

1. Ulokowane na serwerach o różnych adresach IP ,

2. Każda strona posiada własną domenę. Stawianie zaplecza w obrębie tej samej domeny (subdomeny) jest nieefektywne ;

3. Treść tematyczna musi być unikatowa. Jeśli nie mamy wystarczająco dużo czasu na jej napisanie, należy zlecić wykonanie artykułów innym osobom ;

4. Zdobywanie punktów w systemach SWL dla zaplecza odbywa się na dwóch płaszczyznach :
a) Zakup punktów od innych użytkowników systemu lub patrz punkt b,
b) Budowa własnych stron po SWL = zakup kolejnych domen + serwer.

Jak więc widać pozycjonowanie stron jest kosztownym zajęciem, dlatego w poszczególnych przypadkach musimy rozważyć czy nie lepiej jest promować stronę pod mniej popularnymi frazami (niszowymi) i uzupełnić kampanię płatnymi reklamami w wyszukiwarkach.
---

EliteLink - prawdopodobnie najlepszy system wymiany linków. GotLink - wartościowy system linków rotacyjnych.

Artykuł pochodzi z serwisu www.Artelis.pl