Czy nienaturalne linki odejdą do przeszłości?
Autorem artykułu jest Bartłomiej Dymecki
Czy Google naprawdę ukróci korzystanie z nienaturalnych linków? Czy jest w stanie to zrobić wymuszając na webmasterach stosowanie się do wytycznych podobnych swoim regulaminie? Na pewno szefowie Google sobie tego życzą. Można jednak mieć wątpliwości czy jest to realne.
Ostatnio na blogu Google pojawił się wpis na temat linków, po polsku. Nie miałem do tej pory czasu o tym pisać, ale teraz chciałbym to nadrobić. Stwierdzenia tam zawarte są interesujące. Są na tyle interesujące, że niektórzy gromko okrzyknęli zmianę podejścia i rewolucję wśród pozycjonerów. Proszę o jedno - miejcie trochę więcej sceptycyzmu wobec tego, co firmy piszą na temat swoich własnych produktów :-)
Google skrytykowało linkowanie ze sobą stron niezwiązanych tematycznie, systemy wymiany linków oraz kupowanie linków. Google ma prawo krytykować co tylko ze chce, ale od krytyki do praktyki wiedzie nie mała droga…
Moje linki są naprawdę moje
Po pierwsze: moje linki są moją własnością. To truizm, ale warto to podkreślić, aby uniknąć nieporozumień. Nie zmuszam robotów Google do ich indeksowania, niech Google robi sobie co chce. Nie ja wymyśliłem taki sposób działania wyszukiwarki. Nie ma jednak prawa decydować o tym co w Sieci wolno, a czego nie wolno. Ja mogę polecać innym moje strony, mogę reklamować stronę kolegi, mogę komuś sprzedać reklamę… A to, że sprzedaję komuś link, wcale nie musi oznaczać, że jest to robione w celu oszukania Google.
Wytyczne dla webmasterów, regulaminy… to wszystko tylko mówi o tym, jak Sieć powinna wyglądać według życzeń Google. To nie oznacza, że ktokolwiek ma obowiązek się do tego stosować, ani nie oznacza, że samo Google będzie to wszystko egzekwować. Oczywiście wiedząc, że jakaś strona jest niezgodna z regulaminem Google nikt nie powinien się obrażać na jej wyrzucenie z indeksu, to chyba oczywiste.
Jak tego dokonać?
Po drugie: Google według mnie nie ma możliwości kontrolowania wszystkich linków. Odróżnienie linku naturalnego od sztucznego jest diablo trudne. Właściwie niemożliwe dla jakiegokolwiek algorytmu.
Popatrzcie na sytuację z takimi technikami, jak ukryty tekst. Roboty Google tego nie wykrywają, chociaż wystarczy całkiem prosta analiza kodu strony. Dlaczego tego nie robią? Według mnie nawet Google nie ma odpowiedniej mocy obliczeniowej. Skąd więc wzięłaby się ona na tak głębokie porównywanie wszystkich linków, określanie ich podobieństwa… nie, tak się na pewno nie stanie, nie uwierzę w to tylko na podstawie tekstu na blogu.
Podejrzewam, że sytuacja będzie podobna, jak z innymi technikami, których Google nie pochwala. Na codzień będą ignorowane, a coś się zdarzy dopiero wtedy, gdy pozycjonera podkabluje konkurencja.
Oby tylko nie przesadzić…
I sprawa trzecia: Google wie, że w egzekwowaniu tych wszystkich teoretycznych nakazów nie może przesadzić. Jeśli właściciele stron zaczną się odsuwać od tej wyszukiwarki, to wypromują w jej miejsce inne. Oni mają największą siłę przebicia i możliwość dotarcia do umysłów internautów. Każdy gigant może upaść. Szczególnie w internecie.
Autorem artykułu jest Bartłomiej Dymecki, prowadzi blog na którym pisze na temat systemu statystyk Google Analytics. W wolnych chwilach rozwija także serwis dotyczący usability.
Artykuł pochodzi z serwisu www.Artelis.pl
Brak komentarzy:
Prześlij komentarz