czwartek, 23 marca 2017

Jak w 100% kontrolować roboty Google na witrynie i zapleczu?

Setki robotów sieciowych nieustannie krąży po Twoich witrynach oraz Twoim zapleczu. W tym artykule przedstawię Ci:

  • jakie roboty internetowe musisz znać?
  • co to jest robot internetowy?
  • do czego mogą służyć roboty?
  • którymi robotami powinieneś się przejmować?
  • jakie roboty powinieneś wpuścić na Swoją stronę?
  • jakie warto blokować?
  • jakie koniecznie musisz zablokować?!

Bądź na bieżąco! Zapisz się do newslettera:

Otrzymuj najnowsze informacje o lokalnym pozycjonowaniu!

Jak możesz sklasyfikować roboty internetowe?

Z Twojego punktu widzenia, możesz je podzielić na kilka grup:

  • roboty pożyteczne, np. robot wyszukiwarki Google
  • roboty nieistotne, np. robot Baidu najpopularniejsza wyszukiwarka internetowa w Chinach, przynajmniej do póki Chiński rynek nie jest dla Ciebie istotny
  • roboty szkodliwe, np. MajesticSEO, Ahrefs, Open Site Explorer

Co to jest robot internetowy/indeksujący?

Według http://pl.wikipedia.org/wiki/Robot_internetowy – robot jest programem zbierającym informacje o witrynie lub z witryny internetowej celem dodania tych informacji do wyszukiwarek. To bardzo szczątkowa informacja i dotyczy tylko robotów wyszukiwarek, istnieją dziesiątki robotów, nie mających nic wspólnego z wyszukiwarkami, które jednak zbierają informacje z Twojej witryny.

Do czego mogą służyć roboty

  • indeksowanie strony w celu dodania jej do wyszukiwarek
  • sprawdzanie kodu strony w różnego rodzaju narzędziach analitycznych
  • zbierania informacji o stronie np. o linkach wewnętrznych i zewnętrznych
  • zbieranie adresów e-mail ze strony, które potem służą np. rozsyłania mailingów
  • tworzenie mirorów/archiwum strony np. wget lub webarchiver

Który robot jest dla Ciebie najważniejszy z punktu widzenia SEO?

Oczywiście robot wyszukiwarki Google, która na rynku polskim ma pozycje monopolisty. Samo Google indeksuje Twoją stronę różnymi typami robotów.

Co to jest Google fresh crawl?

Fresh crawl sprawdza i aktualizuje informacje o stronie na podstawie częstotliwości jej aktualizacji, może się to odbywać nawet kilka razy dziennie. Dotyczy to przede wszystkim serwisów informacyjnych, blogów, mikroblogów – gdzie liczba nowych treści jest aktualizowana systematycznie.

Co to jest Google Deep crawl?

Deep crawl – czyli głębokie indeksowanie – robot wyszukiwarki wchodzi wszędzie i zagląda pod każdy link na Twojej witrynie, aktualizuje zasoby które rzadko się zmieniają, indeksowanie tego typu może następować nawet raz na pół roku a nawet w dłuższej perspektywie czasowej w zależności od objętości Twojej witryny.

Dlaczego powinieneś przejmować się robotami?

  • Robot Google jest pożyteczny i niezbędny dla Twojej strony i jej obecności w wynikach wyszukiwania. Odpowiednia indeksacja ma duże znaczenie dla Twojego SEO.
  • Roboty analityczne i innych wyszukiwarek są dla Ciebie prawdopodobnie zbędne i co najwyżej zjadają transfer lub blokują aktywne połączenia (w przypadku ograniczeń na serwerach może to być problem). Nie musisz ich blokować, ale powinieneś.
  • Roboty zbierające informacje o linkach mogą być wręcz szkodliwe ponieważ ta informacja publicznie dostępna może być wykorzystana żeby Ci zaszkodzić. Zawsze blokuj roboty MajesticSEO, Ahrefs i Open Site Explorer.
  • Roboty generujące pusty ruch, mogą fałszować realne statystyki odwiedzin, generować fałszywe kliki.

Jak masz sterować robotami?

Czym jest Robots Exclusion Protocol?

  • jest to standardowy mechanizm informowania robotów czego nie powinny robić na Twojej stronie
  • system działa na zasadzie informacji nie wymusza niczego – roboty mogą Twoją informacje respektować, ale nie muszą, protokół nie ma możliwości fizycznego zablokowania dostępu do zasobów
  • protokół zbudowany jest z prostych komend – wymienieniu plików, katalogów, ścieżek, których robot nie powinien odwiedzać i indeksować

Więcej informacji znajdziesz na http://pl.wikipedia.org/wiki/Robots_Exclusion_Protocol

Jak to działa?

Instrukcje dla robotów Robots Exclusion Protocol możesz umieścić na dwa sposoby:

  • w pliku robots.txt
  • znaczniku meta w kodzie strony

Co to jest plik robots.txt i gdzie się znajduje?

Jest to plik tekstowy umieszczony w katalogu głównym Twojej strony (tam gdzie index.php, index.html), musi być zgodny ze standardami Robots Exclusion Standard http://en.wikipedia.org/wiki/Robots_exclusion_standard

  • brak pliku oznacza, że roboty nie są ograniczane w żaden sposób, mogą indeksować całą Twoją stronę.
  • Możesz również umieścić plik robots.txt, który zezwoli na pełną indeksację Twojej strony (ale nie jest konieczne umieszczanie pliku jeśli chcesz, aby robot indeksował wszystko)

User-agent: *
Disallow:

  • pełna blokada – nie zezwalasz na indeksowanie żadnych zasobów – blokując dostęp do głównego katalogu Twojej witryny, a tym samym do wszystkich znajdujących się w nim podkatalogów, podstron.

User-agent: *
Disallow: /

  • blokada konkretnych katalogów – nie pozwalasz na dostęp do poszczególnych folderów:

User-agent: *
User-agent: *
Disallow: /admin/
Disallow: /privat/

  • blokada konkretnego bota – blokujesz indeksację dla konkretnych robotów:

User-agent: *
User-agent: *
User-agent: nazwa robota
Disallow: /

UWAGA!!! Plik robots.txt jest plikiem do którego robot może się stosować, ale nie musi.W dalszej części artykułu wymieniam skuteczniejsze sposoby na blokowanie niechcianych botów.

Czym są znaczniki meta?

Znaczniki meta zawierają różne informacje dotyczące Twojej strony internetowej, kodowania, autorstwa, tytułu, słów kluczowych i wielu innych, w tym instrukcji dla robotów. Więcej informacji znajdziesz na http://pl.wikipedia.org/wiki/Znacznik_meta

Jak wygląda znacznik meta dla robotów i gdzie go umieścić?

Znacznik meta jest zapisem informującym roboty jak mają zachowywać się na danej stronie, wygląda on tak:
Znacznik meta musisz umieścić w sekcji HEAD witryny, czyli między znacznikami

Jak możesz sterować robotami za pomocą znaczników meta?

Umieszczasz znacznik meta robots z jedną z poniższych komend po wyrażeniu content

  • noindex – nie indeksuj strony
  • nofollow – nie podążaj za linkami na stronie
  • noarchive – nie archiwizuj strony w cache
  • możesz łączyć to w ciąg noindex, nofollow, noarchive

Przykładowo:
Zakazujesz robotom indeksować treść oraz podążać za linkami na danej stronie.

UWAGA 1 Do znaczników meta tak jak i do robots.txt roboty mogą się stosować, ale nie muszą.

UWAGA 2 Użycie komendy dla robotów w tagu meta ma jedną dodatkową zaletę i funkcję, przy której robots.txt nie wystarcza – mimo, że zastosujemy te same komendy. Dotyczy to przypadku gdy nasz adres mimo blokady w robots.txt pojawia się w wynikach wyszukiwania. O tym w dalszej części artykułu.

Jak sterować robotami Googla zaawansowany sposób i za pomocą narzędzia GWT?

Możesz również skorzystać z Google Webmaster Tools https://www.google.com/webmasters/tools/?hl=pl

Jest to narzędzie Google, dzięki któremu możesz zarządzać witryną, diagnozować błędy, a także sterować robotami tej wyszukiwarki.

Co możesz zrobić dzięki Google Webmaster Tools?

Możesz sprawdzić wszelkie informacje dotyczące indeksowania witryny przez robota Google a także usuwać adresy, dowiesz się:

  • jak często robot Google indeksuje witrynę
  • ile adresów zaindeksował przy danych odwiedzinach
  • ile adresów jest zablokowanych dla robota Google
  • jak wygląda twój plik robots.txt
  • możesz przetestować jak zachowa się robot Google dla danych adresów url
  • usuniesz konkretny adres URL z wyników wyszukiwania.

Jak sterować robotami w BING?

W dokładnie taki sam sposób jak robotami Google – dotyczy to zarówno pliku robots.txt, jak i komend w znacznikach meta. Informacje o indeksowaniu witryny również znajdziesz w narzędziu Binga służącym do zarządzania witryna w tej wyszukiwarce Bing Webmaster Tools.
http://www.bing.com/toolbox/webmaster

Jak sterować robotami w Yahoo?

Dokładnie tak jak robotami Bing, algorytm wyszukiwania Yahoo stał się częścią Binga (jedynym wyjątkiem jest Korea) – zarządzenie jest dostępne z poziomu Bing Webmaster Tools.

Dlaczego robots.txt i meta znaczniki to za mało oraz jak użyć htaccess?

  • Roboty mogą zastosować się do Twoich wytycznych w robots.txt i meta znacznikach, ale nie muszą.
  • Roboty Google, na pewno się zastosują się do wytycznych, a bardziej zaawansowane informacje o Twojej witrynie możesz wprowadzić w Google Webmaster Tools.
  • Różnego rodzaju zjadacze transferu zignorują Twoje wytyczne, a dodatkowo mogą nawet zawiesić serwer lub uniemożliwić dostęp do Twojej strony innym użytkownikom i robotom.

Boty zbierające informacje

Dodatkowo roboty szpiegujące jak Ahrefs, Majestic SEO, Open Site Explorer ujawnią konkurencji całe Twoje zaplecze, a często ludziom, których jedynym zajęciem (z braku wiedzy lub złej woli) jest słanie spam raportów do Google.

Dlaczego musisz wykorzystać htaccess i gdzie go używać?

Zbiór ogólnych informacji o htaccess znajdziesz tutaj:http://pl.wikipedia.org/wiki/Htaccess

  • Jest to plik odczytywany i wykonywany przez serwer, więc nie istnieje możliwość jego ominięcia
  • Jeżeli Twój IP to xxxxx, a ja dodam xxxx do .htaccess z informacją, że tego IP nie obsługujemy to nie zobaczysz mojej strony dopóki nie zmienisz adresu IP.

Jak ochronić zaplecze dzięki .htaccess?

Ochrona zaplecza to jedno z ważniejszych działań które musisz podjąć, zaplecze należy chronić zawsze i wszędzie oraz na wszelkie możliwe sposoby. Nie da Ci to 100% ochrony, ale wielokrotnie zwiększy szansę przetrwania zaplecza.

Co powinieneś blokować w .htaccess?

Zablokuj roboty narzędzi szpiegujących Twoje zaplecze:

  • Ahrefs,
  • MajesticSEO
  • OpenSiteExplorer

Przy odpowiedniej konfiguracji .htaccess dla tych robotów zasoby Twojej strony nie istnieją – zamiast właściwej treści mogą dostać np. komunikat błedu 410.

Jak możesz zablokować bota w .htaccess?

Roboty wyżej wymienionych programów zablokujesz podając nazwę robota i określając zachowanie po stronie serwera.
Przykład, dla robota Majestic Seo nakazujemy wyświetlić błąd 410, zapis w .htaccess wygląda tak:
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_USER_AGENT} MJ12bot
RewriteRule ^(.*)$ – [L,R=410]
Order Allow,Deny
Allow from all
W tym momencie robot Majestic Seo, przedstawiający się jako MJ12bot otrzymuje kod strony 410 – czyli strona nie istnieje.

2. Zablokuj wszelkie roboty bądź nawet adresy IP które rozrabiają na Twojej stronie, zjadając transfer.
Są to roboty indeksujące treść na potrzeby witryn zbierających statystyki, indeksujące grafiki, indeksujące na potrzeby wyszukiwarek które po prostu nie są dla Ciebie interesujące.

Jak możesz zablokować adres IP w .htaccess?

Przykładowy plik .htaccess blokujący dostęp robota Majestic Seo oraz danego adresu IP:
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_USER_AGENT} MJ12bot
RewriteRule ^(.*)$ – [L,R=410]
Order Allow,Deny
deny from 54.243.130
Allow from all

To blokada dla robotów Amazona – i grupy adresów IP z których korzysta (pojawia się problem w przypadku korzystania z AdSense – mogą generować fałszywe kliki).

Jeśli chcesz użyć pliku .htaccess którego ja używam to możesz go pobrać tutaj wraz z krótką instrukcją w zamian za polubienie nas na FB.

Jedna uwaga do plików .htaccess:

Podane powyżej wpisy w pliku .htaccess są standardowe, jednak ze względu na konfigurację samego serwera niektóre funkcje .htaccess mogą być wyłączone.

Jak możesz sprawdzić czy blokada robotów za pomocą .htaccess działa?

  • Skorzystaj z wtyczki User Agent Switcher, dla przeglądarki Firefox – https://addons.mozilla.org/pl/firefox/addon/user-agent-switcher/
  • Dzięki niej możesz zmieniać informacje o user-agent i wcielić się w bota Majestic Seo lub dowolnego innego.
  • Stwórz nowego user-agenta, wpisz user agent jako MJ12bot
  • Zapisz ustawienia
  • Wybierz w przeglądarce z opcji narzędzi zmianę klienta (Narzedzia -> Default Uder Agent -> Majestic)

Sprawdzenie widoku strony jako bot Majestic Seo

Gdy teraz jako MJ12bot odwiedzisz stronę, gdzie zastosowany jest plik .htaccess, powinieneś zobaczyć w przeglądarce informacja o braku strony:

Jakie inne boty warto zablokować?

Liczba botów jest ogromna – jeśli chodzi o bezpieczeństwo zaplecza, zablokuj w pierwszej kolejnosci popularniejsze boty zbierające informacje o linkach i domenie, elementach SEO:

  • NCbot – bot zbierający informacje o domenie/właścicielu domeny
  • Nutch – robot wyszukiwarki Open Source – nie jest szkodiliwy ale moze zjadać transfer
  • SemrushBot – bot aplikacji SEO/analizy stron konkurencji
  • BLEXBot – Bot zbierający dane o linkach witryny
  • Ezooms – robot zbierajacy doane dotyczące SEO witryny (seomoz)

Wszystkie wymienione boty są uwzględnione w pliku .htaccess, który możesz pobrać na tej stronie.

Sterowanie robotami wyszukiwarek dla SEO – unikanie duplikatów

Indeksacja stron a kwestia SEO

Jednym z podstawowych elementów, dla którego warto odpowiednio skonfigurować dostęp dla robotów jest oczywiście SEO. Najważniejszym elementem w tej kwestii jest wykluczenie indeksacji elementów mogących generować duplikaty treści.
Rozważmy to na przykładzie dwóch typów stron:

  • bloga/strony firmowej
  • witryny e-commerce – sklepu internetowego

Jakie istotne elementy ustalić w robots.txt dla wyszukiwarki Google i czego nie indeksować?

Poza stronami i katalogami, których nie chcesz indeksować z rozmaitych powodów, warto a nawet należy zastosować wykluczenie indeksacji dla sekcji mogących tworzyć duplikaty.

Co blokować na witrynach firmowych, blogach, magazynach internetowych?

Blokowanie indeksacji stron z tagami – pod nimi kryją się linki do artykułów lub fragmenty tekstów
Przykładowo masz wpis/artykuł A, który posiada tagi: marketing, marketing internetowy, seo może być dostępny we fragmentach ( a na pewno linki do niego) pod kilkoma adresami:
strona.pl/tag/marketing/
strona.pl/tag/marketing-internetowy/
strona.pl/tag/seo/
Tak standardowo wyglądają adresy URL tagów w WordPressie i na każdym z nich znajdziesz link do wpisu A.
Przykład blokowania indeksacji tagów
W tym przypadku musisz dodać w pliku robots .txt regułę:
User-agent: *
Disallow: /tag/
Blokowanie katalogu admina i innych. Najczęściej też w przypadku WordPressa dodawane są następne reguły:
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Blokowanie indeksacji archiwum i wyników wyszukiwania. W przypadku WordPressa będzie to reguła:
Disallow: /archives/
Disallow: /?s=*
* – zastępuje każdy dowolny ciąg znaków w adresie URL, czyli każdą wyszukiwaną frazę, bowiem w WordPressie wpisanie w wyszukiwarce słowa „marketing” tworzy link z wynikiem wyszukiwania:www.domena.pl/?s=marketing
Jeśli posiadasz innego CMS’a sprawdź jak wygląda link ze stroną wyników wyszukiwania i dostosuj zapis.

Co zablokować przed robotami wyszukiwarki na witrynach e-commerce?

W przypadku sklepów internetowych, powinieneś zablokować dla robotów następne sekcje:

  • stronę koszyka
  • stronę kasy/zamówienia
  • regulamin/rejestrację/logowanie
  • adresy tworzone w momencie sortowania produktów – po cenie, rozmiarze, kolorze etc.
  • wyniki wyszukiwania
  • tagi produktów
  • wszelkie dynamiczne adresy tworzące duplikaty a mogące zostać zaindeksowane (tu sprawa jest indywidualna dla danych systemów CMS).

Blokada dynamicznych adresów – sortowanie produktów w sklepie
Przykładowo dla popularnego skryptu e-commerce jak Magento, w robots.txt znajdziemy taki zapis:
Disallow: /*?dir=desc
Disallow: /*?dir=asc
W powyższych przypadkach nakazujesz blokadę adresów przy sortowaniu produktów po cenie rosnącej i malejącej (ascending, descending) – Magento po kliknięciu na sortowanie, dodaje do adresu url na końcu parametr dir=asd, lub dir=desc w zależności jak wybierasz sortowanie. Dlatego * musisz przed tymi stałymi elementami w adresie URL.

SEO wtyczki dla robots.txt

WordPress

  • W przypadku WordPressa znajdziesz wiele wtyczek do sterowania robotami
  • Więszkość wtyczek powinna na bierząco aktualizować plik robots.txt lub sekcję meta na stronach, których nie chcesz indeksować.
  • Przykładem dobrej wtyczki dla WordPressa jest WP SEO by Yoast.

Inne skrypty

  • Do większości popularnych skryptów znajdziesz darmowe lub płatne wtyczki
  • W przypadku wszelkich wtyczek SEO sprawdź jeszcze ich zgodność i działanie nie tylko z wersją CMSa ale również ze skórką.
  • Niekiedy rozbudowane skórki do popularnych CMSów nie uwzględniają zmian wprowadzanych przez wtyczki SEO lub nadpisują je swoimi ustawieniami

Jeśli jednak musisz stworzyć własny plik robots.txt, sprawdź wszystkie wymienione kategorie – tagi, duplikaty, sortowanie – i stwórz reguły dla konkretnego systemu CMS.

Częste problemy związane z indeksacją w Google

Co zrobić gdy Google na Twojej witrynie zaindeksowało tagi, wyniki wyszukiwania?

W tym momencie pojawia się pytanie – wyłączyć z indeksacji, czy zachować status quo – skoro wszystko działa?
Odpowiedź najprostsza (co nie znaczy najlepsza) – wyklucz je indeksu. Twoja strona może otrzymać karę za duplikaty treści, przebiegnie po niej przedstawiciel fauny Google – Panda, co może zaszkodzić witrynie.

Co zrobić gdy Google na Twojej witrynie zaindeksowało tagi, wyniki wyszukiwania?

  • Spadek pozycji, spadek ruchu – gdy tagi są wysoko w wynikach
  • Spadek pozycji, brak zauważalnych zmian w ruchu – gdy tagi są mniej popularne, na frazy rzadko wpisywane przez internautów
  • Wahania strony i pozycji, ustabilizowanie pozycji po czasie

Co warto wcześniej sprawdzić i rozważyć?

  • Dobrym sposobem jednak jest sprawdzenie, jakiej jakości ruch generują strony z tagami, wynikami
  • Jeśli posiadają one bardzo często wysoki współczynnik odrzuceń, te strony najprawdopodobniej niewiele ci dają – wiele jednak zależy od konstrukcji witryny i zachowania internautów
  • Jeśli nastawiasz się na konwersję, podjęcie akcji przez internautę – strata takiego ruchu nie powinna być dla Ciebie bolesna

Dlatego w przypadku zaistniałej sytuacji powinieneś rozważyć i przeanalizować cała sytuację.

Trudno znaleźć dwie identyczne witryny (no, w black hat wcale nie trudno, ale nie o tym jest ten tekst) więc sprawa blokady indeksacji, związanych z nią strat i zysków oraz możliwego wpływu na zachowanie Google powinna opierać się na analizie indywidualnego przypadku.

Dlaczego moja strona jest w wyszukiwarce mimo blokady w pliku robots.txt?

Zdarza się, ze witryna wyświetla się w wynikach, lecz jej opis jest niedostępny. Może się tak zdarzyć w przypadku, gdy inne strony linkują do Twojej witryny.
Google wychodzi z założenia, że może być to wartościowe dla użytkownika, w tym przypadku strona może pojawiać się w wynikach na frazy, które umieszczone są w linkach (anchor text) do Twojej witryny.

Jak możesz usunąć taką stronę z wyników

Są dwa pewne sposoby abyś całkowicie wykluczył dany adres z wyników wyszukiwania Google:

  • możesz usunąć adres w panelu Google Webmaster Tools
  • możesz użyć meta tagu robots z parametrem noindex (opisywany wcześniej) – dopiero wtedy jest to jasna informacja dla Google, że adres ma zniknąć z wyników wyszukiwania

Jeśli chcesz mieć pewność, że strona nie wyświetli się w wynikach dodaj taki meta tag na krytycznych stronach w sekcji head, nawet gdy skonfigurowałeś plik robots.txt.

Wiele wtyczek SEO blokuje indeksację właśnie w ten sposób – dodając do szablonu strony sekcje meta robots na wybranych stronach.

Co zrobić aby ukryć tylko pewne sekcje na stronie przed robotami wyszukiwarek?

Możesz mieć potrzebę zablokowania przed indeksacją jedynie fragmentu treści (dane personalne, adresowe, e-mail) .
W takim przypadku robots.txt oraz wpis w sekcji head nic Ci nie da – blokuje bowiem całą podstronę, albo nie zablokuje niczego.
Jedynym rozwiązaniem jest skorzystanie z innych środków, przykładowo:

  • konieczności wpisania captchy aby wyświetlić blok tekstu,
  • konieczności zalogowania itp.

Pytania związane z indeksacja przez inne boty zbierające linki – Ahrefs, Majestic Seo, Open Site Explorer

Czy ktoś wpisując adres Twojej domeny w programie Ahrefs czy Majestic Seo uzyska informacje o linkach przychodzących do strony?
Tak. Jednak dla robotów nie będą widoczne żadne linki, które znajdują się na Twojej stronie oraz oczywiście na stronach, które także zablokowały danego bota.
Dlaczego nigdy nie mogę mieć 100% pewności zablokowania nawet stosując .htaccess i czego nie zablokujemy?

  • Botów, których nie znasz, lub zmieniły nazwę
  • Botów, które logują się jako klient przeglądarki
  • Blokowanie po dużych pulach IP może być ryzykowne blokować internautów

.htaccess a robots.txt, co musisz wykorzystać?

Dla zablokowania wszelkiej maści niechcianych botów najskuteczniejszym rozwiązaniem jest .htaccess, dla działań SEO związanych z kierowaniem robotów Google wykorzystaj robots.txt oraz ewentualnie tagi w sekcji head.

Podsumowanie

Zadbaj o kwestie odpowiedniej konfiguracji robotów już na samym początku, w przypadku większych
stron, liczba duplikatów osiąga znaczne rozmiary, mogące w ostateczności skutkować obniżeniem pozycji. Musisz oczywiście blokować wszelkiej maści niechciane roboty pobierające treść, wykorzystujące transfer. W przypadku Twojego zaplecza, blokada botów typu Ahrefs, Majestoc Seo jest obowiązkowa.

Bądź na bieżąco! Zapisz się do newslettera:

Otrzymuj najnowsze informacje o lokalnym pozycjonowaniu!

Artykuł Ksiega Internetowego Marketingu http://ksiegaim.pl Publikacja pobrana z "Jak w 100% kontrolować roboty Google na witrynie i zapleczu?" http://ksiegaim.pl/optymaliza-strony/sterowanie-robotami-google/ Przeczytaj również...

Zadaj Pytanie: http://ksiegaim.pl/seo-pozycjonowanie-pytania-faq/


http://damek.pl

http://ksiegaim.pl/optymaliza-strony/

BlizejKlientow.pl

z Ksiega Internetowego Marketingu http://ksiegaim.pl/optymaliza-strony/sterowanie-robotami-google/

Brak komentarzy:

Prześlij komentarz