Как Избежать Бана Фарма Шопов со Стороны Поисковых Систем

banned
banned

Можно очень много и бесконечно долго говорить о SEO и раскрутке своих фарма сайтов, и так же много работать в этом направлении, но все пойдет прахом если ваш сайт получит бан со стороны поисковой системы. И действительно, мы все используем движки которые нам предоставляет партнерская программа. А это, как оказалось, может очень печально сказаться на продвижении магазина да и на самом домене в целом. Чтобы избежать бана можно полностью уникализировать свой магазин, сделать свой уникальный дизайн, уникальные описания и т.д. но чтобы это все реализовать нужно потратить не мало бессонных ночей. А можно пойти другим путем и потратить на это минут 15.

Все мы прекрасно понимаем, что новичку, желающему начать зарабатывать на продаже фармы, будет очень сложно ,или даже практически нереально продвинуть свой магазин в ТОП выдачи по средне частотным и высоко частотным запросам. В топе сидят опытные профи, которые в фарме давно и надолго. Поэтому нет смысланадрываться и пытаться прыгнуть выше своей головы, можно поробовать зайти с другой стороны.

Пропустим организационные моменты такие как покупка домена, прикрутка шопа партнерки и настройка магазина. Что же далее? Далее нам нужен трафик на наш шоп. Учитывая что мы пытаемся отказаться от поискового трафика, будем добывать трафик другими путями. Добиться продаж можно несколькими способами: доры, сплоги, покупной трафик, серо-белые методы, сайты-сателиты и т.д. Таким образом вы можете получать трафик любым доступным вам методом, при этом все внимание с новоиспеченного шопа перейдет на метод добывания этого самого трафика. По сути шоп у нас есть, и не важно в индексе наш шоп или нет, мы добываем не прямой трафик а реферный, и в ТОП выводим те ресурсы с которых будем лить трафик на наш шоп. Ключевое слово ИНДЕКС. По сути поисковая система не может наложить никакие санкции на ваш сайт за неуникальность если поисковый робот его даже не видит. Следовательно, если у вас шоп от партнерки и он не уникален, то велика вероятность того что рано или поздно попав в индекс ПС вы попадете под санкции за дублированный контент. И тогда, ни смена шопа, ни смена дизайна, ни смена партнерки не поможет вам реабилитировать ваш домен. И Поэтому наилучшим способом избежать бана не уникализирую магазин — это закрыть от индексации все страницы вашей аптеки. И это делается элементарно не смотря на количество страниц сайта.

1. Для этого нам необходимо сгенерировать карту сайта. Это можно сделать здесь http://tools.webmasters.sk/sitemap-creator.php
2. Создаем файл robots.txt, где в первой строке прописываем User-agent: *, затем, перепрыгиваем на следующую строку и вставляем весь список ссылок нашей аптеки, который который мы сгенерировали.
3. Жмем CTRL+H(замена). В поле «Что заменять» вводим http://вашдомен.блаблабла (без последнего слэша), и в поле «на что менять» пишем Disallow: (и несколько пробелов), после чего жмем «Заменить все».
4. Заливаем этот файл на хостинг в корень вашего сайта и продолжаем работать над способами добычи трафа.

Теперь ваш сайт стал не видим для поисковых систем и можно смело работать над другими способами получения трафика и не бояться что в один прекрасный день ваш сйт попадет в бан и вся работа пойдет на смарку. Работайте, экспериментируйте и успеха!

Основные принципы работы поисковых систем

Процесс поиска информации в сети можно разбить на следующие основные этапы:

  • сбор информации со страниц сайтов
  • индексация сайтов;
  • поиск по определенному запросу пользователя;
  • ранжирование результатов согласно запросу.

Каждая поисковая система имеет свои алгоритмы поиска и ранжирования результатов и старается развивать и улучшать алгоритмы постоянно, принципы работы всех поисковых систем остаются общими.

Весь сбор данных осуществляется поисковым роботом. Он предназначен для перебора страниц Интернета с целью занесения информации о них в базу данных поисковой системы. Как только в сети появился новый сайт робот заходит на сайт, начинает ходить по страницам и собирать с них данные (это могут быть текстовый контент, картинки, видео и др. файлы). Этот процесс называется сбором данных и он может происходить не только при запуске сайта. Робот составляет для сайта расписание, когда он должен на него зайти в следующий раз, проверить старую информацию и добавить новые страницы, если таковые имеются.

Управление доступом на разные ресурсы для поискового робота происходит с помощью файла robots.txt, в котором содержатся правила и ограничения доступа к содержимому сайта на http сервере. Карта сайта sitemap.xml (XML-файл с информацией для поисковых систем о страницах веб-сайта, которые подлежат индексации) также может помочь роботу, если по каким-либо причинам навигация по сайту ему затруднена.

Робот может ходить по вашему сайту долгое время, однако это не значит, что он сразу появится в поисковой выдаче. Страницам сайта необходимо пройти такой этап, как индексация – составление для каждой страницы обратного (инвертированного) файла индекса.

Индекс – все страницы сайта которые прошли индексацию. Индекс служит для того, чтобы быстро по нему производить поиск и состоит обычно из списка слов из текста и информации о них.

Посте того как сайт прошел индексацию его страницы появляются в основной выдаче поисковой системы и их можно найти по ключевым словам, присутствующим в тексте. Далее процесс индексации происходит достаточно быстро после того, как робот скачает информацию с вашего сайта.

При поиске, первым делом, анализируется запрос, введенный пользователем. В результате анализа вычисляется вес для каждого из слов. Весом слова называется отношение частоты использования этого слова к общему количеству слов, выраженное в процентах.


Далее, поиск производится по инвертированным индексам, находятся все документы в коллекции (базе данных поисковой системы), которые наиболее подходят под данный запрос.

Документы, наиболее схожие с запросом, попадают в результаты поиска.

Чтобы в верхних результатах отражались наиболее полезные для пользователя ресурсы, документы которые были отобраны из основной коллекции ранжируются. Для этого используется специальная формула ранжирования. У каждой поисковой системы свои принципы и факторы ранжирования, но основнимы из них являются:

  • вес страницы (вИЦ, PageRank);
  • авторитетность домена;
  • релевантность текста поисковому запросу;
  • релевантность текстов внешних ссылок запросу;
  • имножество других факторов ранжирования.

Следует понимать что при ранжировании документов используются, как внутренние факторы, так и внешние. А также можно их разделить на зависимые от запроса факторы (релевантность текста документа или ссылок) и независимые от запроса. Конечно же, эта представление очень упрощенное, но основной принцип работы поисковой системы все же можно понятен.