В этой теме мы с Вами поговорим о том, что с нашим сайтом могут сделать поисковики, если мы с Вами будем использовать не добросовестные методы продвижения.
Рассмотрим сначала ручные санкции. Это когда модераторы лично своими глазами просмотрели Ваш сайт и решили его наказать.
Фильтры Яндекса:
- удаление из индекса (бан). Думаю тут все понятно, не нужно пояснять.
- пессимизация. Ссылки, ведущие на Ваш сайт не будут учитываться при ранжировании. Таким образом, Вы никогда не выйдете в ТОП по конкурентным запросам.
- пожизненный бан. Очень редкий случай, применяется за очень серьезные нарушения. Формулировка Яндекса: "За автоматически сгенерированный и пополняемый каталог". Эта санкция была введена Яндексом по случаю праздника: веселые ребята прогнали по каталогам сайт В. В. Путина по запросу "враг народа". Соответственно Путинский сайт получил на себя кучу ссылок с анкором "враг народа" и вышел по этому запросу на первое место в Яндексе. Все каталоги получили пожизненный бан... Вывод - следите за контентом и ссылками на своем сайте.
Ручные санкции налагаются вручную и снимаются тоже вручную модераторами. Если у Вас подозрение на ручной фильтр, то нужно быстренько превратить Ваш сайт в "белый и пушистый" (убрать продажные ссылки, статьи и т.д.) и
написать Платонам. Далее ждать их ответа и надеяться на лучшее.
Автоматические санкции.
- Непот-фильтр. Может налагаться как вручную, так и на автомате. Яндекс никогда не признавал наличие этого фильтра, но оптимизаторы уверены в его существовании. В чем его фишка - ссылки на сайте-доноре (сайт, который ссылается) либо не передают свой вес, либо передают его не полностью. По статистике, примерно половина сайтов в рунете под этим фильтром. Это очень плохой фильтр, потому что никто не застрахован от того, чтобы купить ссылку, которая не будет работать. Налагается, если на сайте большой процент не тематических ссылок. Что такое не тематическая ссылка? Это когда анкор ссылки не соответствует тематике сайта (страницы сайта). Например, со страницы о творчестве Пушкина стоит ссылка с анкором "продвижение сайта". Если таких не тематических ссылок более 50%, фильтр обеспечен. Как определить непот-фильтр? Никак...
- Бан сайта-форума за СПАМ. Форум выпадает из индекса за большое количество внешних ссылок со своих страниц. Как только внешние ссылки удаляются или закрываются от индексации, бан снимается.
- Автопессимизация. Отдельные страницы сайта падают в поиске. Был в ТОПе, стал в ... Налагается за чрезмерную продажу ссылок с сайта, когда на сайте формируются целые ссылочные блоки.
- "Ты - последний". По любому запросу Ваш сайт будет на последнем месте. Налагается за не уникальный контент.
- "Корпоративный". Пример: у компании несколько сайтов по одной тематике, продвигаемые по одному и тому же запросу. ПС отслеживают такие сайты и в ТОПе находится только один сайт по конкретному запросу, а второй (третий и т.д.) не будут находиться вообще. Могут поменяться местами, короче карусель...
Фильтры Гугла:
- Sandbox (песочница). Кстати, есть мнение, что подобный фильтр взял себе на вооружение и Яндекс. В чем смысл - только что созданные сайты в течение первых нескольких месяцев своей жизни не выйдут в ТОП по конкурентным запросам. И ничего с этим не поделаешь. Поэтому я всем рекомендую не пользоваться платными методами продвижения (покупка ссылок) в течение первых двух месяцев (пока сайт не выйдет из "песочницы"). Иначе Вы выкинете свои деньги на ветер.
- Florida. Подобный фильтр есть и у Яндекса тоже. Большое количество ссылок с разных доменов, но с одинаковым анкором, будут склеены ПС и не будут учитываться. Точнее будет находиться только одна. Это не касается "сквозняков" (сквозных ссылок). То есть ссылка которая находится на всех страницах одного сайта, домена (например, копирайты). Сквозняки работают.
- 30 (пенальти). Все страницы сайта по всем запросам падают на 30 позиций. Гугл находит у Вас на сайте "подозрение на СПАМ". Что именно он нашел, приходится думать самому... Как только Вы угадываете, что ему не понравилось, и устраняете это, позиции сайта восстанавливаются.
- Duplicate Content. Из названия понятно. Опубликуете у себя на сайте чужой контент, получите этот фильтр, который будет хуже ранжировать Ваш сайт, чем тот, у кого Вы сперли контент.
- Supplemental Results. Гугл делит все страницы всех сайтов на основной индекс и дополнительный. В первом - хорошие, во втором - плохие. Плохие используются в выдаче только в том случае, если в основном ничего нет. Аналог - "ты последний".
- CO-citation Linking. Если на Ваш сайт ссылается много сайтов одной тематики, то он будет причислен к этой тематике, и будет хуже ранжироваться по запросам других тематик.
Выход из под фильтров Гугла и Яндекса возможен, если получить на свой сайт ссылки с "трастовых сайтов". Что такой понятие Trust Rank никто наверняка не знает (в том числе и я), хотя почесать язык на эту тему любят многие. Косвенно о трастовости сайтов можно судить по возрасту домена, ТИЦ и PR.