SEO-блог Сергея Людкевича. Выявление непот-фильтра, или непот где-то рядом Как выйти из под фильтра


1. Введение

В последнее время ведется очень активное обсуждение такого явления, как наложение Яндексом «непот-фильтра» на сайты. Такая заинтересованность связана, прежде всего, с несколькими обстоятельствами:

  1. Покупка платных ссылок в последнее время стала основной технологией, используемой для продвижения сайтов. Многие фирмы-новички не прикладывают порой никаких усилий, связанных с оптимизацией сайта, только лишь занимаются покупкой платных ссылок.
  2. Вслед за увеличением спроса увеличилось и предложение. Администраторы поняли, что продажа ссылок с их сайтов достаточно прибыльное дело. Заодно возросли значительно и цены.
  3. Многие оптимизаторы стали замечать, что платные ссылки уже не дают того эффекта, что раньше. Теперь покупка нескольких ссылок для продвижения отдельно взятого запроса не означает автоматического попадания его в топ.
Таким образом, сочетание этих трех факторов: увеличение числа оптимизаторов, покупающих платные ссылки, значительный рост бюджетов на ссылки и уменьшение эффективности использования таких ссылок, – привело к тому, что оптимизаторы начали уделять значительно больше внимания оценке качества платной площадки, в том числе диагностике возможных фильтров, наложенных Яндексом и сводящих на нет полезность ссылки с сайта.

В данном мастер-классе будет сделана попытка, во-первых, разобраться с терминологией, уяснить точное значение слова «непот-фильтр», а также будет пояснена методика проверки на непот, которая активно обсуждалась на форумах в последнее время. Также будет предложен план эксперимента по выявлению непот-фильтра.

2. Что такое «непот-фильтр»?

Попробуем разобраться со значением термина. В seo-сообществе принята следующая трактовка: «Непот-фильтр» - фильтр, обнуляющий (или сводящий к минимуму) вес исходящих ссылок с площадки, на которую он наложен. Ссылки с площадки, попавшей под «непот-фильтр», не влияют на ссылочное ранжирование сайта-акцептора.

Остаются неясными несколько моментов:

  • фильтр оказывает влияние на отдельные ссылки или на все внешние ссылки?
  • фильтр накладывается только на отдельные страницы или на весь сайт?
Здесь однозначно сказать нельзя, что фильтр действует так или иначе, т.к. проверить это экспериментально очень сложно. Неофициально считается, что фильтр накладывается только на страницу и оказывает влияние на все ссылки.

«Непот-фильтр» не нужно путать с пессимизацией . Пессимизация – это искусственное понижение поисковой системой в результатах поиска позиций страниц определенного сайта, который злоупотребляет оптимизацией.

Пессимизация может быть реализована по-разному:

  • отключение ссылочной составляющей для сайта;
  • ввод коэффициента понижения релевантности страниц сайта;
  • искусственное перенесение страниц сайта в конец выдачи (обнуление релевантности).
Непот-фильтр налагается не на продвигаемый сайт, а на ссылающийся. При этом, такой сайт может иметь хорошие позиции в поисковой системе.

Также факт пессимизации (или вообще бана) официально признается Яндексом. Например, в ответ на жалобу в службу поддержки можно получить такое письмо: «…Ваш сайт использует ссылочный спам, то есть размещает и получает ссылки, предназначенные исключительно для воздействия на алгоритмы поисковой системы».

А вот наложение «непот-фильтра» службой поддержки Яндекса никак не комментируется. Ведь на самом деле - сайт продолжает корректно ранжироваться Яндексом, соответственно, и люди по ссылкам могут попасть на друзей-партнеров. Другое дело, что такие ссылки не влияют на ссылочное ранжирование «друзей-партнеров».

3. Возможные причины непота

Причина наложения фильтра – нарушение лицензии на использование поисковой системы Яндекс, п. 3.5. «Поисковый спам». В частности, к нарушению приводит простановка на сайте ссылок, единственным назначением которых является накрутка сайтов, на которые такие ссылки ведут.

  • платные ссылки обычно идут блоком. Блок ссылок - это набор тегов, расположенных подряд или довольно близко в рамках одной объединяющей структуры;
  • ссылки ведут на ресурсы, по тематике не совпадающие с тематикой ссылающегося сайта;
  • у ссылки нет текстового окружения;
  • размещают такие ссылки внизу страницы, в футере;
  • обычно оформляются мелким шрифтом.
Таким образом, покупая ссылки, следует анализировать площадку на наличие вышеперечисленных признаков. Чем их меньше и чем они менее выражены, тем более вероятно, что на площадку не наложен «непот-фильтр».

4. Как определить непот?

Методика с форума

В последнее время на форумах активно обсуждается методика, позволяющая определить наличие непот-фильтра на сайте. Суть методики в следующем:

  1. Проверяется отдельной взятой ссылки на платной площадке
  2. Задается следующий запрос ("запрос"
  3. Далее задается запрос anchor#link="www.мойсайт.ru"["запрос"]
В случае если в результате выполнения второго запроса сайт не был «найден по ссылке», а в результате выполнения третьего – найден был, то мы можем говорить о том, что отдельно взятая ссылка показывает, что на площадку наложен «непот-фильтр». Соответственно, если все ссылки показывают, что проверяемая площадка под фильтром, то мы можем сделать вывод, что действительно на сайт наложен «непот-фильтр». Рассмотрим пример:
  1. Возьмем сайт www.lenty.ru . Проверим ссылку «пластиковые окна rehau монтаж окон пвх». Ссылка расположена справа, под колонкой «новости недвижимости».
  2. Зададим следующий запрос: ("пластиковые окна rehau монтаж окон пвх"

3.Далее задаем запрос: anchor#link="www.sm-okna.ru"["пластиковые окна rehau монтаж окон пвх"]. Ссылка найдена, сайт www.lenty.ru показан в ссылающихся!

В итоге проверенная ссылка говорит о том, что на площадку наложен «непот-фильтр». Таким же образом нужно проверить все ссылки на сайте www.lenty.ru . Однако данный способ проверки наличия «непот-фильтра» сам нуждается в проверке. Ее можно провести следующим способом…

Эксперимент

  1. Итак, первое – нам нужен сайт с «непот-фильтром». А как определить, что он есть? Можно так - ссылка сначала действовала, а потом перестала – нам нужно смоделировать данную ситуацию.
  2. Сначала создаем сайт, спамим хорошенько главную страницу, чтобы у сайта появился вес.
  3. Ставим с сайта 5 ссылок на какие-либо проекты. Ссылка должна быть уникальная, т.е. сайт-акцептор не должен находиться по тексту ссылки.
  4. Теоретически сайты по своим запросам должны значительно подняться в выдаче. Поэтому надо правильно подобрать запрос, чтобы он не был конкурентным. Также надо с самого начала отслеживать позиции проектов по группе запросов, чтобы потом выбрать самые стабильные и проекты, и запросы.
  5. После простановки ссылок и их индексации добавляем на страницу еще много внешних ссылок, штук 20. Следим за позициями проектов, как только они резко упали – проверяем на непот. Здесь также надо учитывать «бонус новичка», т.е. проекты в любом случае после 3-4 апдейтов просядут в выдаче.
Да и вообще, чтобы обезопасить себя при массовой покупке платных ссылок, лучше предварительно договориться о простановке на проверяемом сайте одной ссылки, содержащей какой-либо низкочастотный запрос, и далее отследить после индексации ссылки изменения позиций сайта-акцептора по запросу. Если позиция улучшилась, значит, площадка не под фильтром.

5. Заключение

В заключении приведем цитату с форума «Александр Садовский отвечает на вопросы оптимизаторов».

Вопрос: На форуме неоднократно описывался эксперимент по выявлению «непота»: на сайте А устанавливается ссылка с уникальным текстом (абракадаброй), ведущая на сайт Б. Далее, после переиндексации страницы со ссылкой, пытаемся искать абракадабру в Яндексе. Если в выдаче находится сайт А, но не находится сайт Б с пометкой «найден по ссылке» - делаем вывод, что на сайт А наложен непот-фильтр. Верно ли такое утверждение? Верно ли обратное (т.е. если в выдаче 2 сайта - непота нет)?

Ответ : Конечно, неверно. По ссылке может быть найден далеко не каждый документ, ссылка могла быть сочтена малозначимой, страницы сайта Б могут плохо ранжироваться по другим причинам и т.д. Верно ли обратное? Полного фильтра, конечно, нет, но автоматический фильтр может сильно уменьшать вес ссылок, не подавляя их полностью. Это не видно по запросу «абракадабра», но будет видно по частотным запросам.

Конечно, Садовский вряд ли признался бы, что «да, так можно проверить наличие «непот-фильтра», но с другой стороны, аргументы он приводит вполне весомые…

Итак, резюмируя…

  1. «Непот-фильтр» есть, однако его действие до конца не изучено.
  2. Яндекс официально не признает существование «непот-фильтра», однако дает понять, что фильтрация ссылок есть.
  3. Определить «непот-фильтр» по косвенным признакам, т.е. через формирование различных запросов Яндексу и проч., затруднительно – такая методика сама еще нуждается в проверке.
  4. Единственный способ проверки фильтра – отслеживание влияния ссылок с проверяемого сайта.

Непот-фильтр – это уже порядком позабытый термин из 2000-х годов. Строго говоря, непот-фильтр – это механизм полного неучета или частичного понижения вклада ссылки в ссылочные факторы ранжирования для акцептора.

Но название это приклеилось к конкретному явлению, наблюдавшемуся в поисковой выдаче Яндекса до февраля 2008 года. Заключалось оно в том, что в ряде случаев страница-акцептор не находилась в поисковой выдаче по тексту ссылки, ведущей на неё, несмотря на то, что эта ссылка была проиндексирована на странице-доноре. То есть, страница-донор по тексту ссылки находилась, а вот страница-акцептор – нет. В таких случаях и делался вывод о неучете данной ссылки в ранжировании. Исследования тех лет показывали, что накладывался данный фильтр на кластер (совокупность страниц, обладающих некими общими свойствами) сайта-донора. Например, имели место случаи, когда фильтровались ссылки только с главной страницы сайта-донора или только из каталога обменных ссылок, расположенного на нем, а со всех других страниц этого сайта – нет.

С мая 2014-го по октябрь 2015-го года в Яндексе наблюдалось явление, очень похожее на тот старый классический непот-фильтр. Назовем это новое явление «непот-фильтром-2014». О нем я писал в статье « » и последующей серии статей о методике определения отключения ссылочного ранжирования по запросу ( , ). Явление это обнаружилось после объявления сотрудниками Яндекса в апреле 2014 года о полном отключении ссылочных факторов в ряде тематик московской выдачи Яндекса и обладало аналогичными непот-фильтру основными свойствами – страница-акцептор не находилась по тексту проиндексированной ссылки. Только вот явление это было довольно ограниченным. Во-первых, запросозависимым (наблюдалось только для некоторых коммерческих запросов). Во-вторых, регионозависимым (наблюдалось только в выдаче для Москвы). А, в-третьих, имела место и зависимость от наличия сохраненной ссылки – для документов без сохраненной копии данное явление не наблюдалось ни при каких условиях.

3 ноября 2015 года, во время своего доклада «Плохие методы продвижения сайтов», читаемого в рамках Школы вебмастеров Яндекса, аналитик отдела безопасного поиска Яндекса Екатерина Гладких объявила о возвращении учета ссылочных факторов, тех самых, отключенных для ряда коммерческих тематик в московской выдаче в апреле 2014 года. Индустрия ссылкоторговли поспешила водрузить этот факт на свой рекламный щит, пропагандируя мысль, что Яндекс «включил заднюю передачу» и все ссылки опять заработали. Скромно умалчивая о том, что на эти «возвращенные» ссылки также распространяется новая, «минусинская» ссылочная концепция Яндекса, заключающаяся в полном неучете так называемых SEO-ссылок.

Тем временем, явления, присущие «непот-фильтру 2014», в поисковой выдаче прекратились, но им на смену пришли новые, уже гораздо больше напоминающие старый классический непот-фильтр 2000-х годов. А именно: отсутствие страницы-акцептора в поисковой выдаче по тексту проиндексированной ссылки, ведущей на него, уже не зависящее от запроса, региона и наличия сохраненной копии. Именно это явление некоторые SEO-специалисты и окрестили «возвращением непот-фильтра». Мы же назовем его «непот-фильтром-2015».

На данный момент существует достаточно простой способ определения непот-фильтра-2015, однако, ограниченный в использовании только лишь для страниц-акцепторов, не содержащих проверяемую фразу в тексте, т.е. имеющих для нее нулевую текстовую релевантность. Данная методика заключается в проверке наличия разных результатов при разном построении запроса с использованием оператора << («неранжирующее И») для поиска на странице по анкору проверяемой ссылки. Вот так акцептор находится:

А вот так (поменяв местами правую и левую части запроса относительно оператора <<) – нет:

С помощью недокументированных операторов inlink: и intext: (о них я рассказывал в своих статьях « » и « » удостоверимся, что искомая фраза действительно находится в тексте ссылок на документ:

Небольшая справка. Оператор inlink: осуществляет поиск только по анкор-файлу. Обнуляет значения текстовых динамических (т.е. зависящих от запроса) факторов. К сожалению, он работает только справа от оператора << («неранжирующее И»). Оператор intext: осуществляет поиск только по тексту. Он обнуляет значения ссылочных динамических факторов. Работает полноценно.

Интересная особенность непот-фильтра 2015 заключается в том, что он накладывается на конкретную ссылку. Так, например, наблюдаются случаи, когда из разных ссылок на внешний сайт, расположенных на одной странице-доноре, одни попадают под фильтр, а другие – нет. Также пока не обнаружено случаев попадания под этот фильтр внутренних ссылок.

Наблюдая свойства нового непот-фильтра, во многом аналогичные старому классическому, возникает соблазн интерпретировать его действие также по аналогии — как полное обнуление ссылочных факторов. В случае, когда текстовая релевантность страницы-акцептора поисковой фразе нулевая, это, в общем-то не вызывает сомнения – ведь акцептор просто не находится по ссылке. Но хотелось бы проверить эту гипотезу и для случая, когда текстовая релевантность акцептора не равна нулю. К сожалению, вышеупомянутая простая методика тут уже не может помочь. В этой задаче мог бы помочь оператор inlink: , если б он работал и слева от оператора << , но, увы, его использование имеет неприятные ограничения. Однако существует возможность специальным образом сконструировать альтернативный запрос для поиска по анкор-файлу. Причем, используя только документированные операторы языка запросов Яндекса, что не накладывает никаких ограничений на его использование. К сожалению, я пока не могу опубликовать этот запрос из-за опасений за его дальнейшую работоспособность, поэтому назову его «секретным запросом» и попрошу читателя поверить мне на слово в том, что он действительно существует.

В пользу того, что этот запрос действительно является аналогом оператора inlink: , свидетельствуют следующие факты:

  1. Логика построения запроса, учитывающая специфические особенности организации анкор-файла.
  2. Аналогичные результаты поисковой выдачи при использовании справа его от оператора << («неранжирующее И»).
  3. Корректность получаемых с его помощью результатов, при определении непот-фильтра-2015 для документов с нулевой текстовой релевантностью запросу.

На основании этих фактов логично предположить, что «секретный запрос» также корректно определяет наличие непот-фильтра-2015 и для документов с ненулевой текстовой релевантностью запросу.

Для проверки гипотезы о полном обнулении непот-фильтром-2015 динамических ссылочных факторов для документов с ненулевой текстовой релевантностью я буду использовать метод «ортогональных запросов», о котором я писал в своей статье « ». Суть его заключается в том, чтобы сконструировать запрос, состоящий из двух частей, разделяемых оператором | («логическое ИЛИ»). По одну сторону от оператора будем использовать выдачу, состоящую из одного результата для «контрольного документа», по другую сторону будет формироваться своеобразная «линейка» из многих результатов. Таким образом, измеряя позицию контрольного документа в общей выдаче по «линейке», мы сможем делать определенные выводы об изменении численного значения его релевантности запросу из первой части.

Итак, гипотеза следующая. Если динамические ссылочные факторы, в случае срабатывания непот-фильтра-2015 для документов с ненулевой текстовой релевантностью, действительно полностью обнуляются, то позиции в «ортогональной» выдаче для контрольного документа по базовому запросу и по запросу с использованием оператора intext: будут совпадать. Убедимся, что именно так и происходит для документа с нулевой ссылочной релевантностью запросу (т.е. не имеющего входящих ссылок с анкорами, содержащими текст запроса). Найдем подходящий документ c ненулевой текстовой релевантностью и нулевой ссылочной (контрольный документ #1):

«Взвесим» по ортогональной сетке варианты с базовым запросом и оператором intext: (отдельно подчеркиваю важность построения стабильной сетки, в которой не меняются позиции документов при изменении второй части запроса). Для данного случая получаем одинаковые результаты:

Теперь найдем документ (контрольный документ #2) с ненулевой текстовой релевантностью, имеющий вхождение запроса в анкор-лист, но попадающий под непот-фильтр-2015 согласно выдаче по «секретному запросу»:

И таким же образом пробиваем варианты выдачи для базового запроса и примененного к нему оператора intext: по ортогональной сетке. Обнаруживаем, что контрольный документ #2 по запросу с оператором intext: находится ниже, чем по базовому:

Таким образом, гипотеза о полном обнулении ссылочных динамических факторов для случая ненулевой текстовой релевантности запросу не подтверждается.

То есть, к сожалению, мы не можем с уверенностью утверждать о том, что попадающие под непот-фильтр-2015 ссылки не учитываются полностью. Вариантов здесь может быть масса:

  1. Учитывается пусть не ноль, но практически не значащая величина, мизер.
  2. Наблюдаемое явление – какой-то странный артефакт, по наличию которого нельзя сделать никаких практических выводов о природе учета оцениваемых ссылок. Тогда, естественно, возникает следующий вопрос – почему этот артефакт возник и есть ли в его существовании хоть какая-то логика?
  3. Используемая методика определения наличия нулевого ссылочного веса на самом деле некорректна и дает ничего не значащий результат. Надо искать более совершенную методику.
  4. И т.д. и т.п.

В общем, пока что вопросов сильно больше, чем ответов. Что ж, будем их искать. Ведь надежда на возвращение столь простой возможности оценки работоспособности ссылок, как старый классический непот-фильтр, ну, очень соблазнительна.

, что URL, закрытые от индексации в файле robots.txt , не влияют на краулинговый бюджет этого сайта:

Вместе с тем в ответе на один из вопросов к этому посту в твиттере Гэри признал, что если запретить к индексации бесполезные страницы, то краулинговый бюджет будет «возвращен» (« will gain back »), открытым для индексации полезным страницам:



Все эти «словесные кульбиты» натолкнули меня на мысль порассуждать на тему краулингового бюджета и его эффективного использования. Оговорюсь сразу, что тема оптимизации краулингового бюджета актуальна только для сайтов с достаточно большим числом страниц – счет должен идти на десятки, а то и сотни тысяч. Небольшим сайтам заморачиваться на эту тема смысла не имеет – поисковики их будут переиндексировать довольно шустро в любом случае.

Итак, вводные данные следующие. Мы определились, какие страницы на сайты мы считаем полезными для индексации, а какие – бесполезными, т.е. по сути мусором, который, находясь в индексе, может являться источником различного рода проблем. В терминах Google это называется low-value-add URL . И наша задача – убрать из индекса бесполезные страницы наиболее эффективным образом. В том числе и с точки зрения оптимизации краулингового бюджета.

Для начала уточним, что же подразумевается под краулинговым бюджетом? Если коротко, то это число страниц с кодом статуса 200 ОК , которое индексирующий робот поисковой системы отсканирует за одну сессию. Это число (равно как и частота сканирования) зависит от различных факторов, например, таких как популярность сайта, уже имеющееся число страниц в индексе и т.п.

Судя по всему, Гэри Илш, говоря, что запрещенные к индексации файлом robots.txt страницы никак не влияют на краулинговый бюджет, имел в виду то, что, так как поисковая система заведомо знает о том, что они запрещены к индексированию (а значит, индексирующему роботу не нужно их сканировать), то никоим образом не учитывает их при расчете краулингового бюджета.

В ситуации же описываемой в последующем вопросе, когда осуществляется запрет к индексации уже известных поисковой системе страниц, на которые в том числе расходовался краулинговый бюджет, произойдет следующее – выделенный краулинговый бюджет начнет расходоваться только на страницы, которые не запрещены к индексации. Это Гэри Илш и называет «возвращением» бюджета полезным страницам, т.к. в вопросе явно указано, что происходит закрытие бесполезных страниц. Кстати, теоретически при закрытии страниц от индексации краулинговый бюджет в абсолютных цифрах может и уменьшиться, т.к. уменьшится число проиндексированных страниц на сайте, но он будет расходоваться более эффективно именно для полезных страниц.

Поэтому для оптимизации краулингового бюджета может быть действительно хорошим вариантом закрытие к индексации файлом robots.txt бесполезных страниц, имеющих код статуса 200 ОК . Однако здесь могут быть нюансы. Так, например, если какие-то их этих страниц имеют входящие ссылки или ненулевой целевой трафик, то исключение таких страниц из индекса повлечет исключение из ранжирования этих значений, что теоретически может негативно сказаться на расчетных показателях релевантности проиндексированных страниц сайта. В общем, запрет для индексации в файле robots.txt может быть хорошим решением только для тех URL, которые с точки зрения ссылочных и поведенческих факторов абсолютно неинтересны.

Также следует иметь в виду, что запрет к индексации страниц с помощью мета-тега robots со значением noindex на оптимизацию краулингового бюджета существенно не повлияет. Потому что этом случае закрываемая от индексации страница имеет код статуса 200 ОК , и поисковик исключит ее из индекса только после того, как индексирующий робот ее просканирует. И в последующем индексирующий робот будет все равно вынужден такие страницы переобходить. Единственное, на что можно надеяться – так это на то, что он это будет делать с меньшей частотой чем для страниц, которые не были запрещены к индексированию с помощью мета-тега robots . Ну, хотя бы по крайней мере для тех страниц, которые имеют такой запрет на индексацию на протяжении нескольких сканирований подряд. Хотя, на мой взгляд, подобные надежды основываются на очень зыбкой почве.

Поэтому, на мой взгляд, наилучший способ исключить бесполезные страницы из краулингового бюджета – это изменить для них код статуса с 200 ОК на 301 Moved Permanently с редиректом на разрешенную к индексации полезную страницу, имеющую отклик 200 ОК . В таком случае страница с кодом статуса 301 должна «подклеиться» к странице, на которую ведет редирект с нее, причем с передачей некоторых характеристик, которые относятся к нетекстовым факторам ранжирования (например, такие как ссылочные или поведенческие). Google называет это консолидацией URL . Запомним этот термин и будем его в последующем применять. Кстати, в случае Яндекса необходимо иметь в виду следующий нюанс – подклеить страницу к странице, расположенной на другом поддомене сайта, в общем случае не получится.

Да, пожалуй, это было бы идеальное решение, оптимально закрывающее две задачи – избавления индекса от бесполезных страниц и оптимизации краулингового бюджета. Например, оно хорошо применимо для решения проблемы устаревших страниц, которые когда-то имели трафик и до сих пор имеют входящие ссылки. Но, к сожалению, оно применимо далеко не во всех случаях. Есть масса вариантов, когда страница с точки зрения владельца сайта должна по той или иной причине иметь код статуса 200 ОК , но при этом с точки зрения поисковика ее можно считать бесполезной, например:

    дубликаты четкие, например, отличающиеся только наличием get-параметров в URL, которые важны владельцу сайта с точки зрения веб-аналитики;

    дубликаты нечеткие, например, результаты многокритериальной фильтрации листингов товаров интернет-магазина, по факту слабо отличающие друг от друга по набору удовлетворяющих различным значениям фильтров товаров;

    страницы пагинации листингов товаров в интернет магазинах

и т.п.

С точки зрения склейки страниц с сопутствующей ей консолидацией тут есть прекрасный заменитель 301 -му редиректу – директива canonical . Однако с точки зрения краулингового бюджета это не самый оптимальный вариант, т.к. неканоническая страница должна иметь код статуса 200 ОК .

В этом случае краулинговый бюджет можно оптимизировать с помощью специальной обработки запросов от поисковика, имеющих заголовок If-Modified-Since . Алгоритм действий следующий – убедившись, что поисковик посчитал конкретную страницу неканонической (это можно сделать через сервисы Яндекс.Вебмастер и Google Search Console), необходимо запомнить дату, и в последствии на запросы индексирующего робота с заголовком If-Modified-Since , содержащим дату позднее запомненной, отдавать код статуса Кстати, тот же самый прием можно применить для оптимизации краулингового бюджета в случае, о котором я писал несколько выше – когда бесполезные страницы по той или иной причине закрываются от индексации с помощью мета-тега robots со значением noindex. В этом случае нам нужно запомнить дату, когда поисковик исключил запрещенную к индексации страницу из индекса, чтоб потом использовать ее при специальной обработке запросов от индексирующего робота с заголовком If-Modified-Since .

В общем-то, специальная обработка запроса If-Modified-Since очень полезна с точки оптимизации краулингового бюджета и для полезных страниц с сайта, для которых известна дата последнего изменения их контента. Всем запросам индексирующих роботов поисковых систем с заголовком If-Modified-Since , содержащим дату позднее известной нам даты последнего изменения контента страницы, следует отдавать код статуса 304 Not Modified . Однако тут тоже есть один нюанс – такие страницы лишаются возможности попадать в так называемую «быстроботовскую» примесь для свежих результатов. Поэтому для тех страниц, которые релевантны запросам, имеющим быстроботовскую примесь, все-таки я бы рекомендовал отдавать всегда код статуса 200 ОК . Ибо возможность попадания в топ выдачи как свежий результат намного важнее оптимизации краулингового бюджета.

Данная статья больше похожа на гипотезу, но я недавно на своем опыте я еще раз убедился, что нужно внимательно следить за тем, на какие сайты ссылаешься и стоит ли это делать.

На своем основном сайте www.artem-kashkanov.ru я создал блок ссылок "Мои проекты", в котором поделился ссылками на свои "дочерние" проекты - сервис О-Дело данный сайт и еще несколько ресурсов. Сделал это не ради накрутки ТИЦ и PR (который, к слову сказать, недавно отменили), а просто чтобы посетители сайта ознакомились с ними и, возможно заинтересовались и зарегистрировались. Ссылки были проставлены в сайдбаре сквозняком почти по всему сайту, естественно, с атрибутом nofollow. Но этого оказалось мало...

Ни с того ни с сего трафик с Яндекса упал почти в 2 раза! Причем, что интересно, позиции по основным ВЧ-запросам остались без изменений - они приводили на "мощные" статьи, которые я написал давно и поддерживал в актуальном состоянии годами, отвалились в основном новые и не имеющие большой популярности старые публикации, на которые приходили по НЧ-запросам.

Когда я зашел на Xtool и проверил сайт на "вшивость", то инструмент с радостью сообщил, что сайт получил непот-фильтр:

Непот-фильтр - это санкция, которую Яндекс накладывает за некачественные исходящие ссылки, чтобы у веб-мастера, имеющего много сайтов на разные тематики не было соблазнов активно перелинковывать их друг с другом для накрутки ТИЦ. Само название фильтра происходит от английского nepotism - кумовство, наверное это слово обо всем говорит.

Естественно, я сразу снял данные ссылки, но сайт пребывал под фильтром примерно две недели, а потом постепенно начал из-под него выходить. Прошло уже больше месяца, но трафик с Яндекса так и не восстановился до прежнего уровня, хотя положительная динамика заметна и это радует.

Мои наблюдения и выводы

1. Залететь под фильтр гораздо проще и быстрее, чем выйти из-под него - это факт, в котором я много раз убеждался. Чтобы не попасть под непот-фильтр, трижды подумайте, прежде чем ставить сквозную ссылку на "рекомендуемый" сайт или "сайт партнера". Даже если сделать эту ссылку "nofollow" - это не поможет, сквозным внешним ссылкам не место на вашем сайте! Если хотите познакомить посетителя со своими другими проектами, создайте отдельную внутреннюю страницу и ссылайтесь с нее, но не нужно ставить сквозные внешние ссылки.

2. Скорее всего, непот-фильтр (как и все остальные) работает по накопительной схеме - если приторговываете ссылками, Яндекс терпит до последнего, но когда терпение лопнет и сайт попадет под фильтр, вам придется основательно вычищать продажные ссылки, чтобы восстановить доверие. Я отделался сравнительно легко, у меня эти ссылки были собраны в одном месте и мне достаточно было просто убрать модуль с ними. А есть веб-мастера, которые продают вечные ссылки годами, размещая их внутри статей - им придется "перетряхивать" весь сайт.

3. Существуют "двойные стандарты" - если Яндекс считает страницу действительно ценной, то он готов простить пару-тройку левых ссылок внутри нее. Один из признаков ценности материала - долгое нахождение страницы в Топ10 по какому-либо популярному запросу. Если же страница новая и/или не слишком популярная, она скорее всего будет значительно понижена в выдаче даже по НЧ-запросам.

Как повлияли установка/снятие ссылок на сайты-акцепторы?

Никак! Если следить за динамикой посещаемасти сайта, на котором вы сейчас находитесь, то не видно никаких заметных всплесков и явных провалов не наблюдалось - все в пределах суточной погрешности (при низкой посещаемости такие всплески нормальны). То есть исходящие "непот"-ссылки ничего не дают - ни положительного, ни отрицательного эффекта, они просто не учитываются.

Таким образом, напрашивается еще два вывода:

  1. Вебмастер, размещающий нетематические внешние ссылки рискует загнать свой сайт под фильтр, выйти из-под которого может быть проблематично.
  2. Оптимизатор, покупающий ссылки на нетематических или условно околотематических ресурсах почти всегда выкидывает деньги на ветер.

Привет, друзья! В этой статье словаря я хотел бы поговорить о непоте - еще об одном фильтре поисковых систем. Какими особенностями он обладает, как определить его наличие на том или ином сайте. Все это будет довольно подробно разобрано в данной записи.

Как и в случае , все карты и 100% точная информация находится в руках поисковиков (в частности яндекса, так как именно на его примере будет разбираться работа фильтра). В общем случае непот - это фильтр, который занижает до нуля вес исходящих ссылок.

Как известно, входящие ссылки на сайт достаточно сильно влияют на его ранжирование в поисковых системах. Каждая проиндексированная ссылка передает какое-то количество веса веб-проекту, на который она ссылается. Непот-фильтр занижает до нуля этот вес. Другими словами, теперь сайт, на который наложены санкции не передает вес по ссылкам на другие проекты.

В непоте оказываются документы, то есть отдельные страницы. Хотя может быть, что и весь ресурс будет находится под этим фильтром. Иногда складывается такая ситуация, что с одной страницы вес от ссылки передается, а уже с другой нет.

Выше я написал, что на сайт накладываются санкции. А так ли это на самом деле? Если веб-ресурс оказывается под непотом, то конкретно на нем это никак не отражается. Он не теряет позиции в поисковых системах, не теряет количество проиндексированных страниц и так далее, то есть продолжает жить своей жизнью. Тут обратная сторона медали. Проблемы получают проекты, на которые ссылается занепоченный сайт. Ссылка размещена, а толку от нее нет.

Фильтр непот, несмотря на то, что был создан еще в конце 20 века на западе, в России активизировался с бурным развитием ссылочных бирж типа sape.

Почему мой сайт попал фильтр?

В первую очередь фильтр борется с ссылками, которые поставлены не из-за целесообразности и полезности, а из-за какой-то выгоды: нетематический обмен ссылками, их продажа и так далее. В связи с этим алгоритмы поисковых систем стараются вычислить документы, на которых они размещены и не учитывать их при ранжировании. Если на практике ручной даже нетематический обмен (конечно, небольшими объемами), не приводит к наложению непота, то продажа ссылок в автоматических системах (например, в той же sape), увеличивает эту вероятность. Если вы долго продаете ссылки и вас не тронул АГС, то проверьте свой сайт на этот фильтр. Большая вероятность того, что он там находится.

Как определить, что проект под непотом?

Точной схемы определения не существует, но большую вероятность дают следующие шаги.

1) Имеется 2 страницы разных сайтов, которые проиндексированы в яндексе. Можно взять и без индекса, но тогда в конце эксперимента они точно должны там оказаться.

2) На сайте, который необходимо проверить на непот, размещается ссылка с уникальным анкором, например, что-то неопределенного вида "jhkljjswe" или нового слова "кардиблестность".

4) Если при в яндексе по этому уникальному анкору выдается только сайт, на котором размещена ссылка, то это говорит о том, что этот ресурс под непотом.

Здесь не надо забывать, что 2 страницы должны быть проиндексированы в поисковой системе и должна быть уверенность, что размещаемая ссылка также в индексе.

Как выйти из под фильтра?

Непот - скорее всего, автоматический фильтр. Сайт автоматически под него попадает, также автоматически он и снимается. Если ваш проект продает ссылки, то уберите их и подождите некоторое время. Возможно, он снимется сам.

Кстати проверку на наличие сайта в непоте делает биржа размещения статей навсегда miralinks. Это не обязательно, но желательное требование к ресурсам, которые находятся в их каталоге.

Если делать вывод, то можно сказать, что фильтр для сайта, на которого он наложен безвреден. Он приносит некоторые проблемы проектам, которые купили (приобрели, разместили) ссылки на нем.