Автор: Сергей Коломиец
Яндекс
У большинства фильтров, кроме тотального бана, есть одна проблема – их сложно диагностировать и отделить один от другого. Большинство методов косвенные, поэтому не нужно паниковать и делать поспешные неверные выводы.
Часто встречается информация, что высокие показатели ресурса (тИЦ, PR и т. п.), наличие его в каталогах Яндекса и DMOZ резко снижает вероятность попадания под санкции. Как будет видно из статьи, это совершенно не так и даже наоборот.
Самая неприятная ситуация, которая может случиться с новым сайтом – это наличие фильтров на домене из-за его прошлого. Даже когда регистрируется новый красивый домен, с большой вероятность может оказаться, что когда-то давно на нем был сайт и на него были наложены санкции. Перед регистрацией нового домена стоит внимательно посмотреть его историю:
- ввести имя домена в кавычках в Гугл;
- проверить его на archive.org;
- проверить историю whois.
Если обнаружатся какие-то "гадости", например, дорвеи, порносайты, сателлиты, стоит лишний раз подумать, брать ли этот домен или нет. Бывают ситуации, когда из-под таких фильтров выйти крайне сложно.
Последние годы окончательно вырисовался основополагающий принцип продвижения – естественность во всем. Никаких накруток, никакого поискового спама, никаких покупных ссылок, никаких сео-ссылок на собственном сайте и т. п. Я утрирую, конечно, но суть примерно в этом. Детальнее – в конкретных разделах, однако этот совет поможет избежать большинства санкций от поисковиков.
Можно сделать еще один глобальный вывод – не стоит зацикливаться только на поисковом трафике. Источников посещений может быть множество, диверсифицируйте риски и получайте посетителей из разных мест. Может оказаться, что поисковый трафик для данного ресурса будет не самым эффективным. Например, правильно настроенная кампания контекстной рекламы при правильном масштабировании может сгладить падение дохода.
Минусинск
Начнем с самого активного, злобного и неприятного в плане избавления фильтра – Минусинск.
Эта санкция направлена (наряду с другими) на борьбу с сео-ссылками, что неудивительно. Появился он весной 2015 года, с тех пор было множество новых "волн". Изначально Минусинск затронул сайты Москвы и региона, которые традиционно стали тестовой площадкой для экспериментов Яндекса. Основные жертвы – коммерческий сектор.
Главный симптом фильтра – резкое, на порядок, падение трафика и позиций в выдаче. Нахождение сайта не на первом месте по "брендовому" запросу тоже может говорить о наличии этого фильтра.
Как было замечено многими аналитиками, Минусинск – самый полезный фильтр для очистки Рунета. Благодаря нему сателлиты и прочие говносайты перестали быть нужны. Если раньше все ж количество ссылок играло существенную роль, то теперь их качество и естественность однозначно вышли на первый план. Рунет начал активно очищаться от мусора. Правда, лично у меня возник вопрос – как это облегчит жизнь простого пользователя, ведь он просто не видит весь этот хлам, а замечает только результат его работы. С другой стороны же, это позволит сделать методы продвижения более честными и менее зависящими от тупого вливания денег.
Основная причина наложения Минусинска – это покупные ссылки. Да-да, включая вечные, включая таковые в статьях, которые большинство сеошников считали совершенно безопасными (хотя, по сути, разницы никакой, это очередной развеянный миф). Если подобные ссылки были основой продвижения – это очень плохо, хозяин сайта потеряет много времени денег, во-первых, на избавление от санкций, во-вторых, на переход к комплексному продвижению.
Начать надо с анализа старой ссылочной массы и избавления от спамных ссылок; таких может быть большинство. И хорошо, если все это куплено на биржах, там удаление можно автоматизировать (хотя далеко не всегда). Но если большая часть линков была размещена по личным договоренностям – дело обстоит намного сложнее. Придется писать каждому вебмастеру с просьбой удалить ссылку, а откликаться будут далеко не все. Многие будут просить деньги за удаление и т. д. Если ссылочный портфель измеряется сотнями тысяч, может понадобиться работа нескольких сотрудников в течение месяцев. Снимать придется с большим запасом, пропущенные ссылки, которые модераторам Яндекса покажутся "искусственными", только затянут процесс. Вполне вероятно, что придется полностью перестать пользоваться услугами бирж типа Sape.
В итоге переписки с поддержкой Яндекса (которую, конечно, нужно вести параллельно с основной работой по очистке ссылочной массы) вы можете получить конкретные рекомендации и даже примеры нежелательных адресов страниц, что упростит дальнейшие действия. Задачу фильтрации усложняет то, что Яндекс.Вебмастер показывает далеко не все ссылки. Поэтому лучше использовать сторонние сервисы, как, например, Ahrefs или Solomono.
Естественность ссылки – главный критерий ее качества в глазах Яндекса, однако его очень сложно формализовать и отправить на автоматическую проверку по выгруженному списку доноров.
АГС, например, не является однозначным критерием для отнесения сайта к нежелательным. Подобные ссылки часто бывают вполне естественными и отлично работают, что усложняет отбор. Численные показатели "спамности", например, соотношение входящих и исходящих линков, также не являются надежными показателям.
Правильные ссылки с форумов имеют вполне значительный вес. Однако время форумного спама прошло, она должна быть оставлена в нужном разделе, в правильном контексте, не новичком на данном форуме, иметь сопровождающий текст и т. п. От всего остального стоит отказаться.
Поработать в плане анализа и изменений также нужно и над анкорами. Убрать все "сеошные", спамные, оставить наиболее естественные, большая часть из которых будет просто в виде URL сайты или конкретной его страницы. Не исключен вариант, что после снятия ссылок и выхода из-под Минусинска, позиции и трафик выйдут на более высокие показатели, чем были до этого.
Представители Яндекса утверждают, что путем покупки большого количества некачественных внешних ссылок не получится "завалить" конкурентов. Механизм подобного анализа мне, правда, представить сложно – невозможно отличить, кто именно покупает ссылки. Однако массовых падений из-за подобных проделок не наблюдается.
АГС-2015
АГС – старый, сложный и неприятный фильтр, однако в 2015 году он поменял, или, скорее, расширил свою направленность, а также результат воздействия. Теперь он направлен еще и на борьбу с продажными ссылками, а проявляется в первую очередь в обнулении тИЦ. Точнее, при проверке сайта в каталоге Яндекса появляется надпись "Индекс цитирования (тИЦ) ресурса – не определен". Позиции уменьшаются, однако не так резко, как при Минусинске.
Под угрозу попадают ресурсы, торгующие местами под временные ссылки. И если изначально качество сайта не учитывалось, то впоследствии у хороших площадок даже с большим количеством исходящих ссылок появился больший шанс избежать этого фильтра по сравнению со "ссылочными фермами". Как и Минусинском, влиянию АГС-2015 больше всего подвержены относительно старые сайты с ненулевыми показателями. Это говорит о нежелании Яндекса распылять свои ресурсы на миллионы сателлитов. Они и сами отпадут за ненадобностью. Суть – высокие тИЦ и PR, наличие в каталоге Яндекса и т. п. не являются спасением от фильтров, скорее, наоборот.
Несмотря на заявления Яндекса об отмене ссылочного ранжирования, оно все равно работают. Его влияние меняется время от времени и в зависимости от региона, но все равно ссылки являются одним из самых важных аспектов продвижения. Просто теперь они должны быть естественными. В понимании Яндекса, конечно…
Сейчас есть множество статей, в которых переписываются очень старые советы. Уникальный контент, отсутствие дублей того самого контента, мало внешних ссылок, отсутствие пустых страниц, закрытие служебных страниц (поиск, профили, рубрикаторы, теги, даты и т. п.) от индекса, правильная плотность ключевых слов. Да, это все во многом актуально, но новый АГС направлен исключительно на продажные ссылки. Раньше они, по сути, не были поводом для наложения санкций – сейчас они таковым являются. Эти рекомендации все еще важны, но они не являются главными в аспекте изменения этого фильтра.
Стоит сказать пару слов о том, как же Яндекс определяет "продажность" ссылки. Ответ простой – неизвестно, можно только предполагать. Однозначно, у него есть доступ к API основных бирж и, следовательно, к их базам. Анализируется также формат ссылочных блоков, анкоры, частота обновления на страницах, место их расположения. Куда сложнее учитывать клики по ним, что является косвенным показателем их полезности для посетителей, но с учетом наличия базы сайтов и установленной на них "Метрики", этот фактор тоже является важным. Большинство из этого можно автоматизировать, а остальное наверняка анализируется вручную для более или менее заметных ресурсов.
Например, большой процент ссылок с коммерческими "сеошными" анкорами может вызвать подозрение. Это не означает, как пишут многие "аналитики", что нужно удалять все анкорные линки! Просто тексты ссылок должны наиболее естественно вписываться в контекст.
Напомню, что ресурс, попавший под АГС, не становится автоматически "говносайтом". Просто, по мнению Яндекса, на нем есть много продажных ссылок. Это не означает, что нужно снимать с него собственные естественные ссылки, они сохраняют свое позитивное влияние на выдачу.
Избавиться от АГС-2015 просто – следует удалить все временные продажные ссылки, а постоянные отфильтровать и оставить только наиболее естественно выглядящие. Лучше перестраховаться.
Аффилиат-фильтр
Старый и относительно полезный фильтр, который не позволяет проектам одной компании и одной тематики занять весь топ. В теории полезно, на практике работает как всегда плохо. Глупо называть его "склейкой". Просто из всех ресурсов, принадлежащих одной компании (не человеку, а коммерческой фирме!) в выдаче по одному конкретному запросу будет выдаваться только один сайт.
Определить его просто. С каждым апдейтом выдачи один из сайтов будет резко терять позиции, а второй попадать в топ. Со временем они будут меняться местами, скорее всего, случайным образом. Это касается сайтов, у которых семантические ядра частично или полностью совпадают. Конечно, никто не запрещает иметь фирме хоть тысячу проектов. Однако по одной группе запросов в топе должен остаться только один для соблюдения честных конкурентных условий.
А вот критерии, по которым Яндекс определяет аффилированость, определить куда сложнее. Вот основные мифы по поводу этих критериев:
- один IP, хостинг или сервер. Ерунда, так как на одном хостинге или IP могут размещаться десятки и сотни сайтов
- одни регистрационные данные домена. Ерунда, так как их можно скрыть, да и никакие правила поисковиков не запрещают одному человеку иметь много сайтов
- одинаковая структура кода. Ерунда, так как если это стандартный движок, то логично, что структура всех проектов на нем будет сходна
- добавление в один аккаунт Яндекса (Метрика, Вебмастер). Ерунда, так как логично, что вебмастер или оптимизатор добавляет все свои сайты в один аккаунт для удобства анализа.
Впрочем, вероятно, что это тоже учитывается в качестве дополнительных критериев. Следующие факторы мне кажутся куда более вероятными, хотя некоторые из них явно являются косвенными:
- одинаковые или сходные контактные данные (юридический и физический адреса, электронная почта, контактные телефоны и т. п.)
- сходные разделы
- сходное наполнение (ассортимент, описания, акции и т. п.)
- ссылки на одни и те же страницы в социальных сетях (да, это очевидно, но многие забывают)
- похожие исходящие ссылки
- похожая ссылочная масса, то есть одинаковые источники входящих ссылок
- упоминания на одних и тех же ресурсах (форумы, социальные сети)
- перелинковка друг с другом
Из вышеперечисленного вполне понятно, как избавиться от этого фильтра. Это непросто, если вы действительно хотите иметь несколько сайтов в топе по одной группе поисковых запросов.
Куда логичнее поступить иначе, разбив один крупный портал на несколько более мелких по разным направлениям деятельности. Более сложный вариант – зарегистрировать несколько фирм или ИП по каждому роду деятельности, со своими контактными данными, включая телефоны и адреса. Да, модераторы Яндекса могут проверять и эту информацию, а если интернет-магазин добавлен в Яндекс Маркет, то и делать контрольные закупки.
Многорукий бандит
Алгоритм "Многорукий бандит" есть у многих поисковых систем; с середины 2015-го года он начал активно применяться в Яндексе. Его цель – проверка обратной связи, проверка того, насколько структура сайта соответствует запросам посетителей. Грубо говоря, это относится к поведенческим факторам.
Однако метод проверки интересен – многие молодые ресурсы внезапно попадают на первые места с целью временного повышения их посещаемости и "проведения" их через данный алгоритм. Если все соответствует неявным критериям Яндекса – сайт может задержаться в топе, потеснив более старые, которые из-за несоответствия могут опуститься очень низко. Как следствие – топ по многим запросам нестабилен, что мешает как вебмастерам, так и обычным пользователям Яндекса. Судя по всему, по разным тематикам и к разным сайтам применяются различные критерии, однако активнее всего затронуты коммерческие запросы.
Старые стабильные проекты могут потерять большие количества трафика, и, если это сезонный бизнес, то потери из-за отсутствия ресурса в топе неделями могут быть катастрофическими. Новым сайтам хорошо – всем остальным плохо.
Впрочем, можно найти и позитивный момент. В любом случае, детальный анализ сайта на поведенческие факторы будет очень полезен старым проектам. Роль этих факторов постоянно возрастает. Также данный алгоритм позволяет постоянно актуализировать топ.
Накрутка поведенческих факторов
Как только начался учет поведенческих факторов, сразу же начали возникать методы манипуляции данным критерием ранжирования. Появилось множество сервисов, предлагающих те или иные методы, более грубые (автоматические) и более тонкие (ручные). Логичным ответом Яндекса стали санкции за накрутку, и санкции довольно жесткие. Первое время Яндекс рассылал "письма смерти" по данному фильтру, однако есть версия, что рассылались они всем подряд.
Самая главная проблема данного фильтра – низкая эффективность анализа поведенческих факторов при небольшой посещаемости сайта. Просто не хватает информации. И частые заходы владельца на свой же сайт, действия с ним, различные проверки могут привести к наложению фильтра. Соответственно, основная причина применения этой санкции – шаблонные действия пользователей со сходных IP (хотя IP – далеко не определяющий фактор).
Одним из неприятных моментов этой санкции является то, что при ее помощи можно "валить" конкурентов, накручивая им ПФ. Если замечена подобная активность на собственном сайте, нужно сразу же писать в службу поддержки Яндекса.
Да, вполне вероятно, что действия по накрутке (пусть и непреднамеренной) с одного пула IP-адресов являются подозрительными, обойти это можно элементарно, используя качественные списки прокси-серверов, VPN и т. п.
Подозрительным для Яндекса при анализе статистики может быть, например, внезапный рост посещаемости при отсутствии активных действий по улучшению сайта, а также при отсутствии улучшения достижения целей в Метрике.
Яндекс также отслеживает действия накрутчика. Можно сказать, составляет профиль типичного "нарушителя", и по нему уже фиксируются нарушения для всего сайта. Например, если человек искал аниме и покемонов, маловероятно, что следующим сайтом, на который он зайдет, будет интернет-магазин оружия.
Выйти из-под этой санкции просто – перестать использовать любые (или, по крайней мере, грубые) методы накрутки ПФ. Если же очевидной причины для нее нет, предстоит долгая переписка с саппортом.
Фильтр за кликджекинг
Кликджекинг – неочевидная и довольно неприятная для посетителей штука, сутью которой является фоновый и незаметный сбор данных о пользователях. На невидимый слой на странице размещается определенный код, при клике на который могут совершаться разные действия с посетителем:
- сбор его данных из социальных сетей, где он залогинен;
- подписка на различные сервисы;
- нежелательное вступление в группы;
- в редких случаях – приобретение платного контента или вещей;
По сути, метод, изначально придуманный для улучшения таргетинга рекламы, превратился в подобие фишинга.
Зачастую такой код предоставляется безобидными на первый взгляд сервисами, предлагающими оптимизацию сайта, увеличение его эффективности, повышение продаж, повышение конверсии трафика и т. п.; вебмастер может даже не подозревать о нем.
Если подобный сервис предоставляет владельцу сайта пользовательские данные, которые люди непосредственно не вводили на вашем сайте (адреса страниц в социальных сетях, e-mail, номера телефонов и т. п.) – это первый признак кликджекинга. Необходимо проверить все поддомены – за использование кликджекинга на одном из них фильтр применяется ко всему домену.
Суть проста – внимательно анализируйте любой чужой код, который собираетесь разместить на своем сайте, включая счетчики, социальные кнопки. После снятия кода позиции возвращаются в ближайшее время.
Фильтр "опасных сайтов"
Уже давно в выдаче в сниппете у сайтов с подозрением на наличие вредоносного кода выдавалось предупреждение для посетителей. С 2015-го года такие сайты будут понижаться в выдаче. После удаления вредоносного кода ресурс быстро будет возвращен на прежние позиции, а предупреждение будет снято.
Для проверки своих сайтов на вирусы можно использовать официальный антивирус для сайтов от Яндекса – Manul.
Владивосток
Алгоритм "Владивосток" направлен на учет удобства и релевантности мобильных версий сайтов. Это не фильтр как таковой, а один из факторов ранжирования, который может привести к падению позиций. Сайты, соответствующие формальным критериям "мобилопригодности", будут ранжироваться выше других. Среди этих критериев можно выделить:
- отсутствие горизонтальной прокрутки;
- шрифты, читаемые при различных разрешениях экрана;
- адекватные размеры активных элементов;
- отсутствие технологий, которые не поддерживаются смартфонами (flash, java-апплеты и т. п.).
В любом случае, адекватная мобильная версия, корректно отображаемая на различных разрешения и размерах экранов, будет полезная практически любому сайту. Оптимизируйте и не ждите падения позиций.
Гугл
Прикрываясь заботой о пользователях, Гугл думает только о своем заработке. Поиск последнее время совершенно не улучшается, особенно это заметно по некоммерческим запросам. Продвинуть даже очень качественный сайт в топ стало намного сложнее, чем раньше.
О песочнице, панде, пингвине и т. п.) – тут описано не будет, за исключением изменений в этих фильтрах.
В 2016 году Панда (а многие другие фильтры – раньше, скорее всего) изменила свою суть – данный фильтр перестал быть самостоятельным и просто влился в общую систему алгоритмов и факторов ранжирования Гугла. Это упростило задачу вебмастерам, так как теперь избавиться от этой зверушки стало проще; не нужно ждать долгое время, позиции вернутся сразу с переиндексацией и обновлением индекса.
Напомню, что Панда – фильтр за некачественный контент (копипаст, плохой рерайт, синонимайз и т. п.) Раньше санкция применялась ко всему ресурсу, сейчас же качественные страницы с него могут попадать в топ. Если вебмастер считает страницу нужной для сайта, однако качество ее объективно не соответствует требованиям Гугла, лучше закрыть ее от индексации.
У Гугла есть отличный сервис отклонения ссылок – Disavow Links. Если сайт попал под один из ссылочных фильтров, нужно выгрузить все внешние ссылки, проанализировать их и добавить в данный сервис все неподходящие.
Кстати, по качеству ссылок у меня возник вопрос, на который я не нашел пока ответ. Если ссылка естественная, но размещена на говносайте, в плохом окружении и т. п. – ее надо просить удалить или добавлять в вышеуказанный сервис? Или же, раз она естественная, пусть будет? Для Яндекса я б ее оставил. Для Гугла – неизвестно.
Google -30
Старый и известный фильтр, направленный против ссылочного спама в широком понимании этого слова. Это может быть массовое размещение ссылок в открытых источниках (форумы, гостевые книги, комментарии и пр.), наличие на сайте некорректных редиректов, дорвейных страниц. Симптом – падение позиций сайта ниже 30-го места.
В настоящее время подобные "черные" методы продвижения не особо актуальны и их мало кто использует. Со ссылочной массой надо работать тонко и комплексно с целью максимизировать ее "естественность". Потому как если спамить где попало, избавиться потом от всевозможных санкций поисковиков будет крайне сложно.
Гугл-бомбинг
Недостаток многих поисковых алгоритмов, от которого уже практически избавились вместе с минимизацией влияния ссылочного ранжирования. Суть его заключается в том, что на первые места выдачи попадают совершенно нерелевантные страницы из-за того, что намеренно размещено большое количество ссылок на них с анкором, содержащим текст этого запроса. Например, по запросу "лжец" или "мошенник" выдавалась ссылка на известного политика.
В настоящее время навредить вашему сайту бомбинг практически не может. Все большее и большее влияние имеют внутренние, социальные и поведенческие факторы ранжирования, которые зачастую перекрывают влияние внешних ссылок.
Гугл-боулинг
Гугл-боулинг – не конкретный фильтр, а комплексные попытки конкурентов "завалить" сайт в выдаче, натравить на него всевозможные санкции Гугла. Это может быть покупка множества некачественных ссылок с одинаковыми анкорами, создание дорвеев, перенаправляющих посетителей на данный ресурс, жалобы в Гугл по множественным надуманным причинам, рассылки спама от чужого имени, создание копий сайта на других доменах и т. д., все ограничивается лишь фантазией и бюджетом недоброжелателей.
Было довольно опасно пару лет назад, сейчас же Гугл лучше научился каким-то образом отличать, кто именно совершал данные действия. Поэтому можно особо не переживать, особенно если сайт имеет высокий "траст" (возраст домена, хороший трафик, социальные и поведенческие сигналы и т. п.) А новому сайту никто и не будет вредить таким затратным и трудоемким способом.
Фильтр за переоптимизацию
Google Florida – пожалуй, одна из первых санкций, которая сильно покосила тогдашние топы. Направлен он против чрезмерной внутренней оптимизации – выделения ключевых слов, множество тегов заголовков, высокая плотность ключевых слов и прочие методы, направленные именно на влияние на поисковую систему.
Сейчас не особо актуально, так как все это способы продвижения давно устарели по причине своей неэффективности. Судя по всему, данный фильтр стал частью чего-то большего типа Пингвина или же просто вписался в основной алгоритм ранжирования Гугла.
Социтирование
Социтирование – анализ поисковой системой ссылок, расположенных рядом со ссылкой на ваш сайт. То есть, это борьба не только и не столько с нетематическими линками, а еще и с нерелевантным их окружением. Несколько ссылок совершенно разной тематики на одной странице могут намекать на то, что данный сайт – просто ссылочная помойка, и естественные ссылки с него появляться просто не могут.
Несмотря на распространенное заблуждение, речь тут идет исключительно о тематике ссылок и их окружения, но не о качестве ссылающихся сайтов.
Фильтр за низкую скорость загрузки сайта
Гугл анализирует скорость загрузки страниц сайта, и если она меньше определенного предела – ранжирует их ниже, чем те, которые грузятся быстрее.
Скорость загрузки может зависеть от многих факторов:
- конфигурация виртуального или физического сервера;
- выделенные ресурсы для шаред-хостинга;
- ширина канала;
- настройки сервера;
- количество скриптов на странице;
- оптимизация кода;
- количество картинок на странице и их размер.
В Google Analytics есть специальный раздел для детального анализа данного показателя, выявления возможных причин падения скорости и решения проблем с ними. Судя по всему, информация об оптимальном времени загрузки страниц определяется статистически, по относительно небольшой выборке серверов.
Последнее время многие вебмастера, особенно живущие в больших городах, начинают привыкать к тому, что у многих людей скорость интернета так высока, что страницы грузятся моментально независимо от их размера. Это опасное заблуждение, так как, во-первых, далеко не у всех высокая скорость, а, во-вторых, перегруженная тяжелыми скриптами (особенно в верхней части кода), изображениями и видеороликами страница будет загружаться долго в любом случае. Не стоит забывать об оптимизации размера изображений – помните, что кроме JPG есть форматы GIF и PNG. Не стоит увлекаться визуальными эффектами там, где они совершенно не нужны.
Обратная сторона этой санкции – возможность понизить позиции сайта конкурентами при помощи DDOS-атаки на него. Даже если сайт полностью не отключится, сервер из-за повышенной нагрузки будет медленнее работать, что может негативно отразиться на скорости загрузки сайта.
Supplemental
Supplemental results, они же "сопли Гугла" – так называемый дополнительный индекс, куда попадают страницы с копипастом, просто низкого качества или с минимальным весом. На самом деле "соплей" давно уже не существует. Миф живуч, однако supplemental давно уже поглощен основной массой поискового алгоритма Гугла, и выделять его как какой-то отдельный алгоритм некорректно.
Да, страницы с повторяющимся контентом часто попадают под ссылку "Показать скрытые результаты" внизу выдачи, и, кстати, далеко не всегда это попадание бывает корректным. Это касается только конкретного запроса; по другим же они могут попадать в основную выдачу. Это не говорит о какой-то санкции, под который попал данный сайт вообще или некоторые его страницы в частности.
Поисковый оператор "site:blablabla.ru" тоже не является корректным в данном контексте. Он никогда не показывал точное количество страниц в индекса. Во-первых, это количество может меняться от проверки к проверке, во-вторых, при пролистывании списка количество будет намного меньше, чем показано сверху.
Собственно, все рекомендации по выходу из "соплей" актуальны до сих пор, просто влияют они уже не на старый, а на один из новых фильтров, например Панду. Качественные страницы с уникальным контекстом нужны всегда.
Mobile-Friendly
Данный фильтр направлен на то, чтобы подстегнуть вебмастеров оптимизировать сайты для корректного отображения на экранах смартфонов. Сайты, которые на них плохо отображаются, будут существенно понижаться в основном индексе (при поиске с телефона).
Эта штука может негативно повлиять на дизайн – если у сайта нет специальной мобильной версии, то его основной вид превращается в что-то неудобоваримое на больших мониторах – крупные шрифты, огромные кнопки, минимум текста и т. д. Фильтр затрагивает не весь сайт целиком, а отдельные его страницы. Поэтому можно оптимизировать только те, на которых важен именно мобильный трафик. Как вариант, можно сделать отдельную мобильную версию проекта, не меняя из-за этого дизайн версии для компьютеров.
У Гугла есть сервис, который проверяет сайт и указывает на недостатки в аспекте оптимизации под смартфоны. Важные моменты:
- достаточная величина шрифта;
- большой размер активных элементов;
- отсутствие горизонтальной прокрутки (собственно, это актуально для любых версий сайтов);
- использование всплывающих или выдвижных меню вместо статичных и др.
Для визуальной проверки корректности отображения сайта на разных разрешениях и размерах экранов используйте эмуляторы мобильных устройств, например, специальный плагин для Google Chrome.
Фильтр за битые ссылки
Как понятно из названия, эта санкция направлена на борьбу с сайтами, у которых есть много 404 страниц, то есть, ссылок, ведущих в никуда. Это можно свидетельствовать о том, что вебмастер плохо заботится о собственном ресурсе или же о неверно настроенном движке. Выход простой – проверить ресурс одним из сервисов на наличие несуществующих страниц и исправить ситуацию. Это будет полезно в любом случае.
Ссылочный взрыв
Скорее всего, нет никакой конкретной санкции, направленной на противодействие сайтам, которые покупают за короткое время большое число дешевых ссылок. Это наверняка часть большого алгоритма борьбы за естественность продвижения и, следовательно, ссылочной массы.
Сейчас, когда покупные линки, по сути, доживают свой век, эта санкция не особо актуальна. Вряд ли кто-то сейчас закупает ссылки на биржах тысячами за день; оптимизаторы действуют тоньше, ссылочные бюджеты увеличились, делается упор на качество и "естественность". Конкуренты не дремлют – но, думаю, Гугл давно нашел способ отличить их манипуляции от действий самого вебмастера.
Фильтр на накрутку поведенческих факторов
Как и любые искусственные манипуляции при продвижении сайта, данный вид накрутки тоже преследуется Гуглом. Конечно, можно долго и тщательно оттачивать каждый элемент дизайна и верстки с целью максимального удовлетворения целевой аудитории. А можно потратить относительно небольшую сумму денег и заказать накрутку ПФ – повышение общего время нахождения на сайте, глубины просмотра, всяческих интерактивных действий и т. п. Второй вариант проще (есть множество сервисов для этих целей) – но так как сайт от этого лучше не станет, он будет опущен в выдаче.
Детально про поведенческие факторы ранжирования написано в моей отдельной статье; с тех пор, по сути, мало что поменялось.
Google Pirate
Как понятно из названия, фильтр направлен на борьбу с пиратским контентом. Большинство страниц таких сайтов просто не попадают в основную выдачу. Гугл использует скандально известный закон DMCA о защите авторских прав, реагируя на все жалобы без разбору. Да, заявка должна быть по определенной форме, но судя по результатам, никто не их не анализирует детально.
На сайте lumendatabase.org можно проверить страницы, сайта, которые попали под данную санкцию; там же указан правообладатель контента. Было несколько "волн" данного фильтра, которые покосили большинство пиратских сайтов. Из индекса выпадает до 98% страниц, соответственно, и трафик падает на порядки.
Однако, как видно из индекса, борьба практически безнадежна – такое впечатление, что под санкции попадает тысяча сайтов, а на их место выходит миллион. Не те методы борьбы выбраны, похоже…
Фильтр PayDay Loan
Данный фильтр затронул так называемые "спамные" запросы, например, краткосрочные займы, в честь которых он и назван. Что касается Рунета, тут больше всего были затронуты сайты по аренде недвижимости, недвижимость, онлайн-казино, микрокредитные организации, варезники и т. п. В подобных тематиках топы были заполнены чем угодно, кроме релевантной информации, несмотря на активное действие других фильтров. Опять же, у фильтра было несколько последовательных версий.
Польза от фильтра очевидна – действительно полезные сайты по этим тематикам попали в топ и их трафик возрос. А пользователи начали получать требуемую информацию или услуги. Как из-под него выйти – предоставлять релевантный запросу контент. Не ссылки на партнерские программы, не дорвеи, а то, что запрашивает посетитель.
UPD:
Комментарии:
Елизавета#
Достал человечек, ухожу из-за него.
coder hol es /* Админ */#
Ну чтож, это правильно – если это это перевешивает желание получить информацию, то эта информация и не нужна, имхо, и не стоит тратить на неё время)