Еще про фильтры от Яндекса

Здравствуйте, друзья! Рад Вас приветствовать на страницах моего блога!

В предыдущей статье мы подробно рассмотрели фильтр АГС. Сейчас поговорим о других фильтрах, которые тоже используются Яндексом. Аналогичные алгоритмы существуют и у Гугла. В этом нет ничего удивительного, так как оба поисковых гиганта развиваются во многом параллельно. Но есть, конечно, и свои особенности.

b1-1Яндекс борется с неестественной оптимизацией сайтов, обоснованно считая, что это способствует более качественной поисковой выдаче. Гугл же больше сосредоточился на искоренение спама. Это тоже вносит нюансы в работу фильтров. Именно с этим связаны такие случаи, когда в Гугле сайт индексируется великолепно, а в Яндексе лишь несколько страниц. Или наоборот. Давайте рассмотрим, что еще Яндекс может применить к нашим ресурсам.

Непот фильтр. Это борьба с покупкой внешних ссылок.Если робот посчитает, что таких ссылок очень много, да к тому же они низкого качества, то он просто перестает учитывать их вес.

b2-2Как результат снижение позиций в поиске. Санкции накладыаются автоматически. При этом может полностью обнулиться ссылочный вес, а может снизиться на какую-то часть. Для борьбы с таким фильтром лучше всего на время полностью убрать купленные ссылки. При следующем заходе робота на сайт он их не увидит, и позиции сайта могут повыситься. Разумеется, это требует времени.

Аффилирование. Если Вы продвигаете несколько сайтов по одной группе ключей, то рано или поздно может случиться так, что в выдаче по продвигаемому запросу останется только один сайт. Остальные лягут глубоко на дно. Это происходит в том случае, если робот определил принадлежность всех сайтов одному лицу.

Чтобы это не произошло, каждый ресурс надо продвигать по отдельным ключам, использовать разные хостинги и разные контактные данные. Если нет возможности адреса и телефоны указывать разные, то их следует делать в виде картинок. Робот не может распознать что изображено на картинке.

b5-5Редирект. Если робот обнаружит, что при заходе на какую-либо страницу сайта посетитель автоматически переадресовывается на другой сайт, то такая страница перестает учитываться в выдаче.

Превышение плотности ключей. Такой фильтр накладывается, когда в тексте зашкаливает количество ключевых слов. Поисковые пауки расценивают это как переспам и неудобочитаемость для пользователя. Границу наложения фильтра определить сложно. Но доля ключей в 5% можно считать безопасной.

Ты последний. Этот фильтр применяется к страницам с ворованным контентом. Противоядие одно — уникальность.

b3-3

Новый домен. Скорее не фильтр, а что-то, напоминающее гугловскую «песочницу». Алгоритм не дает молодым сайтам быстро подниматься в поиске, особенно по высококонкурентным запросам. Тут надо подождать, пока у сайта увеличится трастовость (степень доверия сторонних пользователей), хорошо в этом помогают естественные внешние ссылки.

b4-4Минусинск. Работает с мая 2015 года. Направлен на борьбу с теми сайтами, которые вылезают в топ за счет огромного количества купленных ссылок. Роботы умнеют. Теперь они способны различать естественные ссылки и купленные. Санкции заключаются в понижении в выдаче.

Вот таким образом происходит извечная борьба поисковых систем с оптимизаторами, как соревнование снаряда и брони. И хорошо, когда ее результатом становится улучшение качества поисковой выдачи.

На этом заканчиваю. Желаю Вашему сайту успешного продвижения.

С уважением, Владислав Заболотный.

 

Поделитесь статьей в соцсетях.

Оставить комментарий

Свежие комментарии
Хотите зарабатывать?