Почему 90% сайтов никогда не попадут в ТОП

Здравствуйте, уважаемые читатели!

a2-2

А на самом деле, почему место в ТОПе светит лишь одному сайту из десяти? Да потому, что остальные девять в погоне за тонкими Seo-настройками напрочь забывают о настройках базовых. В свое время об этом говорил Дмитрий Шахов, он же Баблоруб. Но сегодня я наткнулся на статистику, которая подтверждает его слова.

Воду лить не буду, сразу перейдем к цифрам. Для вас, мои дорогие читатели, это будет хорошим поводом проверить, все ли гладко с настройками у ваших сайтов.

1! Настройка Title.  

Taitle можно назвать самым важным Seo-тегом. Это заголовок для роботов. Из него они понимают, о чем идет речь в статье. И что же вы думаете? Только у 10% сайтов он заполнен правильно. У 10% его нет вообще, а у 80% его нужно переделывать. По факту как раз у 90% сайтов роботы не могут определить, о чем в статьях идет речь. Могут ли они после этого хорошо данные статьи ранжировать? Вопрос риторический.

2! Настройка Description.

Из этого тега в поисковой выдаче может формироваться сниппет. А от его качества напрямую зависит кликабельность. В итоге видим, что опять только в 10% случаев description заполняют правильно. У 30% сайтов он вообще не заполнен, в 60% случаев его нужно дорабатывать.

В 15% случаев владельцы сайтов допускают грубую ошибку — они для всех статей на сайте вписывают одинаковый description.

3! Настройка файла robots.txt.  

a3-3

Это файл говорит роботам, куда совать свой нос, а куда нельзя. Если с ним накосячить, то может быть проиндексировано то, что вы не хотить, и наоборот.

Статистика же показывает, что только у 5% сайтов robots.txt настроен правильно. У 15% его нет совсем, а у 80% его нужно переделывать.

4! Настройка зеркал и редиректов. 

Зеркало это частичная или полная копия сайта. Например, если сайт доступен по адресу с www и без, то это зеркала. Важно выбрать главное зеркало (для новых сайтов лучше без www) и с других зеркал настроить редирект на главное.

Если переписываете статьи со сменой адреса, то так же нужно настраивать редиректы со старого адреса на новый. 

Неправильная настройка зеркал и редиректов чревата появлением дублей, а их наличие препятствует хорошему ранжированию.

Статистика показывает, что правильная настройка зеркал есть только у половины сайтов, а редиректы настроены лишь у 15%.

5! Настройка ЧПУ. 

ЧПУ на блогерском сленге переводится как «человеко понятные урлы». Это когда адрес статьи аккуратно выводится латиницей (как у меня), без русских букв и кракозябров.

У меня настройка ЧПУ идет через плагин. Так же можно делать руками.

По статистике лишь 20% сайтов имеют статьи с ЧПУ. Я далек от мысли, что это прямым образом влияет на ранжирование. Скорее аккуратный адрес можно рассматривать как дань уважения пользователям.

6! Настройка «404-й страницы». 

a1-1

При переходе по неправильной ссылке пользователь видит ответ, что страница не найдена, код 404. Если ограничиться этим стандартным ответом, то человек просто вернется в поиск, а боты зафиксируют очередной факт отказа.

Нужно не просто указать, что запрашиваемой страницы нет, а предложить читателю альтернативу. Это может быть ссылка на похожую статью или возможность поиска по сайту.

Исследования показывают, что правильно поступают лишь 40% владельцев сайтов.

7! Настройка HTML-карты. 

Это карта сайта для посетителей. Как правило, представляет собой список всех статей и страниц.

По статистике присутствует и правильно работает только у 20% сайтов. Еще у 5% ее нужно переделать. У 75% сайтов HTML-карты не вообще, а это огромный минус в плане юзабилити.

8! Настройка XML-карты.  

 

А это карта сайта для роботов. Содержит адреса всех страниц, разрешенных к индексации. 

У 15% сайтов она составлена правильно, у 40% ее нужно доработать. У 35% ее нет, что является минусом, а у 10% по разным причинам она не нужна.

a4-4

9! Качество текстов. 

Уж сколько раз твердили миру, что текст по меньшей мере должен обладать технической уникальностью, а в идеале еще и смысловой. Мониторинг рунета показал следующее.

50% сайтов собраны на копипасте. Если честно, то не ожидал, что каждый второй. У 35% сайтов уникальные статьи. У 15% уникальность нуждается в улучшении (плохой рерайт).

Заключение. 

Все, что написано выше, это база Seo. Сначала нужно довести до ума ее, а лишь потом обращаться к тонким настройкам. Как видите, владельцам большинства сайтов в рунете есть чем заняться.

На этом заканчиваю. Желаю вашим детищам успешного продвижения, а вам удовольствия от успехов.

С уважением, Владислав Заболотный.

Поделитесь статьей в соцсетях.

Комментарии (6) на “Почему 90% сайтов никогда не попадут в ТОП”

  • Действительно, работы «непочатый край». А про многие вещи нам и не рассказывали в тренинге «Путь блогера» (про настройку зеркал и редиректов, например), всё необходимо изучать самостоятельно.

    • Владислав Заболотный:

      «Путь блогера» это для тех, кто только вчера увидел компьютер))))) До остального приходится докапываться самому.

  • Привет, Влад! Вернулась с отдыха, а тут такой завал в работе… Да еще твои страшилки про 404 , редиректы, зервкала, роботсы и прочее. А черт его знает, как они у меня настроены!Кстати, про такой безумный процент копипаста я тоже не догадывалась. Но ведь это дает нам с тобой шанс! :)

    • Владислав Заболотный:

      Привет!!! Где была? Как отдохнула? А про шанс, так конечно, он у нас есть.

  • Владислав, а статистику откуда брали?
    Отлично все рассказали. Простым языком. Особенно удручают 50% копипаста.

    • Владислав Заболотный:

      Эта статья была написана в прошлом году. Я даже сейчас не вспомню, где наткнулся на статистику, но раз она есть, значит, источник надежный.

Оставить комментарий

Хотите зарабатывать?