Почему позиции падают, не растут или не соответствуют желаемым, несмотря на то, что сайт развивается и должен быть интересен людям? Рассмотрим основные факторы, влияющие на отношение к нему поисковиков и пользователей.
Контент: король или палач?
Наполнять сайт можно по-разному, поэтому и причин, по которым контент становится врагом, много. Начнем с того, что приводит к наложению санкций от поисковых систем и, как следствие, к потере позиций в выдаче:
- низкая или отсутствующая уникальность (причем, не только техническая – по результатам проверки специальными сервисами – но и смысловая);
- заспамленность;
- нерелевантость;
- дублирование страниц или присутствие похожих по смыслу текстов.
Такие проблемы возникают и у коммерческих, и у информационных сайтов. Если ставка делается на оптимизированные тексты, существует риск использования слишком большого количества ключевых фраз. А тысячный пересказ одной и той же новости не будет воспринят как информация, достойная высоких позиций.
Существует и еще одна причина, простая для понимания, но сложно устранимая: банальное отсутствие интереса к контенту у посетителей сайта. Когда одни публикации привлекают больше внимания, а другие меньше – это нормально. Но если люди попадают на сайт, что-то просматривают и безвозвратно уходят, это повод задуматься о качестве его наполнения.
Что делать? Сегодня, при постоянном развитии алгоритмов поисковых систем, важно ориентироваться на интересы посетителей. Роботы Яндекса и Google все лучше понимают смысл текстов, и про это необходимо помнить:
- аккуратно использовать ключевые слова;
- предоставлять полезную информацию;
- избегать повторений или использовать тег rel=canonical для указания первой (или нужной) публикации.
При этом поисковики умеют отличать технические описания, повторяющиеся на разных сайтах и не наказуемые, от слегка переделанных текстов с чужих сайтов и с собственных страниц. Если же говорить об информационных ресурсах, все «проще»: нужно только быть интересными. И, конечно, следить, чтобы контент не воровали, а поисковики знали, кто действительно опубликовал его первым.
Ссылки: внутренние, внешние, вредные
Переизбыток ссылок поисковикам не нравится, и это известно давно. В то же время, без ссылок невозможно организовать удобную навигацию и привлечение посетителей с других сайтов. Другими словами, ссылки тоже должны быть полезными.
Но существует опасность появления ссылок там, где они нежелательны, и с неуместными анкорами. Это может быть деятельность и некомпетентных оптимизаторов, и сомнительных сервисов продвижения, и активных конкурентов. Причем, поисковым системам безразлично, кто именно занимается спамом – санкции будут наложены, а избавиться от них затруднительно.
Что делать? Начнем с последнего случая: важно постоянно отслеживать количество и качество внешних ссылок и, разумеется, не доверять сомнительным «продвиженцам». Если же плохие ссылки появились, можно обратиться к владельцу ресурса с просьбой об их снятии, пометить их как ненужные в Disawov Tool Google и обратиться в тех. поддержку Яндекса.
Внутренние ссылки должны помогать посетителям сайта получать нужную информацию, и поисковики учитывают это. Кроме того, чем выше вовлеченность, тем лучше (но не стоит запутывать людей с целью удержания). Поэтому хорошая перелинковка – это логичная и удобная.
Также нужно следить за корректностью редиректов и правильным использованием тегов noindex и nofollow. Пренебрежение технической стороной работы сайта часто приводит к неверной индексации страниц и падению их позиций.
Изменения к лучшему и не только
Падение трафика часто связано с выполнением каких-либо работ, призванных, по идее, улучшить сайт:
- редизайн или изменение привычной навигации – посетителям могут просто не понравиться нововведения, следовательно, они сделают выбор в чужую пользу;
- переезд на другой домен – если допущены ошибки, возникнут проблемы с индексацией;
- смена протокола на HTTPS – здесь тоже можно упустить из виду важные моменты и пропасть из индекса поисковиков.
Что делать? Очень внимательно относится ко всем техническим вопросам, проверять корректность мета-тегов и редиректов после внесения изменений и, желательно, не экспериментировать в разгар сезона (если речь идет о продажах). А все новшества, касающиеся внешнего вида сайта, лучше предварительно протестировать, или заручиться согласием постоянных посетителей на внесение изменений.
Технические тонкости
К уже перечисленным возможным проблемам с внутренними ссылками и тегами, добавим следующие ошибки, приводящие к неверной индексации сайта:
- некорректное заполнение файла robots.txt – он должен быть открыт для индексации и содержать указания на все страницы, которые нужно индексировать;
- сбои в работе сервера – если в этот момент на сайт зашел робот поисковика, он не сможет ничего оценить, равно как и человек.
Если поисковики не могут получить всю нужную информацию, они не дадут сайту высокие позиции. А значит, пользователи его не увидят.
Завышенные ожидания
Наконец, все может быть в полном порядке, кроме трафика: он не растет или не доходит до желаемых показателей. И здесь причина одна – в этой тематике, для этого региона и в текущий сезон получить больше посетителей просто невозможно.
Что делать? Быть реалистами, искать другие пути для развития или принять ситуацию как есть. Если положение дел вызывает сомнения, можно проверить трафик конкурентов и сделать выводы из полученной информации.
В заключение
Если сайт интересен, важно помнить про технические нюансы, чтобы люди о нем узнали. Если сайт продающий, нужно очень внимательно относиться к его продвижению и изменению. Тогда с позициями и, как следствие, трафиком все должно быть в порядке.