Блог об интернет-маркетинге для предпринимателей и маркетологов
8 800 707-47-52

Почему сайт упал в выдаче и как вернуть позиции?

Владельцы сайтов зачастую сталкиваются с такой проблемой, как падение позиций в выдаче. Это напрямую влияет на объём органического трафика, следовательно, и непосредственно на сами продажи. Почему сайт упал в выдаче и что с этим делать, разберём в статье.

Причины падения и способы улучшения позиций

Если сайт сильно потерял видимость, в первую очередь необходимо выяснить причины подобного явления. Начать следует с шести наиболее вероятных.

1. Изменения поисковых алгоритмов

Алгоритмы поисковых систем постоянно меняются. В зависимости от сути корректировок некоторые сайты улучшают позиции в выдаче, а другие, наоборот, теряют.

Например, одно из наиболее значимых обновлений Google — Helpful Content Update. Обновление затронуло только контентную часть, чего оказалось достаточно для внесения серьёзных изменений в ранжирование сайтов, текстовое наполнение которых признано некачественным и бесполезным для посетителей.

Что делать

Следите за новостями по изменениям в ПС, изучайте решения других SEO-специалистов, анализируйте конкурентов. Сложно угадать точную механику того или иного обновления, но всегда нужно быть готовым к изменениям, даже к сильным.

Здесь не будет лишним:

проведение аналитики контента;


оценка его качества, а после — внесение изменений;


удаление разделов с неактуальной информацией.

В общем, старайтесь быть в курсе актуальной ситуации.

2. Изменения на сайте

Глобальные правки структуры или дизайна также могут стать причиной изменения восприятия страниц поисковыми системами, падения видимости вашего ресурса в выдаче.

Некоторые перемены не всегда к лучшему

В некоторых тематиках даже логичные изменения воспринимаются негативно. Необходимо проводить аналитику после внедрения доработок.

Что делать

При масштабных работах с сайтом следует вести учёт изменений и времени их внедрения. После сопоставления с датой просадки позиций удастся определить, почему она произошла — что послужило причиной возникших проблем.

Если подозрения оправдываются, то надо «откатить» доработки до прежнего уровня и снова наблюдать. Упавшие позиции должны вернуться к нему. Если же этого не произошло, нужен дополнительный аудит и поиск технических проблем. Возможно, при внедрении доработок появились ошибки в вёрстке, часть функционала стала недоступной, значительно увеличилось время загрузки.

3. Техническая оптимизация

Наличие проблем технического плана негативно сказывается на оценке сайта поисковыми системами, видимость ресурса в выдаче может сильно упасть. К такому неприятному результату способны привести ошибки с адресацией, скоростью загрузки, дублями страниц, неправильной настройкой robots.txt и т. п.

Что делать

Проведение полного технического аудита поможет оперативно обнаружить подобные ошибки. Помочь с их выявлением способны сервисы Яндекс.Вебмастер и Google Search Console, а также специализированное ПО и сервисы.

Доступность страниц по адресам. При корректировке заголовков часто в URL подтягиваются изменения при автоматическом формировании адреса. Также это актуально, если изменялась структура, но 301-й редирект не настраивали — ПС продолжают ранжировать старые адреса, которые по факту уже стали страницами, отдающими 404-й код ответа сервера.


Дубли. CMS и новые плагины способны создавать их десятками, а иногда сотнями. Если прецеденты были, нужно держать это на контроле и устранять причину появления дублей.


Проблемы с вёрсткой. Даже если на первый взгляд всё в порядке, проверьте сохранённые копии страниц. Возможно, роботы видят их иначе.


Директивы. Если изменялся файл robots.txt, стоит проконтролировать наличие в нём директив, которые запрещают индексирование полезных страниц ресурса.


Региональность сайта в Яндекс.Вебмастере. Нужно проверить её и указать верный регион, если имеющийся присвоен некорректно.

Своевременное обнаружение и исправление технических ошибок позволяет избегать существенных просадок рейтинга и формирования негативного пользовательского опыта.

4. Фильтры и текстовая оптимизация

Низкое качество контента приводит к падению позиций сайта в поисковой выдаче. Это связано с наличием текстовых фильтров: переспамленные и переоптимизированные страницы проседают в результатах поиска, а иногда и вовсе исключаются из него.

Лучше несколько раз проверить, чем один раз переоптимизировать

На данный момент выделяется 3 основных фильтра: «Переспам», «Переоптимизация» и «Новый». Каждый обладает особенностями, но итог одинаковый — позиции падают. В некоторых ситуациях речь идёт о санкциях только для одного запроса, а в случае переоптимизации проседает весь кластер.

Что делать

Необходимо провести аудит контентной части сайта, сократить количество вхождений ключей, переписать текст или сократить объём, если возможно.

Для этого стоит:

избавиться от спама, излишнего употребления n-грамм;


проверить лемматизацию;


исправить пунктуационные и орфографические ошибки (поможет сервис «Яндекс Спеллер»);


повысить уникальность и сделать текст удобочитаемым (сервисы типа «Антиплагиата», «Главреда»).

Но зачастую достаточно уменьшить объём текста.

Также необходимо провести оптимизацию метатегов Title — скорректировать их таким образом, чтобы основной высокочастотный запрос был один и располагался в начале, а второстепенные ключи дополняли его, но не копировали. То же относится к тегам Description.

Следует придерживаться рекомендуемых объёмов метатегов. Для Title оптимальны 60–80 символов с пробелами, для Description — 150–180.

5. Ссылки низкого качества

Большое количество некачественных коммерческих внешних ссылок также способно привести к санкциям со стороны ПС и ограничениям в ранжировании. И это вполне негативный сценарий даже без учёта Минусинска и Пингвина. Некачественные и спамные ссылки — уже путь к снижению позиций.

Что делать

Для обнаружения некачественных внешних ссылок необходимо провести анализ ссылочного профиля сайта, а затем избавиться от их влияния. Информацию о них можно получить в Google Search Console и других сервисах (MegaIndex, SE Ranking и т. п.).

С удалением сложнее:

Если есть контакты вебмастера сайта-донора, можно попросить его удалить необходимые ссылки.


Если ссылки закупались на бирже, то зачастую убрать их можно самостоятельно в кабинете проекта.

Если же перечисленные варианты недоступны, поможет специальный инструмент Disavow Tool — он позволяет не учитывать некачественные ссылки. Для Яндекса подобного сервиса, к сожалению, нет.

6. Конкуренты

Конкуренция — естественное явление. Если сайты ваших конкурентов сделаны качественнее и на запросы пользователей отвечают точнее, то закономерно могут обогнать вас в выдаче.

Если заботиться об удобстве пользователей и качестве контента, можно обогнать всех конкурентов

Что делать

Постоянно работайте над сайтом, применяя инструменты и приёмы, благодаря которым по поисковым запросам пользователей ваш ресурс может подняться в выдаче, причём сильно:

расширяйте семантику;


находите новые ниши;


увеличивайте ассортимент;


работайте над качеством размещаемого контента;


повышайте удобство для пользователей;


анализируйте сайты конкурентов, чтобы не отставать, быть в тренде;


улучшайте функционал и т. д.

Эти меры в комплексе помогают выигрывать в гонке конкурентов за топовыми позициями в рейтингах ПС.

Вся соль

Проведение комплекса работ над SEO и постоянное следование рекомендациям помогут не только избежать того, что сайт упал, но и добиться их роста, а значит, и увеличения трафика.

Используйте качественный уникальный контент.


Избегайте спамных конструкций в текстах.


Формируйте корректные уникальные теги и метатеги.


Не размещайте ссылки на некачественных площадках.


Регулярно пересматривайте семантику, удаляйте неактуальные запросы.


Следите за техническим состоянием ресурса.

Если вы не в состоянии выяснить причины, по которым сайт неожиданно упал в выдаче, или нуждаетесь в наиболее быстром и эффективном решении, обращайтесь к нам, оставив заявку на консультацию или аудит сайта.

Пожалуйста, поверните телефон