Все новое - это давно забытое старое!
Дубли контента, страниц и мета-данных всегда негативно сказывались на ранжировании ресурсов, но в середине 2020 года Яндекс стал активно наполнять списки таких url и отображать их в вебмастере, а к концу 2020 года и началу 2021 негативное влияние только усилилось. На первый взгляд, все "убранные из поиска" страницы кажутся разными и дублями их никак не назвать, но что же не нравится поисковику? Давайте разбираться...
Раньше, для того, чтоб исправить, нужно было просто найти дубли, закрыть их в robots.txt или склеить, поставив 301 редирект. Этих действий было достаточно для решения такой проблемы. Но теперь изменились алгоритмы поисковика и Яндекс считает дублями даже те страницы, на которых сквозняком расположены какие-то блоки или меню, если уникальный контент присутствует на странице в минимальном объеме.
На примере одного из сайтов, расскажем пример успешного решения вопроса с некачественным контентом.
Есть сайт клиента, в тематике "Светотехника", у которого в большом объеме ежедневно "выкидывались" страницы из поиска, как недостаточно качественные. Все стандартные способы не давали положительного эффекта.
В ходе разработки новой стратегии продвижения проекта, проанализировали отношение текстового контента к объему кода на страницах и выявили дублирование следующих блоков:
Что было сделано:
Почему не стали удалять эти блоки? Они нужны, чтоб можно было перейти на эти страницы, а также для того, чтоб уровень вложения был ближе к главной и корректно распределялись веса по сайту.
Все это позволило вернуть большую часть страниц в индекс поисковой системы Яндекс и получить дополнительный трафик, а клиенту - заказы.
Также хотим поделиться видео, где специалист нашей компании подробно рассказывает про поиск обычных дублей страниц различными способами.