Публикация в группе: Warehouse

Категории группы: SEO

В консоле вебмастера google есть пункт меню "Основные интернет-показатели", в нем показываются ошибки и предупреждения разные, о них вы можете прочитать в помощи.

Последнее время google меняет правила очень кардинально и robots.txt уже не защитит сайт от дублей при некоторых условиях. Вот ссылочка о конкретно описываемой ситуации когда страницы будут проиндексированы, несмотря на запрет в robots.txt.

Если вы посмотрите в этот пункт меню консоли(открыв соответствующий отчет), вы можете увидеть такую картинку, конечно если ваш сайт уже продвинулся немного.

Название предупреждения: Проиндексировано, несмотря на блокировку в файле robots.txt

Растут такие страницы просто с дикой скоростью, в моем случаи большая часть ссылок имеет параметр ?action-rcl=login. Есть конечно и другие, но на этом параметре покажу пример, как избавится от таких дублей, так как и канонический урл в данном случаи не работает(маны гугла).

В файл функций вашей темы сайта надо добавить:

Возможны вариации конечно, можно вообще оставить только "?", но это уже по необходимости, как и добавить другие варианты ссылок от дополнений или плагинов.

В итоге, исходя из рекомендаций google, мы закрываем все дубли. После проделанной операции с добавлением кода, обязательно проверить, что все гладко и запрет появляется только на нужных страницах. Далее нажать на кнопку перепроверки в консоле и ошибки исчезнут со временем, придет оповещение на почту.

Таким образом индекс сайта будет чистым и не только для гугла, но и для яндекса. Единственная защита на сегодняшний день от дублей: <meta name="robots" content="noindex, follow" />

3

Автор публикации

не в сети 17 часов

garry

2 034
SEO услуги, реклама, аудит сайтов, контент для сайтов.
Комментарии: 691Публикации: 76Регистрация: 04-01-2014Продаж/Покупок: 7577/89