Доброй ночи. Может есть какие-то мысли по поводу решения данного косяка (скрин). Одни и те же ошибки на всех публикациях сайта..хотя в структуре эти данные вроде как заполнены. Буду благодарен за любые наводки решения проблемы. Спасибо. Сайт:
Приветствую.
Это не от моего допа, с нима все ок у вас, смотрите тип по скрину
Но у вас там на странице сразу несколько типов зачем то и кстати ошибки в BlogPosting, а этим типом надо только анонсы разметить.
Вот в нем и не хватает полей. На странице статьи не нужна эта разметка, там где анонсы, скажем на главной.
Вообще у вас и Article два раза, может один от допа моего, второй от самого рейтинга если не выключили разметку в настройках публикаций(в рейтинге). Тут можете любой вариант использовать.
Я так понимаю настроек микродаты нет в вашем шаблоне.
Тогда надо найти в файле шаблона itemprop="author"
, хотя возможно удалив BlogPosting вы оставили дальше разметку от него или эта разметка лезет в другую сущность.
У вас там реально все не просто и намешано судя по тесту что я видел.
Подсказывать сложно что то из далека так сказать, вам надо смотреть по тесту и исправлять последовательно. Микроразметка достаточно часто криво в шаблонах сделана и тем более не учитывается яндекс, там то же проверьте.
Путь один, найти ошибку и можно скопировать то что гугл пишет про нее справа и в поиск, там решения есть все.
Но ссразу все проверяя в обоих валидаторах.
Игорь, доброго вечера!
Сразу хочу извиниться, что влез в эту тему, просто я не пойму в гугловском валидаторе ошибок вообще нет, а в яндексовском две ошибки и предупреждение (Скрин
). При чем пробовал плагин от SAZONISCHE и тоже самое.
Подскажите плиз почему так? Из за самой темы?
Александр - создавайте свою новую тему!
Если вы влезли в чужую тему со своим вопросом и проблемой - вам на почту не придет ответ. Ответ придет топикстартеру (тот кто создал эту тему) - поэтому лучше создавайте новую тему - мониторить ответы проще и удобней.
В новой теме опишите свою проблему, если похожая проблема обсуждалась - укажите ссылкой на ту тему.
Александр сказал(а)
Игорь, доброго вечера!
Сразу хочу извиниться, что влез в эту тему, просто я не пойму в гугловском валидаторе ошибок вообще нет, а в яндексовском две ошибки и предупреждение (СкринВы не можете просматривать опубликованные ссылки). При чем пробовал плагин от SAZONISCHE и тоже самое.
Подскажите плиз почему так? Из за самой темы?
По моему ошибки на Яндексе это нормально Целый день морочился с гребанной ошибкой microdata, так и не смог ее убить...Не функция, не тэги .. ничего не помогло. Эти ошибки настолько безразличные, что думаю вообще не стоит обращать на них внимание. Гугл явно умнее.
garry сказал(а)
А что это за блок разметки какая сущность, тип выше какой?
Да и архивы в индексе не нужны можно же закрыть от индексации и просто забить на ошибку.
Блоки списков записей (
). Не знаю..по моему архивы в поиске совершенно не лишние. Поисковики индексируют тэги, категории..архивы отображают эти запросы. Ничего плохого как бы в этом не вижу, а наоборот.
pro100maxik сказал(а)
Поисковики индексируют тэги, категории..архивы отображают эти запросы
Только это дублями называется и снижает ролевантность основных страниц и по факту самого сайта и тд и тп.
Но можно не обращать на это внимание и тогда искать где есть что то такое и не имеет значения itemprop="itemListElement"
garry сказал(а)
pro100maxik сказал(а)
Поисковики индексируют тэги, категории..архивы отображают эти запросыТолько это дублями называется и снижает ролевантность основных страниц и по факту самого сайта и тд и тп.
Но можно не обращать на это внимание и тогда искать где есть что то такое и не имеет значения itemprop="itemListElement"
Да и поисковики далеко не всегда реагируют должным образом на robots.txt. Добавлял значение itemprop="itemListElement" туда, куда он мне указывает, но никакой реакции . Попробую и в самом делей закрыть архивы от индексации.
garry сказал(а)
pro100maxik сказал(а)
Да и поисковики далеко не всегда реагируют должным образом на robots.txtЭто какие? Если все директивы правильно выставить всегда все работает как надо))
Та гугл и яндекс даже сами пишут, что не гарантируют верный обход роботом запрещенных страниц через robots.