Если вам нравится SbUP Форум, вы можете поддержать его - BTC: bc1qppjcl3c2cyjazy6lepmrv3fh6ke9mxs7zpfky0 , TRC20 и ещё....

 

Правильно ли настроены ЧПУ URL

Автор Redgektor, 16-01-2016, 16:33:53

« назад - далее »

RedgektorTopic starter

Здравствуйте.
Возник вопрос, правильно ли работают ЧПУ на моем сайте Kachestvo.by

А именно, на страницах категорий, если навести курсор на любую карточку товара, то в левом нижнем углу браузера отображается динамичесткая ссылка вида http://kachestvo.by/?p=1353
Такие же ссылки видны через Имитатор поисковых машин Sbup.

При переходе по этой ссылке пользователь попадает на страницу со статичным URL вида: http://kachestvo.by/rozy-akita.html

Но вот в панели вебмастера Google во вкладке "Оптимизации HTML" иногда проскакивают ошибки вроде дубля страниц с динамическим и статическим URL
http://kachestvo.by/?p=1353
http://kachestvo.by/rozy-akita.html

Вопрос:1) правильно ли у меня настроены ЧПУ.
2) Могу ли я закрыть в robots.txt страницы с динамическими ссылками по параметру *?p=*
  •  


ickis

Цитата: Redgektor от 16-01-2016, 16:33:53
Здравствуйте.
Возник вопрос, правильно ли работают ЧПУ на моем сайте Kachestvo.by

А именно, на страницах категорий, если навести курсор на любую карточку товара, то в левом нижнем углу браузера отображается динамичесткая ссылка вида http://kachestvo.by/?p=1353
Такие же ссылки видны через Имитатор поисковых машин Sbup.

При переходе по этой ссылке пользователь попадает на страницу со статичным URL вида: http://kachestvo.by/rozy-akita.html

Но вот в панели вебмастера Google во вкладке "Оптимизации HTML" иногда проскакивают ошибки вроде дубля страниц с динамическим и статическим URL
http://kachestvo.by/?p=1353
http://kachestvo.by/rozy-akita.html

Вопрос:1) правильно ли у меня настроены ЧПУ.
2) Могу ли я закрыть в robots.txt страницы с динамическими ссылками по параметру *?p=*

ЧПУ настроено не правильно. Не должен  появляться дубль страниц. При создании страниц должен сразу записываться праильный ЧПУ. Так что сначала нужно разобраться в чем косяк. В вордпрессе такого быть  не должно. Все решается настройками вордпресса.

2) Disallow: /?p=
  •  


RedgektorTopic starter

Ок. Если я закрою от индексации страницы с динамическим параметром при помощи robots.txt (Disallow: /*?p=)
Будет ли бот гугл/яндекс переходить по ссылкам с этим параметром?
Ведь получается что ссылок на страницы со статическим URL нет в категориях.
  •  

Barba Agency

на странице добавьте каноническую ссылку, робот примет ее к сведению и исключит дубль.
https://yandex.ru/support/webmaster/controlling-robot/html.xml#canonical

Комплексные услуги: Разработка сайтов, верстка макетов, веб-сервисы и порталы.
  •  

RedgektorTopic starter

Canonical установил уже больше года назад, но в инструментах Google все равно выдает дубль контента.
  •  


RedgektorTopic starter

В завершение темы сообщу, что решил вопрос с динамическими URL при помощи правки файла Category Template.
Нашел в коде где описывался порядок формирования URL-ов и заменил динамические URL на статические при помощи функции get_the_permalink ().

Надеюсь теперь страницы с динамическими URL постепенно выпадут из индекса.
  •  



Если вам нравится SbUP Форум, вы можете поддержать его - BTC: bc1qppjcl3c2cyjazy6lepmrv3fh6ke9mxs7zpfky0 , TRC20 и ещё....