Если вам нравится SbUP Форум, вы можете поддержать его - BTC: bc1qppjcl3c2cyjazy6lepmrv3fh6ke9mxs7zpfky0 , TRC20 и ещё....

 

Как закрыть дубли от индексации

Автор evgosan, 24-10-2012, 13:50:08

« назад - далее »

evgosanTopic starter

На сайте имеется много дублей страниц с подобным URL:

  • site.ru/vizitki/zakazat-vizitki/general.html?c=50_obshhie
  • site.ru/vizitki/zakazat-vizitki/general.html?c=18_obshhie
  • site.ru/vizitki/zakazat-vizitki/auto.html?c=48_avto
site.ru/vizitki/zakazat-vizitki/general.html и site.ru/vizitki/zakazat-vizitki/auto.html - это не дубли страниц.
Как закрыть от индексации дубли?
  •  


nemetc

можно так:
добавив в robots.txt
Disallow: /*?c=*

закроет все ссылки которые имеют в адресе "?c="


MrViper

#2
Чтобы закрыть дублирующиеся страницы от индексации, вам нужно использовать файл robots.txt или мета-теги noindex на самих страницах.

1. Использование файла robots.txt: Вам необходимо добавить следующий код в ваш файл robots.txt:
   ```
   User-agent: *
   Disallow: /*c=*
   ```
   Этот код запрещает индексацию всех страниц, содержащих параметр "c" в URL, который, как я понимаю, является фактором дублирования.

2. Использование мета-тегов noindex: Добавьте следующий код в секцию <head> каждой дублирующейся страницы:
   ```
   <meta name="robots" content="noindex">
   ```

Оба решения помогут поисковым системам понять, что эти страницы не должны быть индексированы. Использование одного из предложенных методов должно помочь вам решить проблему дублирования страниц.

не забудьте еще и удалить дублированные ссылки из поисковиков.



Если вам нравится SbUP Форум, вы можете поддержать его - BTC: bc1qppjcl3c2cyjazy6lepmrv3fh6ke9mxs7zpfky0 , TRC20 и ещё....