На сайте имеется много дублей страниц с подобным URL:
- site.ru/vizitki/zakazat-vizitki/general.html?c=50_obshhie
- site.ru/vizitki/zakazat-vizitki/general.html?c=18_obshhie
- site.ru/vizitki/zakazat-vizitki/auto.html?c=48_avto
site.ru/vizitki/zakazat-vizitki/general.html и site.ru/vizitki/zakazat-vizitki/auto.html - это не дубли страниц.
Как закрыть от индексации дубли?
можно так:
добавив в robots.txt
Disallow: /*?c=*
закроет все ссылки которые имеют в адресе "?c="
Чтобы закрыть дублирующиеся страницы от индексации, вам нужно использовать файл robots.txt или мета-теги noindex на самих страницах.
1. Использование файла robots.txt: Вам необходимо добавить следующий код в ваш файл robots.txt:
```
User-agent: *
Disallow: /*c=*
```
Этот код запрещает индексацию всех страниц, содержащих параметр "c" в URL, который, как я понимаю, является фактором дублирования.
2. Использование мета-тегов noindex: Добавьте следующий код в секцию <head> каждой дублирующейся страницы:
```
<meta name="robots" content="noindex">
```
Оба решения помогут поисковым системам понять, что эти страницы не должны быть индексированы. Использование одного из предложенных методов должно помочь вам решить проблему дублирования страниц.
не забудьте еще и удалить дублированные ссылки из поисковиков.