Seo Форум

Поисковая оптимизация => Продвижение сайта => Оптимизация страниц => Тема начата: evgosan от 24-10-2012, 13:50:08

Название: Как закрыть дубли от индексации
Отправлено: evgosan от 24-10-2012, 13:50:08
На сайте имеется много дублей страниц с подобным URL:
site.ru/vizitki/zakazat-vizitki/general.html и site.ru/vizitki/zakazat-vizitki/auto.html - это не дубли страниц.
Как закрыть от индексации дубли?
Название: Re: Как закрыть дубли от индексации
Отправлено: nemetc от 24-10-2012, 13:56:37
можно так:
добавив в robots.txt
Disallow: /*?c=*

закроет все ссылки которые имеют в адресе "?c="
Название: Re: Как закрыть дубли от индексации
Отправлено: MrViper от 29-10-2012, 23:39:55
Чтобы закрыть дублирующиеся страницы от индексации, вам нужно использовать файл robots.txt или мета-теги noindex на самих страницах.

1. Использование файла robots.txt: Вам необходимо добавить следующий код в ваш файл robots.txt:
   ```
   User-agent: *
   Disallow: /*c=*
   ```
   Этот код запрещает индексацию всех страниц, содержащих параметр "c" в URL, который, как я понимаю, является фактором дублирования.

2. Использование мета-тегов noindex: Добавьте следующий код в секцию <head> каждой дублирующейся страницы:
   ```
   <meta name="robots" content="noindex">
   ```

Оба решения помогут поисковым системам понять, что эти страницы не должны быть индексированы. Использование одного из предложенных методов должно помочь вам решить проблему дублирования страниц.

не забудьте еще и удалить дублированные ссылки из поисковиков.