Приветствую, ребята. Вопрос, возможно, покажется глупым, но стоит ли поисковикам закрывать пагинацию ?
Цитата: alexburn от 03-01-2016, 11:48:29
Приветствую, ребята. Вопрос, возможно, покажется глупым, но стоит ли поисковикам закрывать пагинацию ?
Конечно стоит, зачем в индексе нужны дублированные страницы.
Лучше не закрывать, а оптимизировать должным образом.
Есть множество мнений, но я считаю, что правильно оптимизированные страницы навигации помогут правильной индексации и перераспределению статистического веса по сайту.
Дубли - конечно же плохо. Но если уйти от дублирования, то можно получить естественные навигационные страницы, на которые поисковик ругаться не будет.
Я в работе использую условные логические операторы для оптимизации подобных страниц (соответственно оптимизация выводится только на главной странице категории / раздела и на ней продвигается весь тематический кластер запросов), на остальных страницах пагинации выводятся сокращенные заголовки с номером страницы, аналогично с описаниями и др. элементами оптимизации.
Если возможности так сделать нет, то использую метод с canonical + теги next / prev. (Там есть много нюансов в реализации).
В крайнем случае закрываю дубли в robots.txt или тегом. (Тег в приоритете, ибо запрет в robots.txt запрещает переход по ссылкам).