Соотношение дублированного контента и уникального

Автор ir004, 01-03-2015, 20:08:45

« назад - далее »

ir004Topic starter

Здравствуйте.

Сайт содержит в основном статистику и три десятка текстовых страниц в пределах тематики. Тысячи страниц в индексе, около сотни страниц доступны с любой другой - сделан календарь для перехода, как бы по событиям за день. И на каждой странице статистика, во многом схожая с какой-нибудь другой на сайте.
Короче, тематика - спорт. Названия команд, результаты выступлений.
Решил проверить на siteliner.com. 47% дубляжи, всего 16% уникального.
Взял другой сайт, где статистики ещё больше. Там такая же картина, но сайт уважаемый и в топе выдачи ПС. Не конкурент, а просто из одной тематики.
В общем, вопрос-то в чём: может быть посоветуете убрать календарь событий? Если в какой-то день не было матчей, то и ссылка не нужна дофаллоу, вродеп.
Я по глупости изначально переключение между годами и месяцами не сделал как нофоллоу и в индекс и три тысячи уехали в индекс Гугла и Яндеха. В поиске последнего 130.
И как на самом деле ПС реагируют на подобные дубликаты? Ведь есть же добротный аналог, который тоже был прoтестирован. И тоже велико число не уникального контента на сайтах. Названия команд повторяются всё же. И в итоге сайт всё равно в топе. А за свой молодой боюсь, как бы по шапке не получить.
Благодарю всех за помощь.

Добавлено: 02-03-2015, 11:45:14


Если на странице нет никаких событий, то есть контента, то может быть поможет добавление мета-тега <meta name="robots" content="noindex"/>? И нужно ли после добавления в код таких страниц данного тега удалять эти страницы из индекса? Хотя индексом вроде бы называют те страницы, что находятся в поиске. Но эти пустые и так вне поиска (3000 индексировано, 150 в индексе).

___
При запрете загрузки изображений на странице в браузере элемент управления "Ответ" не заметен на странице. ИЕ 11.
  •  


rompurov

Поиск и индекс - это две разные вещи. Страница может быть проиндексирована, но не участвовать в выдаче.

Метатеги в данном случае ничем не помогут. Страницы нужно закрывать.
  •  


ir004Topic starter

#2
Закрывать - то есть в robots прописать запрет индексации, будет достаточно, чтобы ПС со временем сама вычистила свой кэш? Или Всё равно надо будет идти в ЯВМ и ГВМ и там вручную удалять ссылки?
Пока сделал так: закрыл в роботс, какие страницы было возможно.
На другую часть в метатегах страницы выставлю запрет - но это уже меры на будущие страницы.

Но вот на просторах сети нашёл такое мнение, что если указать "NOFOLLOW, NOINDEX" в мета-теге страницы, то ПС сама со временем почистит из своего кэша.

На счёт роботс, подскажите, пожалуйста, так будет верно?
Disallow: /some_file_with_unique_name.php?*
Предполагается запрет к индексации всех страниц, где есть указывается параметр(ы). Без параметров индексировать можно.

Добавлено: 02-03-2015, 16:20:27


Цитата: ir004 от 02-03-2015, 16:08:41
Закрывать - то есть в robots прописать запрет индексации, будет достаточно, чтобы ПС со временем сама вычистила свой кэш? Или Всё равно надо будет идти в ЯВМ и ГВМ и там вручную удалять ссылки?
Пока сделал так: закрыл в роботс, какие страницы было возможно.
На другую часть в метатегах страницы выставлю запрет - но это уже меры на будущие страницы.

Но вот на просторах сети нашёл такое мнение, что если указать "NOFOLLOW, NOINDEX" в мета-теге страницы, то ПС сама со временем почистит из своего кэша.

На счёт роботс, подскажите, пожалуйста, так будет верно?
Disallow: /some_file_with_unique_name.php?*
Предполагается запрет к индексации всех страниц, где указывается хоть один параметр. А без параметров разрешить.
  •