Дубли и robots.txt

Автор Алескандр, 20-03-2011, 22:00:24

« назад - далее »

АлескандрTopic starter

Здравствуйте. Подскажите правильно ли я сделал. У меня сайт на Joomla и так получилось что сторонний компонент сгенерировал множество дублей, имеется страница с расширением .html (включен mod rewrite) и динамическая страница страница дубликат. Запретил индексирование по строке ведущей на компонент и вот у меня 1200 url запрещенных роботсом. Теперь что с ними делать? Удалять? Я слышал, что при массовом удалении страниц из индекса Google накладывает дополнительный фильтр.
  •  


vladimir1983

#1
Не понял. Есть страница с расширением html, на ней контент, это страница должна участвовать в поиске.
Есть компонент который сгенерировал динамический URL на страницу которая имеет статичный адрес, и участвует в поиске, так?
Хм... Что за компонент такой?
Надо его сносить, закрывать дубли в роботсе, дубли по мере выпадут, статика останься.