Дубли и robots.txt

Автор Тема: Дубли и robots.txt  (Прочитано 1418 раз)

Оффлайн АлескандрАвтор темы

  • Бизнес оценка: (0)
  • Дебютант
  • *
  • СПАСИБО: 0
  • Сообщений: 3
  • Карма: 1
    • Просмотр профиля

Оффлайн АлескандрАвтор темы

  • Дебютант
  • *
Дубли и robots.txt
« : 20-03-2011, 23:00:24 »
Здравствуйте. Подскажите правильно ли я сделал. У меня сайт на Joomla и так получилось что сторонний компонент сгенерировал множество дублей, имеется страница с расширением .html (включен mod rewrite) и динамическая страница страница дубликат. Запретил индексирование по строке ведущей на компонент и вот у меня 1200 url запрещенных роботсом. Теперь что с ними делать? Удалять? Я слышал, что при массовом удалении страниц из индекса Google накладывает дополнительный фильтр.


Оффлайн vladimir1983

  • Бизнес оценка: (0)
  • Ветеран
  • *****
  • СПАСИБО: 79
  • Сообщений: 921
  • Карма: 101
  • Пол: Мужской
  • Награды За благотворительность Почетный гражданин нашего форума
    • Просмотр профиля
    • Волнистые попугаи

Оффлайн vladimir1983

  • Ветеран
  • *****
Re: Дубли и robots.txt
« Ответ #1 : 21-03-2011, 01:27:59 »
Не понял. Есть страница с расширением html, на ней контент, это страница должна участвовать в поиске.
Есть компонент который сгенерировал динамический URL на страницу которая имеет статичный адрес, и участвует в поиске, так?
Хм... Что за компонент такой?
Надо его сносить, закрывать дубли в роботсе, дубли по мере выпадут, статика останься.
« Последнее редактирование: 09-04-2011, 07:29:35 от vladimir1983 »


 

Похожие темы

  Тема / Автор Ответов Последний ответ
7 Ответов
3829 Просмотров
Последний ответ 07-02-2013, 19:23:43
от kotkem
0 Ответов
1701 Просмотров
Последний ответ 12-01-2012, 09:33:46
от Konsul
7 Ответов
1904 Просмотров
Последний ответ 14-01-2012, 07:53:49
от mark3000
1 Ответов
1072 Просмотров
Последний ответ 26-08-2013, 16:38:12
от arsenkin
1 Ответов
569 Просмотров
Последний ответ 16-09-2018, 07:51:07
от vold57