Дубли страниц со слешем на конце и без

Автор westj, 11-03-2012, 09:49:39

« назад - далее »

westjTopic starter

В индексе яндекса у сайта есть дубли страниц со слешем на конце и без него.
То есть-
http://site.ru/stranica/
http://site.ru/stranica
Написал в яндекс - отвечают что нужно сделать 301 редирект со страниц без слеша на страницы со слешем на конце. Но сайт на народе и пхп там нет, то есть htaccess не работает. Спрашиваю - как сделать на народе? Молчат.
Может быть можно как то закрыть такие дубли в роботсе?
  •  


Darius

#1
Заинтересовал Ваш вопрос. Вот поглядите сдесь http://b23.ru/k02k


А вообще вот решение, делаете несколько разных страниц по каторым доступен сайт, например www.domen.narod.ru/ и делаете как тут описано. http://u.to/02HQAQ
Пицца на заказ в Камышине, бесплатная доставка. Пиццерия Сан-Ремо ул. Юбилейная 4.
Тел заказов: 8-909-39-039-39. И шикарная итальянка уже в Вашей компании!
  •  


SeoBrabus

Прописать в хтаццес
RewriteCond %{REQUEST_URI} (.*/[^/.]+)($|\?)
RewriteRule .* %1/ [R=301,L]
это решение, теперь все будут со слешем в конце
  •  

westjTopic starter

Цитата: Darius от 11-03-2012, 10:42:41
Заинтересовал Ваш вопрос. Вот поглядите сдесь http://b23.ru/k02k


А вообще вот решение, делаете несколько разных страниц по каторым доступен сайт, например www.domen.narod.ru/ и делаете как тут описано. http://u.to/02HQAQ
на счёт первого метода - на народе нет пхп
на счёт второго - тоже не вариант, так этот метатег придётся прописывать в каждую страницу сайта, и после редактирования всё делать снова.

Добавлено: 11-03-2012, 12:25:41


Цитата: Brabus от 11-03-2012, 11:04:40
Прописать в хтаццес
RewriteCond %{REQUEST_URI} (.*/[^/.]+)($|\?)
RewriteRule .* %1/ [R=301,L]
это решение, теперь все будут со слешем в конце
на народе нет htaccess
  •  

SeoBrabus

тогда два варианта, нормальный хостинг и домен или в роботс на запрет
Первый вариант куда лучше, сколько у вас страниц будет в итоге и что на все запреты ставить? Найдите недорогой хостинг и купите домен
  •  


mate

#5
Да, можно закрыть дубли страниц с помощью файла robots.txt. Вам необходимо добавить следующую инструкцию в файл robots.txt вашего сайта:

Disallow: /*

Это позволит поисковым роботам не индексировать дубли страниц на вашем сайте. Однако, имейте в виду, что это может также запретить индексацию других страниц на вашем сайте, поэтому будьте осторожны при использовании этой инструкции. Если у вас есть конкретные страницы, которые вы хотите запретить индексировать, вы можете добавить их URL в файл robots.txt.

web

#6
Не нужно ничего менять, у westj домен второго уровня, прикрученный к народу. Ему нужно свой домен перенаправить на новый хостинг, и, по возможности, при переносе сайта, сохранить адреса статей. Если адреса сохранить не удастся нужно перенаправить старые адреса на новые внутри сайта.

westjTopic starter

#7
Цитата: web от 11-03-2012, 16:57:07
Не нужно ничего менять, у westj домен второго уровня, прикрученный к народу. Ему нужно свой домен перенаправить на новый хостинг, и, по возможности, при переносе сайта, сохранить адреса статей. Если адреса сохранить не удастся нужно перенаправить старые адреса на новые внутри сайта.
ради того чтобы закрыть дубли переносить сайт на cms и платный хостинг? это не так просто и оно того не стоит. я скорее его просто удалю)

Добавлено: 11-03-2012, 19:27:20


Цитата: Brabus от 11-03-2012, 15:22:36
тогда два варианта, нормальный хостинг и домен или в роботс на запрет
Первый вариант куда лучше, сколько у вас страниц будет в итоге и что на все запреты ставить? Найдите недорогой хостинг и купите домен
домен давно прикручен. а нельзя в роботсе как то запретить все страницы со слешем или без?

Добавлено: 12-03-2012, 08:52:32


Цитата: Brabus от 11-03-2012, 15:22:36
тогда два варианта, нормальный хостинг и домен или в роботс на запрет
Первый вариант куда лучше, сколько у вас страниц будет в итоге и что на все запреты ставить? Найдите недорогой хостинг и купите домен
как этот запрет в роботсе делать?
свой домен давно прикручен.
  •