Если вам нравится SbUP Форум, вы можете поддержать его - BTC: bc1qppjcl3c2cyjazy6lepmrv3fh6ke9mxs7zpfky0 , TRC20 и ещё....

 

роботс.тхт

Автор Anton63, 15-11-2012, 10:19:28

« назад - далее »

Anton63Topic starter

Добрый день!
Посмотрите, пожалуйста, файл роботс правильно составлен?
User-agent: *
Disallow: /partners/
Disallow: /partners
Disallow: /admin/
Disallow: /admin

Host: sferi63.ru
Sitemap: http://sferi63.ru/sitemap.xml

Пытался закрыть от индексации всеми поискавиками страницу http://sferi63.ru/partners и такие страницы как http://sferi63.ru/partners/1 , http://sferi63.ru/partners/4 , http://sferi63.ru/partners/2 и пр. То же самое и с admin


chebj

*/partners/*
Так правильней и короче роботс
  •  


hellomoto

После составления проверяй ссылки через яндекс.вебмастер/ анализ robots не ошибешься)
  •  

Anton63Topic starter

Цитата: hellomoto от 16-11-2012, 00:54:47
После составления проверяй ссылки через яндекс.вебмастер/ анализ robots не ошибешься)
Ага, как раз вчера на этот сервис натолкнулся. Спасибо!

akkauntmako

Disallow: /partners/
и Disallow: /admin/ - лишние строки
Disallow: /partners - закрывает все страницы начинающиеся с /partners, в том числе и /partners/1 и т.д. аналогично Disallow: /admin


Anton63Topic starter

Цитата: akkauntmako от 22-11-2012, 10:34:49
Disallow: /partners/
и Disallow: /admin/ - лишние строки
Disallow: /partners - закрывает все страницы начинающиеся с /partners, в том числе и /partners/1 и т.д. аналогично Disallow: /admin
Яндекс говорит об обратном - этих строк не достаточно.



Если вам нравится SbUP Форум, вы можете поддержать его - BTC: bc1qppjcl3c2cyjazy6lepmrv3fh6ke9mxs7zpfky0 , TRC20 и ещё....