Если вам нравится SbUP Форум, вы можете поддержать его - BTC: bc1qppjcl3c2cyjazy6lepmrv3fh6ke9mxs7zpfky0 , TRC20 и ещё....

 

Файл robots.txt, вероятно, является недействительным

Автор Dimitrij, 18-10-2012, 12:19:28

« назад - далее »

DimitrijTopic starter

Собственно создаю отдельную тему,т.к. в другой так и не дождался ответа.

В панели "вебмастер  Гугл" пишется "Файл robots.txt, вероятно, является недействительным". Однако Яндекс видит мой файл и загружает без проблем, а Гугл упoрно не распознает его. В панели вебмастера так же указан статус, что он никогда не загружался. Хотя при анализе "Посмотреть как Гугл бот" показывает, что все в порядке с ним и он его видит. Уже второй месяц так. Почему это может быть?

Сам файл

User-agent: *
Disallow: /bitrix/
Disallow: /search/
Allow: /search/map.php
Disallow: /auth/
Disallow: /auth.php
Disallow: /*?print=
Disallow: /*&print=
Disallow: *print=Y
Disallow: /*login=yes
Disallow: /*logout=yes
Disallow: /*back_url=*
Disallow: /?*
Disallow: /*.zip$
Disallow: /discount/
Disallow: /news/kak-kupit-v-nashem-magazine*
Disallow: /about/
Disallow: /personal/
Disallow: /*error=1

User-agent: Yandex # Правила для поисковика Yandex
Disallow: /bitrix/
Disallow: /search/
Allow: /search/map.php
Disallow: /auth/
Disallow: /auth.php
Disallow: /*?print=
Disallow: /*&print=
Disallow: *print=Y
Disallow: /*login=yes
Disallow: /*logout=yes
Disallow: /*back_url=*
Disallow: /?*
Disallow: /*.zip$
Disallow: /discount/
Disallow: /news/kak-kupit-v-nashem-magazine*
Disallow: /about/
Disallow: /personal/
Disallow: /*error=1
Crawl-delay: 5 # Задает таймаут 5 секунд.

Где копать - может на хостинге или в самом движке? Надеюсь на помощь,т.к. уже иссякли всякие предположения ???
  •  


Кирилл_Lux

Сделайте так и будет счастье, зачем Crawl-delay: 5 и разграничение на поисковики это простой вариант, также копайте в сторону присутствия кириллици возможно.

User-agent: *
Disallow: /bitrix/
Disallow: /search/
Disallow: /auth/
Disallow: /auth.php
Disallow: /*?print=
Disallow: /*&print=
Disallow: *print=Y
Disallow: /*login=yes
Disallow: /*logout=yes
Disallow: /*back_url=*
Disallow: /?*
Disallow: /*.zip$
Disallow: /discount/
Disallow: /news/kak-kupit-v-nashem-magazine*
Disallow: /about/
Disallow: /personal/
Disallow: /*error=1
Allow: /search/map.php
Host: ваш сайт (с www либо без www)
Sitemap: "путь к карте сайта"
А кому и среда - суббота, а где-то субботы нет :D
  •  


DimitrijTopic starter

С кириллицей может еще и так, хотя  она и располагается как комментарий. А вот для Яндекса, надо ведь отдельную инструкцию создавать, чтобы другие роботы не заморачивались с директивой Host, которую они вообще не понимают и могут выдавать какую-нибудь ошибку при обработке. Или я в чем-то не прав?
  •  

Кирилл_Lux

Ну на моих сайтах такая структура у файла robots проблем не вызывала и yandex и google отлично все понимают за другие на скажу
А кому и среда - суббота, а где-то субботы нет :D
  •  

MrViper

Попробуйте создать свой собственный робот.тхт не индексируемые страници поместите как дисаллов а индексируемые как аллов



Если вам нравится SbUP Форум, вы можете поддержать его - BTC: bc1qppjcl3c2cyjazy6lepmrv3fh6ke9mxs7zpfky0 , TRC20 и ещё....