Ошибки, часто встречающиеся в файле robots.txt

Автор Тема: Ошибки, часто встречающиеся в файле robots.txt  (Прочитано 42126 раз)

Оффлайн Владимир75Автор темы

  • telegram:@xiceer
  • Администратор
  • Бизнес оценка: (4, 100%)
  • *****
  • СПАСИБО: 7418
  • Сообщений: 11138
  • Карма: 657
  • Пол: Мужской
  • Это я такой уже старый
  • Награды Гроссмейстер поисковой оптимизации SEO Профессионал Более трех тысяч спасибо За благотворительность Почетный гражданин нашего форума
    • Оптимизация и Продвижение

Оффлайн Владимир75Автор темы

  • Администратор
  • *****
  • Доп. информация
    • telegram:@xiceer
    • Бизнес оценка: (4, 100%)
    • СПАСИБО: 7418
    • Сообщений: 11138
    • Карма: 657
    • Пол: Мужской
    • Это я такой уже старый
    • Награды Гроссмейстер поисковой оптимизации SEO Профессионал Более трех тысяч спасибо За благотворительность Почетный гражданин нашего форума
      • Оптимизация и Продвижение
У Яндекса написано, что протокол в директиве Host указывается только в том случае, если сайт работает по https. Так что все правильно.

Да это с тех времён, когда в вебмастере яндекса можно, как в гугле вебмастере прописывать главное зеркало сайта, но яндекс тормозной поэтому прописывать не помешает.
Услуги: Сайты в топ за две неделм Мобильный, WatsApp., Viber +79964788889, telegram @xiceer.


Оффлайн Skyer

  • Бизнес оценка: (0)
  • Рекрут
  • *
  • СПАСИБО: 1
  • Сообщений: 13
  • Карма: 0
  • Пол: Мужской
  • https://t.me/my_life_my_music

Оффлайн Skyer

  • Рекрут
  • *
  • Доп. информация
    • Бизнес оценка: (0)
    • СПАСИБО: 1
    • Сообщений: 13
    • Карма: 0
    • Пол: Мужской
    • https://t.me/my_life_my_music
1. Из практики если сайт без http:// то указываю Host: site.com
2. Если сайт с https:// то указываю Host: https://site.com  в противном случае яндекс ругается на Host

Вопрос:
Кто-то разобрался как сделать чтобы гугл не ругался на параметр Clean-param: даже если он в блоке User-agent: Yandex
Проверенный хостинг, использую не один год: www.ukraine.com.ua [nofollow]


Оффлайн alexis54

  • Бизнес оценка: (0)
  • Рекрут
  • *
  • СПАСИБО: 5
  • Сообщений: 24
  • Карма: 1
  • Пол: Мужской

Оффлайн alexis54

  • Рекрут
  • *
Есть еще один нюанс. который нигде не увидел - директива Sitemap. Если на сайте постоянно добавляется уникальный контент, то лучше НЕ добавлять в robots.txt ссылку на карту сайта.

Оффлайн Владимир75Автор темы

  • telegram:@xiceer
  • Администратор
  • Бизнес оценка: (4, 100%)
  • *****
  • СПАСИБО: 7418
  • Сообщений: 11138
  • Карма: 657
  • Пол: Мужской
  • Это я такой уже старый
  • Награды Гроссмейстер поисковой оптимизации SEO Профессионал Более трех тысяч спасибо За благотворительность Почетный гражданин нашего форума
    • Оптимизация и Продвижение

Оффлайн Владимир75Автор темы

  • Администратор
  • *****
  • Доп. информация
    • telegram:@xiceer
    • Бизнес оценка: (4, 100%)
    • СПАСИБО: 7418
    • Сообщений: 11138
    • Карма: 657
    • Пол: Мужской
    • Это я такой уже старый
    • Награды Гроссмейстер поисковой оптимизации SEO Профессионал Более трех тысяч спасибо За благотворительность Почетный гражданин нашего форума
      • Оптимизация и Продвижение
Есть еще один нюанс. который нигде не увидел - директива Sitemap. Если на сайте постоянно добавляется уникальный контент, то лучше НЕ добавлять в robots.txt ссылку на карту сайта.
Почему не добавлять, карта сайта может и автоматически обновлятся при размещении нового контента, как правило в любой cms есть такой плагин или модуль, который на автомате добавляет новый адрес в карту.
Услуги: Сайты в топ за две неделм Мобильный, WatsApp., Viber +79964788889, telegram @xiceer.

Оффлайн kirkirkir

  • Бизнес оценка: (0)
  • Дебютант
  • *
  • СПАСИБО: 1
  • Сообщений: 7
  • Карма: 0

Оффлайн kirkirkir

  • Дебютант
  • *
Особенно важно для начинающих :D
Избыточное наполнение robots.txt. Начинающие вебмастера впечатляются статьями, где сказано, что все ненужное необходимо закрыть в robots.txt и начинают закрывать вообще все, кроме текста на строго определенных страницах. Это, мягко говоря, неверно.
Во-первых, существует рекомендация Google не закрывать скрипты, CSS и прочее, что может помешать боту увидеть сайт так же, как видит его пользователь.
Во-вторых, очень большое количество ошибок связано с тем, что закрывая одно, пользователь закрывает другое тоже. Безусловно, можно и нужно проверять доступность страницы и ее элементов.
Как вариант ошибки - путаница с последовательностью Allow и Disallow.
Лучше всего закрывать в robots.txt только очевидно ненужные боту вещи, вроде формы регистрации, страницы перенаправления ссылок и т.п., а от дубликатов избавляться с помощью canonical.
Обратите внимание, что то, что Вы поправили robots.txt совсем не обозначает, что Yandex- bot и Google-bot его сразу перечитают. Для ускорения этого процесса достаточно посмотреть на robots.txt, соответствующем разделе вебмастера.
Лучше всего для начала прогоните сайт через Лабрику ( labrika ), в техническом аудите будет видно- правильно ли настроен  robots, каноникал, есть ли редиректы, есть ли битые 404 страницы и т.д.




Оффлайн Leonova

  • Бизнес оценка: (0)
  • Рекрут
  • *
  • СПАСИБО: 2
  • Сообщений: 20
  • Карма: 2
  • Пол: Женский
    • Террасная доска Харьков

Оффлайн Leonova

  • Рекрут
  • *
Спасибо.
У меня было: "User-agent:", как оказалось, это не правильно... Сделала "User-agent: *"

Оффлайн Андрейкерч

  • Бизнес оценка: (0)
  • Рекрут
  • *
  • СПАСИБО: 0
  • Сообщений: 10
  • Карма: 0
  • Пол: Мужской

Оффлайн Андрейкерч

  • Рекрут
  • *
Спасибо за информацию! Хотя бы по этому чек листу проведу проверку
Веду бизнес по рыболовным принадлежностям

Оффлайн seoquick.com.ua

  • Бизнес оценка: (0)
  • Рекрут
  • *
  • СПАСИБО: 2
  • Сообщений: 19
  • Карма: 0
  • Пол: Мужской
  • С НАМИ ВСЕГДА В ТОПЕ
    • https://seoquick.com.ua/utilities/

Оффлайн seoquick.com.ua

  • Рекрут
  • *
  • Доп. информация
    • Бизнес оценка: (0)
    • СПАСИБО: 2
    • Сообщений: 19
    • Карма: 0
    • Пол: Мужской
    • С НАМИ ВСЕГДА В ТОПЕ
      • https://seoquick.com.ua/utilities/
Нужно еще знать, что прописанные в robots.txt директивы являются рекомендациями, которых придерживаются лишь роботы крупных поисковых систем. Сторонние боты чаще всего на них внимания не обращают. Поэтому их лучше блoкировать по IP.
К тому, же заблoкированные в robots.txt страницы все еще продолжают быть доступными интернет-пользователям. Поэтому если цель – скрыть веб-страницу не только от роботов, но и от пользователей, на нее нужно установить пароль.
Поддомены рассматриваются поисковиками как отдельные сайты. Поэтому рекомендации по их индексации следует прописывать в отдельных robots.txt в корне каждого поддомена.
Учитывать регистр не стоит, так как robots.txt нечувствителен к регистру. Поэтому директивы можно писать как строчными, так и прописными. Но имена файлов и директорий должны прописываться только так, как они выглядят в адресной строке браузера.
Указанный в директиве User-agent реагирует на все указанные под ним директивы вплоть до следующей строки с User-agent. Поэтому не стоит надеяться, что директивы под вторым User-agent будут выполнены роботом, указанным в первом User-agent. Для каждого робота указания нужно дублировать.
https://seoquick.com.ua/keyword-grouping/ - кластеризатор,  20,000  ключевых слов за 1 минуту.
https://seoquick.com.ua/adwords-generator/ - Генератор объявлений Google Ads.


Оффлайн vold57

  • Бизнес оценка: (6, 100%)
  • Мастер
  • *****
  • СПАСИБО: 5496
  • Сообщений: 7731
  • Карма: 300
  • Пол: Мужской
  • Награды Более трех тысяч спасибо Мастер поисковой оптимизации
    • Аудит и продвижение сайтов

Оффлайн vold57

  • Мастер
  • *****
Для каждого робота указания нужно дублировать.
Это уже не работает - User-agent: * ?



Оффлайн aleksohotnik

  • Бизнес оценка: (0)
  • Дебютант
  • *
  • СПАСИБО: 0
  • Сообщений: 2
  • Карма: 0
  • Пол: Мужской
  • Всем добра
    • WMG

Оффлайн aleksohotnik

  • Дебютант
  • *
Это уже не работает - User-agent: * ?
работает, все зависит от потребности
newbielink:http://webmarketinggroup.ru/services/razrabotka-saytov [nonactive]


 

Похожие темы

  Тема / Автор Ответов Последний ответ
5 Ответов
4465 Просмотров
Последний ответ 03-10-2011, 15:40:03
от bumer
5 Ответов
3190 Просмотров
Последний ответ 15-02-2013, 09:35:54
от tureg1
1 Ответов
2048 Просмотров
Последний ответ 25-01-2014, 14:22:39
от Sky-fi
3 Ответов
2037 Просмотров
Последний ответ 18-10-2014, 12:56:10
от DOleg
4 Ответов
2759 Просмотров
Последний ответ 18-12-2015, 18:37:56
от ashifin