не могу изменить файл robots.txt создаю новый, заливаю на сайт но ничего не меняется.. файл блокирует поисковики.. что делать?? облазил кучу форумов, в том числе и юкозовских, но ничего не нашел, на юкозовских админы говорят что файл менять не надо, говорят что на карантине или заблoкирован.. заблoкировать меня не могли так как сайт не индексирован..
кто сталкивался с юкозом?? есть какие то предложения??
сайт - http://kell-trans.at.ua/
Вам же писали, что Вы сами заблoкировали сайт в роботс
Disallow: /
Если отредактировать файл не можете, попробуйте его удалить через ФТП и залейте новый, только смотрите что бы залитый файл был в той же папке что и старый.
Вроде как на юкозе некоторое время новый сайт не открывают к индексации. Если это не так, то Brabus уже посоветовал :)
сайт новый.. мож по этому.. а старый robots.txt найти и изменить не могу!
Цитата: kellla от 04-12-2010, 15:54:30а старый robots.txt найти и изменить не могу!
Почему?
Добавлено: 04-12-2010, 18:15:57
Вот что нашел в инете
***Заходите на форум юкоза, там всё написано. Конкретно по вопросу, в вашем robots.txt так написано -
User-agent: *
Disallow: /
потому что свежесделанные сайты они сами запрещают к индексации, но если у вас там будет контент, то через некоторое время система вас "пропишет", ну например через месяц. К тому же самому нельзя менять "без разрешения" этот файл (так то теоретически можно и нужно), иначе вам удалят сайт. Либо переходите на платный хост, либо ждите и развивайте сайт.***
Добавлено: 04-12-2010, 18:20:36
http://forum.ucoz.ru/forum/21-13447-1#198769 (http://forum.ucoz.ru/forum/21-13447-1#198769)
буду ждать.. это сообщение на форуме не нашел.
вот к примеру у меня был сайт.. все пучком.. раскрутил до 20-й страницы.. потом он в поисковике пропал.. что это может быть?
Причин может быть много, зрите в корень, ищите ошибки, если сайт выпал из поиска, то возможно он не релевантен запросам, если же из индекса, то может быть бан за что нить.
Нашел то что сделано неправильно!
Нельзя копировать ключевые слова в описание сайта!
Вот пример описания:
Мы совершаем перевозки груза по Киеву и области и т.д.
Но это только пример!
5 тегов h1 вместо одного.
17 исходящих ссылок!
Вот вам и robots.txt
:o
Но все же если у вас есть надежда на то что вам смогут помочь создайте в Этой теме (http://www.sbup.com/seo-forum/besplatnye_seo_konsultacii/) новую тему и назовите её помогите с сайтом или по другому.
Изучив немного блоги на тему файла robots и прочитав изумительный учебник по seo этого форума, сварганил вот такой файл robots:
1 User-agent: *
2 Disallow:
3
4 User-agent: Yandex
5 Disallow:
6 Host: web4earn.ru
7
8 Sitemap: http://web4earn.ru/sitemap.xml.gz
9 Sitemap: http://web4earn.ru/sitemap.xml
User-agent: YandexBlog
Disallow:
User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /template.html
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content
Disallow: /tag
Disallow: /category
Disallow: /archive
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Host: web4earn.ru
Всё ли правильно составлено? Заранее спасибо за ответы
Блог без проблем у меня грузится с таким robots. По идее норм всё, только меня волнует один момент: никак негативно не отразится то, что у меня строчка Host: web4earn.ru имеется в двух экземплярах?
Цитата: Killua от 14-01-2011, 15:45:40
...меня волнует один момент: никак негативно не отразится то, что у меня строчка Host: web4earn.ru имеется в двух экземплярах?
Насколько я помню директива Host должна быть указана один раз.
насколько я знаю директива host указывается 1 раз и только для робота yandex. Остальные роботы не придают ему значение. И еще на сколько я знаю директива Allow отменена.
Цитата: andreisurger от 18-02-2011, 22:23:05host указывается 1 раз и только для робота yandex
Именно. Для гугл такой штуки не существует.
Насчет allow не знаю...