В связи с большим количеством вопросов по индексации, решил создать FAQ – вопросы и ответы, надеюсь, он будет полезен тем, кто собирается задать свой вопрос. В этом ФАКе рассматриваем индексацию двух наиболее популярных систем – google и yandex
Что такое индексация?
Индексация - это обход поисковыми роботами интернет страниц и добавление их (страниц) в свою базу для последующей обработки, систематизации и вывода в результатах поиска.
Каков механизм индексации?
Механизм прост. Поисковой робот находит ссылку на ваш сайт, или на отдельную страницу, в интернете. Переходит по этой ссылки и начинает загружать страницы себе в базу. Робот будет переходить по ссылкам на вашем сайте и таким образом обойдет их все. Если страница или целый сайт недоступен, робот не будет задерживаться и пойдет дальше.
Как добавить мой сайт на индексацию?
Для индексации сайта, достаточно разместить ссылку на ваш сайт на уже проиндексированном ресурсе. Но, стоит добавить сайт, непосредственно в аддурилки (панель добавления новых сайтов) поисковых систем -
http://webmaster.yandex.ru/addurl.xml (http://webmaster.yandex.ru/addurl.xml)
http://www.google.ru/addurl/?continue=/addurl (http://www.google.ru/addurl/?continue=/addurl)
Что такое робот поисковой системы?
Робот (англ. crawler) хранит список URL, которые он может проиндексировать, и регулярно выкачивает соответствующие им документы. Если при анализе документа робот обнаруживает новую ссылку, он добавляет ее в свой список. Таким образом, любой документ или сайт, на который есть ссылки, может быть найден роботом, а значит, и поиском Яндекса.
Какие бывают индексирующие роботы
В Яндексе есть несколько видов роботов, которые выполняют разные функции. Например, есть робот, который индексирует rss-ленту для поиска по блогам. Или робот, который индексирует только картинки. Самый важный — основной индексирующий робот, функция которого — поиск и индексирование информации для формирования базы основного поиска.
В помощь основному есть быстрый робот — он предназначен для оперативного индексирования свежей, актуальной на данный момент информации. Если среди проиндексированных страниц своего сайта вы видите две копии какого-либо документа — скорее всего это означает, что помимо основного робота документ также был проиндексирован и быстрым роботом.
Взято из хелпа яндекса - http://help.yandex.ru/webmaster/?id=995324 (http://help.yandex.ru/webmaster/?id=995324)
С более полным списком роботов ПС и тем, как они представляются в логах можно ознакомиться тут - http://www.tengy.ru/bot.html (http://www.tengy.ru/bot.html)
Каково среднее время индексации сайта?
Время индексации сайта может варьироваться от нескольких часов, до нескольких недель и даже месяцев, тут все зависит от вас и вашего ресурса.
Как ускорить процесс индексации?
Для ускорения процесса индексации, нужно добавить свои ссылки в социальные закладки, которые любят ПС (поисковые системы) Приведу несколько наиболее любимых закладок у ПС:
http://memori.ru/ (http://memori.ru/)
http://zakladki.yandex.ru/ (http://zakladki.yandex.ru/)
http://bobrdobr.ru/ (http://bobrdobr.ru/)
https://www.google.com/bookmarks/ (https://www.google.com/bookmarks/)
http://www.delicious.com/ (http://www.delicious.com/)
Другие закладки, можно посмотреть, например, ТУТ (http://www.sbup.com/scripts/social_icons/social-bookmarks.php?pagetitle=Seo%20Wiki%20-%20%D0%9F%D0%BE%D0%B8%D1%81%D0%BA%D0%BE%D0%B2%D0%B0%D1%8F%20%D0%9E%D0%BF%D1%82%D0%B8%D0%BC%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F%20%D0%B8%20%D0%9F%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5&pageurl=http://www.sbup.com/wiki/Seo_Wiki)
Так же добавьте свой сайт в панели веб мастера ПС
http://webmaster.yandex.ru/ (http://webmaster.yandex.ru/)
http://www.google.ru/webmasters/ (http://www.google.ru/webmasters/)
Позже они вам пригодятся не только для индексации, но и для анализа.
Влияет ли качество хостинга на скорость индексации?
Да влияет, если ваш хостинг работает с перебоями и ваш сайт часто не работает, либо имеет длительное время отклика, то роботы ПС не смогу проиндексировать ваш сайт во время его недоступности. А это увеличивает время индексации сайта. Будьте внимательны и следите за постоянной доступностью сайта, ведь неизвестно, когда к вам заглянет робот.
Влияет ли имя домена на качество индексации?
Вопрос спoрный, но лучше не извращаться и присваивать своим сайтам понятные и не сильно длинные имена.
Что такое Ап выдачи или когда ждать результатов индексации?
Ап - апгрейд, это обновление чего либо, в данном случае – это обновление результатов выдачи. После обработки загруженных роботом страниц при индексации, они появляются в поиске. Так вот, при каждом апе происходит обновления списка поисковой выдачи, списка ранжирования сайтов. У Яндекса такой ап происходит в определенные дни 1-2 раза в неделю. А другие дни поиск не обновляется. У гугла наоборот, ап происходит постоянно и в любое время ваши страницы могут быть проиндексированы и добавлены в поиск.
Что такое ЧПУ?
ЧеловекоПонятный урл, то есть ссылки вида - http://www.sbup.com/seo-forum/indeksaciya_saita/ - удобные для восприятия человеком. Эти ссылки помогают сайтам занимать более высокие места в поисковой выдачи, за счет дополнительного ключа в адресе страницы.
Страницы были проиндексированы, но я поменял контент и дизайн?
Ничего страшного, со временем, все страницы в поиске обновятся на новые, но у яндекса это может затянуться на несколько месяцев, с гуглом должно быть быстрее.
Почему поисковые системы не индексируют страницы сайта?
Тут несколько вариантов:
Flash и Java ссылки
Запрет в Robots.txt
Слишком большое количество ссылок на странице
Бан сайта поисковыми системами
Запрет в мета-тегах
Вход на страницы через заполнение форм
Неуникальный контент
Что такое карта сайта и для чего она нужна?
Карта сайта (Sitemap) – это содержание нашего сайта, аналогично содержанию любой книги. В файле карты представлены все раздела и материалы сайта. И служит карта для быстрого и полного индексирования сайта, а так же для удобства навигации пользователей. Для разных CMS (систем управления сайтом) существуют разные карты сайта, например на WordPress существуют специальные плагины для простоты создания.
Подробнее о создании карты -
http://htmlweb.ru/analiz/sitemap.php (http://htmlweb.ru/analiz/sitemap.php)
Как настроить robots.txt?
Robots.txt — специализированный файл, с его помощью мы ограничиваем доступ поисковым роботам к тому или другому разделу сайта. Любой поисковой робот сначала прочитает Robots.txt, а только потом начнет индексировать страницы сайта.
Так же с помощью файла robots.txt можно ограничить индексацию сайта, однако некоторые недобросовестные боты могут игнорировать наличие этого файла.
Тема довольно обширная, поэтому более подробно о robots.txt советую прочесть по этим ссылкам –
http://ktonanovenkogo.ru/seo/uluchshaem-indeksaciyu-sajta-poiskovikami-robots-txt-dlya-joomla-smf-wordpress-chast-2.html (http://ktonanovenkogo.ru/seo/uluchshaem-indeksaciyu-sajta-poiskovikami-robots-txt-dlya-joomla-smf-wordpress-chast-2.html)
http://www.stasv.ru/articles/robotstxt/ (http://www.stasv.ru/articles/robotstxt/)
Как узнать когда был поисковой робот на моем сайте?
Можно посмотреть логи, если робот был на сайте, там это будет зафиксировано, как представляются роботы ПС смотрите тут - http://www.tengy.ru/bot.html (http://www.tengy.ru/bot.html)
А можно пойти, на мой взгляд, по более простому пути, а именно, добавить свой сайт в панель вебмастера ПС
http://webmaster.yandex.ru/ (http://webmaster.yandex.ru/)
http://www.google.ru/webmasters/ (http://www.google.ru/webmasters/)
Что такое ранжирование?
Это процесс выстраивания найденных по запросу пользователя страниц в порядке наибольшего соответствия искомому запросу.
Как попасть в топ по поисковой выдаче?
Очень обширный вопрос, это исследует и изучает такое понятие как SEO. Ответ на этот вопрос – это комплекс мероприятий направленных на поисковую оптимизацию. На это влияет большой ряд факторов. Этому посвящено множество тем на этом форуме.
Что такое бан и за что его можно получить?
Своими словами на этот вопрос ответить не получится, потому как ПС банят за определенные провинности и для раскрытия этого вопроса обратимся к статье взятой из блога http://www.cavablog.pp.ua/seo/ban-sajta-ot-yandeksa-i-google/ (http://www.cavablog.pp.ua/seo/ban-sajta-ot-yandeksa-i-google/)
Бан сайта – выброс сайта из индекса поисковой системы и невозможность добавления сайта в индекс ПС.
Давайте разберемся, с помощью, каких действий можно попасть в бан.
Я собрал "данные правила" в виде тезисов.
За что можно получить бан от Яндекса
1.Клоакинг (подмена содержимого сайта при обращении к ней ПС и пользователя);
2.Высокая плотность ключевых слов (больше чем 7%);
3.Большое количество исходящих ссылок;
4.Низкий процент уникальности контента на сайте;
5.Бессмысленый текст (генерируется в автоматическом режиме);
6.Скрытый текст (текст, который совпадает с цветом фона);
7.Большое количество рекламы;
8.Участие сайта в линкфарме;
Выше были приведены основные правила, по которым происходит бан сайта от Яндекса.
За что можно получить бан от Google
1.Чужой контент;
2.Скрытый текст (белый текст на белом фоне довольно популярное явление);
3.Частое использование ключевиков;
4.Участие в линкфарме;
5.Клоакинг;
6.Исходящие ссылки в большом количестве;
7.Распостранение вирусов с вашего домена;
8.Спам с домена;
Только что привел основные "правила", следуя которым можно получить бан сайта от яндекса и google.
Разделение на бан от яндекса и google очень условное.
Вы ж понимаете, что это два топовых поисковика в RUS и UA.
Примечание*
Линкфармы – сайты или группы сайтов, интенсивно ссылающиеся друг на друга
Что такое фильтры и какими они бывают?
Фильтры – это определенные алгоритмы, которые направлены на удаление из поиска ненужных страниц, хлама. Фильтром достаточно много, каждый я тут описывать не буду, а приведу лишь их названия, а описания уже прочтете по ссылкам.
Фильтры Яндекса:
Непот-фильтр
Редирект фильтр
Фильтр плотности ключевых слов
Фильтр «Ты последний»
АГС-30 и АГС-17
Аффилирование
Фильтры Google:
"Песочница" (sandbox)
Фильтр "Дополнительные результаты"
Фильтр Bombing
Фильтр Bowling
Фильтр "Возраст домена"
Фильтр "Дублирующийся контент"
Фильтр -30
Фильтр "Опущенные результаты"
Фильтр "Социтирование"
Фильтр "Links"
Фильтр "Много ссылок сразу"
Фильтр "Чрезмерная оптимизация"
Фильтр "Битые ссылки"
Общий фильтр "Степень доверия" (Google Trust Rank (http://www.sbup.com/seo-forum/seo_servisy__seo_instrumenty_i_seo_utility/proverka_trastovosti_saita/))
Подробно о фильтрaх можно прочесть тут -
http://tytto.ru/Ссылки/2009-09-24-07-55-43.html (http://tytto.ru/%D0%A1%D1%81%D1%8B%D0%BB%D0%BA%D0%B8/2009-09-24-07-55-43.html)
http://dlepro.com/310-filtry-ps-yandeks-i-google.html (http://dlepro.com/310-filtry-ps-yandeks-i-google.html)
Так же занимательный видео семинар по фильтрам -
http://rutube.ru/tracks/2573947.html?v=da0c25e363a81642bfeb53b3082aefa5 (http://rutube.ru/tracks/2573947.html?v=da0c25e363a81642bfeb53b3082aefa5)
Что делать если ничего не помогает и мой сайт не индексируется яндексом?
Если вы все перепробовали и прошло уже достаточно времени, а ваш сайт так и не появился в поисковой выдаче Яндекса, остается одно – писать письмо Платону Щукину - http://feedback.yandex.ru/?from=webmaster (http://feedback.yandex.ru/?from=webmaster) Подробно опишите суть вашей проблемы и вам в скором времени ответят и расскажут ваши дальнейшие действия.
Кто такой Платон Щукин?
Это очень хороший вопрос и конкретного ответа на него нет, многие считают что это команда саппорта яндекса, кто-то говорит, что это один человек. Прочтите вот эту статью - http://www.terehoff.com/platot-schukin-living-person.html (http://www.terehoff.com/platot-schukin-living-person.html) может что-то проясниться для вас.
Чем страшны дубли страниц?
Из книги «Продвижение сайта в поисковых системах» (И.Ашманов, А.Иванов)
Еще одной проблемой для крупных сайтов могут стать дубликаты страниц. После того как на сайте была изменена адресация страниц, может возникнуть ситуация, когда для каждой страницы сайта существует еще несколько ее копий. Приведем в качестве примера несколько адресов, которые для робота будут разными страницами, но на самом деле ведут на одну и ту же страницу (предположим, что на сайте были введены псевдостатические адреса):
• www.site.ru/script.php?page=service&mode=show
• vww.site.ru/service/
• www.site.ru/service.html
• www.site.ru/service.htm
Если на этом сайте, к примеру, было 1000 страниц, то поисковая система получит 4000 ссылок, а позже вынуждена будет выбирать из четырех копий наиболее релевантную страницу на сайте. Чтобы этого не случилось, нужно проверять страницы сайта и исключать ситуации, когда по нескольким разным адресам находятся совершенно одинаковые страницы.
Отдельно следует отметить механизм Яндекса по удалению дубликатов: когда количество одинаковых страниц сайта достигает определенного порога, запускается специальная программа, которая удаляет лишние страницы из индекса поисковой системы. Иногда после такой процедуры в индексе просто не остается документов с сайта, и процесс индексации начинается с самого начала.
Какой вид адреса для индексирования поисковиком лучше?
Из книги «Продвижение сайта в поисковых системах» (И.Ашманов, А.Иванов)
Если на сайте адреса страниц приводятся из динамического в псевдостатический вид, то может возникнуть вопрос: какой вид адреса для индексирования поисковиком лучше — с расширением файла (www. site . ru/realty-broker-sarvice.html) или без (www.site.ru/realty-broker-service/). В первом случае все хорошо — робот поисковика сразу принимает с сайта HTML-файл. Во втором случае появляется одна особенность: дело в том, что браузер Internet Explorer, как и робот поисковой системы Yahoo, отбрасывает завершающий слеш в адресе, даже если он явно указан. Поэтому вам нужно будет настраивать обработку адресов в файле .htaccess так, чтобы они создавали еще один ад¬рес страницы — без слеша. Получается, что сервер выполняет двoйную работу. В случае с небольшим или средним по размеру сайтом это не страшно, но если на сайте несколько тысяч страниц, то желательно заранее обдумать вид адресов страниц и избежать лишних нагрузок.
Если вы не нашли в этом сборнике ответ на ваш вопрос, пишите, с удовольствием ответим и добавим его сюда.
Отличная тема! :)
По закладкам добавлю:
https://www.google.com/bookmarks/ (https://www.google.com/bookmarks/)
http://www.delicious.com/ (http://www.delicious.com/)
Их очень уважает Гугл, и закладки на этих сайтах значительно ускоряют индексацию именно в этом поисковике.
Этих, плюс приведенных выше, достаточно для быстрой и качественной индексации страниц.
Sevab,
Спасибо, добавил.
Спасибо за информацию очень даже пригодиться.
Но у меня возник вопрос:
Прошла первая индексация яндекса - из нее в индекс попало 14 страниц, а в гугле проиндексировано 87 :o
Почему яше что то не нравиться?
Сайт на ВП. Уникальность 100%.
Возможно ли то что он проиндексирует остальные страницы в другой раз? Или он должен индексировать все сразу, и если этого не сделал то что то не правильно сделал я?
Яндекс всегда медленнее индексирует. Просто подождите.
Если в течении месяца (двух) не попадут в индекс, тогда можно беспокоится.
Хорошее пособие для новичков получилось. спасибо.
Честно сказать когда решил зайти в тему,то не думал что тут столько вопросов,и еще хуже надо столько читать!Думал будет гораздо меньше если честно! :D
А добавлять ответы с вопросами отдельно или все в месте можно?Тут малость не понял.
Цитата: Генадий от 17-12-2010, 15:17:21
А добавлять ответы с вопросами отдельно или все в месте можно?Тут малость не понял.
Добавляйте как вам удобно, если не знаете ответа, то мы ответим и я добавлю в первый пост, или просто отсанется в этой теме, все равно поможет новичку.
28 декабря 10года, запустили Яндекс Директ на сайт, в Январе непонятно почему упал ТИЦ и понизили сайт на вылете в Яндексе, 14.01.2011 была переделана структура сайта, соответственно поменялись ссылки, сделал карту залил сюда http://webmaster.yandex.ru и вот что произошло смотрите ниже.
ЦитироватьТИЦ меньше 10
Страниц в поиске 30
Внешних ссылок на страницы сайта 176
Время последнего посещения сайта роботом 18.01.2011
Загружено роботом 54
Исключено роботом 21
Путь Добавлен Проверен Загружен Файл содержит Ошибки и замечания
/sitemap.xml 8.11.2010 20.01.2011 14.01.2011 50 ссылок нет ошибок нет замечани
Можете пояснить, что произошло с сайтом?
gigadim,
Желательно адрес сайта. И сколько всего в нем страниц?
Если есть подозрения какие, сразу пишете Платону, не стесняйтесь.
Адрес сайта facebody.ru (http://facebody.ru/), страниц 53, а что писать Платону? я непонимаю в чем причина.. жду АП..
ниче не понимаю :o, на сайте с тех пор ничего не делал, робот был, а поменялась лишь количество ссылок на сайт
ЦитироватьТИЦ меньше 10
Страниц в поиске 30
Внешних ссылок на страницы сайта 283
Время последнего посещения сайта роботом 21.01.2011
Загружено роботом 54
Исключено роботом 21
Вот возникла проблема! Создал сайт пока молодой около 10-15 стр. добавил в панель веб мастера яндекса, высветило что "Ваш сайт не проиндексирован ожидает проверки" или что то в этом роде. Прогнал по закладкам появилась надпись "Ваш сайт не проиндексирован" что это значит и что мне с этим делать посоветуйте пожалуйста!
ЦитироватьВот возникла проблема! Создал сайт пока молодой около 10-15 стр. добавил в панель веб мастера яндекса, высветило что "Ваш сайт не проиндексирован ожидает проверки" или что то в этом роде. Прогнал по закладкам появилась надпись "Ваш сайт не проиндексирован" что это значит и что мне с этим делать посоветуйте пожалуйста!
Сайт молодой и не успел проиндексироваться яндексом. Ждите пару апов, должен проиндексироваться.
ЦитироватьКак правило, от момента узнавания роботом о сайте до появления его страниц в результатах поиска проходит от нескольких дней до двух недель.
mixa33rus
Это то понятно что нужно пару недель а почему в панели веб мастера изменилась надпись??? :o
Подождите еще недельку, если не изменится, напишите платону. У них часто глюки бывают.
Предлагаю добавить вопросы в первый пост:
Чем страшны дубли страниц?
Из книги «Продвижение сайта в поисковых системах» (И.Ашманов, А.Иванов)
Еще одной проблемой для крупных сайтов могут стать дубликаты страниц. После того как на сайте была изменена адресация страниц, может возникнуть ситуация, когда для каждой страницы сайта существует еще несколько ее копий. Приведем в качестве примера несколько адресов, которые для робота будут разными страницами, но на самом деле ведут на одну и ту же страницу (предположим, что на сайте были введены псевдостатические адреса):
• www.site.ru/script.php?page=service&mode=show
• vww.site.ru/service/
• www.site.ru/service.html
• www.site.ru/service.htm
Если на этом сайте, к примеру, было 1000 страниц, то поисковая система получит 4000 ссылок, а позже вынуждена будет выбирать из четырех копий наиболее релевантную страницу на сайте. Чтобы этого не случилось, нужно проверять страницы сайта и исключать ситуации, когда по нескольким разным адресам находятся совершенно одинаковые страницы.
Отдельно следует отметить механизм Яндекса по удалению дубликатов: когда количество одинаковых страниц сайта достигает определенного порога, запускается специальная программа, которая удаляет лишние страницы из индекса поисковой системы. Иногда после такой процедуры в индексе просто не остается документов с сайта, и процесс индексации начинается с самого начала.
Какой вид адреса для индексирования поисковиком лучше?
Из книги «Продвижение сайта в поисковых системах» (И.Ашманов, А.Иванов)
Если на сайте адреса страниц приводятся из динамического в псевдостатический вид, то может возникнуть вопрос: какой вид адреса для индексирования поисковиком лучше — с расширением файла (www. site . ru/realty-broker-sarvice.html) или без (www.site.ru/realty-broker-service/). В первом случае все хорошо — робот поисковика сразу принимает с сайта HTML-файл. Во втором случае появляется одна особенность: дело в том, что браузер Internet Explorer, как и робот поисковой системы Yahoo, отбрасывает завершающий слеш в адресе, даже если он явно указан. Поэтому вам нужно будет настраивать обработку адресов в файле .htaccess так, чтобы они создавали еще один ад¬рес страницы — без слеша. Получается, что сервер выполняет двoйную работу. В случае с небольшим или средним по размеру сайтом это не страшно, но если на сайте несколько тысяч страниц, то желательно заранее обдумать вид адресов страниц и избежать лишних нагрузок.
Добавил.
Возможно я ошибаюсь! Но, теперь яндекс не показывает через адурл, бан или АГС у сайта. Он теперь просто пишет, что в скором времени сайт будет проиндексирован. Хотя доподлинно известно , что добавляемый сайт под АГС.
Кто , что скажет по этому поводу?
Platin,
А он и никогда не писал там, что ваш сайт под фильтром... Вот если пробовать добавлять внутренние страницы, а не морду сайта, то, если сайт в бане, яша напишет - невозможно добавить на индексацию, страница запрещена к индексации, что-то типа того... А на АГС проверяется методом просмотра кол-ва проиндексированныех страниц сайта.
ТИЦ меньше 10
Страниц в поиске 30
Внешних ссылок на страницы сайта 283
Время последнего посещения сайта роботом 21.01.2011
Загружено роботом 54
Исключено роботом 21
Да слабинько !
Подскажите, файл sitemap.xml для сайта в зоне РФ прописывать адреса страницы как правильно?
<url>
<loc>http://сайт.рф</loc>
<lastmod>2011-06-01</lastmod>
</url>
Так? Или писать их специальный код?
Писать как читает поисковик.
У меня такой вопрос про индексацию сайта. Интернет-магазин написан на php, я запустил проверку внутренних ссылок программой Xenu Link и она работает уже около двух часов, нашла 70000 Urls и продолжает работу, видимо не собирается останавливаться. ;D Хотя сайт в принципе только создан и страниц еще не много. Так вот, мне интересно - поскольку поисковые боты имеют ограниченное время нахождения на сайте - будут ли проблемы с индексацией сайта, ведь они тоже я так понимаю переходят по этим ссылкам аналогично этой программе?
Просто не все страницы, и не сразу попадут в индекс.
Хм...а у меня тоже странная ситуация с индексацией сайта. Яша как всегда медленно индексировал (ну и пусть), а Google всегда в течении суток новости индексировал, а тут уже вторую неделю не заходит.
Спецы гляньте пожалуйста мой сайт...
Заранее благодарен.
golf4man,
Где его смотреть - то?
Лучше отдельную тему создавайте, а не тут.
Цитата: Delorean от 27-06-2011, 22:15:43
golf4man,
Где его смотреть - то?
Лучше отдельную тему создавайте, а не тут.
Ну сайт в профайле моем находится, а отдельную тему создавать, "запинают"!
спасибо, ценно!
такой вопрос - на сайте имелось несколько страниц с дубликатом, соостветсвенно яндекс даже не пытался их индексировать. заменил дубликат уникальным контентом, адреса страниц не менял, стоит ли ожидать индексации в скором времени или можно ставить крест на этих страницах?
Цитата: Zubbol от 16-07-2011, 20:22:01
такой вопрос - на сайте имелось несколько страниц с дубликатом, соостветсвенно яндекс даже не пытался их индексировать. заменил дубликат уникальным контентом, адреса страниц не менял, стоит ли ожидать индексации в скором времени или можно ставить крест на этих страницах?
Не надо ставить крест на страницах, надо просто сообщить яндексу, что на данных страницах изменился контент.
Цитата: Владимир75 от 16-07-2011, 20:32:23
Не надо ставить крест на страницах, надо просто сообщить яндексу, что на данных страницах изменился контент.
ещё бы я знал, как это делается)
Zubbol, прогони страницы по соц. закладкам
Цитата: Avadon от 16-07-2011, 23:38:29
Zubbol, прогони страницы по соц. закладкам
от этого будет толк? повсюду пишут, что от соц.закладок нет никакой отдачи, и на этом форуме часто подобное мелькает.
Цитата: Zubbol от 17-07-2011, 12:27:03
от этого будет толк? повсюду пишут, что от соц.закладок нет никакой отдачи, и на этом форуме часто подобное мелькает.
Нету смысла для продвижения по определённым запросам, а для наращивания бесплатной ссылочной массы и отчасти для пользовательских факторов. И вообще смысл даже в каталогах есть, если они не спамные, а вот в массовой регистрации нет.
как узнать,была ли проиндексирована ссылка, размещенная на сайт-доноре или нет? в гугле и яндексе
ЦитироватьВот возникла проблема! Создал сайт пока молодой около 10-15 стр. добавил в панель веб мастера яндекса, высветило что "Ваш сайт не проиндексирован ожидает проверки" или что то в этом роде. Прогнал по закладкам появилась надпись "Ваш сайт не проиндексирован" что это значит и что мне с этим делать посоветуйте пожалуйста!
ЦитироватьЭто то понятно что нужно пару недель а почему в панели веб мастера изменилась надпись??? :o
Сначала яша писал что ожидает проверки, потому что вы должны были подтвердить права на сайт, а яндекс должен был это проверить, а потом он проверил права на сайт и осталась одна надпись, что Ваш сайт не проиндексирован. Если Вы про это?
Цитироватькак узнать,была ли проиндексирована ссылка, размещенная на сайт-доноре или нет? в гугле и яндексе
seogadget.ru/ вам в помощь!
У меня вопрос к опытным оптимизаторам. Суть в том, что когда я пишу новый пост, он индексируется яндексом в течение 12 часов, но после ближайшего апдейта поисковой базы, пост вылетает из индекса и потом попадает в индекс в течение последующих двух апдейтов. Это нормально? Так и должно быть?
Цитата: blogowest от 11-09-2011, 19:16:19У меня вопрос к опытным оптимизаторам. Суть в том, что когда я пишу новый пост, он индексируется яндексом в течение 12 часов, но после ближайшего апдейта поисковой базы, пост вылетает из индекса и потом попадает в индекс в течение последующих двух апдейтов. Это нормально? Так и должно быть?
Это не нормально, но для яши это в порядке вещей, давно заметил, у меня точно так же на разных сайтах...
Цитироватькак узнать,была ли проиндексирована ссылка, размещенная на сайт-доноре или нет? в гугле и яндексе
Цитироватьseogadget.ru/ вам в помощь!
А ещё можно попробовать так:
("анкор вашей ссылки") (url:"страница донора")
А ещё для яндекса так:
яндекс - расширенный поиск
в поле Я ищу нужно вписать анкор
в поле На сайте нужно вписать сайт (не страницу)
Заметил закономерность, отправка сайтмап в гугл заставляет робота гугла индексировать сайт по новом, правда некоторые страницы выпадают с индекса но потом возвращаются.
Есть ли смысл в том, чтобы добавлять новые, только появившиеся страницы "молодого" сайта в "адурилки" поисковиков?
Или от таких манипуляций новые страницы сайта быстрее индексироваться не станут?
Сам сайт в индексе есть, и его прежние страницы тоже. Если не учитывать другие факторы, такие как обратные ссылки с посещаемых ресурсов, есть ли вообще в этом смысл (добавление новых страниц в адурилки)?
Я добавляю, потому, что не верю в оперативность Яши с Гошей.
Может позже, не буду, когда они мои новые страницы будут, хотя бы за сутки индексировать, а не по две недели.
С аддурилками, вроде быстрее.
Но одно дело страничку, две закинуть.
А некоторым нужно сто двести проиндексировать, да еще через капчю.
Цитировать
Почему поисковые системы не индексируют страницы сайта?
Тут несколько вариантов:
Flash и Java ссылки
Запрет в Robots.txt
Слишком большое количество ссылок на странице
Бан сайта поисковыми системами
Запрет в мета-тегах
Вход на страницы через заполнение форм
Неуникальный контент
Я бы с позволения администратора добавил бы в это перечень и некачественный хостинг из-за которого сайты зачастую недоступны.
Да, из за хостинга вполне могут быть проблемы с индексацией (особенно в яндексе).
Но это должен быть сильно не стабильный хостинг.
Цитата: Sevab от 14-11-2011, 11:16:51
Да, из за хостинга вполне могут быть проблемы с индексацией (особенно в яндексе).
Но это должен быть сильно не стабильный хостинг.
Если нет например ответа с сервера в течении 5-6 часов и так почти кадый день. Почему бы и нет.
Добавлено: 14-11-2011, 11:40:01
Таким образом некоторые недобросовестные хостеры пытаются перевести своих клиентов на более дорогие тарифы. И так может быть по нарастающей. В течение первых 5 месяцев хостинг работает стабильно, а потом начинаются проблемы. Сперва редкие зависоны, а потом все чаще и чаще.
Добавлено: 14-11-2011, 11:42:05
Сегодня я попробую на личном опыте подтвердить или опровергнуть данную гипотезу. Буду переезжать на другой хостинг. А то на одном повываливались из индекса все 3 сайта.
После эксперимента отпишусь.
Victorio,
Посмотрите в ЯВебмастере, там в разделе индексации пишут, если робот приходил, а сайт был недоступен. Так же можно поставить сервис аптайма, чтобы следить когда падает сайт и оперативно образаться к хостеру, можно тут попробовать - http://host-tracker.com/
Цитата: Delorean от 14-11-2011, 15:21:45
Victorio,
Посмотрите в ЯВебмастере, там в разделе индексации пишут, если робот приходил, а сайт был недоступен. Так же можно поставить сервис аптайма, чтобы следить когда падает сайт и оперативно образаться к хостеру, можно тут попробовать - http://host-tracker.com/
Спасибо за аптайм.Полезная вещь.Будет чем хостера к стене поставить. Мне на почту Яндекс Метрика присылает уведомления о недоступности и доступности ресурса.
Victorio, я тоже ориентируюсь на сообщения от Метрики.
Разок замечал сообщения от Я WM о недоступности сайта, хотя в этот миг поглядел - все ок и люди на форуме есть...
Бывает видать :)
Спасибо за простое и понятное изложение. Есть над чем работать) :)
а как ускорить индексацию - кроме со закладок и пинг сервисов - может кто-нибудь посоветовать??
azartan,
Прогнать страничку по соц сетям - Вконтакте, ФБ, ЖЖ, Блоггер, Твиттер, Я.ру, так же можно в аддурилку добавить.
Цитата: azartan от 22-12-2011, 13:48:03а как ускорить индексацию - кроме со закладок и пинг сервисов - может кто-нибудь посоветовать??
добавлять страницы в аддурилки:
Яндекс (http://webmaster.yandex.ru/addurl.xml?url=http%3A%2F%2Fsasisa.ru%2Fuser%2Fdude2012%2F&&event=add)
Гугл (https://www.google.com/webmasters/tools/submit-url?hl=ru&mesd=eyJtdCI6IlJFUVVFU1RfUkVDRUlWRUQiLCJjdCI6MTMxNjUwMjk2MDkzOCwicHMiOltdfQ%3D%3D)
Яха (http://siteexplorer.search.yahoo.com/submit)
хотя, если страниц много, дело это очень утомительное.
Цитата: Delorean от 01-12-2010, 21:44:18Если вы не нашли в этом сборнике ответ на ваш вопрос, пишите, с удовольствием ответим и добавим его сюда.
Как на строить, где разместить файл .htaccess при переезде домена и смене названий страниц.
Желательно с примером.
Спасибо!
а почему по яндексу так медленно продвигаются ключевые слова?
eMJay,
Это к теме совершенно не относится, пишите в соответствующем разделе или создавайте новую тему.
ipt,
Это уже достойно отдельной темы разговора, но вот можете прочесть тут - http://www.htaccess.net.ru/ (http://www.htaccess.net.ru/)
Вопросец по поводу индексации сайта. :(
Создал СДЛ сейчас всего около 10 статей на сайте. Но появилась проблема следующего характера, Яша не хочет брать его в индексирование. Пишет следующее:
Информация о сайте
ТИЦ меньше 10
Страниц в поиске 0
Внешних ссылок на страницы сайта 1
Дата последнего посещения сайта роботом 15.02.2012
Загружено роботом 1
Исключено роботом 0
ГОША:
все страницы в индексе по файлу sitemap ошибок нет
Яндекс уже заходит 3 или 4 раз, а новых страниц в индексе не появляеться. Все статьи уникальные от 3 000 зн. и выше.
Используется движок ВП. Добавлен в адурилку яши в начале месяца. Составлены карты сайта и отправлены яше и гоше.
Мои догадки. Сделал на главной странице статику вставил код виджитов и т.д. а в место релизов постов, или как они там называются вобщем понятно... Вставил текст по html прям в файле index.php возможно из за этого ::) , но тем не менее виджиты то остались, а соответственно и ссылки на другие страницы и гоша скушал.
ПОМОГИТЕ!!!! ЧТО ДЕЛАТЬ??? ??? ??? ???
А можно, ссылку на сайт посмотреть?
Цитата: Cergo от 17-02-2012, 07:57:40
А можно, ссылку на сайт посмотреть?
Ссылку отправил в ЛС.
Уникальность, высокая.
В индексе Яндекс – нет.
Поэтому, опасение по поводу воровства контента не безосновательны.
Рекомендую:
Убрать облако тегов, или настроить правильно ЧПУ, и закрыть дубли.
Повесить на странице уникальные картинки, и организовать на них ссылки с других сайтов.
Как, например:
(https://www.sbup.com/seo-forum/proxy.php?request=http%3A%2F%2Fpohudenie-online.ru%2Fimages%2Fkak-bustro-pohudet.jpg&hash=22b54f58abbe8a77c27727b0fe3f243264842323)
Это ускоряет индексацию, не раскрывая пользователям местоположение страницы.
Написать Платонам.
Cergo
А что не так с ЧПУ? Вроде нормально, а дубли коль появятся то уже закрою после индексации чтобы точно видеть что нужно закрывать от яши. Что касается облако тегов так его же по идее яша видеть не должен ява скрипт. Платону уже написал пришел ответ:
----------
В ближайшее время Ваш сайт должен начать индексироваться, и затем некоторые его страницы смогут появиться в поиске. Скорее всего, это произойдёт в течение двух недель.
Однако, после анализа и классификации страниц Вашего сайта наши алгоритмы приняли решение ограничить его в поиске. Обратите внимание, что не все страницы, известные поиску Яндекса, включены в индекс и ранжируются высоко. Их включение и позиция зависят от качества сайта и его контента. На решение алгоритма может оказать влияние использование поискового спама, наличие на сайте страниц предназначенных для робота-индексатора, а не для чтения пользователями, размещение неуникальной информации и др. факторы.
----------
И т.д. от том какой яша хороший поисковик.
--------
Если подвести итог то как я понимаю особых замечаний то как бы и нет. Просто яша что то сильно тупит. Потихоньку проставлять ссылки незаметно а там смотришь и в индекс влечу. Или что еще есть?
PS: Делал ГС блин за 3-4 дня в индексе был ;D Как яша хорошо разбирается в качественных сайтах ;D
Теги с облака - в кириллице.
Формируются, как:
[spoiler]/tag/%d0%ba%d0%b0%d0%ba-%d0%b8%d0%b7%d0%b1%d0%b0%d0%b2%d0%b8%d1%82%d1%8c%d1%81%d1%8f-%d0%be%d1%82-%d0%b6%d0%b8%d0%b2%d0%be%d1%82%d0%b0/
[/spoiler]
Файл sitemap.xml бросил в личку.
Удачи, и терпения, в продвижении. ;)
Получается дубли с русскоязычными УРЛами формируются из за того что есть теги?
Теоретически, облако тегов можно настроить правильно.
Практически, не встречал ни разу.
Ребята, добрый день! Подскажите пожалуйста.
Сайт - форум не индексируется практически Яндексом и Гуглом, только главная. Хотя пишем там нормально, и уже год почти.
Это может быть от того, что такой движок и просто роботы не видят информацию?
В целом то, какой движок, влияет на индексацию?
Спасибо за ответ.
Любой движок можно настроить.
Нужно посмотреть сайт.
Причины бывают разные.
Понятно... А можно вас попросить глянуть? Посмотрела на сайте, который проверяет индексирование по словам в гугле и яндексе. Вообще нас там нет по ключевым. Не понятно почему(
Сайт dreamdiving.ru Или тут не надо писать сайт? удалю потом тогда
В Я-3, в Г-256, пропарсил уже более 75 000 страниц, и продолжает парсить.
Закрыть дубли от индексации
Уникальность местами ниже 20%
Закрыть не уникальный контент от индексации.
(Пользователи постят тексты из инета)
Нет внешних ссылок.
Погонять по соц.сетям, разместить внешние ссылки на тематических ресурсах.
Провести внутренний анализ страниц.
Сделать внутреннюю оптимизацию.
Увеличивать посещаемость, привлекать новых пользователей.
Удачи. ;)
Cergo, спасибо огромноеза ответ!!:)
Не всё знаю,что вы сказали, но буду по пунктам изучать.Если можно, ещё подскажите. что значит
"Провести внутренний анализ страниц. Сделать внутреннюю оптимизацию."
Как это делать в движке? Код страниц я не могу же править.
Внутренняя оптимизация включает в себя:
Заголовки, подбор ключей, выделение ключей стронгом,
написание мето-тегов, проверка плотности ключей, и т.д.
На форуме об этом много написано.
Править код страницы, можно попросить тех, кто умеет.
Возможно, это и не понадобится. ;)
Добрый день,
подскажите по поводу индексации, есть сайт на WP, возраст около месяца, расположен на старом домене (с ТиЦ и PR).
добавлял по 3-5 страниц в день, скармливал rss ленту в твиттер, страницы индексировались ежедневно (буквально в течение часа).
когда в индексе Я оказалось 40 страниц, старые страницы стали постепенно из индекса выпадать.
в итоге сейчас на сайте 70 страниц, в индексе Я - 10. В индексе Г - все страницы есть, даже архивы, которые поидее закрыты от индексации (но когда это останавливало гугль?))
Информация из Яндекс.Вебмастер:
Страниц в поиске 32 - по факту их 10
Внешних ссылок на страницы сайта 139
Дата последнего посещения сайта роботом 28.03.2012
Загружено роботом 4 - значение не менялось с момента добавления сайта в панель
Исключено роботом 3 - значение не менялось с момента добавления сайта в панель
Почему всего 4 страницы "Загружено роботом", если в индексе было 40 страниц?
sitemap.xml был мною добавлен 21.03.12, но в Яндекс.Вебмастер пишут что он до сих пор "Не загружен" и "Не проверен".
Контент на сайте уникальный, проверял Копискейпом. Почему страницы начали выпадать из индекса?
Alex2k-потому-что на новых сайтах не скармливают рсс ленты и для нового сайта уже много ссылок, сайт попал под агс, хоят нужно смотреть на сам сайт и его историю индексации.
Цитата: Владимир75 от 29-03-2012, 09:26:05
Alex2k-потому-что на новых сайтах не скармливают рсс ленты и для нового сайта уже много ссылок, сайт попал под агс, хоят нужно смотреть на сам сайт и его историю индексации.
Тоже подумал про фильтр. АГС - это приговор? Если убрать рсс ленту с твиттера, сократить количество новых страниц в день и параллельно ставить внешние ссылки на сайт - есть шанс вылезти из под фильтра?
Цитата: Alex2k от 29-03-2012, 13:41:09АГС - это приговор?
АГС - это стимул. Стимул к развитию и совершенствованию. ЗА то время пока ваш ресурс под агс, вы сможете улучшить его, исправить ошибки, добавить много нового и когда он у вас выйдет из под фильтра, трафик сразу вырастет в несколько раз, это приятно. Но ссылок особенно не покупайте при АГС, пишите качественные статьи, уникальные картинки, почистите код от мусора, поменяйте дизайн, фавикон, сделайте сайт для людей, заведите форум, сделайте упор на поведенческий фактор. Если нужно конкретнее, то создавайте тему, это общаяя про индексацию..
А не спешите вы нас хоронить! :)
Сегодня утром в индекс вернулись все статьи, в том числе добавились и новые! (Вчера вечером оставалась только главная)
Так же обновились цифры в Яндекс.Вебмастер, паук просмотрел все страницы и наконец-то добавил и проверил sitemap.xml
Видимо был очередной Ап и дали траст сайту. До этого момента индексирование шло очень лениво (до использования Твиттер-фида) .
Надеюсь, что это явление не временное )
Любопытен один вопрос. Существует ли какая-то четкая закономерность АПа выдачи (например, через каждые 6 дней). Или Яша АПает как ему вздумается (один раз через 6 дней, другой через 12, а третий через 4 дня).
Почему задался таким вопросом. По моим наблюдениям некоторые доноры в САПЕ за день два до АПа выдачи уходят ERROR, после оного все возвращается на круги своя.
Victorio,
ТЕма никак не относится к апу яндекса и сапе, давайте по теме...
Что касается вашего вопроса, то закономерностей нет, а за день кто-то в эррор уходит тоже совпадение, так как данные апа не за этот день, а как правило все данные выкладываются недельной давности.
Цитата: moremanx от 06-04-2012, 05:24:02
влияет ли на индексацию сайта серфинг. И как к нему относятся поисковики???
Плохо поисковики к нему относяться, т.к. это чистой воды искуственная накрутка, т.е. обман поисковика.
Я правильно понял, что прогонять сайт в (http://sиrfingbird.ru/), вредно?
Цитата: Cergo от 06-04-2012, 11:51:41
Я правильно понял, что прогонять сайт в (http://sиrfingbird.ru/), вредно?
С этого сайта Вы много преходов не получите, и толку тоже особо не будет, этот сайт игрушка для детей...
Цитата: Delorean от 01-12-2010, 21:44:18
....
Для ускорения процесса индексации, нужно добавить свои ссылки в социальные закладки, которые любят ПС (поисковые системы) Приведу несколько наиболее любимых закладок у ПС:
....
http://bobrdobr.ru/ (http://bobrdobr.ru/)
....
бобр почемуто упoрно не принимает регистрацию...
Доброго времени суток. Тема порадовала и огорчила одновременно. Огорчила тем, что, если бы ознакомился с ней раньше - мог избежать некоторых ошибок. Ну ладно, тоже хорошо. Если бы не печальный опыт - не искал ответы на вопросы. Огромное спасибо.....
спасибо за ветку - оч познавательно
У меня за неделю сайт два раза выпадал из индексации. После связи со специалистами Яндекса восстанавливали.
Добавлено: 21-05-2012, 13:55:01
Цитата: moremanx от 07-04-2012, 15:51:59
если использовать социальные сети, по привлечению посетителей? если Вы проводили анализ, то частота посещений будет лучше , чем с серфинга, а эффект поисковиков - тот же??
Не знаю как у Вас, а по своему опыту, зарегистрировавшиеся через Логинзу почти все больше сайт не посещали.
Огромное спасибо. Все время узнаю что-то новое для себя. И тут же применяю это в своей работе.
Ребята, у меня новый сайт.Хотела для ускорения индексации прогнать по соц закладкам...это процедура еще дает результат?....хотела воспользоваться "Пости Быстро" для этого...
подскажите какую страницу прогонять? главную?...
жду совета)))
скажите как сделать чтобы яндекс и гугл полностью проиндексировали сайт. карта сайта есть. сайту уже 3 года. многие страницы не в индексе. как сделать 100% индексацию. сайт asiaparts.com.ua
Цитата: nosovamg от 07-09-2012, 05:58:11
подскажите какую страницу прогонять? главную?...
жду совета)))
Какие страницы хотите прогнать те и прогоняйте.... Если страниц много - значит, не все сразу.....
скажите, кто встречался с такой ситуацией: страницы были проиндексированы, потом выпали... в веб мастере никаких следов. нет их ни в исключенных, ни в принятых, ни в ошибках.
А самое главное в поиске есть(по фрагменту текста). И так уже долгое время... на пару дней появилась страница в вебмастере, потом выпала и все... а несколько страниц удалили из за якобы 404 ошибки. хотя все работает правильно. кто то встречался с такой штукенцией? :D
Цитата: realtor от 27-09-2012, 10:43:56
скажите, кто встречался с такой ситуацией: страницы были проиндексированы, потом выпали... в веб мастере никаких следов. нет их ни в исключенных, ни в принятых, ни в ошибках.
А самое главное в поиске есть(по фрагменту текста). И так уже долгое время... на пару дней появилась страница в вебмастере, потом выпала и все... а несколько страниц удалили из за якобы 404 ошибки. хотя все работает правильно. кто то встречался с такой штукенцией? :D
Если страница новая, возможно, была проиндексирована быстроботом, и не получив трафика из поисковой системы, выпала из индекса.
Нужно прогнать по соц. сетям, появится трафик, вернется в индекс.
а как это не получила трафика? а с якобы 404 ошибкой что делать? через твиттер пойдет прогнать?
Цитата: realtor от 27-09-2012, 11:13:53а как это не получила трафика?
Не было переходов с ПС
Цитата: realtor от 27-09-2012, 11:13:53а с якобы 404 ошибкой что делать?
Надо смотреть сайт
Цитата: realtor от 27-09-2012, 11:13:53через твиттер пойдет прогнать?
Пойдет, но нужен трафик из соц. сетей.
подскажите, что сейчас эффективно для индексации сайта?
Актуальны еще соц закладки? Или уже нет?
Какие сервисы могут в этом помочь?
Что Вы используете для индексации?
спасибо всем, кто поделиться опытом (а то много информации о индексации и способах ее ускорения - устарели)
aladin2000,
Твиттер, ФБ и другие жирные соц сети.
Создала отдельную тему, но ее, видимо, удалили... а вопрос остался ;D. Скажите, как относятся поисковики к сайтам, на которых платят посетителям за отзывы по товарам? Например, один из ведущих сайтов-отзовиков США (epinions.com) долгое время использовал эту систему. Сейчас - уже нет. Связано ли это как-то с политикой поисковиков, кто знает?
Может ли из-за долгой неактивности сайта http://seo-web-gu.ru/ (http://seo-web-gu.ru/) (с момента создания домен стоял наращивал возраст, работы никакие не велись) плохо индексироваться? Начал добавлять статьи, но они вообще не индексируются. На двух других сайтах одновременно размещенные статьи давно в индексе
Подскажите пожалуйста, если на каком-либо сайте оставить ссылку, но она закрытая, она будет считаться обратной ссылкой или нет? Будет ли передаваться вес сайту если ссылка закрытая? И индексируются ли закрытые ссылки?
Цитата: Lurisa от 23-11-2012, 01:24:43
Подскажите пожалуйста, если на каком-либо сайте оставить ссылку, но она закрытая, она будет считаться обратной ссылкой или нет? Будет ли передаваться вес сайту если ссылка закрытая? И индексируются ли закрытые ссылки?
Что в вашем понятии "закрытая ссылка" ... что это за зверь такой? Есть ссылки через редирект, есть ссылки с атрибутов nofollow, есть в ноиндекс, есть через яву и тд... в любом случае ПС видят ссылки, даже текстовые.
У сайта был ТИЦ 10, после добавления новых страниц (20) индекс ТИЦ 0. Это, что так и должно быть ( сайт: Сайт о бизнесе (http://biznes-logic.ru/) )
Цитата: vasiliev_1089 от 11-12-2012, 22:47:57У сайта был ТИЦ 10, после добавления новых страниц (20) индекс ТИЦ 0
Количество добавленных страниц не влияет на ТИЦ.
На ТИЦ влияет количество внешних ссылок, с близких по тематике, трастовых сайтов, с разными анкорами.
Подскажите, как индексировать сайт, если в индесе 20 страниц, но сайт не обновлялся в течении года?
Теми же общими способами? Твиттер, соц.закладки, соцсети?
Цитата: gnonolet от 20-12-2012, 12:12:38
Подскажите, как индексировать сайт, если в индесе 20 страниц, но сайт не обновлялся в течении года?
Теми же общими способами? Твиттер, соц.закладки, соцсети?
Ничего не понял... если сайт не обновлялся, то что там индексировать? Если все страницы и так уже в индексе? Или подробней опишите проблему.
Цитата: Delorean от 20-12-2012, 15:56:56
Ничего не понял... если сайт не обновлялся, то что там индексировать? Если все страницы и так уже в индексе? Или подробней опишите проблему.
Пардон, немного не досказал, сам бы не понял. Имею ввиду, что после годичного перерыва начал наполнять сайт по 3-4 статьи в неделю, опубликовал где то до 20 статей, а они в индекс не попадают.
gnonolet, попробуй по закладкам пройтись и через твиттер аккаунт
Еще вопрос, может кто подскажет.
Товарищ начинающий, сделал блог как есть, опубликовал пару десятков статей, они вошли в индекс.
Затем прочитал про ЧПУ и сделал все как лучше для людей. Естественно, все ссылки теперь 404 ошибка, кроме главной, ибо редирект не делал. В принципе, блог молодой, спешить некуда, ведется для себя. С какой скоростью обычно переиндексируются сайты? Как то можно ускорить? Так же стандартно твиттером и закладками?
Для быстрой индексации сайта, рекомендую воспользоваться нашим сервисом http://SozdaySayt.ru (http://sozdaysayt.ru). С помощью нашего сервиса можно быстро сделать постинг и кросспостинг в более чем 30 различных сервисов и блог платформах. Это позволит вашему сайту быстро проиндексироваться, а так-же поднять НЧ и СЧ запросы в ПС.
У меня свой способ. Я прокачал три аккаунта твиттер, куда пощу анонсы статей, и с индексацией проблем нет.
Не понимаю в чем проблема, google bot сканирует сайт но не индексирует. Например, по данным google вебмастера один из поддоменов сайта - www.economics.uzreport.uz он начал сканировать 18.11.12 и на сегодняшний день он просканировал 5173 страниц. Потом, 13 января 2013 года в отчете вышло еще один показатель: не выбрано - 590, на сегодняшний день этот показатель составил - 613. Но самое главное за все это время проиндексировано - 0, хотя по запросу site:economics.uzreport.uz в гугле выводит примерно 4900 результатов.
У многих на сайтах наблюдаю такую ситуацию:
Одна и та же статья добавлена в несколько рубрик.
Например:
http://сайт/рубрика1/статья1/
http://сайт/рубрика2/статья1/
Будет ли это считаться дублем страницы?
Цитата: sanatgen от 08-02-2013, 09:32:12
У многих на сайтах наблюдаю такую ситуацию:
Одна и та же статья добавлена в несколько рубрик.
Например:
http://сайт/рубрика1/статья1/
http://сайт/рубрика2/статья1/
Будет ли это считаться дублем страницы?
Если контент один и тот-же но ссылки разные, то да.
Спасибо за хорошую тему) Теперь не буду иметь проблемы с индексацией своих сайтов)
Цитата: SozdaySayt от 01-01-2013, 14:25:32Для быстрой индексации сайта, рекомендую воспользоваться нашим сервисом http://SozdaySayt.ru
Спасибо за новый для меня сервис кросспостинга.
Еще вопрос по сабмиту в соц.закладки. Есть у меня Vip аккаунт на www.bposter.net, прогонял пару сайтов: один блог - около 8 месяцев, второй сайт молодой 2 месяца - оба сайта прогонял в декабре 2012 года. Эффект в ТИЦ - 0. Наверное уже прогон по соц. закладкам не имеет смысла?
Поделитесь своим опытом.
Спасибо.
Здравствуйте, коллеги!
Подскажите как в код страницы сайта созданного на Joomla добавить метатег:
<meta name="robots" content="noindex">
?
Или по другому спрошу. Как зайти в редактирование кода страницы?
Скажите пожалуйста, мой сайт http://l-golubova.ru, яндекс индексировал 235 страниц, а после очередного апа 497, откуда? у меня всего-то 140 статей. Это плохо? Я просто начинающий вебмастер и плохо в этом разбираюсь.
Вам нужно закрыть в robots.txt дубли страниц от индексации
Luli310, У Вас блог на вордпрессе, вероятно, что стандартные дубляжки этой CMS. В учебнике, который выложен в бесплатное пользование есть несколько подробных статей как и что прописать в файл robots.txt, чтобы закрыть дубли из архивов, поиска и т.п.. Почитайте - обязательно сможете сами решить проблему и поднатаскаться в управлении блогом.
И еще один личный вопрос, а вы тематические статьи со сторонними ссылками не размещаете?? И/или на каких условиях?
Добрый день. Подскажите, пожалуйста - есть кулинарный сайт, домену 3 года. Раньше им вплотную не занимались, оптимизации как таковой не проводилось, только наполнялся контентом. Бывало частенько падал. Сейчас он попал ко мне в руки, были переделаны урлы и вообще структура сайта поменялась. Перед началом работ я закрыл сайт полностью от индекса (там ужас творился, половина ссылок была битая и прочее) и начал публиковать посты, когда в индексе ничего не осталось. Могут ли быть сейчас какие-либо проблемы с индексацией? Заранее спасибо.
Здравствуйте, вопрос, конечно будет глупым, но я просто уже и не знаю где спросить.Есть блог на Вордпрессе(правда он еще молодой, нет и двух недель) в гугле страницы индексируются, а вот яндекс сначала написал, что роботу запрещено индексировать страницы, мол его ай пи заблoкирован хостингом, и что нужно попробовать исправить ошибку и в течении 2-3 дней страницы будут проиндексированы. Я заменила файл роботс, уведомление об этой ошибке пропало, но теперь пишут "Часто индексирование страниц намеренно запрещается вебмастером – это не является ошибкой и исправления не требует. При наличии страниц исключённых из-за ошибок на стороне сайта информация о них показывается на графике ниже" 3 дня уже прошло, а страниц в поиске так и нет, это так и должно быть? Или я где-то напартачила?
А что яндексу индексировать, Ваш сайт отдаёт 404 ошибку.
Прошу прощения(там ссылка старая была, я совсем про нее забыла
А что делать, если домен был прикреплен к одному сайту, потом открепил, прекрепил к другому, а яндекс и гугл индексируют этот домен по старому сайту. Парадокс какой-то ни одной страницы нового сайта, все страницы из старого. Как прописать в роботсе, что бы поисковик не индексировал старый сайт, а сразу шел на новый, что делать?
morozoff77, может будет интересно:
[spoiler]http://www.sbup.com/seo-forum/indeksaciya_saita/indeksaciya_yandeksom_posle_togo_kak_domennoe_imya_snyali_s_perealresacii/ (http://www.sbup.com/seo-forum/indeksaciya_saita/indeksaciya_yandeksom_posle_togo_kak_domennoe_imya_snyali_s_perealresacii/)[/spoiler]
Индексация за сутки - это нормально или можно уменьшить?
Размещая ссылки в соцзакладках на свои новые страницы, автор рискует что непроиндексированный еще материал может быть украден. Не лучше ли дождаться их индексации после добавления в addurl поисковиков? А потом уже начинать продвижение этих страниц.
Wennem, для индексации в частности и добавляют в соц.закладки, соц.сети, твиттер и остальное, а то после addurl можно ещё долго сидеть и ждать "ну когда же", особенно у яндекса.
Всем привет, как понять попал ли сайт под фильтры? Индексация совсем не идёт, показатели не растут.
Фильтров много.
Нужно анализировать сайт по показателям.
Не видя сайта, трудно сказать.
[spoiler]http://modmaker.ru/[/spoiler]
Домену уже больше года, а тиц на 0, и пр так же. Я не очень прошарен в сео, но стараюсь "работать" только с белым сео. Все статьи и материала рерайт под 95% уникальности и выше или копирайт(за исключением того что публикуют пользователи). Ссылки публикую только на ресурсы такой же тематики, никаких спам рассылок на всё подряд. А показатели на нуле.. да и посещение за год вобще огорчает.
Цитата: Elbrain от 28-10-2013, 23:38:19Все статьи и материала рерайт под 95%
http://modmaker.ru/project/157-Fallout-New-Vegas-Project-Nevada/body/ 69%
На многих страницах нет Н1 и короткие названия страниц title
Не прописаны:
<meta name="description" content="" />
<meta name="keywords" content="" />
В индексе:
G-3560
Я-1000
В карте сайта 308
Проверьте несоответствие, у вас либо проиндексированы дубли, либо не полная карта сайта.
Посмотрите в вебмастерсе гугла и яндекса ошибки индексации, совпадение тайтлов.
Цитата: Elbrain от 28-10-2013, 23:38:19Домену уже больше года, а тиц на 0, и пр так же
Если вы не торгуете ссылками, это не важно.
Cergo, помогите решить одну маленькую, но непонятную для меня проблемку:
Мне часто говорили, что у меня большая разница проиндексированных станиц между гуглом и яндексом. Я проверила эту разницу и обнаружила, что вся она состоит из ссылок на страницы, но с прикрепленными к ним хвостами. Привожу пример: http://lady-21vek.ru/2013/moda-i-stil/trendyi-2013/modnyie-golovnyie-uboryi-2013.html&ei=pBlFUumwJemM4ASD5YDIAQ&usg=AFQjCNFzMCvEFduYFRGl6M .
Я для наглядности выделила этот хвост. Что это за хвосты,что их формирует? Я пробовала вручную такие ссылки удалить через google веб-мастерс. Но через некоторое время, при помощи вашего сервиса, обнаружила, что количество ссылок опять выросло. Кто знает, помогите: "замахалась" их удалять.
Да, эти ссылки формируются в goggle. В яндексе всё нормуль
Я не спец по WP, но посоветую:
Убрать с сайта облако тегов.
Проверить роботс.тхт на закрытие всех дублей от индексации в гугл.
Почитайте темы в разделе
http://www.sbup.com/seo-forum/wordpress/
и если не найдете ответ на свой вопрос, создайте свою тему.
Наверняка, кто то сталкивался с этой проблемой.
Добрый день. Помогите советом: сама искала, но не могу найти причину: то ли бан от гугла, то ли мои ручонки постарались. Коротко: 28 ноября УТРОМ обнаружила, что трафик, державшийся полгода 220-300 чел., резко упал до уровня 60. Я сама пришла к результату, что просел трафик гугла. НО!!
1). Накануне: 26-го, хостинг (я звонила им) сообщил, что блoкировал ненадолго из-за тех. причин все свои сайты, но уже всё в порядке. Они решили мне помочь, "покопались" в своих закромах и сообщили, что все эти дни посещяемость не падала и привели столбики чисел с моего сайта за 3 последних дня. Они сделали вывод, что счётчики у меня на сайте, "вдруг" неправильно стали работать. Скажете при чём здесь гугл?
2). Основное кол-во посетителей шло с гугла. В Я.Метрике анализ показал, что 27-го с гугла уменьшился трафик. 27-го и 28-го блогеры с форума, пытаясь мне помочь, смотрели индексацию и сообщали, что в гугле около 800 индексированных стр. А сегодня я сделал скриншот RDS-бара. Взгляните на него: красной рамкой обвела показание гугла. Вместо числа 860/ -какая-то надпись. (/(60) - верное: у меня такое кол-во статей)
3) При чём мои ручонки? Вчера, по чужому совету, ввела в гугле свой url на повторную индексацию. (Так обычно делают после исправления каких-ибо ошибок). Может из-за этого в скрине появилась эта запись?
Но связать причину проседания трафика, инфу от хостера: "всё нормально с трафиком" и "неправильных счётчиков" не смогла.
Я думаю только головастые, опытные ребята смогут разобраться в этой загадке. Прошу у вас помощи.
Галина2013, по поводу "parse error" - это просто ошибка RDS бара, сейчас такое часто стало вылезать, то ли гугл там изменяет у себя что-то, то ли в RDS баре что-то каряво сделали в последнем апдейте. Если нажать на эту надпись, перебросит на страницу поиска гугла с запросом site:lady-21vek.ru и видно будет сколько страниц в индексе, а зеленые цифры в скобках - это страницы из основной выдачи гугла, остальные в дополнительной (supplemental) выдаче, по другому "в соплях" ещё называют, можно считать, что эти страницы пользы сайту не приносят, толку от них в индексе нет. Туда обычно попадают фиговые страницы, всякие технические, дубли или если уникальность этих страниц на сайте мала. В идеале в индексе яндекса и гугла должны быть одинаковые цифры, ну или почти и совпадать с реальным количеством страниц на вашем сайте.
Сейчас в индексе гугла у вас 551 страница, а вы написали, что когда смотрели вам было около 800. Что последнее, до падения трафика делали? Может закрывали что от индексации или прогоняли что-то где-то?
Цитата: Cyrus от 29-11-2013, 11:46:33
Галина2013, по поводу "parse error" - это просто ошибка RDS бара, сейчас такое часто стало вылезать, то ли гугл там изменяет у себя что-то, то ли в RDS баре что-то каряво сделали в последнем апдейте. Если нажать на эту надпись, перебросит на страницу поиска гугла с запросом site:lady-21vek.ru и видно будет сколько страниц в индексе, а зеленые цифры в скобках - это страницы из основной выдачи гугла, остальные в дополнительной (supplemental) выдаче, по другому "в соплях" ещё называют, можно считать, что эти страницы пользы сайту не приносят, толку от них в индексе нет. Туда обычно попадают фиговые страницы, всякие технические, дубли или если уникальность этих страниц на сайте мала. В идеале в индексе яндекса и гугла должны быть одинаковые цифры, ну или почти и совпадать с реальным количеством страниц на вашем сайте.
Сейчас в индексе гугла у вас 551 страница, а вы написали, что когда смотрели вам было около 800. Что последнее, до падения трафика делали? Может закрывали что от индексации или прогоняли что-то где-то?
16 ноября "Антоныч88" с этого форума закончил прогонять мой сайт по ссылкам. Он сказал, что прогонял не в один момент, а с растяжкой по времени, чтобы не было ссылочного "взрыва".
Да, и ещё 2 дня назад 10-13
штучек арендованных ссылок с сапы "отвалились" из-за неуплаты. Я их летом в виде эксперимента вручную сажала (училась). Потом забросила и забыла. Недавно сапа известила меня об их отключении.
это всё что было. И если дело всё-таки в них, то какие шаги мне предпринять, чтобы пойти в светлое будущее.
Галина2013, вряд ли это ссылочное, у вас был всплеск большой в апреле-июле, потом все поотваливалось и ещё доотваливалось в сентябре. Сейчас у вас 68 ссылок - http://www.linkpad.ru/?search=lady-21vek.ru. Если бы это ссылочное было, думаю, эффект бы этот увидели не через 2 месяца, после как все отвалилось, а пораньше, в конце октября где-нибудь уже бы было.
У вас есть тема, где вы писали, что в robots.txt закрывали категории и теги, когда это было? может на эти страницы заходили пользователи из поиска? или может у вас просто позиции в гугле просели и поэтому трафик упал?
Цитата: Cyrus от 29-11-2013, 12:47:59
Галина2013, вряд ли это ссылочное, у вас был всплеск большой в апреле-июле, потом все поотваливалось и ещё доотваливалось в сентябре. Сейчас у вас 68 ссылок - http://www.linkpad.ru/?search=lady-21vek.ru. Если бы это ссылочное было, думаю, эффект бы этот увидели не через 2 месяца, после как все отвалилось, а пораньше, в конце октября где-нибудь уже бы было.
У вас есть тема, где вы писали, что в robots.txt закрывали категории и теги, когда это было? может на эти страницы заходили пользователи из поиска? или может у вас просто позиции в гугле просели и поэтому трафик упал?
Да-а, вы вопросы по-существу задали. Категории и теги закрывала в начале сентября и после этого сделала скрин RDS, чтобы можно было отследить последствия закрытия. Все прошло чисто: анализ показал, что дубли все исчезли, остались в сухом остатке только url-ы самих записей и статических страниц, типа контакты и карта сайта. Я больше robots не трогала. А гугл закрытые теги и прочие сопли продолжал держать проиндексированными, постепенно увеличиваясь за счет коментов, хотя они также закрыты в роботсе. Поэтому в гугле такое большое число проиндексированного мусора.
Добавлено: 29-11-2013, 15:10:49
Кстати, по поводу летнего всплеска ссылочного. В начале лета вручную прогоняла сайт по каталогам и по RSS - каталогам. У меня в подвале целая гирлянда из флажков-каталогов висела. Потом доброжелатели отговорили и я их к концу лета в несколько приёмов снесла.
Галина2013, хм, остается просадка позиций ещё, но это надо было до замерять и после, так сейчас не скажешь прям точно. А там уж, если позиции изменились, надо смотреть что повлияло, то ли ссылки, хотя для гугла они не очень большое значение имеют и ему наоборот лучше, что всякие фиговые ссылки отвалились, то ли ещё какие факторы, вон у вас на одном ip много сайтов у хостера, может там ГСов полно, фильтров нахватали и из-за них пошел спад, всякое быть может. А может имеет место просто подождать, пока как раз прогон от Антоныча88 весь не проиндексируется и на полную работать не станет или может и правда с хостером там проблемы какие из-за недоступности вылезли и надо просто подождать будет, времени ещё мало прошло, может вернется всё обратно. Тут надо хорошо знать что делали, так как если вчера или неделю назад что-то сделали, а сегодня что-то улучшилось или ухудшилось, ещё не факт что это повлияло именно это, а не что-то более раннее. Например, написали новые тексты на старые страницы, "ап" яндекса и позиции выросли, думаете на свои тексты и продолжаете дальше изменять, а оказывается это был "ап" ссылочного и это учлись ваши ссылки поставленные 1.5 месяца назад, всякое бывает.
Плохо ещё что это гугл, запросы не посмотреть. У вас вроде метрика стоит, посмотрите, может там есть на какие страницы из поиска идут и может что-то где-то по другому стало.
А так, обидно конечно, что трафик в 3-4 раза упал, но 220+ уников это не дико большая цифра и может если не найдете что произошло, просто продолжать дальше писать и новые страницы двигать.
Я решила выложить часть ответов хостинга на мои запросы о сбое от 26-го числа.
"Положил логи с 24 по 28 в файл lady-21vek.ru/lady-21vek.ru.log
обновил статистику awstats только по этому файлу.
На странице http://lady-21vek.ru/awstats/awstats.pl также не наблюдается кардинального падения посещаемости, количество визитов больше 250 за все дни, кроме сегодня (но день ещё не закончен) (это было 28-го числа - моё) Очень странно что данные Яндекс, LJ и Mail.RU отличаются, пока к сожалению не знаю с чем это связано."
И далее "...исходя из вышеуказанных данных серьезных проблем с посещаемостью быть не должно, число запросов и число ошибок кардинально не менялось".
Знаете, пока крутила и выворачивала данные по сайту обнаружила, что одну мою статью частично скопипастили, уникальность опустилась до 47%. Нашла сайт-воришку просмотрела, они кроме частичного текста стырили ещё и несколько фото. Я делала коллажи и поэтому сразу их узнала. А это значит, что их публикация была позже моей (перед публикацией уникальность проверяю всегда). Могло ли это повлиять на падение позиций у гугла. Если это причина моей проблемы, то что над делать в этом случае: писать Платону, чтобы их банили или, извините, "херить" свою статью. А вдруг есть ещё такие же? Я ведь не все проверила.
Галина2013, у гугла нет Платона, там вообще тяжело куда-то написать и получить ответ, там все через их сервисы самостоятельно делать надо. А в яндекс можно написать, а лучше подтверждать своё авторство и в гугле и в яндексе и ещё новую статью по соц.сетям и твиттеру немного прогонять, чтобы и проиндексировалась быстрее и авторство своё так показать, подстрaховаться.
Но возвращаясь к проблеме, если у вас только одну статью угнали, то вряд ли это могло так сильно отразиться на трафике, конечно только если это не была самая ваша популярная статья, на которую все и заходили.
Цитата: Cyrus от 29-11-2013, 16:23:35
Галина2013, ...
Но возвращаясь к проблеме, если у вас только одну статью угнали, то вряд ли это могло так сильно отразиться на трафике, конечно только если это не была самая ваша популярная статья, на которую все и заходили.
Она была среди нескольких популярных. Дружище, посоветуй, варианты: переписывать статью заново, обращаться куда-либо "махаться" (будет ли толк?). Как этот процесс должен происходить? Ведь если причина падения трафика в контенте, то по-любому надо будет "разруливать".
Галина2013, Напишите Платонам, пожалуйтесь на этот сайт, а в дальнейшем посмотрите как для яндекса и гугла своё авторство подтверждать и пользуйтесь этим + всякие соц.сети да твиттер для новых статей и проблем с воровством должно быть минимум.
Цитата: Cyrus от 29-11-2013, 18:02:38
Галина2013, Напишите Платонам, пожалуйтесь на этот сайт, а в дальнейшем посмотрите как для яндекса и гугла своё авторство подтверждать и пользуйтесь этим + всякие соц.сети да твиттер для новых статей и проблем с воровством должно быть минимум.
Я проанализировала статью, что у меня "тиснули". Я опубликовала её 8 июня 2013г. Неужели гугл так долго терпел якобы её неуникальность? Задумалась: а как мы, простые смертные, можем узнать, или где посмотреть: какую из 2-х статей гугл считает оригиналом? Может я просто зря беспокоюсь и гугл мою статью считает авторской. Есть ли у нас сервисы, которые могут проанализировать и успокоить: мол, не боись, твоя статья авторская, а их под пенёк...
Где смотреть в вебмастере Яндекса и Гугла Дата последнего посещения сайта роботом????
У меня возникли проблемы с индексацией страниц на одной из RTB-систем.
(сайт DLES.RU)
Вот переписка:
Я: -
«Ваша система проверяет наличие индексации так:
(url:"dles.ru/woodnews/?id=3974") | (url:"www.dles.ru/woodnews/?id=3974")
Я проверяю так: site:www.dles.ru/woodnews/?id=3974
По моему Яндекс помощник вебмастера проверяет также.
Я проверяю не корректно?»
Ответ специалиста: -
«Вариант клиента является не совсем корректным, ибо:
Найденная страница не соответствует той, которую мы искали
Мы искали: www.dles.ru/woodnews/?id=3974
А нашли: www.dles.ru/woodnews?id=3974
Т.е. отсутствует слеш между буквой "s" и знаком "?". Т.е. это совершенно другая страница для поисковой системы.
Т.к. эта страница является копией той страницы, которая нам нужна., то соответственно нужная нам страница никогда не проиндексируется. Необходимо добавить атрибут rel='canonical' с указанием корректной страницы как указание поисковому роботу правильной страницы. Почитать можно тут: https://support.google.com/webmasters/answer/139394?hl=ru
Или же сделать 301-й со страницы без слеша на страницу со слешем.»
Подскажите, что мне делать?
Т.к. Яндекс и Google индексирует страницы с размещенной инфой, а система RTB их не видит.
Спасибо заранее. :'(
www.dles.ru
Цитата: Lavr от 02-02-2014, 11:21:38
Т.к. эта страница является копией той страницы, которая нам нужна., то соответственно нужная нам страница никогда не проиндексируется. Необходимо добавить атрибут rel='canonical' с указанием корректной страницы как указание поисковому роботу правильной страницы. Почитать можно тут: https://support.google.com/webmasters/answer/139394?hl=ru
Или же сделать 301-й со страницы без слеша на страницу со слешем.»
Вам уже ответили.
Такой вопрос.
У меня Яндекс выдаёт в поиске 2 страницы не так, как бы мне хотелось. Ключи там почти одинаковые, но на главной в title есть слово -Москва-, а на менее нужной -пос. Московский-.
Яндексу больше понравилась страница где -Московский-. Как лучше сделать, чтобы не потерять и так не очень хорошие позиции в выдаче, просто удалить страницу с -Московским- (она мне не очень то и нужна), или прописать в ней <meta name="robots" content="noindex, nofollow">
Ребят у кого нибудь есть проблемы с sitemap, а то яша у меня уже с 4.12.2013 не смотрит её и не хочет загружать её.
Цитата: freddy123 от 26-02-2014, 15:47:21
Ребят у кого нибудь есть проблемы с sitemap, а то яша у меня уже с 4.12.2013 не смотрит её и не хочет загружать её.
У меня на всех сайтах с sitemap все нормально Яшка регулярно и смотрит и загружает.
Ребята,я не рекламирую сайт,не хочу поставить ссылку,мне просто нужна помощь. Подскажите пожалуйста,есть сайт theair.ru. Топ вроде идет по запросам,но блин индексация карточек товаров желает быть лучше. Всего болье 15 000 товаров,проиндексировались 2000 (а по вебмастеру вообще показывает сейчас уже 870,сначало показывал 2000,потом 1650 а сегодня вообще стал показывать 870). МОжет из-за дублей или может еще какая нибудь фигня. КОнтент весь уникальный.тайтлы прописаны все ок,в чем может быть проблема?
Цитата: slam1501 от 22-07-2014, 20:45:21
Ребята,я не рекламирую сайт,не хочу поставить ссылку,мне просто нужна помощь. Подскажите пожалуйста,есть сайт theair.ru. Топ вроде идет по запросам,но блин индексация карточек товаров желает быть лучше. Всего болье 15 000 товаров,проиндексировались 2000 (а по вебмастеру вообще показывает сейчас уже 870,сначало показывал 2000,потом 1650 а сегодня вообще стал показывать 870). МОжет из-за дублей или может еще какая нибудь фигня. КОнтент весь уникальный.тайтлы прописаны все ок,в чем может быть проблема?
Картинки не уникадльные описание отсутствует, поэтому остануться в выдаче тоько страницы хотя бы с минимальным пф. Закажите описания хотя бы 500-700 симвл, можно сделать с 80% уникальным и т.д.
Цитата: Владимир75 от 22-07-2014, 20:50:07
Картинки не уникадльные описание отсутствует, поэтому остануться в выдаче тоько страницы хотя бы с минимальным пф. Закажите описания хотя бы 500-700 симвл, можно сделать с 80% уникальным и т.д.
Так картинки тут причем? Робот разве может определять уникальность картинки? По поводу описания товаров,блин тогда придется описание писать 15 000 товаров :-\ Даже если взять допустим 5000,этож копирайтер обалдеет))) А что такое пф ? :) Спасибо за ответ.
Цитата: slam1501 от 22-07-2014, 21:09:31А что такое пф ?
Поведенческий фактор. Где лучше показатели, то и индексируют быстрее и ранжируют лучше.
много подписчиков вконтакте (http://avi1.ru/market/v_kontakte/podpischiki_druzya_na_stranicu/) - раскрутка и пиар
Всем привет, скажите пожалуйста, кто знает, почему гугл не индексирует картинки? До этого гуглил, в роботс не стоит Disallow: /images/ . Картинки есть уникальные и не уникальные, но в индексе нет ни одной! :'( :'( :'(подскажите...
Цитата: zveri555 от 11-09-2014, 08:54:48
Картинки есть ... но в индексе нет ни одной!
Один из вариантов надо подождать ;D
Другой случай, еще раз внимательно проверить доступ к картинкам для робота. По своему проекту помню, что гугл не всегда вносит все изображения даже если они уникальные. Выберает на собственное усмотрение
Цитата: zveri555 от 11-09-2014, 08:54:48
Всем привет, скажите пожалуйста, кто знает, почему гугл не индексирует картинки? До этого гуглил, в роботс не стоит Disallow: /images/ . Картинки есть уникальные и не уникальные, но в индексе нет ни одной! :'( :'( :'(подскажите...
В robots.txt не обязательно должно быть прописано Disallow: /images/ для запрета картинок. Скопируйте весь путь картинки и проверьте все на запрет всех папок из пути.
К примеру, из пути http://www.sbup.com/seo-forum/Smileys/KolobokLight/grin.gif нужно проверить не прописан ли Disallow к папкам:
/Smileys/
/KolobokLight/
/seo-forum/
Также возможен запрет картинок определенного формата. К примеру, может стоять запрет на все Gif-картинки Disallow: /*.gif$ (также и на jpeg и т.д.)
Цитата: Noik от 11-09-2014, 09:33:29Disallow к папкам
У меня все картинки находятся в ***/images/. Сайт на joomla
zveri555, <meta name="robots" content="index, follow, noarchive, noimageindex" />
уберите noimageindex
Ребятки подскажите - незнаю что делать с сайтом.
У гугла все ок, а Яша упoрно не хочет индексировать. Сайт сделан как каталог товаров для реального магазина. Тексты в категориях уникальны. Писал Платону - отделались стандартной отпиской.
сайт - stavstroy.ru
Помогите пожалуйста. Сайт http://shop-stroy.com.ua/ru/
сервис http://pr-cy.ru/ показывает что сайт индексируется гуглом, но ни одной страницы в Яндексе(Но они раньше были). Так же сервисы Prodvigator.ua Seolib.ru не показывают ни одного запроса при анализе. Как найти проблему? Возможно это связано отсутствием sitemap и robots.txt ? я просто не знаю как проверить наличие этих файлов. Программист вренмено отсутствует, а клиенты ругаются сильно, я в недоумении
Скиньте в личку
Друзья, нужен ваш совет!
На нескольких страницах сайта мне нужно скрыть часть текста. Объясняю: тексты - описание порядка действий при установке программ, так называемые faq и help. В большинстве страниц тексты уникальные, но есть куски, которые повторяются от программы к программе, а соответственно на разных страницах хелпов. Мне эти повторяющиеся куски нужно спрятать от индексации гуглом и яшей.
Рассматривала варианты:
1. Текст картинкой. Вообще бред.
2. Аякс. Тут для меня темный лес. Вообще не понимаю, как это работает.
3. Скрипты.
4. Для Яши вроде все просто? Тег <noindex>?
Полностью закрывать страницы в роботсе не хочется, потому что уникальный контент может привлечь дополнительных юзверей.
Подскажите мне что-нибудь, а? :)
На данный момент вроде бы лучший вариант это номер 2. Но гугл хвалится что учится и почти научился распознавать JS, так что не знаю насколько такого варианта хватит. Вообще ПС не глупые, тексты подобные FAQ, инструкциям, информации о доставке воспринимаются нормально, проблем с индексацией из за этого быть не должно
Цитировать1. Текст картинкой. Вообще бред.
А почему бред, я тоже в нескольких статьях однотипный текст оформила в виде картинки, получается, что не дублирую контент.