Как удалить страницу из индекса гугла?

Автор Тема: Как удалить страницу из индекса гугла?  (Прочитано 853 раз)

Оффлайн CharaDaaАвтор темы

  • Бизнес оценка: (0)
  • Пользователь
  • **
  • СПАСИБО: 1
  • Сообщений: 55
  • Карма: 0
    • Просмотр профиля
    • Cardmates

Оффлайн CharaDaaАвтор темы

  • Пользователь
  • **
Поставил мета тег ноиндекс, удалил из яндекса. а из гугла что-то не удаляется. уже недели 3 прошло.
удалял через сервис гугл вебмастера "удалить юрл".

Сам гугл пишет, что удалить из индекса статью нельзя, а только временно скрыть (на 90 дней). Как тогда удалить-то эти страницы?


Онлайн Владимир75

  • Администратор
  • Бизнес оценка: (4, 100%)
  • *****
  • СПАСИБО: 7220
  • Сообщений: 10634
  • Карма: 648
  • Пол: Мужской
  • Это я такой уже старый
  • Награды Гроссмейстер поисковой оптимизации SEO Профессионал Более трех тысяч спасибо За благотворительность Почетный гражданин нашего форума
    • Просмотр профиля
    • Оптимизация и Продвижение

Онлайн Владимир75

  • Администратор
  • *****
  • Доп. информация
    • Бизнес оценка: (4, 100%)
    • СПАСИБО: 7220
    • Сообщений: 10634
    • Карма: 648
    • Пол: Мужской
    • Это я такой уже старый
    • Награды Гроссмейстер поисковой оптимизации SEO Профессионал Более трех тысяч спасибо За благотворительность Почетный гражданин нашего форума
      • Просмотр профиля
      • Оптимизация и Продвижение

На странице в коде напишите:<meta name="robots" content="noindex, nofollow" />, или второй вариант:[/size]в robots.txt Disallow: Ваша страница.
Seo-консультации по SkypeSeo и разработка сайтов, Облачный майнинг(Блокчейн)
Skype:service-advertising(без live)
Мобильный, Whatsap, Viber: 8(910)774-44-99

Оффлайн inkanus.gray

  • Бизнес оценка: (0)
  • Постоялец
  • ***
  • СПАСИБО: 50
  • Сообщений: 163
  • Карма: 6
  • Пол: Мужской
    • Просмотр профиля
    • Территория горячих дискуссий на произвольные темы

Оффлайн inkanus.gray

  • Постоялец
  • ***
Страница с текстом статьи должна быть доступна людям, но не должна быть доступна поисковым системам? Тогда есть три варианта. Первые два уже отметил Владимир75. Третий вариант — если на сайте есть авторизация, показывать статью только авторизованным пользователям, а анонимам показывать краткую страничку с кодом 403 (или 401, если сервер поддерживает HTTP-аутентификацию) и кратким сообщением, что для просмотра текста статьи нужно авторизоваться.

Если же статья удалена насовсем (т. е. не будет доступна никому), то при запросе данного URL возвращать код 404 или 410 и также добавить этот URL в директиву Disallow в robots.txt.

Оффлайн Надежда Хачатурова

  • Бизнес оценка: (11, 100%)
  • КМС
  • *****
  • СПАСИБО: 3561
  • Сообщений: 3963
  • Карма: 456
  • Пол: Женский
  • Аудит, seo-оптимизации
  • Награды Более трех тысяч спасибо Мастер поисковой оптимизации SEO-специалист
    • Просмотр профиля
    • Блог Надежды Хачатуровой
  • Доп. информация
    • Бизнес оценка: (11, 100%)
    • СПАСИБО: 3561
    • Сообщений: 3963
    • Карма: 456
    • Пол: Женский
    • Аудит, seo-оптимизации
    • Награды Более трех тысяч спасибо Мастер поисковой оптимизации SEO-специалист
      • Просмотр профиля
      • Блог Надежды Хачатуровой
Как тогда удалить-то эти страницы?
Не очень понятно, что Вы хотите. Если страницы на сайте нет, а в выдаче есть, но Вы не хотите, чтобы ссылка показывалась, ничего делать не нужно. Боты получат ответ 404 и со временем уберут страницу из индекса. По крайней мере, в Гугле ботам нужно видеть собственными "глазами" 404 ошибку. Если noindex еще не убрали, сделайте это. Так страница гарантированно удалится из индекса. Запрещать сканировать в роботсе удаленный урл гуглеботам нельзя!

Аудит и оптимизация сайтов
Хостинг - надежный, SSL - бесплатный

Оффлайн inkanus.gray

  • Бизнес оценка: (0)
  • Постоялец
  • ***
  • СПАСИБО: 50
  • Сообщений: 163
  • Карма: 6
  • Пол: Мужской
    • Просмотр профиля
    • Территория горячих дискуссий на произвольные темы

Оффлайн inkanus.gray

  • Постоялец
  • ***
Запрещать сканировать в роботсе удаленный урл гуглеботам нельзя!

А ведь действительно, на нескольких сайтах видел, как после добавления URL в robots.txt Гугл оставлял страницу в индексе, а в сниппете вместо описания выводил что-то вроде: «Описание этой страницы недоступно». Фактически robots.txt запрещал не присутствие в индексе, а только вывод описания. Но в том примере запрос возвращал код 200, так что к удалению это не имеет отношения.

Выходит, что для удаления из индекса возвращать код 404 обязательно.

Но как быть, если, например, нужно удалить не одну страницу, а целую пачку? Разве в этом случае robots.txt не ускоряет процесс?


Оффлайн CharaDaaАвтор темы

  • Бизнес оценка: (0)
  • Пользователь
  • **
  • СПАСИБО: 1
  • Сообщений: 55
  • Карма: 0
    • Просмотр профиля
    • Cardmates

Оффлайн CharaDaaАвтор темы

  • Пользователь
  • **
Страница на сайте должна быть, она для людей, для поисковиков она не нужна, но попала в индекс.

Я поставил мета тег ноиндекс, добавил в "удаление юрл" в гугл вебмастере. Но сам же гугл пишет, что там только на 90 дней ссылка скрывается. Или когда уже добавил и стоит ноиндекс, в следующий раз робот просто её не будет добавлять в индекс? Или она опять восстановиться?

Когда страница в индексе и ставишь disallow, то она там и остается только пишется, что "описание страницы не доступно из-за роботса". Такой вариант не годится.
« Последнее редактирование: 09-12-2016, 10:21:32 от CharaDaa »

Оффлайн Надежда Хачатурова

  • Бизнес оценка: (11, 100%)
  • КМС
  • *****
  • СПАСИБО: 3561
  • Сообщений: 3963
  • Карма: 456
  • Пол: Женский
  • Аудит, seo-оптимизации
  • Награды Более трех тысяч спасибо Мастер поисковой оптимизации SEO-специалист
    • Просмотр профиля
    • Блог Надежды Хачатуровой
  • Доп. информация
    • Бизнес оценка: (11, 100%)
    • СПАСИБО: 3561
    • Сообщений: 3963
    • Карма: 456
    • Пол: Женский
    • Аудит, seo-оптимизации
    • Награды Более трех тысяч спасибо Мастер поисковой оптимизации SEO-специалист
      • Просмотр профиля
      • Блог Надежды Хачатуровой
Но как быть, если, например, нужно удалить не одну страницу, а целую пачку? Разве в этом случае robots.txt не ускоряет процесс?

Директивами в роботсе мы запрещаем сканирование страниц, закрываем доступ к ним. К индексации это отношения не имеет. Боты могут загрузить весь сайт, а в индекс выложить часть. Чтобы бот мог понять, что страницы нет, повторюсь, он должен иметь доступ к адресу и получить код 404. А уж как скоро страницы уйдут из индекса, одному боту известно. Смотрите, что творится с посаженными при взломе страницах? Они могут годами висеть, если на них идут ссылки. Иногда именно для этого и генерируется страницы на взломанных сайтах. Тем более, такие страницы ставить в noindex нельзя. Иначе процесс исчезновения никога не кончится. Говорю все больше про гугл.



Добавлено: 09-12-2016, 10:31:12

CharaDaa, а про тег nofollow не думали? Кстати, не забудьте исключить Вашу страницу из сайтмап тоже.
« Последнее редактирование: 09-12-2016, 10:32:35 от Надежда Хачатурова »
Аудит и оптимизация сайтов
Хостинг - надежный, SSL - бесплатный


 

Похожие темы

  Тема / Автор Ответов Последний ответ
6 Ответов
3690 Просмотров
Последний ответ 28-06-2011, 07:38:55
от Darimar
4 Ответов
2245 Просмотров
Последний ответ 12-10-2012, 12:17:52
от makc.plan
2 Ответов
1356 Просмотров
Последний ответ 19-05-2013, 13:14:11
от EntuziAst
1 Ответов
1310 Просмотров
Последний ответ 25-10-2014, 02:31:49
от haul
4 Ответов
703 Просмотров
Последний ответ 07-03-2019, 16:29:13
от alsk