Дубли страниц категорий

Автор Тема: Дубли страниц категорий  (Прочитано 596 раз)

Оффлайн anna1levickayaАвтор темы

  • Бизнес оценка: (0)
  • Дебютант
  • *
  • СПАСИБО: 0
  • Сообщений: 1
  • Карма: 0
    • Просмотр профиля

Оффлайн anna1levickayaАвтор темы

  • Дебютант
  • *
Дубли страниц категорий
« : 17-09-2019, 02:33:24 »
Здравствуйте!

Подскажите пожалуйста, было дело, мы поставили модуль для SEO, а он нам наплодил непонятную кучу дублей. На сайте у нас стоит Opencart 2.3.

Стандартные закрыты вот так и все нормально:

Код:
Только зарегистрированные пользователи могут видеть код. Пожалуйста, войдите или зарегистрируйтесь.
А сейчас мы имеем дубли такого вида:

Код:
Только зарегистрированные пользователи могут видеть код. Пожалуйста, войдите или зарегистрируйтесь.
Как правильно закрыть такие страницы в robots.txt? Чтобы гугл их выплюнул


Оффлайн iProger

  • Бизнес оценка: (0)
  • Рекрут
  • *
  • СПАСИБО: 6
  • Сообщений: 36
  • Карма: 0
  • Пол: Мужской
    • Просмотр профиля

Оффлайн iProger

  • Рекрут
  • *
Re: Дубли страниц категорий
« Ответ #1 : 18-09-2019, 01:02:00 »
Можно закрыть мететегом noindex.

Оффлайн Rusfet

  • Бизнес оценка: (0)
  • Дебютант
  • *
  • СПАСИБО: 1
  • Сообщений: 4
  • Карма: 1
    • Просмотр профиля

Оффлайн Rusfet

  • Дебютант
  • *
Re: Дубли страниц категорий
« Ответ #2 : 29-09-2019, 17:12:36 »
Как сообщает Гугл: "Файл robots.txt не предназначен для блoкировки показа веб-страниц в результатах поиска Google"
Если на вашу страницу существуют ссылки с других сайтов, то она все равно может быть проиндексирована, несмотря на запрет (Disallow: /*?page=) в роботсе. Чтобы закрыть страницы от индексирования, нужно использовать, как уже указала iProger,  директиву  noindex.

Оффлайн salbar

  • Бизнес оценка: (0)
  • Пользователь
  • **
  • СПАСИБО: 19
  • Сообщений: 69
  • Карма: 5
    • Просмотр профиля
    • Заработок в интернете

Оффлайн salbar

  • Пользователь
  • **
Re: Дубли страниц категорий
« Ответ #3 : 29-09-2019, 21:43:56 »
Здравствуйте!

Подскажите пожалуйста, было дело, мы поставили модуль для SEO, а он нам наплодил непонятную кучу дублей. На сайте у нас стоит Opencart 2.3.

Стандартные закрыты вот так и все нормально:

Код:
Только зарегистрированные пользователи могут видеть код. Пожалуйста, войдите или зарегистрируйтесь.
А сейчас мы имеем дубли такого вида:

Код:
Только зарегистрированные пользователи могут видеть код. Пожалуйста, войдите или зарегистрируйтесь.
Как правильно закрыть такие страницы в robots.txt? Чтобы гугл их выплюнул

Это же страницы пагинации вроде как. У них тайтлы, дескрипшены разные? Содержимое разное? Если да, то это не дубли.

Онлайн vold57

  • Бизнес оценка: (6, 100%)
  • Мастер
  • *****
  • СПАСИБО: 5103
  • Сообщений: 7001
  • Карма: 280
  • Пол: Мужской
  • Награды Более трех тысяч спасибо Мастер поисковой оптимизации
    • Просмотр профиля
    • SEO, интернет-маркетинг, сайостроение

Онлайн vold57

  • Мастер
  • *****
Re: Дубли страниц категорий
« Ответ #4 : 29-09-2019, 21:48:20 »
Как правильно закрыть такие страницы в robots.txt?
Disallow: */page-

Но правильней написал Rusfet.
« Последнее редактирование: 29-09-2019, 21:54:45 от vold57 »


 

Похожие темы

  Тема / Автор Ответов Последний ответ
3 Ответов
1641 Просмотров
Последний ответ 09-02-2012, 13:37:39
от nemetc
2 Ответов
1537 Просмотров
Последний ответ 13-04-2012, 13:20:09
от Innuenze
7 Ответов
3753 Просмотров
Последний ответ 04-11-2013, 20:38:42
от AMGH
6 Ответов
1658 Просмотров
Последний ответ 13-06-2013, 23:17:56
от gtgtigran35
0 Ответов
552 Просмотров
Последний ответ 29-08-2013, 13:31:15
от Anton11