Дубли,помогите

Автор Тема: Дубли,помогите  (Прочитано 361 раз)

Оффлайн WelesАвтор темы

  • Бизнес оценка: (0)
  • Дебютант
  • *
  • СПАСИБО: 0
  • Сообщений: 1
  • Карма: 0
    • Просмотр профиля

Оффлайн WelesАвтор темы

  • Дебютант
  • *
Дубли,помогите
« : 09-11-2019, 13:17:49 »
№1.один вар-т ответа
В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
http://www.site.ru/stranica/ оригинал http://www.site.ru/STRANICA/ дубль
http://www.site.ru/url/ оригинал http://www.site.ru/URL/ дубль
Как решить проблему дублей?
1. Уникализировать контент на страницах для того, чтобы система не считала их дублями и с них шел трафик на сайт
2. Закрыть страницы от индексации страницы с верхним регистром в robots.txt
3. Настроить в Яндекс.Вебмастере в разделе «Регистр имени сайта» нужный регистр
4. Настроить 301 редирект с версии со слешом на без слеша и с верхнего регистра на нижний регистр
№2 один вар-т ответа
В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
http://www.site.ru/ оригинал http://www.site.ru/?utm_sourse123456 дубль
http://www.site.ru/url/ оригинал http://www.site.ru/url/?utm_sourse12121212 дубль
Как решить проблему дублей?
1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*
2. Добавить в robots.txt строку: Disallow: /?utm_sourse*
3. Прописать на подобных страницах тег <meta name =“robots” content=”index,nofollow”/>
4. Ничего не делать, такие страницы со временем сами выпадут из индекса
№3 несколько вар-тов
Найдите ошибки в файле robots.txt:
User-agent: *
Disallow: /yupe/backend*
Disallow: /*/default*
Disallow: /en/
Disallow: /*?_utl_t
Disallow: /*login
Disallow: /registration
Disallow: /*?ajax=
Disallow: /*?service=
Disallow: *default*
Allow: /en/*
Host: https://site.ru
Sitemap: https://site.ru/sitemap.xml
Crawl-Delay: 5
1. Директива crawl-Delay лишняя, т.к. не используется ни Google, ни Яндекс
2. Директива Allow не используется в файле robots - она является устаревшей
3. Правило Disallow: *default* закрывает все страницы, в URL которых есть «default», поэтому правило Disallow: /*/default* не имеет смысла
4. Правило Allow: /en/* открывает все, что закрыто правилом Disallow: /en/
5. В директиве Sitemap url сайта нужно писать без протокола http или https. Верно будет написать Sitemap: site.ru/sitemap.xml
6. Директива Host лишняя, т.к. не используется ни Яндекс, ни Google

№4 несколько вар-тов
При анализе Яндекс.Вебмастера было выявлено, что выпадают из индекса карточки товара как дубли. Карточки имеют одинаковые мета-теги и контент. Их отличие в размере изделия и цвете. Что необходимо предпринять, чтобы избежать выпадения таких страниц из индекса?
1. Прописать на карточках в коде: <meta name="robots" content="noindex" />
2. Уникализировать мета-теги и тексты на странице, прописать цвет и размер в мета-тегах и текстах, а также в характеристиках
3. Объединить данные карточки товаров в одну карточку с вариантами товаров. Внутри одной карточки товара должна быть возможность выбора размера и цвета.
4. Оправить страницы на индексацию через Яндекс.Вебмастер



Спасибо заранее



Оффлайн Sky-fi

  • Глобальный модератор
  • Бизнес оценка: (9, 100%)
  • *****
  • СПАСИБО: 3778
  • Сообщений: 5397
  • Карма: 333
  • Пол: Мужской
  • Раскрутка сайтов
  • Награды Мастер поисковой оптимизации Более одной тысячи спасибо
    • Просмотр профиля
    • Частный SEO оптимизатор Sky-fi

Оффлайн Sky-fi

  • Глобальный модератор
  • *****
  • Доп. информация
    • Бизнес оценка: (9, 100%)
    • СПАСИБО: 3778
    • Сообщений: 5397
    • Карма: 333
    • Пол: Мужской
    • Раскрутка сайтов
    • Награды Мастер поисковой оптимизации Более одной тысячи спасибо
      • Просмотр профиля
      • Частный SEO оптимизатор Sky-fi
Re: Дубли,помогите
« Ответ #1 : 09-11-2019, 18:44:20 »
Помочь не проблема, конечно, только вам это вряд ли пойдет на пользу. Если вы устраиваетесь на работу и не разбираетесь в SEO - это быстро поймут. Так что советую подучить хотя бы азы поисковой оптимизации.
Ответы
1 - 4
2 - тут хз, почему нет варианта с каноникалом. Варианты 2,3 содержат явные ошибки - так что, скорее всего, хотели, чтобы вы выбрали вариант 1. Хотя, по мне так 4 тоже подходит, если таких страниц немного. Кстати, звездочку после пути в директивах не нужно ставить, то есть, "Disallow: /*?utm_sourse*" и "Disallow: /*?utm_sourse" - одно и то же.
3 - 1, 3, 4, 6
4 - 2, 3

Оффлайн varligor

  • Бизнес оценка: (0)
  • Рекрут
  • *
  • СПАСИБО: 0
  • Сообщений: 14
  • Карма: 0
  • Пол: Мужской
    • Просмотр профиля
    • заработок в интернете

Оффлайн varligor

  • Рекрут
  • *
Re: Дубли,помогите
« Ответ #2 : 13-12-2019, 13:32:32 »
Яндекс вебмастер стал выдавать ошибку что на страницах пагинации [page 1234] нет метатега discription.Я в файле robots txt закрыл страницы пагинации через директиву disallow.Ошибка исчезла.

Оффлайн vold57

  • Бизнес оценка: (6, 100%)
  • Мастер
  • *****
  • СПАСИБО: 5149
  • Сообщений: 7064
  • Карма: 281
  • Пол: Мужской
  • Награды Более трех тысяч спасибо Мастер поисковой оптимизации
    • Просмотр профиля
    • SEO, интернет-маркетинг, сайостроение

Оффлайн vold57

  • Мастер
  • *****
Re: Дубли,помогите
« Ответ #3 : 13-12-2019, 18:37:24 »
Яндекс даже выдавал сообщения о том, что у папок с изображениями нет discription.)))


 

Похожие темы

  Тема / Автор Ответов Последний ответ
13 Ответов
3423 Просмотров
Последний ответ 05-12-2012, 16:38:38
от seo-neo
1 Ответов
1156 Просмотров
Последний ответ 08-02-2013, 08:33:04
от parven
5 Ответов
1761 Просмотров
Последний ответ 17-07-2013, 07:13:52
от mark3000
39 Ответов
7665 Просмотров
Последний ответ 22-12-2013, 23:11:39
от girotondo
14 Ответов
1622 Просмотров
Последний ответ 11-02-2016, 19:26:52
от Алина Шехова