Дубли,помогите

Автор Тема: Дубли,помогите  (Прочитано 142 раз)

Оффлайн WelesАвтор темы

  • Бизнес оценка: (0)
  • Дебютант
  • *
  • СПАСИБО: 0
  • Сообщений: 1
  • Карма: 0
    • Просмотр профиля

Оффлайн WelesАвтор темы

  • Дебютант
  • *
Дубли,помогите
« : 09-11-2019, 13:17:49 »
№1.один вар-т ответа
В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
http://www.site.ru/stranica/ оригинал http://www.site.ru/STRANICA/ дубль
http://www.site.ru/url/ оригинал http://www.site.ru/URL/ дубль
Как решить проблему дублей?
1. Уникализировать контент на страницах для того, чтобы система не считала их дублями и с них шел трафик на сайт
2. Закрыть страницы от индексации страницы с верхним регистром в robots.txt
3. Настроить в Яндекс.Вебмастере в разделе «Регистр имени сайта» нужный регистр
4. Настроить 301 редирект с версии со слешом на без слеша и с верхнего регистра на нижний регистр
№2 один вар-т ответа
В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
http://www.site.ru/ оригинал http://www.site.ru/?utm_sourse123456 дубль
http://www.site.ru/url/ оригинал http://www.site.ru/url/?utm_sourse12121212 дубль
Как решить проблему дублей?
1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*
2. Добавить в robots.txt строку: Disallow: /?utm_sourse*
3. Прописать на подобных страницах тег <meta name =“robots” content=”index,nofollow”/>
4. Ничего не делать, такие страницы со временем сами выпадут из индекса
№3 несколько вар-тов
Найдите ошибки в файле robots.txt:
User-agent: *
Disallow: /yupe/backend*
Disallow: /*/default*
Disallow: /en/
Disallow: /*?_utl_t
Disallow: /*login
Disallow: /registration
Disallow: /*?ajax=
Disallow: /*?service=
Disallow: *default*
Allow: /en/*
Host: https://site.ru
Sitemap: https://site.ru/sitemap.xml
Crawl-Delay: 5
1. Директива crawl-Delay лишняя, т.к. не используется ни Google, ни Яндекс
2. Директива Allow не используется в файле robots - она является устаревшей
3. Правило Disallow: *default* закрывает все страницы, в URL которых есть «default», поэтому правило Disallow: /*/default* не имеет смысла
4. Правило Allow: /en/* открывает все, что закрыто правилом Disallow: /en/
5. В директиве Sitemap url сайта нужно писать без протокола http или https. Верно будет написать Sitemap: site.ru/sitemap.xml
6. Директива Host лишняя, т.к. не используется ни Яндекс, ни Google

№4 несколько вар-тов
При анализе Яндекс.Вебмастера было выявлено, что выпадают из индекса карточки товара как дубли. Карточки имеют одинаковые мета-теги и контент. Их отличие в размере изделия и цвете. Что необходимо предпринять, чтобы избежать выпадения таких страниц из индекса?
1. Прописать на карточках в коде: <meta name="robots" content="noindex" />
2. Уникализировать мета-теги и тексты на странице, прописать цвет и размер в мета-тегах и текстах, а также в характеристиках
3. Объединить данные карточки товаров в одну карточку с вариантами товаров. Внутри одной карточки товара должна быть возможность выбора размера и цвета.
4. Оправить страницы на индексацию через Яндекс.Вебмастер



Спасибо заранее



Оффлайн Sky-fi

  • Глобальный модератор
  • Бизнес оценка: (9, 100%)
  • *****
  • СПАСИБО: 3777
  • Сообщений: 5396
  • Карма: 333
  • Пол: Мужской
  • Раскрутка сайтов
  • Награды Мастер поисковой оптимизации Более одной тысячи спасибо
    • Просмотр профиля
    • Частный SEO оптимизатор Sky-fi

Оффлайн Sky-fi

  • Глобальный модератор
  • *****
  • Доп. информация
    • Бизнес оценка: (9, 100%)
    • СПАСИБО: 3777
    • Сообщений: 5396
    • Карма: 333
    • Пол: Мужской
    • Раскрутка сайтов
    • Награды Мастер поисковой оптимизации Более одной тысячи спасибо
      • Просмотр профиля
      • Частный SEO оптимизатор Sky-fi
Re: Дубли,помогите
« Ответ #1 : 09-11-2019, 18:44:20 »
Помочь не проблема, конечно, только вам это вряд ли пойдет на пользу. Если вы устраиваетесь на работу и не разбираетесь в SEO - это быстро поймут. Так что советую подучить хотя бы азы поисковой оптимизации.
Ответы
1 - 4
2 - тут хз, почему нет варианта с каноникалом. Варианты 2,3 содержат явные ошибки - так что, скорее всего, хотели, чтобы вы выбрали вариант 1. Хотя, по мне так 4 тоже подходит, если таких страниц немного. Кстати, звездочку после пути в директивах не нужно ставить, то есть, "Disallow: /*?utm_sourse*" и "Disallow: /*?utm_sourse" - одно и то же.
3 - 1, 3, 4, 6
4 - 2, 3


 

Похожие темы

  Тема / Автор Ответов Последний ответ
13 Ответов
3390 Просмотров
Последний ответ 05-12-2012, 16:38:38
от seo-neo
1 Ответов
1148 Просмотров
Последний ответ 08-02-2013, 08:33:04
от parven
5 Ответов
1755 Просмотров
Последний ответ 17-07-2013, 07:13:52
от mark3000
39 Ответов
7611 Просмотров
Последний ответ 22-12-2013, 23:11:39
от girotondo
14 Ответов
1584 Просмотров
Последний ответ 11-02-2016, 19:26:52
от Алина Шехова