8 крупнейших обновлений алгоритма Google

Автор Тема: 8 крупнейших обновлений алгоритма Google  (Прочитано 883 раз)

Онлайн Владимир75Автор темы

  • Администратор
  • Бизнес оценка: (4, 100%)
  • *****
  • СПАСИБО: 7001
  • Сообщений: 10277
  • Карма: 644
  • Пол: Мужской
  • Это я такой уже старый
  • Награды SEO Профессионал Гроссмейстер поисковой оптимизации Более трех тысяч спасибо За благотворительность Почетный гражданин нашего форума
    • Просмотр профиля
    • Оптимизация и Продвижение

Онлайн Владимир75Автор темы

  • Администратор
  • *****
  • Доп. информация
    • Бизнес оценка: (4, 100%)
    • СПАСИБО: 7001
    • Сообщений: 10277
    • Карма: 644
    • Пол: Мужской
    • Это я такой уже старый
    • Награды SEO Профессионал Гроссмейстер поисковой оптимизации Более трех тысяч спасибо За благотворительность Почетный гражданин нашего форума
      • Просмотр профиля
      • Оптимизация и Продвижение

Практически ежедневно поисковые системы выпускают дополнения и новые версии своих алгоритмов, одни из них проходят незаметно, другие существенно перетряхивают всю поисковую выдачу. Наиболее крупные изменения, включающие в себя изменения десятков и сотен алгоритмов, получили свои названия и широко известны в среде оптимизаторов. Сегодня я расскажу о 8 знаковых апдейтах алгоритма поисковой системы Google, которые в корне поменяли подходы к поисковому продвижению.
Для большей наглядности откройте график трафика своего продвигаемого проекта, воспользовавшись, например Semrush и сопоставляйте даты апдейтов алгоритма с графиком посещаемости.
алгоритм google panda

Panda

Дата запуска: февраль 2011


Отслеживает: дубликаты контента, плагиат, переспам ключевыми словами,  спам-контент.
Как работает: Панда оценивает «качество» документов сайта (страниц) и присваивает некий балл, используемый впоследствии как один из факторов ранжирования. Первоначально алгоритм «Панда» был фильтром, но с 2016 года он стал составной частью основного алгоритма ранжирования. Вследствие этого штрафы (пессимизация) некачественного и переспамленного контента проводится значительно быстрей.


Что делать: Необходимо избавиться от спамного контента и дубликатов контента. Дубликаты можно отловить используя Screaming Frog SEO Spider, просканировав сайт и проверив title и description. Далее необходимо избавится от спамного контента (неинформативного, генерированного, заимствованного и пр.), снизить плотность вхождения ключей, избавиться от явного акцентирования текста на коммерческих ключах, проверить структуру хеддингов, переписать title и description в сторону уменьшения вхождения ключей. Так же избавляемся от неуникального контента, уникализируем изображения. Для поиска проблемного контента используем либо Copyscape, либо одну из множеств программ, например Advego Plagiatus, AllSubmitter и пр.

Google фильтр Penguin
Penguin

Дата запуска: апрель 2012


Отслеживает: ссылочный спам, ссылки с нерелевантных сайтов, ссылки с ссайтов соштрафами, «ядовитые» ссылки, ссылки с переоптимизированными анкорами.
Как работает: отслеживает явное манипулирование ссылочным профилем сайта. Наказывает пессимизацией в выдаче за некачественное и неестественное ссылочное. С 2016 года стал составной частью алгоритма поисковой системы, поэтому работает не апдейтами, а в режиме реального времени.


Что делать: прекратить закупать дешевые нестественные ссылки, по которым нет и не может быть никаких кликов (сайты с минимальным трафиком). Необходимо провести аудит ссылочного профиля (выгрузив ссылки из вебмастера гугла), отказаться от «неестественных» ссылок с обилием ключей в анкоре, от ссылок с «некачественных» сайтов, от дублей ссылок с одной страницы, от сквозных ссылок и пр. При невозможности удаления таких ссылок обязательно сделать Disavow Links (отклонение ссылок) в Search консоли Гугла (вебмастере). Очень удобно делать список отклоняемых ссылок непосредственно в SemRush, Majestic (если есть у вас доступ). Так-же есть инструменты — помощники для аудита ссылочного профиля, например SEO SpyGlass. Есть сервисы по проверке качества ссылок, что то вроде checktrust. Однако наиболее правильно — выполнить аудит ссылочного профиля самостоятельно.

фильтр hummingbird
Hummingbird

Дата запуска: август 2013


Отслеживает: некачественный контент и избыток ключевых слов в документе (переспам).
Как работает: алгоритм «Колибри» позволяет интерпретировать естественный язык и ранжировать страницы, даже если в текст не включены поисковые запросы. Это достигается использованием алгоритмов опирающихся на латентные семантические индексы, использование синонимов и похожих терминов. Отслеживает «естественность» текстов и штрафует за переспам ключевыми словами.


Что делать: использовать контент, написанный естественным языком. Не допускать избыточного использования ключей.


С введением этого алгоритма в среде оптимизаторов стала модна аббревиатура LSI – латентное семантическое индексирование, которое предполагает, что поисковый робот выделяет из текста не отдельные фразы, часто встречающиеся среди вводимых в поисковую строку, а выбирает тематику страницы на основании комплекса используемых на ней слов, включая словоформы, синонимы и близкотематические фразы.


Именно поэтому стоит широко внедрять синонимы и связанные выражения с ключевыми словами. Более тщательно подходить к работе с ключевыми словами, опираться на «подсказки» выдачи поисковых систем, которые отлично показывают связанные с ключом запросы.


Алгоритм породил множество сервисов, связанных с подбором LSI — ключей, хотя давно уже существовали вордстаты с их подсказками «Что еще ищут..». Сегодня можно использовать для поиска:


Блоки самих поисковых систем Вместе с » (тут ваша фраза в поисковике) » часто ищут
Вордстаты поисковых систем
Google Keyword Planner
Сервисы Арсенкина
Куча других сервисов и программ, дублирующих функционал вышеописанных: Pixel Tools, LSI Graph / LSI Keyword Generator, Ubersuggest tool и т.д.
Используя вышеперечисленные сервисы можно получить (собрать) несколько идей для расширения семантического ядра вашего сайта в нужном направлении. Осталось дело только за качественным журналистом — копирайтером.

алгоритм Pigeon
Pigeon

Дата запуска: июль — декабрь 2014


Отслеживает: некачественное on и off — site SEO, влияющее на региональную выдачу.
Как работает: оказал сильное влияние на региональную выдачу, отслеживая некачественные внешние ссылки и сигналы и переоптимизацию страниц сайта. Алгоритм тесно увязал региональную выдачу и общую органик — выдачу: традиционные алгоритмы ранжирования и фильтров стали обширно применяться в региональной выдаче.


Что делать: для доминации в региональной выдаче необходимо делать качественное SEO, опираясь на реалии общей выдачи поисковой системы. Кроме того, необходимо привязать сайт в вебмастере к региону, строить ссылочное с региональных бизнес ресурсов и «желтых» каталогов сайтов, для коммерческих ресурсов широко использовать «Google Мой бизнес«, переработать страницу контактов, добавив карту Google с адресом компании, обилие фотографий предприятия и коллектива, проводить offline работу по продвижению бизнеса и сайта (реклама того же QR-кода на листовках, визитках, флаерах и пр). Обязательно работать с отзывами клиентов. Внедрять на сайт метки геолокации, в том числе телефонные номера с кодом региона.

алгоритм Mobilegeddon
Mobile

известен также как Mobilegeddon
Дата запуска: апрель 2015


Отслеживает: «неадаптивность» или отсутствие мобильной версии сайта.
Как работает: алгоритм вычищает и серьезно понижает в основной выдаче сайты без «мобильной» версии. Кроме того, в мобильной выдаче в ТОП выводятся только «мобильные» версии сайта.


Что делать: внедрить шаблон с респонсивной версткой (резиновой) или адаптивной версткой (отдельная версия сайта под мобильные устройства). Далее необходимо провести ряд работ: оптимизировать скорость загрузки страниц сайта, сделать загрузку всех скриптов ассинхронным, оптимизировать размеры и вес изображений, использовать кэширование сайта. Для проверки мобильности вашего ресурса используйте инструмент от Google. Кроме того, если динамического контента на странице мало, рекомендуется использование AMP страниц.

алгоритм поисковой системы RankBrain
RankBrain

Дата запуска: октябрь 2015


Отслеживает: релевантность запросов контенту, штрафует за некачественное или бесполезное содержание, понижает в выдаче сайты с неудобным пользовательским интерфейсом (User Experience Design).
Как работает: RankBrain — самообучающаяся система с искусственным интеллектом, поддерживающая обработку результатов поиска Google и обеспечивающая более релевантные результаты для пользователей. Если RankBrain видит слово или фразу, но не знаком с ней, алгоритм может сделать предположение относительно того, какие слова или фразы могут иметь аналогичный смысл и фильтровать результат, что соответственно делает его более эффективным при обработке поисковых запросов, которые ещё никогда не задавали пользователи. В автономном (офлайн) режиме RankBrain получает данные о прошлых поисковых запросах и, анализируя их, узнаёт, как настроить результаты поиска. После того как результаты RankBrain проверяются командой Google, система обновляется и вновь работает в режиме реального времени. Google называет RankBrain третьим по важности рейтинговым фактором.


Что делать: использовать на сайте более разнообразный и качественный (полезный) контент. Выполнить конкурентный анализ с использованием методик TF-IDF, следовать за ТОПом. Нанять хорошего UX — дизайнера и модифицировать интерфейс и бизнес-логику сайта. Для анализа подойдет софт: WebSite Auditor, Мегаиндекс, Allsubmitter (частично) и многие другие программы и онлайн сервисы.

алгоритм ранжирования possum
Possum

Дата запуска: сентябрь 2016


Отслеживает: некачественный и спамный контент в локальной выдаче. Убирает монополию компаний в результатах локального поиска (1 компания — 1 место в выдаче,вместо нескольких страниц одной компании).
Как работает: алгоритм направлен, в основном, на малый бизнес и некрупные региональные компании. Увеличивает число компаний в локальной выдаче, в зависимости от места запроса  (координат) пользователя. Отслеживает спамный контент и удаляет его из выдачи. Удаляет дубли представлений компании в выдаче. В августе 2017 алгоритм подвергся модификации, получивший название «Hawk», который применяет более строгие правила фильтрации компаний.


 


Что делать: проверьте ранжирование ваших важных ключей, используя местный поиск. Очень удобным инструментом для отслеживания местного (локального) поиска является Ad Preview. Кроме того существует десяток программ, позволяющих собирать и анализировать местную выдачу. После проведения анализа ключей в местной выдачей проводим стандартную работу по их продвижению, в случае их низких показателей, используя геометки.

алгоритм fred
Fred

Дата запуска: март 2017


Отслеживает: избыточность рекламы, сайты созданные исключительно с целью продвижения услуг третьих лиц (аффилированность) и не несущие дополнительной полезной информации.
Как работает: Гугл пока не подтвердил наличие отдельного алгоритма Фред, но вебмастера прочуствовали его ведение. Наиболее пострадали сайты, активно монетизируемые владельцами с низким качеством контента. Также произошло дальнейшее ужесточение алгоритма по отслеживанию некачественных ссылок.


Что делать:  Провести анализ ссылочного профиля. Провести аудит качества контента вашего сайта. Ответить на вопрос, приносит ли ваш сайт добавочную пользу посетителям. Снизить рекламные предложения на сайте, отказаться от сомнительных партнерок. Рекомендую в очередной раз перечитать «Рекомендации Google по обеспечению качества веб-сайтов» и проверить соответствует ли сайт стандартам Better Ads.
Таким образом, Ваш сайт может подвергаться пессимизации со стороны как одного, так и нескольких фильтров или групп алгоритмов поисковой системы. Более того, пословам гугловцев, ежедневно осуществляется запуск 2-3 небольших алгоритмов/фильтров которые корректируют или совершенствуют поисковую выдачу. Отсюда, необходимо быть постоянно в курсе основных нововведений и периодически проводить проверку собственных проектов, дабы избежать влияния негативных факторов.


Как вам известно, я иногда делаю SEO консультации компаниям и одиночным товарищам по отдельным аспектам продвижения. Как показала наработанная статистика, практически нет сайтов без нареканий. В большинстве случаев, особенно у молодых сайтов, наблюдается неудовлетворительное ссылочное. Многие грешат закупкой дешевого ссылочного, без должного отбора доноров. Зачастую к разбавке анкор-листа подходят формально: пихают просто ключи и разбавляют всякими глупостями наподобие «здесь», «по ссылке» и пр. Некоторые недопонимают что тематичность при линкбилдинге должна быть не только и не столько донор/акцептор, а как страница с ссылкой у донора должна быть тематична странице у акцептора, куда ведет ссылка.


Следующая ошибка у многих сайтов — отсутствие оптимизации страниц, когда грузятся многомегабайтные картинки, куча ненужных скриптов, что существенно замедляет работу проектов.


У старых сайтов наблюдается обилие битых страниц, что связано с неоднократной реорганизацией структуры, иногда теряются в неизвестном направлении составные части сайтов: сайтмапы, разделы, изображения и скрипты.


Много нареканий вызывает и Юзер-френдли интерфейс сайтов, лишь немногие компании используют наработки UX — дизайнеров.


В целом ошибок много у всех и нужно тщательно подходить к анализу и развитию собственных проектов. Зная ограничения и «засады» поисковых систем, надеюсь у вас получиться легко продвинуть Ваши проекты в ТОП.
Источник
Seo-консультации по SkypeSeo и разработка сайтов, Облачный майнинг(Блокчейн)
Skype:service-advertising(без live)
Мобильный, Whatsap, Viber: 8(910)774-44-99


 

Похожие темы

  Тема / Автор Ответов Последний ответ
2 Ответов
1605 Просмотров
Последний ответ 30-08-2012, 19:57:24
от ivdom
0 Ответов
855 Просмотров
Последний ответ 25-11-2014, 06:26:09
от DenPavlov
12 Ответов
6754 Просмотров
Последний ответ 26-05-2016, 13:59:04
от rozenten
0 Ответов
491 Просмотров
Последний ответ 02-02-2015, 13:28:07
от Рупорт
11 Ответов
1418 Просмотров
Последний ответ 17-08-2017, 12:42:56
от Osteen