О влиянии фактора ранжирования "Speed Update" (Lighthouse) Google

Автор #vikup34, 09-02-2018, 18:04:37

« назад - далее »

#vikup34Topic starter

Эта тема - небольшое исследование.

Причина исследования - аномалия в выдаче Google, совпадающая по времени с появлением фактора ранжирования "Speed Update".

Прочитав новость о появлении этого фактора, я установил плагин LightHouse и проверил продвигаемый мною сайт http://vikup34.com

Результат проверки был плачевен! Производительность 23/100,  время загрузки на мобильном 3G соединении - 17sec.
В тот же день механика была переработана, производительность повышена до 86/100 а время загрузки на 3G уменьшено до 3sec.

Cкрин текущего отчета LightHouse: [spoiler][/spoiler]

Оптимизация под LightHouse была сделана не потому, что это фактор ранжирования, а потому, что значительная часть Целевой Аудитории сайта живёт в области и не имеет возможности пользоваться скоростным проводным интернетом.

Дальше - было самое интересное!

Прежде всего, я начал замечать более высокий, чем обычно рост позиций и видимости сайта на www.seobility.net
Оптимизация сайта под Lighthouse была проведена 25.01.2018. График чётко фиксирует рост видимости именно с этой даты:
[spoiler][/spoiler]
В результате этого роста видимость сайта (по версии seobility) за 2 недели выросла  вдвое.

Тот же график на фоне важных конкурентов:
[spoiler][/spoiler]
Ключи и текущие позиции, по которым пишется график
[spoiler][/spoiler]

Настолько сильный рост меня заинтересовал, и я решил его сверить с другими источниками.

Данные по количеству показов сайта из Search Console. Т.к. сайту всего 3 мес., на графике видна полная история с даты создания.

Рост показов соответствует по датам росту видимости из www.seobility.net и дате, когда сайт был оптимизирован под Lighthouse.

Еще один любопытный график: график количества ключевых запросов в топ 3 Google по данным spyserp.com (там ежедневно мониторятся 50 самых важных для сайта ключей)
[spoiler=3][/spoiler]
Не трудно заметить, что как раз после оптимизации под Lighthouse 26/01/2018 этот график для компании Выкуп 34 кардинально изменился.
Там же можно заметить, что после 26/01/2018 для многих конкурентов количество ключей в топ-3 тоже изменилось.

Аналогичная картина для ключей в топ-5
[spoiler=5][/spoiler]

Для количества ключевых запросов по недвижимости в топ-20 изменения, кроме как для сайта компании Выкуп 34 - минимальны.
[spoiler=20][/spoiler]
То есть "принципиально" никто из топ-20 не вылетел и не влетел, просто произошла серьёзная перестановка мест.
Хотя в отдельных случаях, которым оказалась оптимизация мобильного быстродействия сайта с 23\100 до 86\100 - изменения видны и тут. Причем кардинальным образом изменились позиции не только в мобильной выдаче, но и в выдаче для десктопных ПК.
Для топ-30 и топ 50 серьёзных изменений, кроме как для сайта компании Выкуп 34 - тоже нет.
[spoiler=30][/spoiler]
[spoiler=50][/spoiler]
Зато видно, насколько серьёзные изменения в выдаче по тематике "выкуп недвижимости" произошли для компании Выкуп 34.

Для сравнения: динамика изменения количества ключей в топ-10 по 50 запросам тематики "выкуп недвижимости" в Яндекс:
[spoiler=10][/spoiler]
Что мы видим? Никаких принципиальных изменений. Просто вечный хаос и шторм выдачи, смахивающий на броуновское движение атомов. Сайт http://vikup34.com тут, для разнообразия, почти не штормит. Но это ожидаемо: 35/50 наблюдаемых ключевых запросов, связанных со срочным выкупом недвижимости у компании в Яндекс - в топ-3. Штормить особо некуда.

Зато можно понять, что никакого заметного "роста" в Яндексе у сайта компании Выкуп 34 - не было. Да и каких-либо необычных изменений у конкурентов - тоже.
Значит, можно предположить, что произошедшие изменения выдачи в гугле - следствие изменения алгоритмов самого гугла.

На протяжении последнего месяца никаких особых рекламных компаний или большого количества значимых ссылок, типа срочно продать квартиру по сайту компании Выкуп 34 я не проводил. Хотя с ключём "срочная продажа квартиры" действительно есть сложности. Сайт Выкуп 34 под него не особо заточен, и для гугла\яндекса равнозначные "срочный выкуп квартир" и "срочно продать квартиру" - совершенно не связанные ключи. Хотя и с одинаковой частотностью по вордстату. Но тема не об этом.)

По данным majestic.com - стабильный рост ссылочной массы на протяжении последних пары месяцев. Делаю ежедневно несколько трастовых качественных ссылок, не более.
MJ Trust и Citation за месяц выросли на 2 пункта каждый. Ничего особенного.
[spoiler][/spoiler]

По оценке www.sbup.com и вовсе видно, что последние 2 недели я халявлю, и "недорабатываю".
[spoiler][/spoiler]
Конечно, увидев это я сейчас запущу что-то серьёзное из рекламы - рост, он должен быть стабильным. Но именно об этом и тема!
Я - сторонник стабильного накопления ссылочной массы, и стабильного роста своих проектов. Рост "+100% за 2 недели" - не то, к чему я стремлюсь.
И в рамках моих рекламных технологий такой рост не предусматривается. Сказать что я "рад" - не могу. Я привык, что гугл выводит сайты на их "родные" места неспешно, но неизбежно. Так же неспешно работаю и я. Яндекс то давно вывел мой сайт в топ-3 по всей тематике, в этом плане он шустрее.

Важно тут другое.
Заявление сотрудников гугл, что
ЦитироватьФактор "Speed Update" (скорость обновления), по словам авторов, будет влиять только на самые медленно загружаемые страницы и сайты.
может оказаться не совсем верным. Точнее - оно верно, при условии, что сайты не оптимизируются целенаправленно. Но этот же алгоритм, судя по всему, способен кардинально изменить "расстановку сил" в выдаче для сайтов, 90% конкурентов которых - заведомо медленные и неоптимизированные под медленное интернет соединения. "Медленно загружаемые страницы и сайты" это - по большому счёту, все. И оптимизировав сайт для быстрой загрузки на 3G соединении можно повлиять на этих "всех", кардинально обойдя их в выдаче при прочих равных.

В данной теме я не буду расписывать, как именно я правил механику сайта по срочному выкупу квартир. Это заняло два рабочих дня, и смысл  быы в том, что на мобильных телефонах не грузятся никакие счётчики, метрики и прочее. Куча файлов скриптов и стилей были совмещены в несколько физических файлов. Из библиотек css убраны редкоиспользуемые шрифты, убраны все неиспользуемые css правила, что сократило не только объем css, но и что важнее - время, необходимое мобильному браузеру на обработку этих стилей. В оригинальной версии сайта - которая была 23/100 и грузилась 17 секунд, около 5 из них занимала одна только обработка css! Не загрузка css файлов, а именно обработка этих сотен килобайтов стилей.

Думаю, умеючи, оптимизировать сайт для быстрой загрузки на мобильном телефоне - можно. Было бы зачем. И это зачем теперь, судя по всему, есть.

Ссылки вида срочно продам квартиру в это теме - рекламные) Всё-таки я специалист по рекламе, а реклама у хорошего специалиста должна быть во всём) Переходить по ним не обязательно, тем более, что компания Выкуп34 всё равно выкупает недвижимость и авто только в Волгограде и Волжском. С другой стороны - можете на живом примере посмотреть, как именно написаны и подключены js. Думаю, мало кто подгружает счётчики посетителей с задержкой, с отдельной страницы сайта во фрейме. Или яндекс метрику из отдельного js файла и только в случае, если ширина браузера больше 900px.

Тему публикую на www.sbup.com и searchengines.guru
Думаю участникам обоих форумов эта информация может оказаться полезной.
Публикую одновременно. Интересно, какая версия больше понравится ПС, сёрчевская или sbup, и насколько сильная будет разница  :)

С уважением, /me

Добавлено: 09-02-2018, 23:12:22


вот и разница между sbup и serachengines)

Цитата: moderator wolfФорум об интернет-маркетинге сообщает Вам, что Вы нарушили правила форума.
Причиной нарушения стало: Реклама и спам
Тема удалена

Удалённая тема в версии сёрча взлетела в #1 гугл по "ранжирование speed update" "фактор speed update" и думаю еще по многим.
А ведь статья которую я забабахал - актуальный и уник контент. Целое исследовение. С картинками, как любит гугл  ;D

В общем - зря только у них публиковал)

Добавлено: 10-02-2018, 11:38:00


О публикации информации одновременно в двух источниках

Статья вчера была опубликованана 2 ресурсах. Почти сразу она вышла на #1 место по связанным запросам в версии searchengines.
Версия sbup отсутствовала в выдаче, хотя под статьей в выдаче была пометка "Авторов: 2"
Скрин:
[spoiler][/spoiler]
Так же скрине видно, что информация кем-то куда-то уже была скопирована.

Далее - тема на сёрче была удалена как "Реклама, спам" (без комментариев). Соответственно резолвиться URL перестал. и мне стало интересно, что же будет показываться в выдаче по связанным ключам.

Вуаля:
[spoiler][/spoiler]
[spoiler][/spoiler]
[spoiler][/spoiler]
[spoiler][/spoiler]

Видимо, пометка "Авторов: 2" в google - не случайна. Первоисточник и позиции перешли sbup.


А теперь еще один интересный момент.

"Об эффективности продвижения подобными статьями."

Когда я писал эту статью, мне было очень интересно, какой именно эффект она окажет на позиции сайта .
Сами по себе ссылки из этой темы с сайтов, с которых у меня и так куча бэклинков - ничего нового не должны были дать.
Но ведь это - полноценная статья. И даже с картинками и форматированием, как любит гугл!

Результат. (увидел сегодня утром)


Я даже не знаю, что тут сказать. Такого сильного эффекта я не ожидал.


john_j

Цитата: #vikup34 от 09-02-2018, 18:04:37

вот и разница между sbup и serachengines)

Удалённая тема в версии сёрча взлетела в #1 гугл по "ранжирование speed update" "фактор speed update" и думаю еще по многим.
А ведь статья которую я забабахал - актуальный и уник контент. Целое исследовение. С картинками, как любит гугл  ;D

В общем - зря только у них публиковал)
;D
испоганили тот форум, раньше было интересно
а сейчас, просто несколько местных шутов тролят нубов ))
модераторы это поддерживают

в продолжении темы интересно посмотреть на сами методы ускорения
хочу один сайт оптимизировать, посмотреть что получится
  •  


#vikup34Topic starter

#2
Распишу как была проведена оптимизация под Lighthouse.

Основное время тратилось на 17 разных css файлов.
Совместил их в один, точнее по сути - просто склеил. Назвал styles.css
Дало серьезную прибавку скорости загрузки.

Дальше время тратилось на что-то около 15 js файлов, включая стандартные Js библионеки, типа Jquery
Совместил их в две. Обе грузятся перед самым концом </body>
<script type="text/javascript" src="http://static.vikup34.com/js/common.js?1.1"></script>
<script type="text/javascript" src="http://static.vikup34.com/js/async.js?1.1" async="async"></script>

То, что необходимо для работы сайта - в первой. То, что можно подгрузить с задержкой - во второй. Во вторую попали библиотека bootstrap, библиотека. отвечающая за работу "формы заказа" и библиотека от "плагина звонилки", который красный телефон на сайте. По идее это сторонний сервис, и js файл каждый раз по дефолту грузится с их сайта. Я скопировал его оттуда, и грузится от с моего. Так быстрее, да ещё и совместил его с двумя другими и гружу async.
Прирост дало тоже огромный.

Дальше - метрики Яндекс, Гугл и прочие.
Вынес их в отдельный файл http://vikup34.com/metrica.js
И всё его содержимое обрамил условием
if(window.innerWidth>900)
{
...
}

В результате при ширине экрана <900px метрики вообще не грузятся.
Это дало огромный прирост скорости, потому что метрики, особенно яндексовская - тяжелые.
Метрики грузятся перед </body> через
<script type="text/javascript" src="/js/metrica.js?1.1" async="async"></script>
Асинхронно. Хотя создатели метрик уверяют, что их метрики - самое важное на сайте, и их нужно грузить чуть ли не в хедере, но для клиента эти метрики - самая наименее важная часть сайта. И грузить их нужно не только последними, но и асинхронно. Потому что работать нужно ради клиента, а не ради робота. И робот это оценит)

Дальше. Все другие "счётчики".
Вынесены на отдельную страницу http://vikup34.com/async.html и эта страница грузится с главной во фрейме с задержкой, и только при наступлении условия.
<span id="frmeasync"></span>
<script type="text/javascript">
if(screen.availWidth>900)
{
var delayasync  = 2000;
var capPage = ['async.html'];
if(top.location!=self.location)setTimeout(function(){document.getElementById('frmeasync').innerHTML = '<if'+'rame border="0" scrolling="no" style="dis'+'play:n'+'one; wid'+'th: 0px; he'+'ight: 0px;" sr'+'c="'+capPage[0]+'"></if'+'rame>'}, delayasync);
}
</script>

Условие у меня "странное" - лишние счётчики - только для тех, что грузит сайт во фрейме. Т.е. они считаю только iframe посетителей, которых я периодически создаю. А нормальным людям эти счетчики вообще не грузятся, так же как и роботам.
Изначально все счетчики были на главной, хоть и не грузились. Теперь их там даже нет.

Далее - в хроме, через F12 через режим Audits были обнаружены неиспользуемые css скрипты


Убрать лишние css... заняло время.) Изначально css файл, склеенный из всех css, весил 156kb
После очистки он стал "весить" 23,6kb
В результате не только уменьшился объем страницы, но и перестало расходоваться время на обработку лишних 120kb скриптов, которое составляло в районе секунды для мобильного браузера "на одну только обработку".

Дальше.
Поняв, что "сервис-звонилка" от сторонней компании - крайне неоптимизированный и работает медленно, в JS файл этой звонилки, который был предварительно скопирован на мой сайт и объединён с другими скриптами, было встроено условие if(window.innerWidth>440)
Результат - при ширине экрана меньше 440 эта штука вообще не грузится, что даёт серьезный прирост скорости загрузки (уменьшило время загрузки на 2-3 сек)

Гугл проверяет совместимость с мобильником на ширине 412. Итог - условием "меньше 440" можно с запасом перестрaховаться, отключив всё что можно.

Еще - добавил такую штуку
[spoiler]   <link rel="dns-prefetch" href="http://static.vikup34.com">
   <link rel="dns-prefetch" href="http://eyenewton.ru">
   <link rel="dns-prefetch" href="//fonts.gstatic.com">
   <link rel="dns-prefetch" href="//www.google-analytics.com">
   <link rel="dns-prefetch" href="//mc.yandex.ru">[/spoiler] - это прироста вроде не дало, но добавил просто чтобы было.

Так же у меня на сайте грузился внешний шрифт:
<link rel="stylesheet" href="https://fonts.googleapis.com/css?family=Roboto:400,700&subset=latin,cyrillic">

Хоть вроде и "fonts.googleapis.com", но на самом деле строчка страшная. Очень неприятно режет скорость загрузки, и шрифты там тяжеловесные. В общем "переработал" в
/* cyrillic */@font-face {font-family: 'Roboto';font-style: normal;font-weight: 400;src: local('Roboto'), local('Roboto-Regular'), url(https://fonts.gstatic.com/s/roboto/v18/mErvLBYg_cXG3rLvUsKT_fesZW2xOQ-xsNqO47m55DA.woff2) format('woff2');unicode-range: U+0400-045F, U+0490-0491, U+04B0-04B1, U+2116;}
/* latin */@font-face {font-family: 'Roboto';font-style: normal;font-weight: 400;src: local('Roboto'), local('Roboto-Regular'), url(https://fonts.gstatic.com/s/roboto/v18/CWB0XYA8bzo0kSThX0UTuA.woff2) format('woff2');unicode-range: U+0000-00FF, U+0131, U+0152-0153, U+02BB-02BC, U+02C6, U+02DA, U+02DC, U+2000-206F, U+2074, U+20AC, U+2122, U+2212, U+2215;}
/* cyrillic */@font-face {font-family: 'Roboto';font-style: normal;font-weight: 700;src: local('Roboto Bold'), local('Roboto-Bold'), url(https://fonts.gstatic.com/s/roboto/v18/isZ-wbCXNKAbnjo6_TwHThJtnKITppOI_IvcXXDNrsc.woff2) format('woff2');unicode-range: U+0400-045F, U+0490-0491, U+04B0-04B1, U+2116;}
/* latin */@font-face {font-family: 'Roboto';font-style: normal;font-weight: 700;src: local('Roboto Bold'), local('Roboto-Bold'), url(https://fonts.gstatic.com/s/roboto/v18/d-6IYplOFocCacKzxwXSOFtXRa8TVwTICgirnJhmVJw.woff2) format('woff2');unicode-range: U+0000-00FF, U+0131, U+0152-0153, U+02BB-02BC, U+02C6, U+02DA, U+02DC, U+2000-206F, U+2074, U+20AC, U+2122, U+2212, U+2215;}

то есть во-первых - убрал бессмысленную "фазу" загрузки файла
https://fonts.googleapis.com/css?family=Roboto:400,700&subset=latin,cyrillic
а во вторых - этот файл грузит шрифты не только в Ru и En. Там целых 14 штук. Я оставил только те 4, которые именно используются. Остальное убрал.
Опять же - неслабый прирост, т.к. до этого грузились (загружались файлы) в том числе и версий шрифта, которые на сайте фактически не использованы. Шрифты тяжеловесные, удалось заметно уменьшить "вес" и как следствие - повысить скорость загрузки.

Добавлено: 12-02-2018, 22:22:14


так же из @font-face {font-family: 'FontAwesome'; src: url("../fonts/fontawesome-webfont.woff2?v=4.3.0") format("woff2"), url("../fonts/fontawesome-webfont.woff?v=4.3.0") format("woff"), url("../fonts/fontawesome-webfont.ttf?v=4.3.0") format("truetype"); font-weight: normal; font-style: normal;}
убраны все версии, кроме woff2 woff и ttf. По факту те версии шрифта не использовались, но опять же - загружались.

Добавлено: 12-02-2018, 22:26:58


вспомнил. Еще на сайте использовалась старая "уязвимая" версия JQuery. Об этом мне сообщил Lighthouse.
Ноу проблем. Скачал последнюю версию, и заменил. JQuery у меня склеен с другими в "common.js", куда вклеены все js файлы кроме тех, которые можно грузить асинхронно через async.js

Stream111

Странный сайт! Явная реклама, а ему карму поднимают! >:D
Я не Я >:D
  •  

xVOVAx

тоже сделал один им по украине ( авто товары) с 8-9 сек до 4 ( в зеленую зону) - посмотрим результаты


#vikup34Topic starter

#5
Сайт не "странный" а:
Цитироватьпроходящий W3C валидацию
имеющий оценку >1000$ по SBUP
A(97%)/B(87%) на gtmetrix
90/100 mobile 96/100 desctop на PageSpeed Insights
85/100 производительность по LightHouse
extlinks PageRank 5.1/10
MOZ DA 33/100 PA 41/100
Majestic LinkRank >290
+ другие аналогичные этим метрики

Странность только в том, что к этому удалось прийти всего за 3 месяца с момента покупки домена\создания сайта.
И на этом реальном и живом примере написана статья ;)

С того момента, как я оптимизировал сайт под LightHouse прошел почти месяц.
Возможно кому-нибудь интересно, что стало с сайтом дальше.



На графике выше (и эта инфа дублируется реальными позициями) видно, что пойдя по пути технической оптимизации (и написания статей ::)) удалось добиться того, что за месяц поисковая видимость сайта увеличилась на 400%. Т.е. удалось выйти с третьей позиции Google по самым важным ключам на первую (или 2+3 места одновременно)

Данные seobility как всегда сходятся и с данными из SearchConsole по количеству показов.


Итог:
1. техническая оптимизация имеет быстрый и сверхзначимый эффект.
2. первые две подобным образом написанные статьи на search+sbup дали огромный рост видимости сайта.
Дальнейшие публикации в тех же источниках перестали давать столь значимый рост.
3. Ссылки в подписях и ссылки в теле сообщений на форумах не равнозначны. Ссылки в теле сообщений во много раз значимее.
4. Ссылки в первом сообщении, с которого начинается тема (т.е. в теле статьи), судя по всему, имеют x(очень много) эффект по сравнению с ссылками в подписи.


deffa

На примере топика данного автора мы можем наблюдать агрессивный крауд-маркетинг во всей его красе  :))
И не знаю может это авторская разработка какая то спецом битую ссылку засунуть до кучи, не тестила такой метод


Но пост поражает воображение. Вдумчивый, полезный для интересующихся. на много тыс символов, где почти без палева понатыканы и анкорные и безанкорные ссылки. Хотелось бы уточнить у автора.меняет ли он текст от  форума к форуму или постит копипастой? Есть ли ощутимая разница от эффекта разных текстов или примерно одинаково?
  •  

MaxMyr

Основательно и интересно, спасибо Вам за труд!
Что дальше?
SEO-специалист для b2b и b2g в Укрaине https://site4.biz.ua/
  •  


#vikup34Topic starter

#8
deffa

благодарю сообщение о битой ссылке. Поправил.
Конечно же vikup34.com/kavrtir это опечатка. Но теперь работает и она: сделал папку /kavrtir/ и поместил там .htaccess с редиректом на правильный URL

Текст базовой статьи (первое сообщение) были опубликованы только тут и на сёрче, одновременно. Изменения были только по тегам, т.к. на серче нет спойлеров и пришлось переделать картинки.

Публиковать где-то еще - бессмысленно. В целях, собственно, "продвижения" ссылки с низкокачественных форумов да ещё и тематики SEO с моей точки зрения скорее вредят. SBUP и Сёрч исключения, т.к. имеют слишком большой поисковый вес. Они по значимости - что-то вроде интернет-журналов.

По поводу изменения текстов: если какой-то рекламный текст дублировать на разных сайтах, каждый раз его уникализируя на синонмиах (да, я и так делал, на другом проекте) - положительного эффекта не увидел. Вообще. Скорее всего эффект в том, что размещать хоть уникализированные, хоть копипастные материалы на "плохих" ресурсах само по себе бессмысленно и едва ли не вредит. Склоняюсь к тому, что при перепубликации одного и того же материала на разных источниках лучше делать адаптированный копипаст, и указывать ссылку на первоисточник. Это - максимально естественно и правдоподобно.

А "что будет дальше" - самому интересно) Если бы мне кто-то пол-года назад сказал, что подобные пузомерки\позиции можно получить на сайте всего за 3 месяца, выведя его по недешевым региональным ключам на топ#1 яндекса и гугла одновременно... я бы наверное не поверил. Но возможно, мой опыт будет полезен тем, кто решит его как-то переработать и использовать под собственные проекты.

Так или иначе это, по меньшей мере, любопытный опыт.


deffa

  •