Заблoкировать всю cеть IP-адресов по которым отказы более 99%?

Автор Тема: Заблoкировать всю cеть IP-адресов по которым отказы более 99%?  (Прочитано 165 раз)

Оффлайн РупортАвтор темы

  • Бизнес оценка: (0)
  • Старожил
  • ****
  • СПАСИБО: 92
  • Сообщений: 376
  • Карма: 19
    • Просмотр профиля

Оффлайн РупортАвтор темы

  • Старожил
  • ****

Сервер Ubuntu. На нем работают пара десятков сайтов. Основной источник трафика - переходы из поисковых систем (99%).

Процент отказа по ним 30-40%:



Все бы хорошо, но в последнее время наблюдаю неистовый интерес ко многим сайтам на сервере со стороны неких устройств: судя по Яндекс метрике осуществляются прямые заходы на мой сайт продолжительностью 0 сек. Соответственно в вебвизоре такие посещения помечаются как недоступные к просмотру.

Доходит до того, что доля таких визитов в общей массе превышает половину всех заходов на сайт.




Далее график посетителей (только прямые заходы на сайт):



График отказов (прямые заходы):



В итоге ухудшаются показатели "среднее время на сайте", "средняя глубина просмотра", возможно еще какие-то.
Хотя я сомневаюсь, большой процент отказов по прямым заходам, скажется на трафик из поиска (я надеюсь яндекс и Гугл различают эти два вида трафика при ранжировании сайта).

Далее я выявил IP-адреса, с которых происходят такие "плохие" визиты:

116.203.104.*
116.203.115.*
116.203.24.*
116.203.78.*
116.203.79.*
116.203.99.*
79.137.130.*
89.208.198.*
89.208.198.*
89.208.199.*
89.208.84.*
89.208.85.*
89.208.86.*
89.208.87.*

Сервис xseo.in/ips говорит от том, что это следующие товарищи(Информация GEOIP/IPGEO):
DE(Germany) Hetzner Online GmbH
RU(Russia) Mrgroup Investments Limited
RU(Russia) St Petersburg Limited liability company Mail.Ru

Проследил параметры визитов с этих IP-адресов. Обнаружил, что userAgent-ы по ним очень часто меняются (и маскируются под обычных пользователей). Поэтому фильтрация по userAgent - невозможна.

Теперь возник вопрос: А может просто забанить все эти подсети? Толку-то от них? Только создают дополнительную нагрузку на сервер. И портят общую картину посещаемости сайтов.

Странно, что яндекс метрика считает эти визиты на сайт пользовательскими...

P.S. Дополнительно фильтрую запросы от таких ботов как MegaIndex, MJ12bot, SemrushBot и прочих по их userAgent на уровне apache, благо они не скрываются и прописывают открыто себя в этих параметрaх.


 

Похожие темы

  Тема / Автор Ответов Последний ответ
0 Ответов
1005 Просмотров
Последний ответ 07-01-2013, 08:47:20
от lisa
10 Ответов
4054 Просмотров
Последний ответ 02-06-2014, 13:01:05
от KlyNik
0 Ответов
500 Просмотров
Последний ответ 20-07-2015, 12:53:31
от DEAC
3 Ответов
862 Просмотров
Последний ответ 03-08-2017, 06:49:36
от ВикторияИ
6 Ответов
1085 Просмотров
Последний ответ 21-09-2017, 17:25:05
от Assessor