Просмотр сообщений

В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.


Сообщения - hostland

Страниц: [1] 2 3 4 5 6 7
1
В моём понимании бесплатные ссылки - это и есть естественные.
Отсюда и недоумения ...

Добавлено: 20-11-2015, 12:23:36

после прочтения весьма бурной дискуссии возник вопрос - а зачем в принципе так рвать попу?
в чем проблема наставить фоллоу ссылки на других ресурсах?
Как вариант:
"Мы не ищем легких путей" (с)  :)

2
Я не одной ссылки не купила
ТиЦ 30, посмотрите в подписи
Приятный сайт, а что за тему используете, если не секрет?

У вас 6000 ссылок с  около 250 доменов естественным путём появились за 1 год?
Бесплатные ссылки и естественные - это разные вещи. ;)

Ссылки nofollow учитываются - это факт. Но их вес для сайта-акцептора будет намного ниже, чем у обычных открытых ссылок.
Для придания естественности ссылочной массе - можно использовать (в рамках работ по вирусному маркетингу, партизанскому маркетингу и подобных методах).
Угу, а если nofollow ссылки появляются естественным образом (отличный контент) на трастовых, тематически близких сайтах, с переходами и приличным ПФ ...

3
Из статьи:"3. С текущего ( в широком смысле слова) момента органический монотрафик – верная смерть для бизнеса. Возможно, какой-то массовой раскатки Минусинска и не будет, но тренд однозначен: если сайт «живет» только на поисковом трафике – готовьтесь к проблемам."
Получается, что ссылки должны приносить естественный трафик. Поделитесь опытом, где искать такие ссылки, кроме соц.сетей?

4
Google обновит Penguin через несколько месяцев

Аналитик и инженер отдела качества поиска Гэри Илш (Gary Illyes) заявил, что Google обновит алгоритм Penguin через несколько месяцев.



Последнее официальное обновление алгоритма Penguin 3.0 состоялось 18 октября 2014 года, почти 9 месяцев назад. Последние изменения, связанные с алгоритмом, наблюдались в декабре 2014, — около 7 месяцев назад.

Специалисты Google неоднократно сообщали о скором переводе алгоритма в режим автоматических непрерывных обновлений. Однако фильтры Google Panda и Penguin все еще не обновляются регулярно в автоматическом режиме, специалисты поисковой системы по-прежнему запускают их вручную.

В июне текущего года Гэри Илш пояснил, что алгоритм Penguin будет работать в режиме реального времени, но переход к такому формату апдейтов займет некоторое время.

5
Обновление алгоритма Google «Панда» задерживается по техническим причинам

Обновление алгоритма Google Panda все еще не запущено. Аналитик и инженер отдела качества поиска Google Гэри Илш (Gary Illyes)
в своем Twitter сообщил, что обновление должно произойти в ближайшее время, но не смог назвать «ожидаемое время прибытия» по техническим причинам.

На минувшей неделе специалист отдела качества поиска Google по работе с вебмастерами Джон Мюллер (John Mueller) сообщал,
что алгоритм будет обновлен в течение недели.
О том, что Google планирует выпустить следующее обновление алгоритма «Панда», Гэри Илш рассказал во время своего выступления на конференции SMX Advanced.

В настоящее время обновления «Панды» по-прежнему требуют ручного запуска и не производятся автоматически.

Версия Panda 4.1 была последним обновлением этого алгоритма. Еще одно неподтвержденное обновление состоялось 24 октября 2014 года.

Если верить этому инструменту, то и Панда и Пингвин обновлялись осенью прошлого года, в октябре месяце.



зы возможно и в этом году будет также.  :)

6
Интересная аналитика, спасибо. Тема действительно очень актуальна, ИМХО. Но вопросов больше, чем ответов. ???
Как сейчас работать с ссылками чтобы не попасть под фильтр, какие они должны быть, сколько, откуда и т.п.?

7
Если вы заметили снижение позиций сайта в выдаче, то можно использовать онлайн инструмент, который может помочь объяснить изменения поисковой выдачи, и трафика веб-сайта, и в конечном итоге улучшить поисковую оптимизацию.
Пробуйте, проверяйте, там есть, Панда, Пингвин и Mobile-Friendly, например:



8
Алгоритм  Google Panda, рассмотрим подробнее, что к чему.  :)
Google надёжно охраняет секреты своих алгоритмов, однако некоторая информация о Панде всё же есть.



Panda –  это относительно новый поисковый алгоритм Google (появился в 2011 году).
Если коротко, то этот алгоритм отвечает за качество сайтов в целом, и контента в частности.
Его разработали сотрудники Google Амит Сингал(Amit Singhal) и Мэтт Катс(Matt Cutts).

Фильтр лишает трафика некачественные сайты, что способствует перераспределению посещений в пользу качественных ресурсов.
Google Panda оценивает ресурсы по следующим критериям:
1. Качество контента.
Как робот определяет качественное и некачественное содержимое?

Рекомендации Google по оформлению и подбору контента

*Создайте сайт с четкой иерархической структурой и текстовыми ссылками. На каждую страницу должна вести хотя бы одна статическая текстовая ссылка.

*Составьте для пользователей карту сайта со ссылками на наиболее важные его разделы. Если ссылок слишком много, разделите ее на несколько страниц.

*Не размещайте на одной странице слишком много ссылок.

*Сделайте сайт полезным и информативным. Страницы должны давать четкое представление о контенте сайта.

*Подумайте, по каким ключевым словам пользователи будут искать ваш контент, и включите эти слова в текст на сайте.

*Старайтесь сделать так, чтобы имена и названия, а также другая важная информация и ссылки были представлены текстом, а не изображениями. Поисковый робот Google не распознает текст, содержащийся в изображениях. Если текстовое содержание необходимо представить в графическом виде, добавьте к нему небольшое описание с помощью атрибута ALT.

*Убедитесь, что элементы <title> и атрибуты alt информативны и не содержат ошибок.

*Убедитесь, что все ссылки работают. Проверьте, нет ли ошибок в коде HTML.

*Если вы решили использовать динамические страницы (те, в URL которых содержится символ "?"), учтите, что не все сканеры поисковых систем обрабатывают их так же хорошо, как статические. Лучше сократить длину и количество параметров.

Рекомендации Google  по обеспечению качества: основные принципы:

Создавайте страницы в первую очередь для пользователей, а не для поисковых систем.

*Не вводите пользователей в заблуждение.

*Старайтесь не прибегать к уловкам для улучшения рейтинга в поисковых системах. Руководствуйтесь золотым правилом: если вы можете без труда объяснить владельцу конкурирующего веб-сайта или сотруднику Google целесообразность ваших действий с сайтом, значит вы на верном пути. Кроме того, полезно задаться вопросом: нужно ли это пользователям? Стали бы вы так поступать, если бы поисковых систем не существовало?

*Задайте себе такие вопросы: чем уникален ваш сайт, что делает его полезным для пользователей, почему они возвращаются на него снова и снова? Ваш сайт должен выделяться среди конкурентов.

Особые рекомендации по обеспечению качества

Методы, которые не следует использовать:

*Автоматически сгенерированное содержание

*Участие в схемах обмена ссылками

*Публикация страниц с некачественным или скопированным контентом

*Маскировка

*Скрытая переадресация

*Скрытый текст и скрытые ссылки

*Дорвеи

*Скопированное содержание

*Участие в партнерских программах, если вы не создаете контент самостоятельно

*Загрузка страниц с нерелевантными ключевыми словами

*Создание вредоносных страниц для фишинга и установки вирусов, троянов или другого нежелательного ПО

*Некорректное использование разметки для расширенных описаний веб-страниц

*Автоматические запросы в Google

Кроме того, мы рекомендуем:

*отслеживать попытки взлома сайта и оперативно удалять контент, измененный или добавленный нарушителями

*удалять со своего сайта спам, размещаемый пользователями.

2. Повторяющийся контент, рекомендации Google.

Повторяющимся контентом обычно называют большие блоки информации в рамках одного или нескольких доменов, содержание которых либо полностью совпадает, либо почти не отличается. Как правило, в данном случае не преследуется цель ввода пользователя в заблуждение. Повторяющийся контент может использоваться без злого умысла, например:

страницы форумов в обычных версиях сайтов и версиях для мобильных устройств;
товары в интернет-магазине, показываемые при переходе по разным URL;
версии страниц для печати.
Если на вашем сайте хранится несколько страниц с почти одинаковым контентом, вы можете указать предпочитаемый URL для Google. Это можно сделать разными способами. Такая процедура называется "нормализацией". Подробнее...

Однако в некоторых случаях контент намеренно дублируется в разных доменах с целью манипулирования рейтингом в поисковой системе или увеличения объема трафика. Использование обманных приемов, подобных этому, может оставить у пользователей негативное впечатление, так как в результатах поиска они будут видеть практически один и тот же многократно повторяющийся контент.

Google делает все возможное, чтобы индексировать и показывать страницы с уникальной информацией. Например, если на вашем сайте имеются "стандартная" и "печатная" версии каждой статьи, не отмеченные метатегом noindex, в результатах поиска будет отображаться только одна из них. В тех редких случаях, когда Google считает, что повторяющийся контент показывается для того, чтобы манипулировать рейтингом или вводить пользователей в заблуждение, мы внесем изменения в индекс и рейтинг рассматриваемых сайтов. В связи с этим рейтинг сайта может понизиться или сайт может быть вообще удален из индекса Google и будет недоступен для поиска.

Подробные инструкции о том, как избежать проблем, связанных с повторяющимся контентом,
и добиться того, чтобы пользователи видели нужный вам контент.


3. Скопированное содержание, рекомендации Google
Некоторые веб-мастера предпочитают копировать содержание с более популярных сайтов. При этом они не обращают внимания на релевантность и уникальность этого контента и полагают, что увеличение объема страниц будет способствовать повышению рейтинга сайта в долгосрочной перспективе. Само по себе такое содержание, пусть даже скопированное с самых популярных и качественных сайтов, не будет представлять ценности для пользователей, если на вашем сайте не будут предоставляться дополнительные материалы или возможности для работы с ним. Также следует учесть, что вы можете нарушить авторские права. Лучше потратить время и создать оригинальный контент, который выделит ваш сайт из массы других. Это позволит привлечь постоянных посетителей и обеспечить релевантность при поиске в Google.

Ниже приведены некоторые примеры скопированного содержания.

*Сайты, размещающие контент из других источников без дополнительной обработки.

*Сайты, на которых публикуется скопированное содержание с незначительными изменениями (например, слова заменены синонимами или используются автоматические методы обработки).

*Сайты, транслирующие с других ресурсов фиды, без собственных функций для работы с ними.

*Сайты, содержащие только встраиваемый контент, например видео, изображения и прочие мультимедийные материалы, с других сайтов без дополнительной значимой информации.

4. Отношение владельца сайта к пользователям.
В этот пункт можно включить следующие критерии: проблемы с функциональностью, юзабилити и дизайном сайта, избыточное количество и некорректное расположение рекламы. Например, «Панда» может наказать ресурс, если вы на первом экране публикуете рекламные блоки, а контент прячете в нижней части страницы.

Партнерские программы, рекомендации Google

Как указано в нашем руководстве для веб-мастеров, при создании веб-сайтов нужно использовать оригинальный контент, представляющий интерес для пользователей. Это особенно важно для сайтов, участвующих в партнерских программах. Как правило, на таких веб-сайтах приводятся описания товаров, представленных на сайтах партнерской сети. В результате сайты, основная часть контента которых позаимствована из партнерских сетей, могут иметь низкий рейтинг в результатах поиска Google, так как на них отсутствует уникальный контент, отличающий их от других веб-сайтов.

Если на партнерском сайте отсутствует собственный качественный контент, мы считаем, что он не представляет особого интереса для пользователей, особенно если он является частью программы, в которой участвуют сотни других сайтов. Как правило, такие сайты созданы на основе шаблонов, и на них отсутствует оригинальный контент. Пользователям не нравится, когда в результатах поиска отображается множество таких сайтов с одинаковым контентом.

Общие рекомендации Google по оптимизации сайтов для поисковых систем (SEO)
SEO – это сокращение от search engine optimization или search engine optimizer, что переводится как "оптимизация поисковых систем" или "оптимизатор поисковых систем". Решение о заказе поискового оптимизатора – это очень ответственный шаг. Поисковая оптимизация позволяет улучшить ваш сайт и сэкономить время, но при этом вы рискуете нанести вред сайту и своей репутации. Обязательно проанализируйте все потенциальные преимущества, а также возможные риски плохой поисковой оптимизации. Многие поисковые оптимизаторы, а также другие агентства и консультанты предоставляют владельцам сайтов полезные услуги, включая перечисленные ниже.

*Анализ содержания или структуры вашего сайта.

*Технические рекомендации по разработке веб-сайта, например, хостинг, переадресация, страницы с сообщениями об ошибках, использование JavaScript.

*Создание содержания.

*Управление кампаниями по развитию бизнеса в Интернете.

*Анализ ключевых слов.

*Обучение в области поисковой оптимизации.

*Консультации по определенным рынкам и регионам.

Рядом с обычными результатами поиска Google часто отображаются оплаченные ссылки, обозначенные надписью "Реклама". Реклама в Google не оказывает влияния на позицию сайта в результатах поиска. Компания Google не берет плату за включение сайтов в результаты поиска или за их показ на определенной позиции. Такие бесплатные ресурсы, как Search Console, официальный блог Центра веб-мастеров и наш форум, содержат множество информации о способах оптимизации сайта для обычного поиска.

Изучите наше руководство Руководство по оптимизации поисковых систем для начинающих

Как определить, что сайт попал под фильтр Google Panda?
Обратите внимание на следующие признаки:

*Вы заметили негативные аномалии после обновления алгоритма «Панда».

*Падение естественного поискового трафика.

*Падение позиций сайта в выдаче. Под влиянием «Панды» могут падать позиции всех или некоторых страниц ресурса. Значительная доля страниц может выпасть в дополнительный индекс.

*Медленное индексирование новых страниц.

Если вы заметили снижение позиций сайта в выдаче, то можно использовать онлайн инструмент, который может помочь объяснить изменения поисковой выдачи, и трафика веб-сайта, и в конечном итоге улучшить поисковую оптимизацию.

Как вывести ресурс из-под фильтра Google Panda?

*Проведите  аудит сайта. (самостоятельно, или обратитесь к специалистам)

*Убедитесь, что его функциональность (юзабилити) и дизайн соответствуют запросам пользователей.

*Решите проблему дублирующегося и/или скопированного контента.

*Если на сайте присутствует некачественный контент, исправьте это недочёт, учитывая рекомендации ПС.

* Если на сайте есть страницы с недостаточным объемом или вообще без контента, исправьте ситуацию.
Например, если на страницах товаров интернет-магазина нет описаний, добавьте их.

*Регулярно публикуйте на сайте новый и полезный для пользователей контент.

Если внимательно читать рекомендации Яндекса, то можно обнаружить много общего с советами от Google.

Яндекс тоже не любит некачественный контент, и имеет соответствующие фильтры, поэтому есть смысл обратить внимание на качество вашего сайта, даже если вы оптимизируете свой ресурс под Яндекс. (На мой взгляд - не лучшая стратегия)

PS Всем достойной выдачи и качественного трафика.  :)


9
Автор: Том Каппер (Tom Capper), ведущий консультант Moz в области аналитики. Работает в агентстве с 2013 года, сертифицированный специалист Google Analytics.

Источник: http://moz.com

В этой публикации будут рассмотрены распространенные ошибки, которые совершают интернет-маркетологи, анализируя самые популярные метрики Google Analytics.

1. Средняя длительность просмотра страницы

Средняя длительность просмотра страницы – действительно очень важная метрика. Особенно, если необходимо оценить вовлечённость пользователя во взаимодействие с контентом на конкретной странице. Однако, к сожалению, анализ вовлечённости – наименее эффективный способ применения данной метрики. Чтобы понять, почему она не подходит для оценки качества содержимого страницы, необходимо понимать принцип расчёта данного показателя системой Google Analytics. Итак, средняя длительность просмотра страницы – это отношение суммарной длительности просмотра страницы за выбранный промежуток времени к количеству уникальных посещений этой страницы пользователем. Если человек просмотрел всего одну страницу за сеанс, то длительность ее просмотра рассчитана не будет. Кроме того, есть страницы, которые специально созданы для того, чтобы пользователь мгновенно перешел с них на другие, совершил какое-либо целевое действие, произвёл транзакцию или же воспользовался социальным плагином.

Средняя длительность сеанса определяется путем деления суммарной длительности пребывания пользователей на сайте на количество сеансов. При расчете длительности отдельного сеанса учитывается, произошло ли взаимодействие на последней странице, просмотренной во время сеанса.
Для расчета средней длительности система Google Analytics складывает время всех сеансов за указанный промежуток времени и делит полученное значение на их общее количество.

Если на последней странице целевое действие осуществлено не было, или же между последним действием на сайте и уходом с него прошло много времени, то система допускает, что в этом интервале страница была открыта в браузере, однако пользователь не просматривал её.

Ниже представлено несколько сценариев, при которых длительность просмотра пользователем страницы составляла не менее 20 секунд, однако метрики Google Analytics показывали иное:



Google не заинтересован в том, чтобы время просмотра последней страницы влияло на среднюю длительность просмотра страницы. Сценарий, представленный в третьей строке, как нельзя лучше иллюстрирует это: из отчета Google Analytics видно, что средняя длительность просмотра страницы при данном сценарии составит 0 секунд.
Чтобы избежать ошибок в расчетах в Google Analytics, имеет смысл использовать следующую формулу:

Средняя длительность просмотра страницы = (Время, проведенное на странице) / (Общее время просмотра всех страниц сайта – время, проведенное на странице выхода)

Однако второй пример, представленный в таблице, показывает, что данное правило применимо не всегда. Во втором примере время просмотра страницы составляет 0 секунд, при этом пользователь затратил на взаимодействие с социальным плагином на последней странице лишь половину от общего времени, проведенного на ней.

Таким образом, средняя длительность просмотра страницы для примера №2 составляет: (20с+10с+0с) / (3-2) = 30 с

Отсюда следует 2 важных вывода:

а) Имеет место переоценка данного показателя

Без учета времени, проведённого на последней странице, расчёт показателя будет неверным. Особенно, если учитывать ситуации, когда время, проведенное на странице, больше 0 секунд. При этом средняя длительность просмотра страницы для примера №2 (30 с) оказывается больше, чем длительность каждого отдельного посещения страницы.

Вот почему средняя длительность просмотра страницы в ряде случаев может быть несколько больше, чем средняя длительность посещения. Хотя, на первый взгляд может показаться, что длительность просмотра страницы в 30 секунд - не намного выше показателя в 20 секунд, в реальности погрешность может быть куда более значительной. Для многостраничных сайтов расхождение показателя может быть существенным. Так, например, в реальности показатель выходов (exit rate) для сайта может оказаться куда более высоким, чем в рассматриваемых примерах (67%). Аналогичные погрешности могут наблюдаться и при расчете показателя вовлечённости во взаимодействие со страницей.

b) Не все визиты на страницу учитываются

Если же производить анализ отдельных пользователей, которые уходят со страницы, не совершая взаимодействия, то окажется, что для Google Analytics не важно, просматривал ли человек страницу в течение 2 секунд, 10 минут или какого-то другого времени. При таком подходе данный показатель не повлияет на среднюю длительность просмотра страницы. Для многих сайтов десятиминутный просмотр страницы без единого взаимодействия будет расцениваться положительно, однако это не найдёт отражения в отчёте.

Решение проблемы. К сожалению, универсального решения здесь нет. Если владелец сайта хочет использовать для анализа такой показатель, как средняя длительность просмотра страницы, то важно учитывать подход системы аналитики к его расчёту. Кроме того, важно принимать во внимание настройки отслеживания событий на странице (к примеру, использование параметра opt_noninteraction). Если к событию применяется параметр opt_noninteraction, оно больше не будет приводить к взаимодействию. Этот метод подойдет при работе с примером №2, но не применим к примеру №1 таблицы.

2. Скорость загрузки сайта

Показатели отчёта «Скорость загрузки сайта» далеко не всегда на 100% отражают ситуацию, характерную для ресурса. По умолчанию показатели скорости загрузки страниц определяются по фиксированной выборке, составляющей 1% посетителей ресурса. На основе этих данных рассчитываются средние показатели по каждой метрике. Это значит, что некоторые экстремальные значения (к примеру, попытка загрузить сайт пользователем с повреждённым ПО компьютера или плохим wifi-соединением) могут заметно повлиять на общую статистику.

Сам по себе подход, предполагающий использование усредненных значений, не является неверным, однако при относительно небольшой выборке он может привести к довольно неожиданным и несколько искаженным результатам. К счастью, Google Analytics предоставляет возможность увеличить частоту семплирования данных.

И все же, показатель скорости загрузки сайта может быть точным лишь при анализе больших объёмов данных. К примеру, если сайт насчитывает до 1 млн. хитов в день, но при этом необходимо проанализировать статистику для страницы, количество хитов для которой не превышает 100 в день. Google Analytics при расчетах искусственно доведет показатель до 10 000 хитов в день, а затем произведет выборку, анализируя статистику для 1% посетителей. Таким образом, в итоговом расчете можно обнаружить, что за день для конкретной страницы был зафиксирован только один хит.

Решение проблемы. Важно проанализировать частоту семплирования. Если в отчётах фиксируется более 10 тыс. хитов в день, то этот аспект необходимо учитывать при анализе показателей для страниц с небольшим количеством посещений. Для проверки результатов можно применять сторонние инструменты, такие как: Pingdom или WebPagetest.

3. Коэффициент конверсии

«Коэффициент конверсии» - безусловно полезная и нужная метрика. Однако она может вносить неясность в отчёты, особенно, если не принимать во внимание специфику отдельных моделей атрибуции.

Если пользователь впервые приходит на сайт из результатов выдачи Google и покидает ресурс, не совершив целевого действия, а затем осуществляет прямой заход на сайт и совершает конверсию – в отчете Google Analytics «Источники трафика» во вкладке «Весь трафик» будет будет показан следующий результат: «1 конверсия c google.com/органический переход».
Это означает буквально следующее: когда анализируют коэффициент конверсии в отчете «Источники трафика» (Acquisition), вполне вероятно, что каждый отдельно взятый показатель last click, зафиксированный в аналитике, может отличаться от реальной действительности. К примеру, вместо прямого перехода на сайт может быть указан иной источник трафика. Во вкладке «Прямые переходы» могут быть зафиксированы не все конверсии, которые происходили во время прямых сессий.

Решение проблемы. Важно всегда учитывать этот аспект. Если необходимо знать истинный источник последнего клика, имеет смысл правильно настроить отчет «Многоканaльные последовательности» и анализировать модели атрибуции, используя «Инструмент сравнения моделей».

4. Показатель выходов

В отличие от других метрик, которые были рассмотрены в данной статье, расчет показателя выходов является наименее прозрачным.
«Показатель выходов – это процент просмотров определенной страницы, которые оказались последними в сеансе», – сообщается на справочной странице Google Analytics.
Проблема заключается в том, что «Показатель выходов» нередко расценивается, как негативная метрика. «Если у страницы высокий «Показатель выходов», то, скорее всего, на ней есть какие-либо проблемы или ошибки», – традиционно размышляют представители отрасли. Иногда эти выводы могут быть верными, к примеру, если страница с такими характеристиками находится в самом центре воронки продаж.

Тем не менее, пользователи имеют особенность покидать сайт без видимых причин. Конечно же, высокий показатель выходов – явно отрицательный сигнал для информационных страниц сайтов или постов в блогах, равно как и для страниц с описаниями товаров на продающих сайтах. В то же время, далеко не каждый посетитель коммерческого сайта заходит на него с целью совершить конверсию. Пользователь может совершить до нескольких ознакомительных заходов на сайт, прежде чем принять решение о покупке. Кроме того, нередко, посещая коммерческий сайт, человек может планировать визит в офлайн-магазин для последующего приобретения товара.
Это утверждение особенно верно, если сайт хорошо продвигается по низкочастотным запросам, или же, если на него часто ссылаются. В этом случае высокий показатель выходов может означать, что пользователи нашли на ресурсе нужную информацию и будут готовы совершить покупку, как только: 1). у них появятся деньги, 2). на склад поступит товар, 3). при посещении офлайн-магазина.

Решение проблемы. Перед тем, как оценивать страницу с применением «Показателя выходов», важно продумать различные варианты пользовательских намерений. Полезно будет проанализировать сегмент покупателей, которые покидают конкретную страницу (получить эту информацию можно во вкладке Advanced в разделе сегментов аудитории).
После этого имеет смысл изучить путь пользователей в отчете «Карта поведения» (Показатель выходов и показатель отказов), проанализировать посадочные страницы и детали совершения покупок. Все это позволит составить целостную картину о том, как ведут себя на сайте потенциальные клиенты, и с какой целью посещают ресурс.

10
По ходу очередная мертвая тема (((
Угу, ... а это так себе:
По дополнительным призам у нас уже есть первый номинант - Соберу СЯ даром в KeyCollector.
Подумаешь первый номинант "Самый интересный автор форума"  :D

Страниц: [1] 2 3 4 5 6 7