Sevab, спасибо, чуть-чуть понятнее стало. Небольшие комментарии и вопросы. Не воспринимайте их как вопросы, пожалуйста - отвечать не обязательно. Просто мне многие пункты непонятны в Вашем определении и в утверждениях - пытаюсь записать свое непонимание. Может быть станет яснее. А если найдете время прояснить, было бы хорошо.
1. По тапкам, дело не в юристах или дивидентах. Больше - в концепиях, лежащих в основе архитектуры интернета. В данном случае смешивание терминов уже привело к тому, что говоря о гугловском трасте до 2009 года люди активно цитировали статью и приводили идею траста от Яху. Что привело к существенной неразберихе. Важно определить, откуда идут понятия и о чем разговор идет.
2. "Что касается рассуждений о самих алгоритмах траста, думаю они не более точны чем любые другие рассуждения об алгоритмах ранжирования поисковых систем". Пусть так. Пусть не известен точный алгоритм. Но должны быть известны принципы и идеи? Основные принципы и идеи пузомерок в SE мы знаем от самих разработчиков ведь. Почему траст такой мистифицированный? Вдруг правильнее говорить - возраст домена не имеет отношения к трасту и идет особняком. Почему-то ведь говорим, что ПФ идет особняком от траста?
3. "Т.е. они построены на собственной логике и на собственном опыте. Они могут быть близки или далеки от реальности, но никогда не будут 100% точны."
Мы никогда не договоримся о понятии, если у каждого логика будет своя и определение свое.
4. "Более того, наверняка алгоритмы траста постоянно (если не динамически) меняются, и конечно они отличаются в разных поисковых системах."
Пусть меняются в сторону улучшения и приближения к идеальной формулы. А так, не ясно. Для Вас не существует понятия трастовости вне контекста современных SE? Завтра алгоритмы сменятся и мы станем называть трастовыми другие сайты, а старые могут стать спамерскими? Неужели нет ничего фиксированного? Например старый домен при прочих равных - в плюс. Всегда ведь будет? Просто из логики задачи распространения информации.
5. "Мы пытаемся наиболее точно вычислить (или подгадать) системы ранжирования, и основываясь на этих знаниях продвинуть свои проекты".
Опять же Вы привязываете понятие траста к современному моменту? Завязываете траст на результаты выдачи SE? А разве не бывает случаев когда заведомо хороший сайт по дурацким алгоритмам того же Яндекса улетал из выдачи, будуи в топе у Гугла? И наоборот? Такие ситуации - проблема плохого поисковика или же трастовости как таковой нет и надо будет к конкретному поисковику всегда привязывать?
Существует ли трастовость вне поисковиков? Как математический объект? Если каждый понимает траст по своему, то одинаковый ли мы объект обсуждаем?
6. "Как можно определить хотя-бы относительную точность подобных (нашему) инструментов? Только на своих сайтах, и на проектах (чужих), которые вы знаете как свои 5 пальцев."
А как были определены основы алгоритмов PR и ТИЦ - наверняка ведь источник был из Яндекса\Гугла, или же люди сами до всего дошли с ТИЦ и PR (просто не знаю)?
Не понятно, что меряет Ваш инструмент. Неужели степень легкости поднятия запросов в поисковиках? Оценивая Ваш алгоритм, например, хочется верить, что он выдает нечто не зависящее от поисковиков. Наверняка ведь есть сайты, которые SE переоценивает?
Мне казалось из чтения "на тему", что траст должен мерять некую (объективную) меру качественности сайта как источника качественной информации. Причем первоисточника уникальной информации. Причем - уникальной информации. Долгосрочного источника. Тогда бы был критерий. Неужели у Вас как у человека и вебмастера, нет своих критериев безотносительно к данному поисковику, что такое хорошо, что такое плохо? Или же траст - понятие вовсе не из теории информации, а только из СЕО?
7. "Сравнительный анализ своих и хорошо знакомых ресурсов всегда вам покажет стоит ли доверять данному сервису или нет."
А в чем был сравнительный анализ? Какие данные сравнивались, какие изначально считаются верными? Что означает доверять? Я не доверяю, например, Твиттеру, Вконтакту, Вики, Гуглу и т.д., так как оттуда масса бредятины идет, веры которой нет. И лишь из-за огромной аудитории там есть действительная уникальная информация, которую не найдешь более нигде. И этой уникальной информации на самом деле много. И видно, что будет много. И т.д.
У Вас есть свой внутренний алгоритм, определения качественного сайта, или же Вы доверяете только конкретному поисковику? Или же все поисковики одинаково реагируют на все эксперименты по замерам траста?
8. "Из того что я знаю, заслуживает доверия сервис проверки траста от seomoz".
А как именно Вы определяете адекватность проверки траста?
9. "По крайней мере в большинстве случаев относительная разница траста вполне логична".
Разница в чем? Где эталон? С чем Вы сравниваете? По каким параметрам?
10. Откуда вообще стало известно, что у Гугла есть такой критерий как траст? Это представители сказали? Где? Что они твердо сказали про траст?
Понимаете, Вы как специалист говорите, а из-за этого многое непонятно. Хотелось бы понимать по чайниковски. Можно, конечно, считать, что не нужно ничего тут читать, писать. Дали тебе эффективную инструкцию - действуй, поднимай свой сайт. Но во-первых, интересно. Во-вторых. Исходя из положения, что качественный сайт должен выдавать нужную качественную информацию, я, например, не могу понять, почему реврайт - это хорошо. Информации не прибавляется ведь! За что продвигаются сайты с сотнями реврайтов одной и той же чепухи? Пустые профили... Какой смысл с того, что у человека есть профиль на трастовом сайте. Что, от этого что-то в интернете изменилось? Кто-то приложил усилия и нашел новое что-то, создал новое знание, информацию? Не вижу логики зачастую. В этом смысле хороший траст ранк для меня бы означал не абсолютную адекватность с выдачей того же Гугла, например...
PS Все это наивные рассуждения, и Вам смешно, наверняка, читать. Спрашиваю, т.к. хотелось бы правила СЕО и игры в траст хоть чуть-чуть понимать - чтобы рассказывать другим людям с пониманием хотя бы основ, а не просто фантазируя на тему, "что я прочел в блогах-твиттерах других новичков".
Другой "шкурный" интерес - я вижу, что российский образовательный интернет построен неверно. Не так, как должно. Например, становится немного жутко, когда оказывается, что мой школьный сайт по запросу стоит в выдаче выше, чем сайт округа, когда мы по приказу округа публикуем их новости (т.е. тупо копипастим по приказу)... Ну это уже из разряда анекдотов, конечно. Пытаюсь понять, где и кем была допущена ошибка и как в принципе эту архитектурную ошибку можно переиграть (например сменой алгоритмов у Яндекса и т.д.), если вообще еще можно.