Поиск наилучшей проекции

Материал из Seo Wiki - Поисковая Оптимизация и Программирование

Перейти к: навигация, поиск

Поиском наилучшей проекции (англ. Projection Pursuit) называется статистический метод, состоящий в нахождении такой проекции многомерных данных, для которой достигает максимума некоторая функция качества проекции.

Содержание

Область применения

Хотя люди хорошо визуально воспринимают информацию, они способны анализировать картинки только малых размерностей. Когда анализируют многомерные данные, образное восприятие неудобно. Эту проблему решают, рассматривая проекции данных размерности два или три. Для визуализации проекций данных используют обычные приемы: диаграммы рассеяния, гистограммы, ящиковые диаграммы и так далее.

Идея метода

Надо решить, какая проекция будет наиболее «интересной». Один из подходов к автоматизации выбора наиболее "интересной" проекции основывается на следующих соображениях (для наглядности будем рассматривать проекцию на прямую). Проекцию данных будем считать «неинтересной», если гистограмма имеет нормальную плотность распределения, как на рисунке 1. Проекции с двухвершинным распределением, как на рисунке 2, будем считать «интересными».

Двухвершинное (бимодальное) распределение считаем более интересным, так как оно указывает на возможное присутствие двух кластеров в данных.

Индекс проекции

Для автоматизации поиска наиболее "интересной" проекции используют специально подобранную функцию качества, которую часто называют индексом. Наилучшей объявляют ту проекцию, для которой функция качества максимальна. Поиск проекции многомерных данных, основанный на максимизации некоторой функции качества проекции называется поиском наилучшей проекции (Projection Pursuit). Выбор индекса определяет, насколько полезен будет результат. Опишем несколько вариантов функции качества проекции.

Поиск одномерной проекции

Введем обозначения. Пусть Х - р-мерный случайный вектор, далее будем предполагать, что вектор центрирован, то есть E(X)=0.

Обозначим α - р-мерный числовой вектор, нахождение этого вектора составляет задачу поиска наилучшей проекции, которая будет иметь вид <math>a^TX</math>.

В данном случае матрица данных имеет размерность <math>p\times1</math>, вектор X и есть матрица данных. Тогда индекс <math>I(a)</math> определяется как дисперсия линейной комбинации <math>a^TX</math>, при дополнительном условии нормировки <math>a^Ta=1</math>.

Распространённые индексы проекции

Подход Фридмана и Тьюки

Джером Фридман и Джон Тьюки (1974) измеряли, насколько «интересно» многомерное распределение Х, рассматривая индекс

<math>I_{FT,h}(a)=n^{-1}\sum_{j=1}^n\hat{f}_{h,a}^2(a^TX_i)</math>,

где <math>\hat{f}_{h,a}</math> обозначает ядерную оценку плотности, полученную по спроектированным данным,

<math>\hat{f}_{h,a}(z)=n^{-1}\sum_{j=1}^nK_h(z-a^TX_j)</math>.

Если многомерная случайная величина X имеет нормальное распределение, то каждая проекция <math>z=a^TX</math> имеет стандартное нормальное распределение, пока <math>\|a\|=1</math> и X центрировано. Изменения в <math>I_{FT,h}(a)</math> относительно <math>a</math> указывают отклонения от нормальности.

Подход Hodges и Lehman

Индекс проекции определяется как <math>\int(f')^2</math>, где f – плотность распределения многомерной случайной величины X, которая является матрицей данных. Очень часто плотность нельзя посчитать явно или гораздо удобнее вместо плотности использовать ее оценку.

Hodges и Lehman (1956) показали, что, если E(X) = 0 и D(X) = 1, то минимум <math>\int(f')^2</math> достигается на плотности Епанечникова, которая имеет вид <math>f(z)=\max{\{0, c(b^2 - z^2)\}}</math>, где <math>c= \frac{3}{20\surd5}</math> и <math>b= \surd5</math> . Это - параболическая функция плотности, которая равна нолю вне интервала <math>(-\surd5,\surd5)</math>. Таким образом, при использовании такого индекса наименее интересной будет являться плотность Епанечникова. Большое значение индекса указывает большое отклонение от параболической формы.

Альтернативный индекс Hodges и Lehman (1956) основан на максимизации энтропии, то есть <math>\int(-f\log f)</math> .

Если E(X)=0 и D(X)=1, то минимум индекса <math>\int (f\log f)</math> достигается на стандартной нормальной плотности. Это свойство является достоинством индекса, по сравнению с предыдущим вариантом. Действительно, интуитивно кажется, что нормальное распределение "менее интересно", чем распределение Епанечникова. Таким образом, используя индекс <math>\int (f\log f)</math>, мы измеряем отклонение распределения от нормального.

Подход Фишера

В качестве еще одного индекса можно рассмотреть информацию Фишера, <math>\int(f')^2/f</math>. Вычисляя индекс энтропии, мы встречаемся с большими вычислительными сложностями, при выполнении которых приходится затрачивать много времени, что, конечно же, не очень удобно.

Подход Jones и Sibson

Jones и Sibson (1987) предложили рассмотреть отклонения от нормальной плотности как <math>f(x)=\varphi(x)\{1+\varepsilon(x)\}</math>,

где функция <math>\varepsilon</math> удовлетворяет условиям

<math>\int\varphi(u)\varepsilon(u)u^{-r}\emph{d}u=0</math>, при r = 0,1,2.

Чтобы упростить вычисление индекса Jones и Sibson , удобно перейти к кумулянтам <math>\kappa_3=\mu_3=E(X^3)</math> , <math>\kappa_4=\mu_4=E(X^4)-3</math> .

Поскольку стандартная нормальная плотность удовлетворяет условию <math>\kappa_3=\kappa_4=0</math>, индекс должен, по крайней мере, включить информацию до уровня симметрических отклонений (<math>\kappa_3</math> или <math>\kappa_4</math> не ноль) от нормальности. Самые простые из таких индексов - положительная определенная квадратичнаяная форма от <math>\kappa_3</math> и <math>\kappa_4</math> . При этом должна присутствовать инвариантность при замене знака данных, начиная с <math>a^TX</math> и <math>-a^TX</math> , мы должны получить тот же самый вид отклонения от нормальности. Заметим, что <math>\kappa_3</math> нечетно, то есть <math>\kappa_3(a^TX)=-\kappa_3(-a^TX)</math>. А <math>\kappa_4</math> четно, то есть <math>\kappa_4(a^TX)=\kappa_4(-a^TX)</math>. Квадратичная форма от <math>\kappa_3</math> и <math>\kappa_4</math>, измеряющая отклонение от нормальности, не включает смешанный коэффициент <math>\kappa_3\kappa_4</math>. Следовательно, индекс, предложенный Jones и Sibson (1987) - это

<math>I_{JS}(a)=\{\kappa_3^2(a^TX)+\kappa_4^2(a^TX)/4\}/12</math>.

Этот индекс фактически измеряет различие <math>\int f\log f-\int\varphi\log \varphi</math>.

Проблемы реализации

Метод поиска наилучшей проекции может давать интересные результаты, но существует и много недостатков его реализации. Во-первых, трудно придумать правильную интерпретацию полученных результатов. Во-вторых, реализация метода может выполняться длительное время и требовать достаточно большого количества оперативной памяти компьютера. Кроме того, до сих пор остаются различия между человеческим визуальным представлением о наилучшей проекции и решением полученным при поиске наилучшей проекции. Эти проблемы пока не разрешены, "канонического" варианта метода нет, идут активные исследования.

Литература

  • Peter J. Huber, Projection Pursuit (Invited paper), Harvard University, The Annalas of Statistics, 13, No. 2 (1985), 435—475.
  • Jerome H. Friedman, Exploratory projection pursuit. J. Amer. Statist. Assoc., 82 (1987) 249—266. Software online.

См. также

en:Projection pursuit fr:Poursuite de projection

Личные инструменты

Served in 0.111 secs.