Ковариация (Covariation)
В теории вероятностей и математической статистике — мера совместной вариативности (линейной зависимости) двух случайных величин.
Если обе величины демонстрируют однонаправленное изменение, то ковариация положительная, а если разнонаправленное — отрицательная. Если ковариация близка к нулю, то величины независимы. Однако интерпретация величины ковариации неочевидна, поскольку, в отличие от коэффициента корреляции, не является нормированной и зависит от значений самой случайной величины.
Для случайных величин X и Y ковариация вычисляется по формуле:
c o v ( X , Y ) = E [ ( X − E [ X ] ) ( Y − E [ Y ] ) ] ,
По аналогии с дисперсией ковариацию часто обозначают σ A B . Связь ковариации с дисперсией заключается в том, что поскольку любая случайная величина полностью связана сама с собой, то и ковариация:
c o v ( X , X ) = σ 2 X .
Таким образом, ковариацию можно рассматривать как совместную дисперсию двух случайных величин, а дисперсию — как частный случай ковариации, когда рассматривается ковариация величины самой с собой.
Ковариация широко применяется во всех областях, где используются статистические исследования и требуется обработка результатов экспериментов. Например, в сфере экономики и финансов ковариация используется при формировании различного рода инвестиционных и кредитных портфелей, разработке моделей ценообразования. Знание ковариации между доходностями различных активов позволяет управлять инвестициями.
Ковариация случайных величин
В силу линейности математического ожидания, ковариация может быть записана как:
[math]\mathrm(\eta, \xi) = E\big((\xi — E\xi)\cdot(\eta — E\eta)\big) = E(\xi \cdot \eta — \eta \cdot E\xi + E\xi \cdot E\eta — \xi \cdot E\eta) = [/math] [math]= E(\xi \cdot \eta) — E\xi \cdot E\eta — E\xi \cdot E\eta + E\xi \cdot E\eta = E(\xi \cdot \eta) — E\xi \cdot E\eta [/math]
Итого, [math]\mathrm(\eta, \xi) = E(\xi \cdot \eta) — E\xi \cdot E\eta [/math]
Свойства ковариации
- Ковариация симметрична:
- Пусть [math]\eta_1,\ldots, \eta_n[/math] случайные величины, а [math]\xi_1 = \sum\limits_^n a_i \cdot \eta_i,\; \xi_2 = \sum\limits_^m b_j \cdot \eta_j[/math] их две произвольные линейные комбинации. Тогда
- Ковариация случайной величины с собой равна её дисперсии:
Если [math]\eta,\xi[/math] независимые случайные величины, то [math]\mathrm(\eta,\xi) = 0[/math] .
Если [math]\mathrm
Неравенство Коши — Буняковского
Ковариация есть скалярное произведение двух случайных величин
Докажем три аксиомы скалярного произведения:
1. Линейность по первому аргументу: [math] \mathrm( \mu_\cdot\eta_ + \mu_\cdot\eta_, \xi) = \mathrm( \mu_\cdot\eta, \xi) + \mathrm( \mu_\cdot\eta, \xi)[/math] Раскроем ковариацию по определению: [math]\mathrm( \mu_\cdot\eta_ + \mu_\cdot\eta_, \xi) = E( ( \mu_\cdot\eta_ + \mu_\cdot\eta_) \cdot \xi ) — E( \mu_\cdot\eta_ + \mu_\cdot\eta_ )\cdot E\xi [/math] В силу линейности математического ожидания: [math] E(\mu_\cdot\eta_\cdot\xi) + E(\mu_\cdot\eta_\cdot\xi) — E(\mu_\cdot\eta_)\cdot E\xi — E(\mu_\cdot\eta_)\cdot E\xi = \mu_( E(\eta_\cdot\xi) — E\eta_\cdot E\xi ) + \mu_( E(\eta_\cdot\xi) — E\eta_\cdot E\xi ) = \mu_ \cdot \mathrm(\eta_, \xi) + \mu_ \cdot \mathrm(\eta_, \xi) [/math]
2. Симметричность: [math] \mathrm(\eta, \xi) = E(\eta\cdot\xi) — E\eta \cdot E\xi = \mathrm(\xi, \eta)[/math]
3. Положительная определенность: [math] \mathrm(\eta, \eta) = D(\eta) = E(\eta — E\eta)^2 [/math]
Если принять в качестве скалярного произведения двух случайных величин ковариацию [math]\langle \eta, \xi \rangle = \mathrm
Для этого предположим, что [math] t [/math] — некоторое вещественное число, и рассмотрим очевидное неравенство
[math] E((V+t \cdot W)^2) \geqslant 0 [/math] , где [math] V = \eta — E\eta [/math] и [math] W = \xi — E\xi [/math] .
Используя линейность математического ожидания, мы получаем такое неравенство:
[math] E(V^2)+2 \cdot t \cdot E(V \cdot W)+t^2 \cdot E(W^2) \geqslant 0 [/math]
Обратим внимание, что левая часть является квадратным трехчленом, зависимым от [math] t [/math] .
[math] E(V^2)=\sigma_\eta ^2[/math] , [math] E(W^2)=\sigma_\xi ^2[/math] и [math] E(V \cdot W)=\mathrm(\eta,\xi); [/math]
Итак, наш квадратный трехчлен выглядит следующим образом:
[math]\sigma_\xi ^2 \cdot t^2+2 \cdot \mathrm(\eta,\xi) \cdot t+\sigma_\eta ^2 \geqslant 0[/math]
Для того, чтобы неравенство выполнялось для всех значений [math]t[/math] , дискриминант должен быть неположительным, то есть:
[math] 4 \cdot \mathrm^2(\eta,\xi)-4 \cdot \sigma_\eta ^2 \cdot \sigma_\xi ^2 \leqslant 0[/math]
[math]\mathrm^2(\eta,\xi) \leqslant \sigma_\eta ^2 \cdot \sigma_\xi ^2[/math]
Матрица ковариаций
Матрица ковариаций (англ. covariance matrix) — это матрица, элементы которой являются попарными ковариациями элементов одного или двух случайных векторов. Ковариационная матрица случайного вектора — квадратная симметрическая неотрицательно определенная матрица, на диагонали которой располагаются дисперсии компонент вектора, а внедиагональные элементы — ковариации между компонентами.
Определение: |
Пусть [math]\xi, \eta[/math] — случайные вектора размерности [math]n[/math] и [math]m[/math] соответственно. [math]\xi_i, \eta_j[/math] — случайные величины. Тогда матрицей ковариаций векторов [math]\xi, \eta[/math] называется [math]\Sigma = \mathrm(\xi, \eta) = E((\xi — E\xi) \cdot (\eta — E\eta)^)[/math] |
Например, ковариационная матрица для случайного вектора [math]\xi[/math] выглядит следующим образом:
[math] \Sigma = \begin \mathrm((\xi_1 — E\xi_1) \cdot (\xi_1 — E\xi_1)) & \mathrm((\xi_1 — E\xi_1) \cdot (\xi_2 — E\xi_2)) & \cdots & \mathrm((\xi_1 — E\xi_1) \cdot (\xi_n — E\xi_n)) \\ \\ \mathrm((\xi_2 — E\xi_2) \cdot (\xi_1 — E\xi_1)) & \mathrm((\xi_2 — E\xi_2) \cdot (\xi_2 — E\xi_2)) & \cdots & \mathrm((\xi_2 — E\xi_2) \cdot(\xi_n — E\xi_n)) \\ \\ \vdots & \vdots & \ddots & \vdots \\ \\ \mathrm((\xi_n — E\xi_n) \cdot (\xi_1 — E\xi_1)) & \mathrm((\xi_n — E\xi_n) \cdot (\xi_2 — E\xi_2)) & \cdots & \mathrm((\xi_n — E\xi_n) \cdot (\xi_n — E\xi_n)) \end. [/math]
- Если [math]\xi = \eta[/math] , то [math]\Sigma[/math] называется матрицей ковариации вектора [math]\xi[/math] и обозначается как [math]\mathrm(\xi)[/math] — вариация (дисперсия) случайного вектора.
- Матрица ковариации случайного вектора неотрицательно определена: [math]\mathrm(\xi) \geqslant 0 [/math]
- Перестановка аргументов: [math] \mathrm(\xi, \eta) = \mathrm(\eta, \xi)^ [/math]
- Матрица ковариации аддитивна по каждому аргументу:
- Если [math]\mathrm(\xi, \eta) = 0[/math] , то [math] \mathrm(\xi + \eta) = \mathrm(\xi) + \mathrm(\eta) [/math]
Расстояние Махаланобиса
Расстояние Махаланобиса (англ. Mahalanobis distance) — мера расстояния между векторами случайных величин, обобщающая понятие евклидова расстояния.
Определение: |
Пусть [math]\xi = (\xi_1, \xi_2, \xi_3, \ldots, \xi_n)^[/math] — многомерный вектор, [math]\Sigma[/math] — матрица ковариации, тогда расстояние Махаланобиса от [math]\xi[/math] до множества со средним значением [math]\mu = (\mu_1, \mu_2, \mu_3, \ldots, \mu_n)^[/math] определяется как [math] D_M (\xi) = \sqrt<(\xi - \mu) \cdot \Sigma (\xi - \mu)^>[/math] |
Расстояние Махаланобиса двух случайных векторов [math]\xi, \eta[/math] с матрицей ковариации [math]\Sigma[/math] — это мера различия между ними.
Если матрица ковариации равняется единичной матрице, то расстояние Махалонобиса равняется расстоянию Евклида.
См. также
- Корреляция случайных величин
- Дисперсия случайной величины
Источники информации
- НГУ — Ковариация двух случайных величин
- Википедия — Ковариация
- Википедия — Матрица ковариации
- Википедия — Расстояние Махалонобиса
- Википедия — неравенство Коши — Буняковского (доказательство)
Зависимость и коэффициент ковариации
непрерывных случайных величин
На предыдущем уроке мы рассмотрели функции распределения и плотности непрерывной двумерной случайной величины и в заключительной статье разбёрём: зависимость и независимость этой СВ, условные законы распределения, матожидания, коэффициент ковариации и корреляции. Коротко теория, подробно задачи.
И сразу быстренько вспоминаем: две случайные величины являются независимыми, если закон распределения одной из них не зависит от того, какое значение значения приняла другая случайная величина. Например, случайные погрешности измерений двух независимо работающих измерительных приборов.
Если же СВ зависимы, то закон распределения одной величины зависит от того, какое значение приняла другая величина. Классика жанра: – рост случайно выбранного человека, – его вес. Ну, или наоборот, сначала смотрим на вес, а затем анализируем закон распределения роста.
Условные законы распределения случайных величин обозначаются следующим образом:
– условный закон распределения СВ , при условии, что СВ примет (или уже приняла) какое-либо КОНКРЕТНОЕ значение :
– условный закон распределения , при условии, что примет или уже приняла некоторое КОНКРЕТНОЕ значение .
В случае независимости случайных величин все условные законы будут совпадать с законом распределения случайной величины (ибо «игрековая» величина никак не влияет на «иксовую»), и все условные законы – совпадать с законом .
Но вот с зависимыми величинами всё не так: встретился нам мальчик-с-пальчик , и мы сталкиваемся с – условным законом распределения веса именно этой «ростовой категории». А вот если попался дядя Стёпа, то условный закон распределения веса таких дядей стёп будет совсем другим.
С нахождением условных законов дискретных СВ мы уже разобрались (см. по ссылке), и сейчас научимся их строить для непрерывных случайных величин:
Двумерная непрерывная случайная величина задана своей плотностью распределения в квадрате и принимает значения только из этой области. Найти:
1) – плотности распределения компонент и их матожидания ;
2) Условные плотности и условные математические ожидания
Сделать вывод о зависимости или независимости случайных величин.
Решение: функцию плотности я взял из Примера 8 и первый пункт решения уже частично готов:
1) а именно, найдены функции :
Для удобства я воспользуюсь тригонометрической формулой и перепишу функцию в виде:
Напомню смысл этих функций. Функция задаёт закон распределения случайной величины без учёта возможного влияния на него случайной величины (эта оговорка нужна на тот случай, если зависимы). И «зеркально»: функция определяет закон распределения СВ – без учёта возможного влияния СВ.
По этой причине функции иногда называют безусловными плотностями распределения компонент , и сейчас нам нужно вычислить их безусловные математические ожидания .
Так как плотности компонент совпадают, то работы у нас в два раза меньше:
2) Найдём плотность распределения случайной величины при условии, что случайная величина принимает различные КОНКРЕТНЫЕ значения . Эта функция принципиально отличатся от тем, что учитывает влияние (если оно есть), и поэтому её называют условной плотностью распределения случайной величины .
Данная функция определяется по формуле:
Легко видеть, что закон распределения случайной величины зависит от того, какое значение приняла переменная . Так, например, при получаем:
, если и при иных значениях .
А если, например, , то получается совсем другая плотность:
– на том же промежутке .
Задание: самостоятельно проверьте, что любая из полученных функций обладает общими свойствами функции плотности: и .
Таким образом, здесь можно сразу сделать вывод о том, что двумерная случайная величина состоит из зависимых компонент.
По «зеркальной» формуле получаем:
– условную плотность распределения случайной величины , при условии, что случайная величина принимает различные КОНКРЕТНЫЕ значения из промежутка .
Условные математические ожидания рассчитываются по формулам:
и для разнообразия я вычислю условное «игрековое» матожидание:
Снова интегрируем по частям, и тут главное не запутаться в буквах: «икс» считается константой, а «игрек» – «живая» переменная:
по ходу дальнейших преобразований используем формулы приведения:
Найденное математическое ожидание:
– представляет собой функцию, зависящую от , и называется функцией регрессии на . И это естественно – если «икс» принимает различные значения, то мы получаем разные условные законы распределения с разными матожиданиями. Так, при получается следующий условный закон распределения:
и с помощью найденной функции легко рассчитать соответствующее математическое ожидание:
Желающие могут выполнить проверку непосредственным вычислением интеграла
И особо желающие (такие есть!) могут самостоятельно провести аналогичные вычисления, чтобы получить:
– условное математическое ожидание компоненты , которое называется функцией регрессии на .
Следует заметить, что в отличие от уравнения, которое мы получаем с помощью коэффициента корреляции (также см. ниже), регрессия здесь носит в общем случае нелинейный характер.
Вывод о зависимости случайных величин уже сделан, и решение этой задачи завершено.
Существуют ли другие способы определения зависимости / независимости? Существуют!
Теорема: для того, чтобы случайные величины были независимыми, необходимо и достаточно, чтобы функция распределения системы была равна произведению функций распределения составляющих:
и, как следствие, аналогичное утверждение справедливо для плотностей:
И если случайные величины независимы, то закон распределения любой из них действительно не зависит от того, какое значение приняла другая величина:
Иными словами, любое условное распределение той или иной компоненты равно соответствующему безусловному распределению.
Творческое задание для самостоятельного решения:
Двумерная непрерывная случайная величина задана своей плотностью распределения в области и может принимать значения только из этой полосы.
1) Найти плотности распределения составляющих сделать вывод о зависимости / независимости этих случайных величин.
Эти функции можно найти методом подбора (уроки о равномерном и нормальном распределении в помощь), но надёжнее использовать общие формулы , (см. Пример 6). Справочно: (частный случай интеграла Гаусса – см. урок о нормальном распределении).
Здесь нужно использовать свойства матожидания и дисперсии (см. Пример 2 первого урока о системах случайных величин). И небольшая подсказка: для нахождения удобно использовать формулу вычисления дисперсии , и для – ту же формулу, запишу её в общем виде: .
Краткое решение в конце урока.
Следует отметить, что озвученная выше теорема с простенькими формулами , часто порождает одно практическое заблуждение. Так, в Примере 6 мы отыскали функцию распределения и видим, что в ней можно разделить «икс» и «игрек», т.е. всё вроде бы хорошо и функция представима в виде . Однако этот «критерий» ошибочен! Ведь мы НЕ ЗНАЕМ функций . В общем случае, они могут оказаться какими угодно и совершенно неожиданными – такими, что их произведение вовсе не равно !
Поэтому нужно обязательно найти , выполнить умножение и только после этого делать вывод о справедливости равенства и независимости случайных величин!
Иными словами, если у функций , можно разделить аргументы, то это ЕЩЁ НЕ ЗНАЧИТ, что справедливы равенства ,
Любопытно, что в «неразделимом» случае это рассуждение срабатывает. Так, у функции плотности (Пример 8-9) «икс» с «игреком» разделить нельзя, и из этого следует, что она никак не может получиться в результате перемножения функций , следовательно, компоненты зависимы.
Но такое обоснование всё же не убедительно – а вдруг, если «покрутить-повертеть» , использовать тригонометрические формулы, то переменные таки разделятся? Поэтому надежнее отыскать условные плотности, , их произведение:
и только после этого делать вывод, что
Эта тонкость встретится и в заключительном задании, где мы рассмотрим коэффициенты ковариации и корреляции. Их смысл я уже осветил на уроке о зависимых дискретных СВ, и сейчас мы изучим техническую сторону вопроса для непрерывных СВ:
Задана плотность распределения системы двух случайных величин
Найти значение и вычислить коэффициенты ковариации и корреляции . Построить уравнение линейной регрессии на .
И, во-первых, сразу заметим, что аргументы функции плотности здесь разделяются. Но из этого вовсе не следует справедливость равенства и независимость компонент . Этот момент у нас прояснится только в ходе решения:
1) Константу найдём из свойства функции плотности двумерной СВ:
Так как случайная величина принимает значения лишь из ограниченной области , то свойство упрощается до двойного интеграла по этой области: , в данном случае:
И нам предстоит решить шаблонную задачу. Представим уравнение прямой в «школьном» виде: , изобразим область интегрирования на чертеже:
и выберем традиционный порядок обхода области:
Таким образом: . С двойным интегралом удобно разделаться поэтапно, у кого возникнут трудности с техникой вычислений, обратитесь по ссылке выше:
1)
2)
И из равенства получаем:
Коэффициенты ковариации и корреляции определяются по тем же формулам:
– с той поправкой, что матожидания и стандартные отклонения рассчитываются с помощью интегралов.
Математическое ожидание произведения СВ вычислим по формуле:
Математические ожидания компонент тоже можно вычислить с помощью двойных интегралов:
, в данном случае это будут двойные интегралы по области , либо с помощью однократных интегралов от безусловных плотностей этих случайных величин:
То же самое касается дисперсий:
, либо:
В исследовательских целях выберем 2-й способ, который, кстати, не легче.
Сначала разделаемся с компонентой . Найдём её безусловную плотность:
и при иных значениях .
Для самоконтроля обязательно проверяем, что , я выполнил эту проверку на черновике.
Вычислим математическое ожидание:
Дисперсию вычислим по формуле:
В данном случае:
и среднее квадратическое отклонение:
Теперь компонента . Чтобы составить её функцию плотности, нужно из уравнения прямой выразить и тогда «икс» у нас будет «заходить» в область через ось ординат и «выходить» через прямую :
, а давайте-ка самостоятельно. Формулы вверху, образец для сверки – внизу, ну а здесь я сразу запишу готовые результаты:
, если – и после нахождения этой функции, становится ясно, что при её умножении на у нас не получается ! Таким образом, , а значит, случайные величины – зависимы.
И долгожданный коэффициент совместной вариации:
– редкий, как солнечное затемнение, случай, когда вычисления было удобнее провести в десятичных дробях.
Впрочем, это ненадолго:)
Коэффициент корреляции отрицателен и по модулю достаточно близок к единице – это означает, что между случайными величинами существует довольно тесная вероятностная линейная зависимость.
Уравнение линейной регрессии на строится по той же формуле, что и в дискретном случае:
, где , .
Давно не встречал такой красоты:
, вот что бывает после затмения 🙂
Полученное уравнение означает, что если случайная величина приняла какое-нибудь значение (из промежутка ), например, , то мы можем быстро оценить наиболее вероятные значения, которые может принять случайная величина – эти значения находятся вблизи точки . И поскольку коэффициент корреляции близок по модулю к единице, то полученное приближение будет достаточно точным.
Как и в случае с дискретными СВ, для рассмотренных коэффициентов справедливы следующие факты:
Если в результате решения мы выяснили, что , то из этого следует, что случайные величины являются зависимыми или коррелированными. Но если получен результат , то СВ могут оказаться как независимыми, так и зависимыми (т.к. зависимость может носить не только линейный характер); однако и в том и другом случае их называют некоррелированными.
Из последнего утверждения существуют исключения, в частности, из некоррелированности компонент двумерной нормальной СВ следует и их независимость.
Теперь вас ничем не испугаешь :), и поэтому я запишу напоследок общую формулу плотности двумерной нормальной случайной величины:
…а это уже какая-то вспышка на Солнце.
В случае некоррелированности компонент получаем:
и после финального преобразования чётко видно, что перед нами произведение нормальных плотностей случайных величин . Таким образом, равенство справедливо и они независимы.
Дополнительную информацию и примеры можно найти в учебном пособии (новые издания) и задачнике В.Е. Гмурмана, ну а мой практикум подошёл к концу, и я надеюсь, что он оказался не только полезным, но ещё и интересным.
Решения и ответы:
Пример 10. Решение:
1) Способ первый: нормальное распределения вероятностей задаётся плотностью . В нашем случае , и поэтому: на интервале . И из функции легко усмотреть, что на отрезке и вне этого отрезка.
И здесь ОБЯЗАТЕЛЬНО нужно проконтролировать, что:
– функция действительно задаёт плотность распределения.
Способ второй. Используем формулы:
, если и при иных значениях .
Вывод: так как , то случайные величины независимы.
2) Вычислим матожидания и дисперсии случайных величин . Функция задаёт равномерное распределение вероятностей и по соответствующим формулам:
Примечание: разумеется, здесь можно использовать и общие формулы матожидания и дисперсии.
Характеристика компоненты известны из самой функции плотности:
По свойствам математического ожидания:
второе слагаемое выразим из формулы
Для независимых случайных величин справедливо свойство , поэтому:
По свойствам дисперсии и формуле :
Пример 11. Решение:
Найдём безусловную плотность распределения случайной величины :
и при иных значениях .
! Самостоятельно проверяем, что .
Дисперсию вычислим по формуле:
Автор: Емелин Александр
(Переход на главную страницу)
Zaochnik.com – профессиональная помощь студентам,
cкидкa 15% на первый зaкaз, при оформлении введите прoмoкoд: 5530-hihi5
© Copyright mathprofi.ru, Александр Емелин, 2010-2023. Копирование материалов сайта запрещено
Корреляция и Ковариация
Таких статистических связей может быть очень много самых разных. Для трейдера самым важным видом статистической связи является корреляционная связь.
Корреляционная связь, это когда каждому значению одной переменной соответствует определенное математическое ожидание другой переменной. То есть при изменении значения одной переменной, математическое ожидание другой переменной меняется закономерным образом.
А если при изменении значения одной переменной, закономерным образом меняется не только матожидание второй переменной, но и другие характеристики плотности распределения второй переменной (например, дисперсия, асимметрия и т.д.), то такая связь не является корреляционной. Хотя такая связь тоже является статистической.
Корреляционная связь между случайными переменными x и y называется линейной корреляционной связью, если матожидание переменной y линейно зависит от значений переменной x, и, одновременно, матожидание переменной x тоже линейно зависит от значений переменной y. То есть такая взаимная линейность корреляционных связей. Далее здесь рассматривается только линейная корреляционная связь.
Ковариация
Пусть математическое ожидание и дисперсия случайной величины X равны, соответственно, μx и σx 2 . А математическое ожидание и дисперсия случайной величины Y равны, соответственно, μy и σy 2 .
Для независимых случайных величин X и Y всегда матожидание произведения случайных величин равно произведению их матожиданий по отдельности:
А для зависимых случайных величин это равенство не выполняется.
Ковариация, это отклонение математического ожидания произведения двух случайных величин от произведения их математических ожиданий:
Ковариация характеризует отклонение матожидания произведения двух случайных величин от произведения матожиданий этих величин. Так как это отклонение бывает только для зависимых величин, то ковариация характеризует степень этой зависимости. Чем она больше отличается от нуля, тем больше зависимость.
Матрица ковариаций для нескольких случайных величин X, Y, . Z всегда симметрична, причем на главной диагонали этой матрицы всегда стоят положительные числа, равные дисперсиям случайных величин X, Y, . Z.
Коэффициент линейной корреляции
Ковариация неудобна тем, что имеет размерность квадрата случайных величин. Кроме того, ковариация маленькой статистической зависимости двух случайных величин с большой дисперсией (у хотя бы одной из этих величин) получается такой же, как большая статистическая зависимость у двух других случайных величин с маленькими дисперсиями. Поэтому ковариацию удобно нормировать на среднеквадратичные отклонения.
Коэффициент корреляции, это ковариация, нормированная на среднеквадратичные отклонения двух случайных величин.
- Коэффициент корреляции может принимать значения от -1 до +1. Значения -1 и +1 этот коэффициент принимает только при линейной функциональной зависимости между X и Y. Обычно, говорят, что если коэффициент корреляции равен +1, то это абсолютно коррелирующие величины (или коррелированные на все 100%). А если коэффициент корреляции равен -1, то говорят, что это абсолютно антикоррелирующие величины (или антикоррелированные на все 100%).
- Коэффициент корреляции между независимыми случайными величинами равен нулю. Но обратное неверно! Если коэффициент корреляции двух случайных величин равен нулю, то это ещё не означает, что эти случайные величины независимые. Они просто некоррелированные.
- Линейные преобразования случайных величин X и Y не изменяют их коэффициента корреляции: ρ(x,y)=ρ(a+bx,c+dy)
Матрица коэффициентов корреляций для нескольких случайных величин X, Y, . Z всегда симметрична, причем на главной диагонали этой матрицы всегда стоят единицы.
Примеры
Допустим, в каком-то эксперименте в равные промежутки времени измеряют две величины, X и Y. Если их значения меняются, как на этом графике, то это полностью коррелированные величины с коэффициентом корреляции, равным +1.
Этот факт говорит о том, что между величинами X и Y имеется строгая функциональная зависимость: Y=f(X).
Допустим, в каком-то эксперименте в равные промежутки времени измеряют две величины, X и Y. Если их значения меняются, как на следующем графике, то это полностью антикоррелированные величины с коэффициентом корреляции, равным -1.
Этот факт также говорит о том, что между величинами X и Y имеется какая-то строгая функциональная зависимость: Y=g(X).
Теперь рассмотрим реальные цены. Для примера рассмотрим коэффициенты корреляции между ценами валютной пары EURUSD и ценами валютных пар GBPUSD, USDCHF и USDJPY. Для расчета возьмем дневные графики за первую половину 2017 года.
- ρ(eurusd,gbpusd)=0.8030
- ρ(eurusd,usdchf)=-0.9598
- ρ(eurusd,usdjpy)=-0.4802
Эти коэффициенты корреляции достаточно ожидаемые.
Достаточно сильная корреляция между EURUSD и GBPUSD объясняется достаточно сильными связями экономики ЕвроЗоны и экономики Британии. Очень сильная антикорреляция между EURUSD и USDCHF объясняется еще более сильной связью между экономиками ЕвроЗоны и Швейцарии. А знак минус получился потому что в валютной паре USDCHF швейцарский франк стоит в знаменателе, в то время как в валютной паре EURUSD евро стоит в числителе.
Интересно посмотреть не только коэффициенты корреляции разных валютных пар, но и то, как эти коэффициенты изменяются со временем. Для этого возьмем внутри полугодового периода трехмесячный период и посмотрим, как меняется коэффициент корреляции, если сдвигать этот трехмесячный период от начала полугодового периода до его конца. Всего за полгода будет 65 таких сдвижек.
В начале 2017 года корреляция между EURUSD и GBPUSD была небольшой и она даже немного уменьшалась. Но в середине полугодия корреляция между евро и фунтом усилилась. Таким образом, в определенное время фунт может не слишком хорошо коррелировать с евро.
А вот в первую половину 2017 года швейцарский франк оказался привязанным к евро очень сильно. Коэффициент корреляции менялся в пределах от -0.96 до -0.78. Это и понятно, ведь Швейцария со всех сторон окружена ЕвроЗоной. Поэтому её экономика должна быть сильно связана с экономикой ЕвроЗоны. Гораздо сильнее, чем британская экономика с экономикой ЕвроЗоны.
А вот что касается евро и йены, то тут ситуация самая интересная. В начале первого полугодия 2017 года была антикорреляция выше средней, примерно -0.71. Потом эта антикорреляция исчезла до нуля. Но на этом изменения коэффициента корреляции не остановились. Коэффициент корреляции вырос до +0.2564. Так как евро в валютной паре EURUSD находится в числителе, а йена в валютной паре USDJPY находится в знаменателе, то получается, что в начале года евро и йена сильно коррелировали, а к середине года стали слегка антикоррелировать.
- Теория вероятностей:
- Основы теории вероятности
- Распределения и моменты
- Мера рассеяния
- Корреляция и ковариация
- Случайные процессы:
- Случайный процесс
- Сервисы:
- Администрирование
- Наши контакты
- Сервис Прогнозирования:
- Нейронные сети для прогноза
- Калькулятор Спектра Рыночных Колебаний
- Калькуляторы для Форекса:
- Калькулятор минимально необходимых прибыльных сделок
- Калькулятор оптимальных уровней TP и SL
- Калькулятор ПАММ-трейдера
- Калькулятор Волатильности
- Тест прогнозов
- Калькуляторы и Симуляторы для Бинарных Опционов:
- Калькулятор-Симулятор Главной стратегии
- Калькулятор надёжности
в стратегии равных ставок - Калькулятор надёжности
для Главной стратегии - Индикатор корреляций результатов сделок
- Мартингейл:
- Продвинутый
Калькулятор-Симулятор Мартингейла
chance.nanoquant.ru © 2008-2023 Lasto Nano CMS | Programming Master Lasto | Memory consumption: 0.5 Mb |