Ковариация

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск

Ковариа́ция (корреляционный момент, ковариационный момент) в теории вероятностей и математической статистике мера линейной зависимости двух случайных величин.

Определение[править | править вики-текст]

Пусть X, Y — две случайные величины, определённые на одном и том же вероятностном пространстве. Тогда их ковариация определяется следующим образом:

\mathrm{cov}(X,Y) = \mathbb{M} \left[(X - \mathbb{M}X) (Y - \mathbb{M}Y)\right],

где \mathbb{M} — математическое ожидание (в англоязычной литературе принято обозначение \mathbb{E}).

Предполагается, что все математические ожидания \mathbb{M} в правой части данного выражения определены.

Замечания

Ковариация выборок[править | править вики-текст]

Пусть  X_1, X_2, ... ,X_n, Y_1, Y_2, ... ,Y_n — выборки X_{(n)}, Y_{(n)} случайных величин, определённых на одном и том же вероятностном пространстве. Тогда ковариацией между выборками X_{(n)} и Y_{(n)} является:

\mathrm{cov}(X_{(n)},Y_{(n)}) = \frac1n\sum_{t=1}^n \left(X_t-\overline{X}\right)\left(Y_t-\overline{Y}\right), где

\overline{X} = \frac1n\sum_{t=1}^n X_t, \overline{Y} = \frac1n\sum_{t=1}^n Y_t — среднее значение выборок.

Очевидно, что

\mathrm{cov}(X_{(n)},Y_{(n)}) = \frac1n\sum_{t=1}^n X_tY_t-\left(\frac1n\sum_{t=1}^nX_t\right)\left(\frac1n\sum_{t=1}^nY_t\right)

Свойства[править | править вики-текст]

  • Если X,Y — независимые случайные величины, то
    \mathrm{cov}(X,Y) = 0.
  • Но обратное утверждение, вообще говоря, неверно: из отсутствия ковариации не следует независимость. Пример:
    Пусть случайная величина Z принимает значения  0, \frac{\pi}{2}, \pi, каждое с вероятностью \frac13. Тогда \cos{Z} будет принимать значения −1, 0 и 1, каждое с вероятностью \frac13, а P(\sin{Z} = 1) = \frac13, P(\sin{Z} = 0) = \frac23, P(\sin{Z} = -1) = 0. Тогда \mathrm{cov}(\sin{Z},\cos{Z}) = 0, но 0 = P(\sin{Z} = 1, \cos{Z} = 1) \ne P(\cos{Z} = 1) P(\sin{Z} = 1) = \frac19
  • Ковариация случайной величины с собой равна дисперсии: \mathrm{cov}(X,X) = \mathrm{D}[X].
  • Ковариация симметрична:
    \mathrm{cov}(X,Y) = \mathrm{cov}(Y,X).
  • В силу линейности математического ожидания ковариация может быть записана как
    \mathrm{cov}(X,Y) = \mathbb{M} \left[XY - X\mathbb{M}Y - Y\mathbb{M}X + \mathbb{M}X\mathbb{M}Y \right] =
    \; = \mathbb{M} \left[ XY \right] - \mathbb{M}X \mathbb{M}Y - \mathbb{M}X \mathbb{M}Y + \mathbb{M}X \mathbb{M}Y = \mathbb{M} \left[ XY \right] - \mathbb{M}X \mathbb{M}Y.
  • Пусть X_1,\ldots, X_n случайные величины, а Y_1 = \sum\limits_{i=1}^n a_i X_i,\; Y_2 = \sum\limits_{j=1}^m b_j X_j — их две произвольные линейные комбинации. Тогда
    \mathrm{cov}(Y_1,Y_2) = \sum\limits_{i=1}^n\sum\limits_{j=1}^m a_i b_j \mathrm{cov}(X_i,X_j).
В частности, ковариация (в отличие от коэффициента корреляции) не инвариантна относительно смены масштаба, что не всегда удобно в приложениях.

Интерпретация[править | править вики-текст]

Если ковариация положительна, то с ростом значений одной случайной величины, значения второй имеют тенденцию возрастать, а если знак отрицательный — то убывать.

Однако только по абсолютному значению ковариации нельзя судить о том, насколько сильно величины взаимосвязаны, так как её масштаб зависит от их дисперсий. Масштаб можно отнормировать, поделив значение ковариации на произведение среднеквадратических отклонений (квадратных корней из дисперсий). При этом получается так называемый коэффициент корреляции Пирсона, который всегда находится в интервале от −1 до 1.

\mathbf{r}(X,Y) = \frac{\mathrm{cov}(X,Y)}{\sigma X\sigma Y}, где \sigma — среднеквадратическое отклонение.

Соответственно,

\mathrm{cov}(X,Y) = \mathbf r(X,Y)\cdot\sigma X\sigma Y[1].

Случайные величины, имеющие нулевую ковариацию, называются некоррелированными. Независимые случайные величины всегда некоррелированы, но не наоборот.

См. также[править | править вики-текст]

Примечания[править | править вики-текст]

Ссылки[править | править вики-текст]