Независимость (теория вероятностей)

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск

В теории вероятностей два случайных события называются независимыми, если наступление одного из них не изменяет вероятность наступления другого. Аналогично, две случайные величины называют зависимыми, если значение одной из них влияет на вероятность значений другой.

Независимые события[править | править исходный текст]

Будем считать, что дано фиксированное вероятностное пространство (\Omega,\;\mathcal{F},\;\mathbb{P}).

Определение 1. Два события A,\;B\in\mathcal{F} независимы, если

Вероятность появления события A не меняет вероятности события B.

Замечание 1. В том случае, если вероятность одного события, скажем B, ненулевая, то есть \mathbb{P}(B)>0, определение независимости эквивалентно:

\mathbb{P}(A\mid B)=\mathbb{P}(A),

то есть условная вероятность события ~A при условии ~B равна безусловной вероятности события ~A.

Определение 2. Пусть есть семейство (конечное или бесконечное) случайных событий \{A_{i}\}_{i\in I}\subset\mathcal{F}, где ~I — произвольное индексное множество. Тогда эти события попарно независимы, если любые два события из этого семейства независимы, то есть

\mathbb{P}(A_i\cap A_j)=\mathbb{P}(A_i)\cdot\mathbb{P}(A_j),\;\forall i\ne j.

Определение 3. Пусть есть семейство (конечное или бесконечное) случайных событий \{A_{i}\}_{i\in I}\subset\mathcal{F}. Тогда эти события совместно независимы, если для любого конечного набора этих событий \{A_{i_k}\}_{k=1}^N верно:

\mathbb{P}(A_{i_1}\cap\ldots\cap A_{i_N})=\mathbb{P}( A_{i_1})\ldots\mathbb{P}(A_{i_N}).

Замечание 2. Совместная независимость, очевидно, влечет попарную независимость. Обратное, вообще говоря, неверно.

Пример 1. Пусть брошены три уравновешенные монеты. Определим события следующим образом:

  • ~A_1: монеты 1 и 2 упали одной и той же стороной;
  • ~A_2: монеты 2 и 3 упали одной и той же стороной;
  • ~A_3: монеты 1 и 3 упали одной и той же стороной;

Легко проверить, что любые два события из этого набора независимы. Все же три в совокупности зависимы, ибо зная, например, что события ~A_1,A_2 произошли, мы знаем точно, что ~A_3 также произошло.

Независимые сигма-алгебры[править | править исходный текст]

Определение 4. Пусть \mathcal{A}_1,\;\mathcal{A}_2\subset\mathcal{F} две сигма-алгебры на одном и том же вероятностном пространстве. Они называются независимыми, если любые их представители независимы между собой, то есть:

\mathbb{P}(A_1\cap A_2)=\mathbb{P}(A_1)\cdot\mathbb{P}(A_2),\;\forall A_1\in\mathcal{A}_1,\;A_2\in\mathcal{A}_2.

Если вместо двух имеется целое семейство (возможно бесконечное) сигма-алгебр, то для него определяется попарная и совместная независимость очевидным образом.

Независимые случайные величины[править | править исходный текст]

Определения[править | править исходный текст]

Определение 5. Пусть дано семейство случайных величин (X_i)_{i\in I}, так что X_i\colon\Omega\to\R,\;\forall i\in I. Тогда эти случайные величины попарно независимы, если попарно независимы порождённые ими сигма-алгебры \{\sigma(X_i)\}_{i\in I}. Случайные величины независимы в совокупности, если таковы порождённые ими сигма-алгебры.

Определение, данное выше, эквивалентно любому другому из нижеперечисленных. Две случайные величины X,\;Y независимы тогда и только тогда, когда:

  • Для любых A,\;B\in\mathcal{B}(\R):
\mathbb{P}(X\in A,\;Y\in B)=\mathbb{P}(X\in A)\cdot\mathbb{P}(Y \in B).
  • Для любых борелевских функций f,\;g\colon\R\to\R случайные величины f(X),\;g(Y) независимы.
  • Для любых ограниченных борелевских функций f,\;g\colon\R\to\R:
\mathbb{E}\left[f(X)g(Y)\right]=\mathbb{E}\left[f(X)\right]\cdot\mathbb{E}\left[g(Y)\right].

Свойства независимых случайных величин[править | править исходный текст]

  • Пусть \mathbb{P}^{X,\;Y} — распределение случайного вектора (X,\;Y), \mathbb{P}^X — распределение X и \mathbb{P}^Y — распределение Y. Тогда X,\;Y независимы тогда и только тогда, когда
\mathbb{P}^{X,\;Y}=\mathbb{P}^X\otimes\mathbb{P}^Y,

где \otimes обозначает (прямое) произведение мер.

F_{X,\;Y}(x,\;y)=F_X(x)\cdot F_Y(y).
  • Пусть случайные величины X,\;Y дискретны. Тогда они независимы тогда и только тогда, когда
\mathbb{P}(X=i,\;Y=j)=\mathbb{P}(X=i)\cdot\mathbb{P}(Y=j).
  • Пусть случайные величины X,\;Y совместно абсолютно непрерывны, то есть их совместное распределение имеет плотность f_{X,\;Y}(x,\;y). Тогда они независимы тогда и только тогда, когда
f_{X,\;Y}(x,\;y)=f_X(x)\cdot f_Y(y),\;\forall(x,\;y)\in\R^2,

где f_X(x),\;f_Y(y) — плотности случайных величин X и Y соответственно.

См. также[править | править исходный текст]