Теорема Гаусса — Маркова

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск

Формулировка теоремы для парной регрессии[править | править вики-текст]

Рассматривается модель парной регрессии, в которой наблюдения Y связаны с X следующей зависимостью: Y_i = \beta_1 + \beta_2 X_i + \varepsilon_i. На основе n выборочных наблюдений оценивается уравнение регрессии \hat Y_i = \hat\beta_1 + \hat\beta_2 X_i. Теорема Гаусса—Маркова гласит:

Если данные обладают следующими свойствами:

  1. Модель данных правильно специфицирована;
  2. Все X_i детерминированы и не все равны между собой;
  3. Ошибки не носят систематического характера, то есть \mathbb{E}(\varepsilon_i) = 0\ \forall i;
  4. Дисперсия ошибок одинакова и равна некоторой \sigma^2;
  5. Ошибки некоррелированы, то есть \mathop{\mathrm{Cov}}(\varepsilon_i,\varepsilon_j)=0\ \forall i,j;

— то в этих условиях оценки метода наименьших квадратов эффективны в классе линейных несмещённых оценок.

Пояснение к теореме[править | править вики-текст]

Первое условие: модель данных правильно специфицирована. Под этим словосочетанием понимается следующее:

  • Модель состоит из фиксированной части (Y = \alpha + \beta X) и случайной части (\varepsilon);
  • Модель данных линейна по \alpha и \beta (\alpha и \beta линейны по Y);
  • Отсутствует недоопределённость (т. е. ситуация, когда упущены важные факторы) и переопределённость (т. е. когда, наоборот, приняты во внимание ненужные факторы); (отсутствие коллинеарности)
  • Модель данных адекватна устройству данных (модель данных и устройство данных имеют одинаковую функциональную форму).

Устройство данных — это наблюдения случайной величины. Модель данных — это уравнение регрессии. «Иметь одинаковую функциональную форму» означает «иметь одинаковую функциональную зависимость». Например, если точки наблюдений очевидно расположены вдоль невидимой экспоненты, логарифма или любой нелинейной функции, нет смысла строить линейное уравнение регрессии.

Второе условие: все X_i детерминированы и не все равны между собой. Если все X_i равны между собой, то X_i = \bar X, и в уравнении оценки коэффициента наклона прямой в линейной модели в знаменателе будет ноль, из-за чего будет невозможно оценить коэффициенты \beta_2 и вытекающий из него \beta_1. При небольшом разбросе переменных X модель сможет объяснить лишь малую часть изменения Y. Иными словами, переменные не должны быть постоянными.

Третье условие: ошибки не носят систематического характера. Случайный член может быть иногда положительным, иногда отрицательным, но он не должен иметь систематического смещения ни в каком из двух возможных направлений. Если уравнение регрессии включает постоянный член (\beta_1), то это условие чаще всего выполняется автоматически, так как постоянный член отражает любую систематическую, но постоянную составляющую в Y, которой не учитывают объясняющие переменные, включённые в уравнение регрессии.

Четвёртое условие: дисперсия ошибок одинакова. Одинаковость дисперсии ошибок также принято называть гомоскедастичностью. Не должно быть априорной причины для того, чтобы случайный член порождал бо́льшую ошибку в одних наблюдениях, чем в других. Так как \mathbb{E}(\varepsilon_i) = 0\ \forall i и теоретическая дисперсия отклонений \varepsilon_i равна \mathbb{E}(\varepsilon_i^2), то это условие можно записать так: \mathbb{E}(\varepsilon_i^2) = \sigma^2_{\varepsilon}\ \forall i. Одна из задач регрессионного анализа состоит в оценке стандартного отклонения случайного члена. Если рассматриваемое условие не выполняется, то коэффициент регрессии, найденные по методу наименьших квадратов, будут неэффективны, а более эффективные результаты будут получаться путём применения модифицированного метода регрессии.

Пятое условие: \varepsilon_i распределены независимо от \varepsilon_j при i\ne j. Это условие предполагает отсутствие систематической связи между значениями случайного члена в любых двух наблюдениях. Если один случайный член велик и положителен в одном направлении, не должно быть систематической тенденции к тому, что он будет таким же великим и положительным (то же можно сказать и о малых, и об отрицательных остатках). Теоретическая ковариация \sigma_{\varepsilon_i,\varepsilon_j} должна равняться нулю, поскольку \sigma_{\varepsilon_i,\varepsilon_j} = \mathbb{E} \bigl( (\varepsilon_i-\mathbb{E}(\varepsilon_i)) (\varepsilon_j-\mathbb{E}(\varepsilon_j)) \bigr) = \mathbb{E} (\varepsilon_i \varepsilon_j) = \mathbb{E}(\varepsilon_i)\cdot \mathbb{E}(\varepsilon_j) = 0. Теоретические средние для \varepsilon_i и \varepsilon_j равны нулю в силу третьего условия теоремы. При невыполнении этого условия оценки, полученные по методу наименьщих квадратов, будут также неэффективны.

Выводы из теоремы:

  • Эффективность оценки означает, что она обладает наименьшей дисперсией.
  • Оценка линейна по наблюдениям Y.
  • Несмещённость оценки означает, что её математическое ожидание равно истинному значению.

Формулировка теоремы для множественной регрессии[править | править вики-текст]

Если данные обладают следующими свойствами:

  1. Модель правильно специфицирована (постоянная эластичность рассматривается как постоянная, или нет лишних переменных, или есть все важные переменные),
  2. \mathrm{rang}\, (\boldsymbol{X}) = k,
  3. \mathbb{E}(\boldsymbol{\varepsilon}_i)=0,
  4. \mathrm{Cov}\, (\boldsymbol{\varepsilon}) = \sigma^2 \boldsymbol{I} (что влечёт гомоскедастичность),

— то в этих условиях оценки метода наименьших квадратов \hat{\boldsymbol{\beta}} являются лучшими в классе линейных несмещённых оценок (Best Linear Unbiased Estimators, BLUE).

Литература[править | править вики-текст]

  • Кристофер Доугерти. Введение в эконометрику. — 2-е, пер. с англ. — М.: ИНФРА-М, 2004. — 419 с.
  • Damodar N. Gujarati. Basic Econometrics. — 4. — The McGraw-Hill Companies, 2004. — С. 1002. — ISBN 978-0071123433