Внешне не связанные уравнения

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск

Внешне не связанные уравнения (SUR — сокр. от англ. Seemingly UnRelated (Regressions)) — система эконометрических уравнений, каждое из которых является самостоятельным уравнением со своей зависимой и объясняющими экзогенными переменными. Модель предложена Зельнером в 1968 году. Важной особенностью данных уравнений является то, что несмотря на кажущуюся несвязанность уравнений их случайные ошибки предполагаются коррелированными между собой.

Математическая модель[править | править исходный текст]

Пусть имеется m эконометрических линейных уравнений, каждое из которых в матричной форме можно записать следующим образом:

y_i=X_ib_i+\varepsilon_i~,~i=1..m

Предполагается, что случайная ошибка каждого уравнения удовлетворяет классическим предположениям об отсутствии гетероскедастичности и автокорреляции, то есть ковариационная матрица вектора случайных ошибок каждого уравнения имеет вид: V(\varepsilon_i)=\sigma^2_iI_n. Тем не менее, может иметь место корреляция случайных ошибок между уравнениями (в одном и том же наблюдении). Кроме того, дисперсии случайных ошибок в разных уравнениях, вообще говоря не одинаковы. Обозначим ковариации между случайными ошибками в разных уравнениях \sigma_{ij}. Тогда для каждого наблюдения вектор случайных ошибок уравнений имеет ковариационную матрицу \Sigma=[\sigma_{ij}].

Введем обозначения

y=\begin{pmatrix}y_1 \\ y_2 \\ \vdots \\ y_m \end{pmatrix}~,~ X=\begin{pmatrix}X_1&0&\ldots&0 \\ 0&X_2&\ldots&0 \\ \vdots&\vdots&\ddots&\vdots \\ 0&0&\ldots&X_m \end{pmatrix}~,~ b=\begin{pmatrix}b_1 \\ b_2 \\ \vdots \\ b_m \end{pmatrix}~,~ \varepsilon=\begin{pmatrix}\varepsilon_1 \\ \varepsilon_2 \\ \vdots \\ \varepsilon_m \end{pmatrix}

Тогда можно модель представить в следующем виде, аналогичном обычной линейной регрессии:

 y= X b + \varepsilon

Ковариационная матрица вектора случайных ошибок такой модели будет иметь блочный вид, каждый из блоков которой равен \sigma_{ij} I_n. Это упрощенно можно записать через матрицу \Sigma с помощью произведения Кронекера:

V(\varepsilon)=\Sigma \otimes I_n

Методы оценки[править | править исходный текст]

Поскольку каждое уравнение по предположению удовлетворяет классическим предположениям, то можно применить обычный метод наименьших квадратов для оценки их параметров. Однако, такой подход не учитывает дополнительную информацию о корреляциях между уравнениями. Более эффективные оценки можно получить, если использовать обобщенный метод наименьших квадратов:

\hat {b}_{SUR}=(X^TV^{-1}X)X^TV^{-1}y~,~V^{-1}=\Sigma^{-1} \otimes I_n

Однако, проблема применения обобщенного МНК как известно заключается в неизвестности ковариационной матрицы ошибок, в данном случае матрицы \Sigma. Поэтому используется следующая двухшаговая процедура доступного обобщенного МНК (FGLS). На первом шаге применяется обычный МНК и находятся остатки уравнений. На основании этих остатков оценивается матрица \Sigma : \hat \sigma_{ij}=e^T_ie_j/n и далее применяется обобщенный МНК. Теоретически процедуру можно продолжить итеративно используя вновь полученные остатки для повторной оценки ковариационной матрицы и применения обобщенного МНК.

Полученные таким образом оценки являются состоятельными и асимптотически нормальными. Очевидно, если матрица \Sigma диагональна, то есть когда случайные ошибки разных уравнений не коррелируют между собой, то такие оценки совпадут с оценками обычного МНК. То же самое имеет место когда все уравнения содержат один и тот же набор переменных, то есть X_1=X_2=...=X_m.

Кроме указанных основных подходов возможно также применение метода максимального правдоподобия при предположении о нормальности распределения случайных ошибок.

См. также[править | править исходный текст]