13.04.2022

Стандартные ошибки в форме Ньюи-Уеста или состоятельные при гетероскедастичности и автокорреляции стандартные ошибки (HAC s.e. — Heteroskedasticity and Autocorrelation consistent standard errors) — применяемая в эконометрике оценка ковариационной матрицы МНК-оценок (в частности и стандартных ошибок) параметров линейной модели регрессии, альтернативная стандартной (классической) оценке, которая состоятельна при гетероскедастичности и автокорреляции случайных ошибок модели (в отличие от несостоятельной в этом случае классической оценки и стандартных ошибок в форме Уайта).

Сущность и формула

Истинная ковариационная матрица МНК-оценок параметров линейной модели в общем случае равна:

V ( b ^ O L S ) = ( X T X ) − 1 ( X T V X ) ( X T X ) − 1 {displaystyle V({hat {b}}_{OLS})=(X^{T}X)^{-1}(X^{T}VX)(X^{T}X)^{-1}}

где V {displaystyle V} — ковариационная матрица случайных ошибок. В случае, если нет гетероскедастичности и автокорреляции (то есть когда V = σ 2 I {displaystyle V=sigma ^{2}I} ) формула упрощается

V ^ ( b ^ O L S ) = σ 2 ( X T X ) − 1 {displaystyle {hat {V}}({hat {b}}_{OLS})={sigma }^{2}(X^{T}X)^{-1}}

Поэтому для оценки ковариационной матрицы в классическом случае достаточно использовать оценку единственного параметра — дисперсии случайных ошибок: σ ^ 2 = R S S / ( n − k ) {displaystyle {hat {sigma }}^{2}=RSS/(n-k)} , которая, как можно доказать, является несмещенной и состоятельной оценкой. При наличии гетероскедастичности, но без автокорреляции, матрица V диагональна и вместо этих диагональных элементов можно использовать квадраты остатков и получить состоятельные оценки (стандартные ошибки в форме Уайта). В общем случае, кроме гетероскедастичности, может иметь место также и автокорреляция некоторого порядка. Следовательно, кроме диагональных элементов, необходимо оценить внедиагональные элементы, отстоящие от диагонали на L. Ньюи и Уест (Newey, West, 1987) показали, что состоятельными являются оценки следующего вида:

V ^ ( b ^ O L S ) = ( X T X ) − 1 ( ∑ t = 1 n e t 2 x t x t T + ∑ j = 1 L ∑ t = j + 1 n w j e t e t − j ( x t x t − j T + x t − j x t T ) ) ( X T X ) − 1 {displaystyle {hat {V}}({hat {b}}_{OLS})=(X^{T}X)^{-1}(sum _{t=1}^{n}e_{t}^{2}x_{t}x_{t}^{T}+sum _{j=1}^{L}sum _{t=j+1}^{n}w_{j}e_{t}e_{t-j}(x_{t}x_{t-j}^{T}+x_{t-j}x_{t}^{T}))(X^{T}X)^{-1}}

Данная оценка, как видно из формулы, зависит от выбранной «ширины окна» L и весовых коэффициентов w j {displaystyle w_{j}} . Простейший вариант выбора весов — выбрать их равными единице. Однако в этом случае не обеспечивается необходимая положительная определенность матрицы. Второй вариант — веса Бартлета w j = 1 − j / ( L + 1 ) {displaystyle w_{j}=1-j/(L+1)} . Однако более предпочтительным вариантом считаются веса Парзена:

w j = { 1 − 6 ( j L + 1 ) 2 + 6 ( j L + 1 ) 3   ,     j ⩽ ( L + 1 ) / 2 2 ( 1 − j L + 1 ) 2   ,     j > ( L + 1 ) / 2 {displaystyle w_{j}={egin{cases}1-6({frac {j}{L+1}})^{2}+6({frac {j}{L+1}})^{3}~,~~jleqslant (L+1)/22(1-{frac {j}{L+1}})^{2}~,~~j>(L+1)/2end{cases}}}

Существует также проблема выбора «ширины окна» L. Обычно рекомендуется следующая оценка L = [ 4 ( n / 100 ) 2 / 9 ] {displaystyle L=[4(n/100)^{2/9}]}

Замечание

Иногда приведенную формулу оценки ковариационной матрицы корректируют на множитель n / ( n − k ) {displaystyle n/(n-k)} . Такая корректировка теоретически позволяет получить более точные оценки на малых выборках. В то же время на больших выборках (асимптотически) эти оценки эквивалентны.


Имя:*
E-Mail:
Комментарий: