Обобщенная линейная модель множественной регрессии.
Гетероскедастичность
В классической модели компоненты вектора возмущений некоррелированы М () = 0 при, а дисперсии компонент постоянны, ковариационная матрица возмущений Суть обобщения регрессионной модели состоит в том, что ковариации и дисперсии объясняющих переменных могут быть произвольными (т.о. обобщенная модель множественной регрессии отличается от классической только видом ковариационной матрицы… Читать ещё >
Обобщенная линейная модель множественной регрессии. Гетероскедастичность (реферат, курсовая, диплом, контрольная)
Контрольная работа Обобщенная линейная модель множественной регрессии. Гетероскедастичность Содержание
1. Обобщенная линейная модель множественной регрессии. Теорема Айткена
2.Суть гетероскедастичности
3. Обнаружение гетероскедастичности
4. Методы смягчения проблемы гетероскедастичности Литература
1. Обобщенная линейная модель множественной регрессии. Теорема Айткена Рассмотрим линейную модель множественной регрессии:
1)
2), ,, ,
Значения признака Матрица объясняющих Вектор Вектор Вектор переменных, столбцами регрессора j случайных коэфф-тов которой являются Xj ошибок регрессии
3),
В классической модели компоненты вектора возмущений некоррелированы М () = 0 при, а дисперсии компонент постоянны, ковариационная матрица возмущений Суть обобщения регрессионной модели состоит в том, что ковариации и дисперсии объясняющих переменных могут быть произвольными (т.о. обобщенная модель множественной регрессии отличается от классической только видом ковариационной матрицы). — положительно определенная матрица (АТ = А и хТАх > 0). В классической модели множественной регрессии обычным МНК был получен вектор оценок параметров, он является несмещенной и состоятельной оценкой для. Рассмотрим ковариационную матрицу В классической модели и К =. В качестве выборочной оценки ковариационной матрицы К была взята матрица
где, причем M (S2) = и = К, т. е. — несмещенная оценка К.
В обобщенной модели и К =. Если в качестве оценки матрицы К взять ту же матрицу, то, т. е. — смещенная оценка для К. Т.о., обычный МНК в обобщенной линейной регрессионной модели дает смещенную оценку ковариационной матрицы К вектора оценок параметров. Следовательно, оценка не будет оптимальной в смысле теоремы Гаусса-Маркова. Для получения наиболее эффективной оценки ковариационной матрицы К нужно использовать оценку, получаемую так называемым обобщенным МНК.
Теорема Айткена: в классе линейных несмещенных оценок вектора для обобщенной регрессионной модели оценка
имеет наименьшую ковариационную матрицу.
Для применения обобщенного МНК надо знать ковариационную матрицу вектора возмущений, что встречается крайне редко в практике эконометрического моделирования. Если считать все n (n+1)/2 элементов матрицы неизвестными параметрами обобщенной модели (в дополнение к (р+1) параметрам регрессии), то общее число параметров превысит число наблюдений n, что сделает оценку этих параметров неразрешимой задачей.
Для практической реализации обобщенного МНК вводятся дополнительные условия на структуру матрицы .
2. Суть гетероскедастичности В случаях, когда выполняются все предпосылки теоремы Гаусса-Маркова, оценки, полученные по МНК, являются несмещенными, состоятельными и эффективными. Если распределение случайных остатков не соответствует некоторым предпосылкам МНК, то следует корректировать модель.
Прежде всего, необходимо проверить случайный характер остатков. Для этого можно построить график зависимости остатков от теоретических значений результативного признака (рис.1).
Рис. 1. Зависимость случайных остатков от теоретических значений
Если на графике нет направленности в расположении точек, то остатки представляют собой случайные величины и использование МНК оправдано.
Возможны следующие случаи (рис. 2.):
Рис. 2. Зависимость от
а) остатки не случайны;
б) остатки носят систематический характер;
в) остатки не имеют постоянной дисперсии.
В этих случаях необходимо использовать другую функцию, либо вводить дополнительную информацию.
Другой предпосылкой регрессионного анализа является предположение о постоянстве дисперсии случайного члена для всех наблюдений (гомоскедастичность).
Это значит, что для каждого значения объясняющей переменной случайные члены имеют одинаковые дисперсии.
D () = M (2) — M2() = M (2) = 2 = Const для всех наблюдений Если это условие не соблюдается, то имеет место гетероскедастичность (рис. 3).
Рис. 3. Примеры гетероскедастичности Гомоскедастичность остатков означает, что дисперсия остатков одинакова для каждого значения х (рис. 4, рис. 5).
Рис. 4. Гомоскедастичность остатков Рис. 5. Гетероскедастичность остатков Наличие гетероскедастичности может привести к смещенности оценок коэффициентов регрессии, хотя несмещенность оценок в основном зависит от соблюдения предположения о независимости остатков и величин факторов (т.е. cov (х,) = 0). Гетероскедастичность будет сказываться на уменьшении эффективности оценок параметров. В частности, невозможно использовать формулу стандартной ошибки коэффициентов Sb, предполагающей единую дисперсию остатков. При нарушении гомоскедастичности имеет место неравенство
Поэтому все выводы, получаемые на основе соответствующих tи Fстатистик, а также интервальные оценки будут ненадежными. Следовательно, статистические выводы будут неверны.
Возможные причины:
Значения переменных значительно различаются для разных наблюдений. Например, строя зависимость между государственными расходами на образование и ВВП в различных странах используем и Сингапур, и США, где 3% ВВП соответственно: 0,0096 и 5,439 (для 1980 г.) и изменения в 1% сильно отличаются.
Проблема гетероскедастичности характерна для перекрестных данных и довольно редко встречается при рассмотрении временных рядов.
3. Обнаружение гетероскедастичности Не существует какого-либо однозначного метода определения гетероскедастичности. При этом разработано большое число различных тестов и критериев. Рассмотрим наиболее популярные из них.
Тест ранговой корреляции Спирмена. Выдвигается. Ho об отсутствии гетероскедастичности случайного члена. Предполагается, что дисперсия случайного члена будет либо увеличиваться, либо уменьшаться по мере увеличения Х, и поэтому в регрессии по МНК абсолютные величины остатков и значения Х будут коррелированны. Схема теста:
данные по Х и остатки ранжируются по Х и определяются их ранги;
коэффициент ранговой корреляции Спирмена определяется по формуле
где Di — разность между рангами Х и ;
Статистический критерий имеет распределение Стьюдента, т.к.
Если, H0 об отсутствии гетероскедастичности будет отклонена. Если в модели регрессии имеется более одной объясняющей переменной, то проверка гипотезы может выполняться с использованием любой из них.
Пример: Исследуется зависимость между доходом (Х) домохозяйства и его расходом (Y) на продукты питания. Выборочные данные по 40 домохозяйствам даны в таблице.
x | 25,5 | 26,5 | 27,2 | 29,6 | 35,7 | 38,6 | 39,3 | 41,9 | |||
y | 14,5 | 11,3 | 14,7 | 10,2 | 13,5 | 9,9 | 12,4 | 8,6 | 10,3 | 13,9 | |
x | 42,5 | 44,2 | 44,8 | 45,5 | 45,5 | 48,3 | 49,5 | 52,3 | 55,7 | ||
y | 14,9 | 11,6 | 21,5 | 10,8 | 13,8 | 18,2 | 19,1 | 16,3 | 17,5 | ||
x | 61,7 | 62,5 | 64,7 | 69,7 | 71,2 | 73,8 | 74,7 | 75,8 | 76,9 | ||
y | 10,9 | 16,1 | 10,5 | 10,6 | 8,2 | 14,3 | 21,8 | 26,1 | |||
x | 79,2 | 81,5 | 82,4 | 82,8 | 85,9 | 86,4 | 86,9 | 88,3 | |||
y | 19,8 | 21,2 | 17,3 | 23,5 | 18,3 | 13,7 | 14,5 | 27,3 | |||
Решение
1. Строим уравнение регрессии и определяем остатки
ВЫВОД ИТОГОВ | |||||||||
Регрессионная статистика | |||||||||
Множественный R | 0,564 649 | ||||||||
R-квадрат | 0,318 828 | ||||||||
Нормированный R-квадрат | 0,300 903 | ||||||||
Стандартная ошибка | 4,672 041 | ||||||||
Наблюдения | |||||||||
Дисперсионный анализ | |||||||||
df | SS | MS | F | Значимость F | |||||
Регрессия | 388,2371 | 388,2371 | 17,786 | 0,0001 | |||||
Остаток | 829,4627 | 21,82 796 | |||||||
Итого | 1217,7 | ||||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | Нижние 95,0% | Верхние 95,0% | ||
Y-пересечение | 7,40 019 | 2,322 793 | 3,30 842 | 0,0044 | 2,3378 | 11,742 | 2,3378 | 11,74 | |
х | 0,156 883 | 0,37 199 | 4,217 372 | 0,0001 | 0,0816 | 0,2322 | 0,0816 | 0,232 | |
ВЫВОД ОСТАТКА | |||
Наблюдение | Предсказанное у | Остатки | |
11,4 054 | 3,459 461 | ||
11,19 742 | 0,102 578 | ||
11,30 724 | 3,39 276 | ||
11,68 376 | — 1,48 376 | ||
12,64 075 | 0,859 253 | ||
13,9 571 | — 3,19 571 | ||
13,15 846 | — 0,75 846 | ||
13,20 553 | — 4,60 553 | ||
13,31 534 | — 3,1 534 | ||
13,61 342 | 0,286 578 | ||
13,70 755 | 1,192 448 | ||
13,97 425 | — 2,37 425 | ||
14,6 838 | 7,431 617 | ||
14,1782 | — 3,3782 | ||
14,1782 | — 0,3782 | ||
14,61 747 | 1,382 526 | ||
14,80 573 | 3,394 266 | ||
15,24 501 | 3,854 994 | ||
15,77 841 | 0,521 591 | ||
16,29 612 | 1,203 877 | ||
16,60 989 | — 5,70 989 | ||
16,71 971 | — 0,61 971 | ||
16,84 521 | — 6,34 521 | ||
17,19 036 | — 6,59 036 | ||
17,97 477 | 11,2 523 | ||
18,2101 | — 10,0101 | ||
18,61 799 | — 4,31 799 | ||
18,75 919 | 3,40 812 | ||
18,93 176 | 7,16 824 | ||
19,10 433 | 0,895 669 | ||
19,46 516 | 0,334 838 | ||
19,82 599 | 1,374 006 | ||
19,96 719 | 9,32 812 | ||
20,6 132 | 3,438 682 | ||
20,51 628 | 1,483 721 | ||
20,59 472 | — 2,29 472 | ||
20,67 316 | — 6,97 316 | ||
20,8928 | — 6,3928 | ||
21,262 | 6,297 383 | ||
2. Значения хi уже упорядочены по возрастанию, поэтому определяем ранги хi и ранги соответствующих остатков.
х | ABS (e) | ранг х | ранг е | D | |
25,5 | 3,459 461 | — 25 | |||
26,5 | 0,102 578 | ||||
27,2 | 3,39 276 | — 20 | |||
29,6 | 1,48 376 | — 11 | |||
35,7 | 0,859 253 | — 3 | |||
38,6 | 3,195 708 | — 15 | |||
0,758 461 | |||||
39,3 | 4,605 526 | — 21 | |||
3,15 344 | — 10 | ||||
41,9 | 0,286 578 | ||||
42,5 | 1,192 448 | ||||
44,2 | 2,374 253 | — 5 | |||
44,8 | 7,431 617 | — 24 | |||
45,5 | 3,378 201 | — 8 | |||
45,5 | 0,378 201 | ||||
48,3 | 1,382 526 | ||||
49,5 | 3,394 266 | — 7 | |||
52,3 | 3,854 994 | — 9 | |||
55,7 | 0,521 591 | ||||
1,203 877 | |||||
5,70 989 | — 9 | ||||
61,7 | 0,619 708 | ||||
62,5 | 6,345 214 | — 9 | |||
64,7 | 6,590 357 | — 10 | |||
69,7 | 11,2 523 | — 15 | |||
71,2 | 10,0101 | — 13 | |||
73,8 | 4,317 994 | — 1 | |||
74,7 | 3,40 812 | ||||
75,8 | 7,16 824 | — 7 | |||
76,9 | 0,895 669 | ||||
79,2 | 0,334 838 | ||||
81,5 | 1,374 006 | ||||
82,4 | 9,32 812 | — 5 | |||
82,8 | 2,729 942 | ||||
3,438 682 | |||||
85,9 | 1,483 721 | ||||
86,4 | 2,294 721 | ||||
86,9 | 6,973 162 | ||||
88,3 | 6,392 799 | ||||
6,297 383 | |||||
3. Определяем коэффициент корреляции Спирмена и t-статистику
4. Т.к. tкр(0,05;38)=2,021 <, то гетероскедастичность доказана.
Метод Голдфелда-Квандта. При проведении проверки по этому тесту предполагается, что стандартное отклонение случайного члена пропорционально значению независимой переменной Х. Схема теста:
все n наблюдений упорядочиваются по возрастанию переменной Х;
оцениваются отдельные регрессии для первых m и для последних m наблюдений. Средние (n-2m) наблюдений отбрасываются ();
составляется статистика, где S1, S2 — суммы квадратов остатков для первых и последних наблюдений;
Если, Ho об отсутствии гетероскедастичности отклоняется (если обратно пропорционально Х, то).
Пример. Воспользуемся условием предыдущего примера и определим наличие гетероскедастичности остатков с помощью теста Голдфелда-Квандта.
Решение.
1) Упорядоченные по возрастанию х данные хi и уi разбиваются на три приблизительно равные части. Для первой и последней строятся уравнения регрессии и рассчитывается F-статистика.
1-я часть 2-я часть
х | у | x | y | ||
25,5 | 14,5 | 73,8 | 14,3 | ||
26,5 | 11,3 | 74,7 | 21,8 | ||
27,2 | 14,7 | 75,8 | 26,1 | ||
29,6 | 10,2 | 76,9 | |||
35,7 | 13,5 | 79,2 | 19,8 | ||
38,6 | 9,9 | 81,5 | 21,2 | ||
12,4 | 82,4 | ||||
39,3 | 8,6 | 82,8 | 17,3 | ||
10,3 | 23,5 | ||||
41,9 | 13,9 | 85,9 | |||
42,5 | 14,9 | 86,4 | 18,3 | ||
44,2 | 11,6 | 86,9 | 13,7 | ||
44,8 | 21,5 | 88,3 | 14,5 | ||
45,5 | 10,8 | 27,3 | |||
линейный множественный регрессия гетероскедастичность
ВЫВОД ИТОГОВ | |||||||||
Регрессионная статистика | |||||||||
Множественный R | 0,11 | ||||||||
R-квадрат | 0,012 | ||||||||
Нормированный R-квадрат | — 0,07 | ||||||||
Стандартная ошибка | 3,335 | ||||||||
Наблюдения | |||||||||
Дисперсионный анализ | |||||||||
df | SS | MS | F | Значимость F | |||||
Регрессия | 1,6285 | 1,628 | 0,146 | 0,7087 | |||||
Остаток | 133,5 | 11,12 | |||||||
Итого | 135,12 | ||||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | Нижние 95,0% | Верхние 95,0% | ||
Y-пересечение | 10,87 | 4,926 | 2,206 | 0,048 | 0,1351 | 21,6 | 0,135 078 | 21,60 065 | |
х | 0,05 | 0,1304 | 0,383 | 0,709 | — 0,234 | 0,334 | — 0,23 415 | 0,3339 | |
ВЫВОД ИТОГОВ | |||||||||
Регрессионная статистика | |||||||||
Множественный R | 0,039 | ||||||||
R-квадрат | 0,002 | ||||||||
Нормированный R-квадрат | — 0,082 | ||||||||
Стандартная ошибка | 4,992 | ||||||||
Наблюдения | |||||||||
Дисперсионный анализ | |||||||||
df | SS | MS | F | Значимость F | |||||
Регрессия | 0,4598 | 0,46 | 0,018 | 0,8942 | |||||
Остаток | 299,09 | 24,92 | |||||||
Итого | 299,55 | ||||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | Нижние 95,0% | Верхние 95,0% | ||
Y-пересечение | 23,63 | 22,15 | 1,067 | 0,307 | — 24,63 | 71,89 | — 24,6287 | 71,89 183 | |
x | — 0,037 | 0,27 | — 0,136 | 0,894 | — 0,625 | 0,552 | — 0,62 485 | 0,551 522 | |
2) Т.к., то нет оснований отвергать Н0 об отсутствии гетероскедастичности.
Тест Глейзера Тест Глейзера основывается на более общих представлениях о зависимости стандартной ошибки случайного члена от значений объясняющей переменной. Предположение о пропорциональности и Х снимаем и хотим проверить, может ли быть более подходящей какая-либо другая функциональная форма, например,. Чтобы использовать этот метод:
оценивают регрессию Y по Х и вычисляют — абсолютные значения остатков;
оценивают регрессию по для нескольких значений :
;
если Н0: b = 0 отклоняется (т.е. b значим), то гипотеза об отсутствии гетероскедастичности будет отклонена.
Если при оценивании более чем одной функции получается значимая оценка b, то ориентиром при определении характера гетероскедастичности может служить лучшая из них.
Пример. Воспользуемся расчетами предыдущего примера и проверим наличие гетероскедастичности с помощью теста Глейзера.
Решение
1) Рассчитаем уравнения регрессии еi от при
х | ABS (e) | x^(-1) | x^(-0,5) | x0, 5 | x1, 5 | ||
25,5 | 3,459 461 | 0,39 216 | 0,19 803 | 5,49 752 | 128,7687 | ||
26,5 | 0,102 578 | 0,37 736 | 0,194 257 | 5,147 815 | 136,4171 | ||
27,2 | 3,39 276 | 0,36 765 | 0,191 741 | 5,215 362 | 141,8578 | ||
29,6 | 1,48 376 | 0,33 784 | 0,183 804 | 5,440 588 | 161,0414 | ||
35,7 | 0,859 253 | 0,28 011 | 0,167 365 | 5,974 948 | 213,3056 | ||
38,6 | 3,195 708 | 0,25 907 | 0,160 956 | 6,21 289 | 239,8175 | ||
0,758 461 | 0,25 641 | 0,160 128 | 6,244 998 | 243,5549 | |||
39,3 | 4,605 526 | 0,25 445 | 0,159 516 | 6,268 971 | 246,3706 | ||
3,15 344 | 0,025 | 0,158 114 | 6,324 555 | 252,9822 | |||
41,9 | 0,286 578 | 0,23 866 | 0,154 487 | 6,473 021 | 271,2196 | ||
42,5 | 1,192 448 | 0,23 529 | 0,153 393 | 6,519 202 | 277,0661 | ||
44,2 | 2,374 253 | 0,22 624 | 0,150 414 | 6,648 308 | 293,8552 | ||
44,8 | 7,431 617 | 0,22 321 | 0,149 404 | 6,69 328 | 299,859 | ||
45,5 | 3,378 201 | 0,21 978 | 0,14 825 | 6,745 369 | 306,9143 | ||
45,5 | 0,378 201 | 0,21 978 | 0,14 825 | 6,745 369 | 306,9143 | ||
48,3 | 1,382 526 | 0,20 704 | 0,143 889 | 6,94 982 | 335,6763 | ||
49,5 | 3,394 266 | 0,20 202 | 0,142 134 | 7,35 624 | 348,2634 | ||
52,3 | 3,854 994 | 0,1 912 | 0,138 277 | 7,231 874 | 378,227 | ||
55,7 | 0,521 591 | 0,17 953 | 0,13 399 | 7,463 243 | 415,7026 | ||
1,203 877 | 0,16 949 | 0,130 189 | 7,681 146 | 453,1876 | |||
5,70 989 | 0,16 393 | 0,128 037 | 7,81 025 | 476,4252 | |||
61,7 | 0,619 708 | 0,16 207 | 0,127 309 | 7,854 935 | 484,6495 | ||
62,5 | 6,345 214 | 0,016 | 0,126 491 | 7,905 694 | 494,1059 | ||
64,7 | 6,590 357 | 0,15 456 | 0,124 322 | 8,43 631 | 520,4229 | ||
69,7 | 11,2 523 | 0,14 347 | 0,11 978 | 8,348 653 | 581,9011 | ||
71,2 | 10,0101 | 0,14 045 | 0,118 511 | 8,438 009 | 600,7863 | ||
73,8 | 4,317 994 | 0,1 355 | 0,116 405 | 8,590 693 | 633,9931 | ||
74,7 | 3,40 812 | 0,13 387 | 0,115 702 | 8,642 916 | 645,6258 | ||
75,8 | 7,16 824 | 0,13 193 | 0,114 859 | 8,70 632 | 659,939 | ||
76,9 | 0,895 669 | 0,13 004 | 0,114 035 | 8,769 265 | 674,3564 | ||
79,2 | 0,334 838 | 0,12 626 | 0,112 367 | 8,899 438 | 704,8355 | ||
81,5 | 1,374 006 | 0,1 227 | 0,11 077 | 9,27 735 | 735,7604 | ||
82,4 | 9,32 812 | 0,12 136 | 0,110 163 | 9,77 445 | 747,9814 | ||
82,8 | 2,729 942 | 0,12 077 | 0,109 897 | 9,99 451 | 753,4345 | ||
3,438 682 | 0,12 048 | 0,109 764 | 9,110 434 | 756,166 | |||
85,9 | 1,483 721 | 0,11 641 | 0,107 896 | 9,268 225 | 796,1406 | ||
86,4 | 2,294 721 | 0,11 574 | 0,107 583 | 9,29 516 | 803,1018 | ||
86,9 | 6,973 162 | 0,11 507 | 0,107 273 | 9,322 017 | 810,0833 | ||
88,3 | 6,392 799 | 0,11 325 | 0,106 419 | 9,396 808 | 829,7381 | ||
6,297 383 | 0,11 236 | 0,106 | 9,433 981 | 839,6243 | |||
ВЫВОД ИТОГОВ | |||||||
Регрессионная статистика | |||||||
Множественный R | 0,347 879 | ||||||
R-квадрат | 0,12 102 | ||||||
Нормированный R-квадрат | 0,97 889 | ||||||
Стандартная ошибка | 2,732 943 | ||||||
Наблюдения | |||||||
Дисперсионный анализ | |||||||
df | SS | MS | F | Значимость F | |||
Регрессия | 39,7 716 | 39,7 716 | 5,23 193 | 0,27 833 | |||
Остаток | 283,8211 | 7,468 976 | |||||
Итого | 322,8983 | ||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | ||
Y-пересечение | 8,7119 | 2,294 002 | 3,797 686 | 0,512 | 4,67 936 | 13,35 586 | |
x^(-0,5) | — 37,7515 | 16,50 452 | — 2,28 734 | 0,27 833 | — 71,1631 | — 4,33 981 | |
ВЫВОД ИТОГОВ | |||||||
Регрессионная статистика | |||||||
Множественный R | 0,35 414 | ||||||
R-квадрат | 0,125 415 | ||||||
Нормированный R-квадрат | 0,1024 | ||||||
Стандартная ошибка | 2,726 101 | ||||||
Наблюдения | |||||||
Дисперсионный анализ | |||||||
df | SS | MS | F | Значимость F | |||
Регрессия | 40,49 641 | 40,49 641 | 5,449 198 | 0,24 963 | |||
Остаток | 282,4019 | 7,431 628 | |||||
Итого | 322,8983 | ||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | ||
Y-пересечение | — 2,15 816 | 2,486 641 | — 0,8679 | 0,390 897 | — 7,1921 | 2,875 785 | |
x0, 5 | 0,754 429 | 0,323 186 | 2,334 352 | 0,24 963 | 0,100 174 | 1,408 685 | |
ВЫВОД ИТОГОВ | |||||||
Регрессионная статистика | |||||||
Множественный R | 0,351 385 | ||||||
R-квадрат | 0,123 472 | ||||||
Нормированный R-квадрат | 0,100 405 | ||||||
Стандартная ошибка | 2,729 129 | ||||||
Наблюдения | |||||||
Дисперсионный анализ | |||||||
df | SS | MS | F | Значимость F | |||
Регрессия | 39,8688 | 39,8688 | 5,35 285 | 0,26 194 | |||
Остаток | 283,0295 | 7,448 144 | |||||
Итого | 322,8983 | ||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | ||
Y-пересечение | 0,58 244 | 1,356 838 | 0,429 263 | 0,670 156 | — 2,16 433 | 3,329 215 | |
х | 0,50 274 | 0,2 173 | 2,313 623 | 0,26 194 | 0,6 285 | 0,94 263 | |
ВЫВОД ИТОГОВ | |||||||
Регрессионная статистика | |||||||
Множественный R | 0,345 728 | ||||||
R-квадрат | 0,119 528 | ||||||
Нормированный R-квадрат | 0,96 358 | ||||||
Стандартная ошибка | 2,735 261 | ||||||
Наблюдения | |||||||
Дисперсионный анализ | |||||||
df | SS | MS | F | Значимость F | |||
Регрессия | 38,59 537 | 38,59 537 | 5,158 668 | 0,2 888 | |||
Остаток | 284,3029 | 7,481 655 | |||||
Итого | 322,8983 | ||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | ||
Y-пересечение | 1,504 832 | 1,2 367 | 1,501 278 | 0,141 548 | — 0,52 435 | 3,534 019 | |
x1, 5 | 0,4 324 | 0,1 904 | 2,27 127 | 0,2 888 | 0,47 | 0,8 178 | |
ВЫВОД ИТОГОВ | |||||||
Регрессионная статистика | |||||||
Множественный R | 0,338 157 | ||||||
R-квадрат | 0,11 435 | ||||||
Нормированный R-квадрат | 0,91 044 | ||||||
Стандартная ошибка | 2,743 292 | ||||||
Наблюдения | |||||||
Дисперсионный анализ | |||||||
df | SS | MS | F | Значимость F | |||
Регрессия | 36,92 349 | 36,92 349 | 4,906 351 | 0,32 827 | |||
Остаток | 285,9748 | 7,525 652 | |||||
Итого | 322,8983 | ||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | ||
Y-пересечение | 5,973 455 | 1,173 304 | 5,91 141 | 9,98E-06 | 3,598 226 | 8,348 684 | |
x^(-1) | — 124,996 | 56,43 102 | — 2,21 503 | 0,32 827 | — 239,235 | — 10,7577 | |
2) Т.к. коэффициент b статистически значим во всех уравнениях, то гетероскедастичность доказана. Наилучший коэффициент детерминации (R2 = 0,1254) при, поэтому примем зависимость:
(см. далее).
Тест Парка Тест относится к формализованным тестам гетероскедастичности. Предполагается, что дисперсия остатков связана со значениями факторов функцией Данная регрессия строится для каждого фактора в условиях многофакторной модели. Проверяется значимость коэффициента регрессии b по t-критерию Стьюдента. Если коэффициент регрессии окажется статистически значимым, то, следовательно, имеет место гетероскедастичность.
Пример. По данным предыдущего примера построим регрессию
ВЫВОД ИТОГОВ | |||||||
Регрессионная статистика | |||||||
Множественный R | 0,343 033 | ||||||
R-квадрат | 0,117 672 | ||||||
Нормированный R-квадрат | 0,94 453 | ||||||
Стандартная ошибка | 2,97 694 | ||||||
Наблюдения | |||||||
Дисперсионный анализ | |||||||
df | SS | MS | F | Значимость F | |||
Регрессия | 22,30 024 | 22,30 024 | 5,67 869 | 0,30 238 | |||
Остаток | 167,2121 | 4,400 319 | |||||
Итого | 189,5124 | ||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | ||
Y-пересечение | — 6,49 359 | 3,634 358 | — 1,78 672 | 0,81 962 | — 13,851 | 0,863 782 | |
lnx | 2,27 965 | 0,90 084 | 2,251 193 | 0,30 238 | 0,204 309 | 3,851 621 | |
Так как коэффициент регрессии статистически значим, то гетероскедастичность доказана.
Тест Уайта. Предполагается, что дисперсия ошибок регрессии представляет собой квадратичную функцию от значений факторов, т. е. при наличии одного фактора, или при р факторах
.
О наличии или отсутствии гетероскедастичности остатков судят по величине F-критерия Фишера. Если фактическое значение критерия выше табличного, то, следовательно, существует корреляционная связь дисперсии ошибок от значений факторов, и имеет место гетероскедастичность остатков.
Пример. Определим квадратичную функцию для нашего примера
Пусть х1 = х, х2 = х2, построим уравнение множественной регрессии
ВЫВОД ИТОГОВ | |||||||
Регрессионная статистика | |||||||
Множественный R | 0,353 257 | ||||||
R-квадрат | 0,12 479 | ||||||
Нормированный R-квадрат | 0,77 482 | ||||||
Стандартная ошибка | 27,61 916 | ||||||
Наблюдения | |||||||
Дисперсионный анализ | |||||||
df | SS | MS | F | Значимость F | |||
Регрессия | 4024,315 | 2012,157 | 2,637 794 | 0,84 932 | |||
Остаток | 28 224,27 | 762,8181 | |||||
Итого | 32 248,59 | ||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | ||
Y-пересечение | — 38,76 | 44,45 | — 0,8809 | 0,384 058 | — 127,913 | 50,39 338 | |
х | 1,674 985 | 1,618 236 | 1,35 069 | 0,307 355 | — 1,60 387 | 4,953 843 | |
х2 | — 0,1 017 | 0,13 621 | — 0,74 683 | 0,459 886 | — 0,3 777 | 0,17 426 | |
Так как уравнение статистически не значимо по F-критерию, то гетероскедастичность остатков отсутствует.
4. Методы смягчения проблемы гетероскедастичности При наличии гетероскедастичности и величина Ki может меняться от одного значения фактора к другому. При наличии гетороскедастичности вместо обычного МНК используют обобщенный МНК (взвешенный). Суть метода заключается в уменьшении вклада данных наблюдений, имеющих большую дисперсию в результате расчета.
1 случай. Если дисперсии возмущений известны, то гетероскедастичность легко устраняется. Вводят новые переменные:
;; ,
Регрессионная модель в векторной форме
(*) /:
.
При этом
т.е. модель гомоскедастична.
2 случай. Если дисперсии возмущений неизвестны, то делают реалистические предположения о значениях .
Например:
а) дисперсии пропорциональны xi:. Уравнение регрессии (*) делят
— на — в случае одной переменной; - на — в случае множественной регрессии.
б) дисперсии пропорциональны, т. е.
Уравнение регрессии (*) делят на хi.
Пример. Воспользовавшись характером зависимости, полученным при использовании теста Глейзера
разделим обе части уравнения на
Уравнение регрессии примет вид
.
ВЫВОД ИТОГОВ | |||||||
Регрессионная статистика | |||||||
Множественный R | 0,964 | ||||||
R-квадрат | 0,929 | ||||||
Нормированный R-квадрат | 0,927 | ||||||
Стандартная ошибка | 5,502 | ||||||
Наблюдения | |||||||
Дисперсионный анализ | |||||||
df | SS | MS | F | Значимость F | |||
Регрессия | 498,9 | 2E-23 | |||||
Остаток | 1150,5 | 30,28 | |||||
Итого | |||||||
Коэффициенты | Стандартная ошибка | t-статистика | P-Значение | Нижние 95% | Верхние 95% | ||
Y-пересечение | — 1,408 | 1,0935 | — 1,288 | 0,206 | — 3,622 | 0,806 | |
x/e | 0,337 | 0,0151 | 22,34 | 2E-23 | 0,3064 | 0,367 | |
Получены новые оценки параметров линейного уравнения, в котором смягчена гетероскедастичность.
1. Айвазян С. А., Иванова С. С. Эконометрика. Краткий курс: учеб. пособие / С. А. Айвазян, С. С. Иванова. — М.: Маркет ДС, 2007. — 104 с.
2. Бородич С. А. Вводный курс эконометрики: Учебное пособие. — Мн.: БГУ, 2009. — 354 с.
3. Бывшев В. А. Эконометрика: учеб. пособие / В. А. Бывшев. — М.: Финансы и статистика, 2008. — 480 с.
4. Доугерти Кристофер.
Введение
в эконометрику: Учебник для экон. спец. вузов / Пер. с англ. Е. Н. Лукаш и др. — М.: ИНФРА-М, 2007. — 402 с.
5. Дубров А. М., Мхитарян В. С., Трошин Л. И. Многомерные статистические методы: Учебник. — М.: Финансы и статистика, 2009. — 352 с.
6. Дуброва Т. А. Прогнозирование социально-экономических процессов. Статистические методы и модели: учеб. пособие / Т. А. Дуброва. — М.: Маркет ДС, 2007. — 192 с.