Помощь в написании студенческих работ
Антистрессовый сервис

Уравнение множественной регрессии. 
Теорема Гаусса – Маркова

РефератПомощь в написанииУзнать стоимостьмоей работы

В первой части теоремы («если») формулируются условия на случайные возмущения, при выполнении которых МНК-оценки параметров линейной модели множественной регрессии отвечают свойствам несмещенности и эффективности. Эти условия принято называть предпосылками теоремы Гаусса — Маркова. Во второй части («тогда») формулируются оптимальные процедуры вычисления оценок параметров модели и основных функций… Читать ещё >

Уравнение множественной регрессии. Теорема Гаусса – Маркова (реферат, курсовая, диплом, контрольная)

Почему же в практических приложениях оказались важными свойства оценок? Это связано с тем, что при моделировании реальных объектов, в том числе экономических, параметры являются не только числовыми коэффициентами при переменных, а несут на себе смысловую нагрузку, часто имеют размерность и по их величинам делают вывод о свойствах объекта.

Например, если модель (2.8) описывает зависимость расходов на потребление от располагаемого дохода, то параметр a1 есть предельные расходы по доходу и показывает, на сколько единиц изменяются расходы на потребление при увеличении дохода на одну единицу.

Теорема Гаусса — Маркова[1] формулирует условия, при которых МНК позволяет получить наилучшие оценки параметров линейной модели множественной регрессии.

Несмотря на то, что Марков родился через год после смерти Гаусса, теорема была названа по их именам. Заслуга Гаусса — в разработке МНК, заслуга Маркова — в формулировке условий, при которых МНК позволяет получить состоятельные оценки.

Сформулируем постановку задачи. Мы имеем:

1) спецификацию модели в виде линейного уравнения множественной регрессии:

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.20).

2) выборку из n наблюдений за поведением переменных модели:

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.21).

Значения переменных в каждом наблюдении связаны между собой по правилу (5.20). Следовательно, в соответствие каждому наблюдению можно поставить уравнение:

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.22).

Система уравнений (5.22) называется системой уравнений наблюдения или схемой Гаусса — Маркова.

Далее будем использовать следующие обозначения.

Уравнение множественной регрессии. Теорема Гаусса – Маркова. - вектор наблюдений за эндогенной переменной; (5.23).

Уравнение множественной регрессии. Теорема Гаусса – Маркова. - вектор параметров линейной модели; (5.24).

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.25).

Уравнение множественной регрессии. Теорема Гаусса – Маркова.

В матрице X в первом столбце записана единица.

Это «псевдопеременная» при параметре Уравнение множественной регрессии. Теорема Гаусса – Маркова.. Эта единица появляется в матрице X только в тех случаях, когда спецификация модели содержит свободный параметр Уравнение множественной регрессии. Теорема Гаусса – Маркова.. Если на этапе спецификации этот параметр не был записан, то и в матрице X столбец из единиц отсутствует.

В компактной записи с учетом введенных обозначений система уравнений наблюдений (схема Гаусса — Маркова) имеет вид:

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.26).

Задача заключается в том, чтобы найти:

  • 1) значения состоятельных оценок параметров модели (5.20);
  • 2) значения несмещенных ошибок оценок параметров;
  • 3) оценку ошибки случайного возмущения;
  • 4) оценку наилучшего прогноза с помощью модели (5.20);
  • 5) оценку ошибки прогноза.

Теорема начинается с описания условий, которые накладываются на вектор случайных возмущений. Эти условия принято называть предпосылками теоремы Гаусса — Маркова.

Теорему условно можно разбить на две части: " если" и " тогда" .

В первой части теоремы («если») формулируются условия на случайные возмущения, при выполнении которых МНК-оценки параметров линейной модели множественной регрессии отвечают свойствам несмещенности и эффективности. Эти условия принято называть предпосылками теоремы Гаусса — Маркова. Во второй части («тогда») формулируются оптимальные процедуры вычисления оценок параметров модели и основных функций этих параметров.

Теорема 5.1. «Если» :

1. Математическое ожидание случайных возмущений во всех наблюдениях равно нулю:

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.27).

2. Дисперсия случайных возмущений во всех наблюдениях одинакова и равна константе Уравнение множественной регрессии. Теорема Гаусса – Маркова. :

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.28).

3. Ковариация между парами случайных возмущений в наблюдениях равны нулю (случайные возмущения в наблюдениях независимы):

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.29).

4. Ковариация между вектором регрессоров и вектором случайных переменных равна нулю (регрессоры и случайные возмущения независимы):

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.30).

" Тогда" : если матрица X (5.26) неколлинеарная (нет ни одного столбца, который можно было бы представить в виде линейной комбинации других его столбцов).

1. Наилучшая оценка вектора параметров линейной модели множественной регрессии вычисляется, как.

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.31).

Она соответствует методу наименьших квадратов.

2. Ковариационная матрица оценок параметров модели вычисляется, как.

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.32).

3. Дисперсия случайного возмущения равна.

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.33).

4. Наилучший прогноз по модели (5.20) в точке.

Уравнение множественной регрессии. Теорема Гаусса – Маркова. вычисляется по правилу:

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.34).

5. Ошибка прогноза эндогенной переменной равна.

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.35).

Учитывая важность теоремы Гаусса — Маркова для эконометрики, рассмотрим ее доказательство.

Доказательство. Воспользуемся методом наименьших квадратов:

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.36) где.

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.37).

Подставляя (5.37) в (5.36) и выполнив перемножения, получим:

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.38).

Для получения необходимого условия экстремума дифференцируем (5.38) по вектору Уравнение множественной регрессии. Теорема Гаусса – Маркова. :

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.39).

Отсюда, система нормальных уравнений для вычисления оценок вектора Уравнение множественной регрессии. Теорема Гаусса – Маркова. имеет вид:

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.40).

Тогда оценка вектора Уравнение множественной регрессии. Теорема Гаусса – Маркова. есть.

Уравнение множественной регрессии. Теорема Гаусса – Маркова.

Выражение (5.31) доказано.

Замечание. Требование неколлинеарности матрицы X обеспечивает существование матрицы Уравнение множественной регрессии. Теорема Гаусса – Маркова.. В противном случае процедура (5.31) неосуществима.

Покажем, что процедура (5.31) дает несмещенную оценку параметров модели множественной регрессии. Для этого необходимо вычислить математическое ожидание вектора оценки Уравнение множественной регрессии. Теорема Гаусса – Маркова. :

Уравнение множественной регрессии. Теорема Гаусса – Маркова. (5.41).

Таким образом, несмещенность оценки (5.31) доказана. Отметим, что несмещенность достигнута в силу выполнения первой предпосылки теоремы Гаусса — Маркова.

Аналогичным образом доказывается справедливость выражения (5.32).

Остановимся более подробно на предпосылках теоремы Гаусса — Маркова.

Первая предпосылка (5.27) говорит о том, что во всех наблюдениях среднее значение (математическое ожидание) случайного возмущения равно нулю. Эта предпосылка отвечает за несмещенность параметров линейной модели множественной регрессии. Именно выполнение этой предпосылки обеспечило равенство нулю второго слагаемого в (5.41) и позволило получить несмещенные параметры модели.

Вторая предпосылка теоремы требует, чтобы во всех наблюдениях дисперсия случайного возмущения была одинаковой. Это свойство получило название свойства гомоскедастичности или однородности, или одинаковости дисперсий. В случае невыполнения данного условия говорят, что случайные возмущения в уравнениях наблюдения гетероскедастичные или неоднородные. Если случайные возмущения гетероскедастичные, то оценки параметров модели остаются несмещенными, но теряется эффективность оценки дисперсий параметров. Они, как правило, оказываются завышенными.

Третья предпосылка теоремы требует независимости случайных возмущений. Другими словами, каким бы не оказалось значение случайного возмущения в первом наблюдении, оно никак не сказывается на значениях случайного возмущения в любом другом наблюдении. Это свойство получило название неавтокоррелируемости случайных возмущений. Если это свойство не выполняется, то это так же сказывается на оценках дисперсий параметров модели. В этом случае дисперсии, как правило, занижены.

Четвертая предпосылка теоремы требует независимости случайных возмущений от значений регрессоров (экзогенных переменных). Как мы уже отмечали, рассматривая результат построения модели парной регрессии (5.9), невыполнение этого условия приводит к смещенности параметров модели. В тех случаях, когда значения регрессоров фиксированы, т. е. являются константами, эта предпосылка выполняется автоматически. Однако в ряде случаев регрессоры могут носить случайный характер. Например, если значения регрессоров в выборке есть результат измерений, или когда в качестве регрессора выступает лаговая эндогенная переменная.

  • [1] Карл Фридрих Гаусс (30.04.1777−23.02.1855) — немецкий ученый — математик, физик, астроном. Андрей Андреевич Марков (14.06.1856−20.07.1922) — русский математик.
Показать весь текст
Заполнить форму текущей работой