Помощь в написании студенческих работ
Антистрессовый сервис

Метод наименьших квадратов, теорема Гаусса – Маркова

РефератПомощь в написанииУзнать стоимостьмоей работы

Значения дисперсий уменьшаются с ростом значения, которое, в данном случае, характеризует ширину интервала изменения регрессора х в выборке. Это отражает известный факт: для того чтобы точнее провести прямую на плоскости через две точки, необходимо отметить эти точки дальше одна от другой. Отсюда видно, несмотря на то, что случайные возмущения напрямую не участвуют в вычислении значений оценок… Читать ещё >

Метод наименьших квадратов, теорема Гаусса – Маркова (реферат, курсовая, диплом, контрольная)

После изучения главы 5 студент должен:

знать

  • • принцип метода наименьших квадратов (МНК);
  • • формулировку теоремы Гаусса — Маркова;
  • • условия, при выполнении которых МНК позволяет получить наилучшие оценки линейной модели множественной регрессии;
  • • основные свойства модели в виде уравнения парной регрессии характеристики;
  • • понятие схемы Гаусса — Маркова и системы нормальных уравнений;
  • • назначение предпосылок в теореме Гаусса — Маркова;
  • • последствия невыполнения предпосылок теоремы Гаусса — Маркова;

уметь

  • • строить схему Гаусса — Маркова для расчета параметров линейной модели;
  • • применять МНК для формирования системы нормальных уравнений по данным схемы Гаусса — Маркова;
  • • использовать табличный процессор EXCEL для вычисления параметров линейной модели;

владеть

  • • математическим аппаратом линейной алгебры в рамках, необходимых для решения задачи оценки параметров линейной модели;
  • • навыками использования программного обеспечения персональных компьютеров, в части, использования табличного процессора EXCEL.

Метод наименьших квадратов и уравнение парной регрессии

Одним из наиболее широко применяемых методов, получения, по крайней мере, состоятельных оценок, является метод наименьших квадратов (МНК).

Метод наименьших квадратов был предложен Гауссом еще в XVIII в. Гаусс решал задачу о том, как на плоскости (в пространстве) через известный набор точек провести прямую наилучшим способом. В качестве критерия он предложил использовать сумму квадратов остатков (невязок), т. е. разностей между абсциссами реальных точек и соответствующих им точек, лежащих на прямой. В математике решение такой задачи получило название регрессионного анализа.

Рассмотрим механизм применения МНК на примере идентификации (оценки, построения) модели в виде линейного уравнения парной регрессии:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.1).

Для решения задачи имеем набор точек на плоскости или другими словами набор п наблюдений за поведением переменных у и х.

Метод наименьших квадратов, теорема Гаусса – Маркова.

Таблица исходных данных (выборка).

Согласно методу наименьших квадратов, необходимо найти такие значения оценок параметров модели (5.1), которые соответствуют минимуму суммы квадратов остатков.

Из (5.1) следует, что неизвестные параметры модели должны обеспечить минимум функции:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.2).

Необходимым условием экстремума функции в точке является равенство нулю в ней ее частных производных. Следовательно, для нахождения параметров функции (5.2), соответствующие ее минимуму, необходимо вычислить производные этой функции по параметрам, приравнять их нулю и решить полученные уравнения относительно Метод наименьших квадратов, теорема Гаусса – Маркова. и Метод наименьших квадратов, теорема Гаусса – Маркова.

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.3).

Разделив обе части уравнений (5.3) на -2 и выполнив перемножения, получим:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.4).

или окончательно:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.5).

Система уравнений (5.5) называется системой нормальных уравнений для определения оценок параметров модели парной регрессии (5.1).

Убедимся, что решения системы уравнений (5.5) соответствуют минимуму функции (5.2). Для этого достаточно показать, что вторые производные функции (5.2) положительны.

Метод наименьших квадратов, теорема Гаусса – Маркова.

Систему уравнений (5.5) можно решить методом исключения переменных. Для этого достаточно выразить параметр Метод наименьших квадратов, теорема Гаусса – Маркова. через Метод наименьших квадратов, теорема Гаусса – Маркова. и подставить его во второе уравнение системы, откуда легко получить Метод наименьших квадратов, теорема Гаусса – Маркова., затем полученное значение Метод наименьших квадратов, теорема Гаусса – Маркова. подставить в первое уравнение и получить выражение для Метод наименьших квадратов, теорема Гаусса – Маркова.. В результате решение системы уравнений (5.5) примет вид:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.6).

Выражения (5.6) позволяют по известным значениям наблюдений за переменными х и у вычислить оценки параметров модели парной регрессии.

Проверим, насколько полученные оценки отвечают требованию несмещенности. Для этого запишем второе выражение (2.12) в виде.

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.7).

Для получения выражения (5.7) необходимо вспомнить, что оценка ковариации и дисперсии случайных переменных вычисляются, как.

Метод наименьших квадратов, теорема Гаусса – Маркова.

Раскрыв скобки и произведя несложные преобразования, легко получить выражение (5.7).

Найдем числитель (5.7), используя свойства ковариацию:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.8).

Первое слагаемое в выражении (5.8) равно нулю, так как параметр Метод наименьших квадратов, теорема Гаусса – Маркова. константа, а Метод наименьших квадратов, теорема Гаусса – Маркова.. Тогда окончательно выражение (5.8) принимает вид:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.9).

Математическое ожидание оценки параметра Метод наименьших квадратов, теорема Гаусса – Маркова. равно правой части выражения (5.9), так как параметр и количественные характеристики случайных переменных — константы.

Отсюда видно, несмотря на то, что случайные возмущения напрямую не участвуют в вычислении значений оценок параметров, они существенно влияют на их качество, а именно, если случайное возмущение коррелирует с регрессором, то значение оценки становится смещенным.

На практике часто пользуются формулами для вычисления параметров уравнения парной регрессии с использованием средних значений. Вводятся следующие обозначения:

Метод наименьших квадратов, теорема Гаусса – Маркова.

Тогда система нормальных уравнений (5.5) принимает вид:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.10).

Решение системы (5.10) есть.

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.11).

Найдем дисперсии параметров уравнения парной регрессии.

Для вычисления дисперсии оценки параметра Метод наименьших квадратов, теорема Гаусса – Маркова. воспользуемся выражением (5.7).

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.12).

Дисперсию оценки параметра а0 удобно вычислить исходя из выражения (5.11).

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.13).

Последнее слагаемое в (5.13) равно нулю, так как это ковариация между константой Метод наименьших квадратов, теорема Гаусса – Маркова. и случайной переменной Метод наименьших квадратов, теорема Гаусса – Маркова.. Для получения дисперсии оценки параметра Метод наименьших квадратов, теорема Гаусса – Маркова. необходимо вычислить дисперсию значения выборочной средней Метод наименьших квадратов, теорема Гаусса – Маркова. .

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.14).

После подстановки в (5.13) выражения (5.14) окончательно получим:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.15).

Найдем дисперсии оценки эндогенной переменной Метод наименьших квадратов, теорема Гаусса – Маркова. и дисперсию непосредственно эндогенной переменной у.

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.16).

Первые два слагаемых в (5.16) выше вычислены, осталось найти последнее слагаемое.

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.17).

Окончательно для дисперсии прогнозного значения эндогенной переменной получим:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.18).

Реальное значение эндогенной переменной у отличается от прогнозного на величину случайного возмущения и с дисперсией Метод наименьших квадратов, теорема Гаусса – Маркова.. Добавив к (5.18) дисперсию случайного возмущения окончательно получаем:

Метод наименьших квадратов, теорема Гаусса – Маркова. (5.19).

Показатели точности (дисперсии и стандартные ошибки) вычисления оценок параметров эконометрической модели в виде уравнения парной регрессии обладают следующими свойствами.

  • 1. Дисперсии обратно пропорциональны объему выборки п. Это означает, что точность вычисление значений оценок параметров модели и прогноза по ней возрастает с ростом объема выборки.
  • 2. Значения дисперсий уменьшаются с ростом значения Метод наименьших квадратов, теорема Гаусса – Маркова., которое, в данном случае, характеризует ширину интервала изменения регрессора х в выборке. Это отражает известный факт: для того чтобы точнее провести прямую на плоскости через две точки, необходимо отметить эти точки дальше одна от другой.
  • 3. Наиболее точный прогноз по линейной модели парной регрессии достигается в центре группирования регрессов. С удалением текущего значения регрессора от своего среднего значения приводит к росту дисперсии прогноза в квадратичной зависимости. Другими словами, экстраполяция линейной регрессии за пределы обследованного диапазона объясняющей переменной может привести к значительным погрешностям.

Заметим еще раз, что применение МПК к оценке параметров линейной алгебраической модели не всегда позволяет получить несмещенные и эффективные. Для получения оценок с необходимыми свойствами необходимо, чтобы случайные возмущения удовлетворяли ряду условий. Эти условия сформулированы в теореме Гаусса — Маркова.

Показать весь текст
Заполнить форму текущей работой