Помощь в написании студенческих работ
Антистрессовый сервис

Линейная модель множественной регрессии

КонтрольнаяПомощь в написанииУзнать стоимостьмоей работы

Сравнивая частные коэффициенты корреляции с соответствующими парными коэффициентами, видим, что за счет «очищения» связи наибольшему изменению подвергся коэффициент корреляции между х1 и х2: был 0,497 — стал -0,185. Это пример ложной корреляции, так как х1 — мощность пласта не может зависеть от х2 — уровня механизации. А коэффициенты корреляции между у и х1, у и х2 после «очищения» несколько… Читать ещё >

Линейная модель множественной регрессии (реферат, курсовая, диплом, контрольная)

Контрольная работа

Линейная модель множественной регрессии

План

1. Линейная модель множественной регрессии в скалярной и векторной формах. МНК оценки коэффициентов множественной регрессии.

2. Ковариационная матрица оценок коэффициентов регрессии. Оценка дисперсии ошибок.

3. Теорема Гаусса-Маркова.

4. Коэффициент детерминации, скорректированный коэффициент детерминации.

5. Частная корреляция.

6. Проверка статистических гипотез, доверительные интервалы.

1. Линейная модель множественной регрессии в скалярной и векторной формах. МНК оценки коэффициентов множественной регрессии

Включение в уравнение множественной регрессии того или иного набора факторов связано, прежде всего, с представлением о природе взаимосвязи моделируемого показателя с другими экономическими явлениями. Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям:

1) они должны быть количественно измеримы (качественные показатели могут быть проранжированы);

2) факторы не должны быть интеркоррелированы и тем более находиться в точной функциональной зависимости.

Включаемые факторы должны объяснять вариацию зависимой переменной. Если строится модель с р факторами, то для неё можно определить R2 — коэффициент детерминации, который фиксирует долю объясненной вариации признака. Влияние других, не учтенных в модели, факторов оценивается (1-R2) с соответствующей остаточной дисперсией. При дополнительном включении в регрессию (р + 1)-го фактора коэффициент R2 должен возрастать, а остаточная дисперсия уменьшаться. Если этого не происходит, то включаемый фактор является лишним. Насыщение модели лишними факторами приводит к статистической незначимости параметров регрессии.

Как и в парной зависимости возможны разные виды уравнений множественной регрессии: линейные и нелинейные. Ввиду четкой интерпретации параметров наиболее широко используются линейная и степенная функции (степенная легко линеаризуется).

Рассмотрим линейную модель множественной регрессии:

.

По выборке объёма n оценивается уравнение регрессии

где неизвестные коэффициенты оцениваются МНК, при котором минимизируется сумма квадратов остатков, позволяя получить систему нормальных уравнений:

Решение системы может быть получено, например, по формулам Крамера:

при этом

.

Оценим коэффициенты регрессии МНК в матричной форме. Обозначим

, , ,

Значения признака Матрица объясняющих Вектор Вектор Вектор переменных, столбцами регрессора j случайных коэффициентов которой являются Xj ошибок регрессии Модель множественной регрессии примет вид

где Х — детерминированная матрица, Y и — случайные матрицы. Пусть, где — вектор модельных значений. Сумма квадратов остатков минимизируется:

.

Необходимые условия получают дифференцированием по вектору .

.

Аналогично парной регрессии, можно показать, что вектор остатков е всем независимым переменным и S = (1…1)T, а вектор — есть ортогональная проекция вектора Y на гиперплоскость, образованную S и Х. Кроме того,

.

Если перейти к стандартизованному масштабу:

, …, ,

уравнение регрессии примет вид:

где коэффициенты могут быть определены из системы уравнений

здесь и — парные коэффициенты корреляции.

Вернуться от стандартизованного масштаба к обычному можно с помощью соотношений:

.

И, наконец, параметры уравнения множественной регрессии можно определить с помощью ППП:

· ППП Excel:

а) Сервис/Анализ данных/Описательная статистика б) Сервис/Анализ данных/Корреляция в) Сервис/Анализ данных/Регрессия

· ППП Statgraphic:

а) Describe/Numeric Data/Multiple Variable Analysis/ в доп. меню поставить флажки на Summary Statistics, Correlations, Partial Correlations

б) Relate/Multiple Regression.

Пример. Известны следующие данные (условные) о сменной добыче угля на одного рабочего Y (т), мощности пласта Х1 (м) и уровне механизации работ Х2 (%), характеризующие процесс добычи угля на 7 шахтах. Предполагая, что между Y, X1, X2 существует линейная корреляционная зависимость, найти её аналитическое выражение.

Х1

Х2

Y

Решение.

Проверим однородность выборки.

Vy=

30,86 067%

Vx1=

17,26 919%

Vx2=

20,55 514%

Так как все значения меньше 35%, то выборка однородна, и её можно использовать для анализа.

Вариант решения 1.

Расчет с помощью матричных операций.

Использование матричной формы записи формул и проведения расчетов имеет несколько преимуществ и недостатков.

Преимущества заключаются в том, что запись формул приобретает очень компактный вид: вид формул, представленных в матричном виде, не зависит от количества факторов, включенных в модель, и является очень удобным при расчетах характеристик многофакторных моделей.

Недостатком использования в расчетах матричных формул является необходимость хорошего знания матричной алгебры.

Приведем перечень используемых матричных операций.

Транспонирование — Вставка функции, Категория: Ссылки и массивы, Функции: ТРАНСП.

Вычисление обратной матрицы — Вставка функции, Категория: Математические, Функции: МОБР.

Умножение матриц — Вставка функции, Категория: Математические, Функции: МУМНОЖ.

Выполнение матричных функций имеют следующие особенности:

— для результирующей матрицы нужно выделить необходимое количество ячеек;

— для распространения действий на массив:

· Выделить 1-ю ячейку с расчетами и все ячейки, на которые будет распространено действие функции;

· Нажать и отпустить клавишу «F2»;

· Последовательно нажать, не отпуская, клавиши «Ctrl», «Shift», «Enter», отпустить все три клавиши, и на экране появится содержимое всей матрицы.

Вариант решения 2.

1) Составим ,

,

и

.

Таким образом, уравнение множественной регрессии примет вид:

.

Вариант решения 3.

Вариант решения 4.

Получим уравнение регрессии в стандартизованном масштабе.

На практике часто бывает необходимо сравнение влияние на зависимую переменную различных объясняющих переменных, когда последние выражаются разными единицами измерения. В этом случае используют стандартизованные коэффициенты регрессии и средние показатели эластичности Эj:

.

Стандартизованный коэффициент регрессии показывает, на сколько величин Sy изменится в среднем зависимая переменная Y при увеличении только j-й объясняющей переменной на Sxj, а средний показатель эластичности Эj — на сколько % (от средней) изменится в среднем Y при увеличении только Хj на1%.

Пример.

Для данных предыдущего примера имеем:

1)

2) ;

.

2. Ковариационная матрица оценок коэффициентов регрессии. Оценка дисперсии ошибок

Преобразуем вектор оценок с учетом наличия случайной составляющей:

Т.е. оценки параметров, найденные по выборке, будут содержать случайные ошибки. регрессия дисперсия детерминация статистический Вариации оценок параметров будут определять точность уравнения множественной регрессии. Для их измерения в многомерном регрессионном анализе рассматривают ковариационную матрицу К, являющуюся матричным аналогом дисперсии одной переменной

.

Ковариация характеризует как степень рассеяния значений двух переменных относительно их математических ожиданий, так и взаимосвязь этих переменных. Так как является несмещенной оценкой, то

.

В матричном виде будем иметь

так как эти элементы Х — детерминированные величины.

В матрице все элементы, не лежащие на главной диагонали, равны нулю в силу некоррелируемости и между собой, а все элементы, лежащие на главной диагонали равны одной и той же дисперсии:. Поэтому и, следовательно, ковариационная матрица

.

Так как 2 неизвестна, заменив её несмещённой оценкой — выборочной дисперсией,

где (n-p-1) — число степеней свободы, получим выборочную оценку ковариационной матрицы. Стандартные ошибки коэффициентов регрессии определяются:

1способ:, , …, где qii — диагональные элементы матрицы (ХТХ)-1.

6,613 734

— 0,46 567

— 0,31 974

XtX-1=

— 0,46 567

0,85 837

— 0,4 936

— 0,31 974

— 0,4 936

0,11 588

y^

y-y^

5,133 047

— 0,13 305

S2=

0,454 936

9,317 597

0,682 403

S=

0,674 489

10,54 077

— 0,54 077

Sa=

1,734 596

6,356 223

0,643 777

5,476 395

— 0,47 639

Sb1=

0,197 611

5,648 069

0,351 931

6,527 897

— 0,5279

Sb2=

0,229 604

СУММКВ

1,819 742

2 способ:, где R2 — множественный коэффициент детерминации, R2xix1…xp — коэффициент детерминации для зависимости xi от остальных факторов.

3. Теорема Гаусса-Маркова

Предположим, что:

1. ;

2. Х — детерминированная матрица, имеющая максимальный ранг k;

3.; .

Тогда оценка МНК является наиболее эффективной (в смысле наименьшей дисперсии) оценкой в классе линейных несмещенных оценок.

Доказательство:

Обозначим,. Любую другую оценку можно представить в виде, где С — некоторая матрица.

Докажем несмещенность оценок.

.

Так как оценка должна быть несмещенной, то

.

Используя СХ = 0, получим

(так как AX = E и СХ = 0).

Вычислим ковариационную матрицу вектора b.

.

Таким образом, или .

Теорема доказана.

4. Коэффициент детерминации, скорректированный коэффициент детерминации

Для оценки взаимосвязи между зависимой переменной и совокупностью объясняющих переменных используют множественный (совокупный) коэффициент (индекс) корреляции R или коэффициент детерминации R2. Как и раньше коэффициент детерминации R2 равен отношению и характеризует долю вариации зависимой переменной, объясненную уравнением регрессии,. Для расчета можно использовать более удобную формулу:

или или ,

где — определитель матрицы парных коэффициентов корреляции, q11 — алгебраическое дополнение элемента r11.

Множественный коэффициент детерминации можно рассматривать как меру качества уравнения регрессии, характеристику прогностической силы регрессионной модели. Чем ближе R2 к 1, тем лучше регрессия описывает зависимость между объясняющими и зависимой переменными.

Недостаток R2 состоит в том, что его значение не убывает с ростом числа объясняющих переменных. Это происходит потому, что:

1) оптимизация при определении оценок происходит по критерию, отличному от R2;

2) R2 возрастает при добавлении ещё одного регрессора и всегда можно добиться R2 = 1, что не будет иметь экономического смысла.

В этом смысле предпочтительней скорректированный коэффициент детерминации

который может уменьшаться при введении в регрессионную модель переменных, не оказывающих существенного влияния на зависимую переменную. Можно заметить, что только при R2 = 1. может принимать отрицательные значения (например, при R2 = 0). Для расчета можно использовать формулу:

.

Пример. Вычислим коэффициент детерминации и скорректированный коэффициент детерминации

=; R = 0,967.

5. Частная корреляция

В случае парной регрессии естественной мерой зависимости (линейной) является выборочный коэффициент корреляции между переменными. Использование многомерной регрессии позволяет обобщить это понятие на случай, когда имеется несколько независимых переменных. Корректировка здесь необходима по следующим соображениям: высокое значение коэффициента корреляции между исследуемой зависимой и какой-либо независимой переменной может означать высокую степень зависимости, но может быть обусловлено и другой причиной. Имеется третья переменная, которая оказывает сильное влияние на две первые, что и является причиной высокой корреляции.

Поэтому возникает естественная задача найти «чистую» корреляцию между двумя переменными, исключив (линейное) влияние других факторов. Это можно сделать с помощью коэффициента частной корреляции.

Показатели частной корреляции представляют собой отношение сокращения остаточной дисперсии за счет дополнительного включения в анализ нового фактора к остаточной дисперсии, имевшей место до введения его в модель.

Пусть , — соответствующие остаточные дисперсии регрессий Y на X1 и Y на X1, X2. Влияние фактора X2 на результат можно определить коэффициентом частной корреляции

.

Можно получить другую формулу коэффициента частной корреляции:

Или, .

Рассмотренные показатели частной корреляции называют коэффициентами частной корреляции 1-го порядка, так как они фиксируют тесноту связи двух переменных при закреплении (элиминировании) влияния одного фактора. Порядок частного коэффициента корреляции определяется количеством факторов, влияние которых исключается. Коэффициенты парной корреляции называют коэффициентами нулевого порядка. Если рассматривается регрессия с числом факторов р, то возможны частные коэффициенты корреляции 1-го, 2-го, …, (р-1)-го порядков, т. е. влияние, например, х1 можно оценить при разных условиях независимости действия других факторов:, ,. Сопоставление коэффициентов частной корреляции разного порядка по мере увеличения числа включаемых факторов показывает процесс «очищения» зависимости результативного признака с исследуемым фактором.

Выборочным частным коэффициентом корреляции между переменными xi и xj при фиксированных значениях остальных (р-2) переменных называют выражение

где — алгебраические дополнения элементов матрицы выборочных коэффициентов корреляции. Коэффициенты частной корреляции более высоких порядков можно определить через коэффициенты частной корреляции более низких порядков по рекуррентной формуле:

.

В частности, при трех факторах возможно вычисление трех коэффициентов частной корреляции 2-го порядка:, ,, например,

.

Например. Составим матрицу Q парных коэффициентов корреляции, частные коэффициенты корреляции.

;; ;

; det (Q)=0,4 823; q11 = 1−0,4972 = 0,75 299;

R = .

;; .

Сравнивая частные коэффициенты корреляции с соответствующими парными коэффициентами, видим, что за счет «очищения» связи наибольшему изменению подвергся коэффициент корреляции между х1 и х2: был 0,497 — стал -0,185. Это пример ложной корреляции, так как х1 — мощность пласта не может зависеть от х2 — уровня механизации. А коэффициенты корреляции между у и х1, у и х2 после «очищения» несколько снизились от 0,963 до 0,952 и от 0,599 до 0,344, что по-видимому, соответствует действительности.

Зная частные коэффициенты корреляции, можно определить совокупный коэффициент корреляции по формуле:

.

6. Проверка статистических гипотез, доверительные интервалы

Проверка значимости коэффициентов регрессии.

Как и в случае парной регрессии можно показать, что вектор оценок имеет нормальное распределение со средним и матрицей ковариаций

т. е.

.

Таким образом, случайные величины

и

имеют распределение Стьюдента с (n-р-1) степенями свободы. В общем случае проверяются гипотезы: Н0: а = а0 или о значимости Н0: а = 0

Н0: b = b0 Н0: b = 0

Проверка состоит в следующем:

— если, то нет оснований отвергать Н0 (р— число факторов);

— если, то Н0 отвергают.

Соответствующие доверительные интервалы для оценок коэффициентов регрессии (): () и ().

Пример.

k = n - p — 1 = 7−2-1 = 4, tkp(0,05;4) = 2,78.

1) H0:, Н0 отвергается и

значим при 5 — % -ом уровне значимости.

Доверительный интервал: (0,698; 1,748).

2) H0:, Н0 принимается и не значим.

Доверительные интервалы.

Наряду с интервальным оцениванием коэффициентов регрессии весьма важным для оценки точности определения зависимой переменной является построение доверительного интервала для функции регрессии или условного математического ожидания зависимой переменной Мх(y). Обобщая соответствующие выражения на случай множественной регрессии, можно получить доверительный интервал:

 — стандартная ошибка, .

Доверительный интервал для индивидуальных значений зависимой переменной yi примет вид:

.

Доверительный интервал для параметра во множественной регрессии строится аналогично парной модели:

.

Пример. Известно: S2 = 0,4175; S = 0,64 614;

; .

По данным примера оценить сменную добычу угля на одного рабочего для шахт с мощностью пласта 10 м и уровнем механизации 6,5%. Найти 95% -й доверительный интервал для индивидуального и среднего значений и интервальную оценку дисперсии при .

1) (т).

2), ,

=.

.

3); .

.

4); ;; ;

;

;

; .

Оценка надежности результатов множественной регрессии и корреляции.

Для определения статистической значимости R2 проверяется гипотеза Н0: R2 = 0 с помощью статистики F = .

Если F < Fкр(), то Н0 нет оснований отвергать или R2 статистически не значим, не значимо и уравнение в целом. В противном случае — уравнение и R2 значимы.

Пример.

.

Fkp (0,05;2;4) = 6,94.

Т.к. F > Fkp, то уравнение значимо.

Оценивается не только значимость уравнения в целом, но и значимость фактора, дополнительно включенного в модель. Мерой оценки включения фактора в модель служит частный Fкритерий, Fxi.

Если оценивается значимость влияния фактора хр после включения в модель факторов х1, х2,…, хр-1, то формула частного Fкритерия примет вид:

.

В общем виде для xi

.

С помощью частного Fкритерия можно проверить значимость всех коэффициентов регрессии в предположении, что каждый соответствующий фактор вводится в уравнение последним. Зная Fxi можно определить t-критерий:. Взаимосвязь частного коэффициента корреляции, частного F-критерия и t-критерия для коэффициентов чистой регрессии можно использовать в процедуре отбора факторов (на каждом шаге исключается фактор с наименьшим незначимым значением Fxi или tbi).

1. Замков О. О., Толстопятенко А. В., Черемных Ю. Н. Математические методы в экономике. М.: МГУ Изд-во «ДИС», 2007.

2. Кулинич Е. И. Эконометрия. М.: Финансы и статистика, 2001.

3. Мацкевич И. П., Свирид Г. П. Высшая математика: Теория вероятностей и математическая статистика. Мн.: Вышэйшая школа, 1993.

4. Булдык Г. М. Сборник задач и упражнений по высшей математике: Теория вероятностей и математическая статистика. Мн.: Вышэйшая школа, 1996.

5. Сошникова Л. А., Тамашевич В. Н., Уебе Г., Шефер М. Многомерный статистический анализ в экономике М.: ЮНИТИ — ДАНА, 1999.

Показать весь текст
Заполнить форму текущей работой