Главная

Категории:

ДомЗдоровьеЗоологияИнформатикаИскусствоИскусствоКомпьютерыКулинарияМаркетингМатематикаМедицинаМенеджментОбразованиеПедагогикаПитомцыПрограммированиеПроизводствоПромышленностьПсихологияРазноеРелигияСоциологияСпортСтатистикаТранспортФизикаФилософияФинансыХимияХоббиЭкологияЭкономикаЭлектроника






ПРОВЕРКА ВЫПОЛНИМОСТИ МНК. АВТОКОРРЕЛЯЦИЯ ОСТАТКОВ. СТАТИСТИКА ДАРБИНА–УОТСОНА


Все предыдущие рассуждения основаны на том, что выполняются предпосылки МНК: мы предполагали, что случайные отклонения еi являются независимыми случайными величинами со средней, равной нулю. При работе с фактическими данными, такое допущение не всегда выполняется. Например, если вид функции выбран неудачно, то отклонения от регрессии вряд ли будут независимыми. В этом случае замечается концентрация положительных или отрицательных отклонений от регрессии и можно сомневаться в их случайном характере.

Если последовательные значения еi коррелируют (зависят) между собой, то говорят, что имеет место автокорреляция остатков.

МНК в случае автокорреляции дает несмещенные и состоятельные оценки, однако полученные в этом случае доверительные интервалы имеют мало смысла в силу своей ненадежности. Значительная автокорреляция говорит о том, что спецификация модели неправильная. Проверка остатков на автокорреляцию должна выполняться обязательно. Наиболее простым приемом обнаружения автокорреляции является метод Дарбина–Уотсона (DW). Идея, которого состоит в том, что проверяются на коррелированность не любые, а только соседние величины еi. Соседними обычно считаются соседние по возрастанию объясняющей переменной Х (в случае перекрестной выборки) или по времени (в случае временных рядов) значения еi.

Статистика DW рассчитывается по формуле:

. (1.34)

При условии что М(еi) = 0, (i = 1, 2, …, n) и n – большое число можно предположить , тогда после преобразования получим:

. (1.35)

Очевидно, что 0 ≤ d ≤ 4, так как коэффициент корреляции

- d = 2, если cov(ei, ei–1) = 0 – автокорреляция отсутствует;

- d = 0 – полная положительная автокорреляция;

- d = 4 – полная отрицательная автокорреляция.

Область для принятия гипотезы об отсутствии автокорреляции.

 

Возникает вопрос, какие значения d можно считать близкими к 2? Для обнаружения границ наблюдений статистики d существуют специальные таблицы. Для заданных a-уровня значимости; n – числа наблюдений и m –числа объясняющих переменных указывается два числа: d1 – нижняя граница и d2 – верхняя граница. Не обращаясь к таблице критических точек DW можно воспользоваться правилом: если 1,5 < d < 2,5, автокорреляция отсутствует. Изобразим на рисунке числовой отрезок, используемый для проверки гипотезы об отсутствии автокорреляции.

Статистику DW для примера 1.4 находим по формуле (1.34).

 

Сумма в ячейках D39:Е39 рассчитаны с помощью встроенных функций из категории Математические.

D39: =СУММКВРАЗН(C40:C49;C39:C48)

Е39: =СУММКВ(C39:C49)

DW = 41,87394/24,2406 = 1,72743.

Если зависимость между С и Х линейная, то график остатков должен иметь случайный вид. На рисунке для графика остатков C, % (см. результаты для Примера 1.4) видим систематический рисунок, поэтому скорее всего между С и Y существует нелинейная зависимость, а значит надо изменить модель, включая в нее нелинейную зависимость.

 

МУЛЬТИКОЛЛИНЕАРНОСТЬ

Увеличение числа переменных в уравнении множественной регрессии повышает точность описания взаимосвязи, однако при этом должно выполняться условие, что Хi – объясняющие переменные, линейно независимые величины.

Под мультиколлинеарностью понимают взаимосвязь объясняющих переменных регрессии. Если между переменными Xn и Xm существует функциональная за-висимость (Xn = a×Xm), то говорят о строгой мультиколлинеарности. Чаще всего между переменными существует довольно сильная корреляционная зависимость – в этом случае мультиколлинеарность называют нестрогой.

При строгой мультиколлинеарности решение матричного уравнения 1.22 становится невозможным, так как матрица XTX вырожденная – ее определитель равен нулю.

Если же мультиколлинеарность нестрогая, то решение матричного уравнения формально можно найти, однако все оценки мало надежны.

Чтобы обнаружить мультиколлинеарность надо найти определитель матрицы XTX. Вместо этого проверяется определитель матрицы межфакторной корреляции, которую получают с помощью инструмента КОРРЕЛ.

Устранение мультиколлинеарности заключается в исключении одной из двух, находящихся во взаимосвязи переменных, либо путем пересмотра структуры уравнения регрессии. Для оценки влияния факторов на результирующий фактор Y в случае используются показатели частной корреляции (1.26). Если число переменных больше трех, то для их определения удобно пользоваться формулой:

,

где сkp коэффициенты матрицы обратной к матрице парных коэффициентов корреляции.



Последнее изменение этой страницы: 2016-06-10

headinsider.info. Все права принадлежат авторам данных материалов.