Главная

Категории:

ДомЗдоровьеЗоологияИнформатикаИскусствоИскусствоКомпьютерыКулинарияМаркетингМатематикаМедицинаМенеджментОбразованиеПедагогикаПитомцыПрограммированиеПроизводствоПромышленностьПсихологияРазноеРелигияСоциологияСпортСтатистикаТранспортФизикаФилософияФинансыХимияХоббиЭкологияЭкономикаЭлектроника






Причинность, регрессия, корреляция


 

В процессе статистического исследования зависимостей вскрываются причинно-следственные отношения между явлениями, что позволяет выявлять факторы (признаки), оказывающие основное влияние на вариацию изучаемых явлений и процессов. Причинно-следственные отношения – это такая связь явлений и процессов, когда изменение одного из них причины – ведет к изменению другого – следствия.

Социально-экономические явления представляют собой результат одновременного воздействия большого числа причин. Следовательно, при изучении этих явлений необходимо выявлять главные, основные причины, абстрагируясь от второстепенных.

В основе первого этапа статистического изучения связи лежит качественный анализ, связанный с анализом природы социального или экономического явления методами экономической теории, социологии, конкретной экономики. Второй этап – построение модели связи – базируется на методах статистики: группировках, средних величинах, таблицах и т.д. Третий, последний этап – интерпретация результатов вновь связан с качественными особенностями изучаемого явления. Статистика разработала множество методов изучения связей. Выбор метода изучения связи зависит от цели исследования и поставленной задачи.

 

Признаки по их значению для изучения взаимосвязи делятся на два класса. Признаки, обусловливающие изменения других, связанных с ними признаков, называют факторными, или просто факторами. Признаки, изменяющиеся под действием факторных признаков, называют результативными.

В статистике различают функциональную и стохастическую зависимости. Функциональной называют такую связь, при которой определенному значению факторного признака соответствует одно значение результативного.

Если причинная зависимость проявляется не в каждом отдельном случае, а в общем, среднем при большом числе наблюдений, то такая зависимость называется стохастической. Частным случаем стохастической связи является корреляционная связь, при которой изменение среднего значения результативного признака обусловлено изменением факторных признаков.

 

Связи между явлениями и их признаками классифицируются по степени тесноты, направлению и аналитическому выражению.

По степени тесноты связи различают:

Величина коэффициента корреляции Теснота связи
до S ± 0,3S практически отсутствует
S ± 0,3S - S ± 0,5S слабая
S ± 0,5S - S ± 0,7S умеренная
S ± 0,7S - S ± 1,0S сильная

 

По направлению выделяют связь прямую и обратную. Прямая - это такая связь, при которой с увеличением или уменьшением значения факторного признака происходит увеличение или уменьшение значений результативного. Так, например, рост производительности труда способствует увеличению уровня рентабельности производства. В случае обратной связи значения результативного признака изменяются под воздействием факторного, но в противоположном направлении по сравнению с изменением факторного признака. Так, с увеличением уровня фондоотдачи снижается себестоимость единицы производимой продукции.

 

По аналитическому выражению выделяют связи прямолинейные (или просто линейные) и нелинейные. Если статистическая связь между явлениями может быть приблизительно выражена уравнением прямой линии, то ее называют линейной связью вида: _

yx = a0 + a1*x .

Если связь может быть выражена уравнением какой-либо кривой линии, например параболы _

yx = a0 + a1*x + a2*x2

 

или гиперболы _ 1

yx = a0 + a1* -- ,

x

то такую связь называют нелинейной или криволинейной. Для выявления наличия связи, ее характера и направления в статистике используются следующие методы: приведения параллельных данных, аналитических группировок, графический, корреляции.

 

Корреляция - это статистическая зависимость между случайными величинами, не имеющая строго функционального характера, при которой изменение одной из случайных величин приводит к изменению математического ожидания другой.

В статистике принято различать следующие варианты зависимостей:

n парная корреляция - связь между двумя признаками (результативным и факторным, или двумя факторными);

n частная корреляция - зависимость между результативным и одним факторным признаками при фиксированном значении других факторных признаков;

n множественная корреляция - зависимость результативного и двух или более факторных признаков, включенных в исследование.

 

Корреляционный анализ дает количественное определение тесноты связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаков (при многофакторной связи).

Теснота связи количественно выражается величиной коэффициентов корреляции, которые количественно характеризуя тесноту связи между признаками, позволяют определять «полезность» факторных признаков при построении уравнения множественной регрессии.

Корреляция тесно связана с регрессией: первая оценивает силу (тесноту) статистической связи, вторая исследует ее форму.

 

Регрессионный анализ заключается в определении аналитического выражения связи, в котором изменение одной величины (называемой зависимой, или результативным признаком) обусловлено влиянием одной или нескольких независимых величин (факторов).

Одной из проблем построения уравнений регрессии является их размерность, то есть определение числа факторных признаков, включаемых в модель. Их число должно быть оптимальным.

Сокращение размерности модели за счет исключения второстепенных, несущественных факторов позволяет получить модель, быстрее и качественнее реализуемую. В то же время построение модели малой размерности может привести к тому, что она будет недостаточно полно описывать исследуемое явление или процесс.

 

 



Последнее изменение этой страницы: 2016-06-10

headinsider.info. Все права принадлежат авторам данных материалов.