Показатель множественной корреляции характеризует тесноту рассматриваемого набора факторов с исследуемым признаком, или, иначе, оценивает тесноту совместного влияния факторов на результат.

Независимо от формы связи показатель множественной корреляции может быть найден как индекс множественной корреляции:

где s 2 y – общая дисперсия результативного признака;

s ост 2 – остаточная дисперсия для уравнения у = ¦(х 1, х 2 ,….,x p).

Методика построения индекса множественной корреляции аналогична построению индекса корреляции для парной зависимости. Границы его изменения те же: от 0 до 1. Чем ближе его значение к 1, тем теснее связь результативного признака со всем набором исследуемых факторов. Величина индекса множественной корреляции должна быть больше или равна максимальному парному индексу корреляции:

При правильном включении факторов в регрессионной анализ величина индекса множественной корреляции будет существенно отличаться от индекса корреляции парной зависимости. Если же дополнительно включенные в уравнение множественной регрессии факторы третьестепенны, то индекс множественной корреляции может практически совпадать с индексом парной корреляции.

При линейной зависимости признаков формула индекса корреляции может быть представлена следующим выражением:

(3.8)

где - стандартизованные коэффициенты регрессии;

Парные коэффициенты корреляции результата с каждым фактором.

Индекс корреляции - нормированный показатель тесноты связи. Коэффициент индекса корреляции показывает долю общей вариации зависимой переменной, обусловленной регрессией или изменчивостью объясняющей переменной.Чем ближе индекс корреляции к 1 , тем теснее связь рассматриваемых признаков, тем более надежно найденное уравнение регрессии.

Общая дисперсия результативного признака y,

Остаточная дисперсия, определяемая по уравнению нелинейной регрессии.

Тест Бокса – Кокса. При сравнении моделей с использованием в качестве зависимой переменной y и ln y проводится такое преобразование масштаба наблюдений y, при котором можно непосредственно сравнивать СКО в линейной и логарифмической моделях. Выполняются следующие шаги:

Вычисляется среднее геометрическое значений y в выборке. Оно совпадает с экспонентой среднего арифметического логарифмов y.

Все значения y пересчитываются делением на среднее геометрическое, получаем значения y*.



Оцениваются две регрессии:

Для линейной модели с использованием y* в качестве зависимой переменной;

Для логарифмической модели с использованием ln y * вместо ln y .

Во всех других отношениях модели должны оставаться неизменными. Теперь значения СКО для двух регрессий сравнимы, и модель с меньшей остаточной СКО обеспечивает лучшее соответствие исходным данным.

Для проверки, обеспечивает ли одна из моделей значимо лучшее соответствие, можно вычислить величину (n/2)lnz,

где z – отношение значений остаточной СКО в перечисленных регрессиях.

Эта статистика имеет распределение хи – квадрат с одной степенью свободы. Если она превышает критическое значение при выбранном уровне значимости α, то делается вывод о наличии значимой разницы в качестве оценивания. Величина коэффициента эластичности показывает, на сколько процентов изменится результативный признак Y, если факторный признак изменится на 1 %

1. Парная корреляция 1

2. Множественная корреляция 26

1. Парная корреляция

При парной корреляции устанавливают зависимость меж­ду двумя признаками, один из которых является факторным, другой  результатив­ным. Связь между ними может иметь различный характер. Поэтому важно правильно установить форму связи между признаками и в соответствии с этим по­добрать математическое уравнение, выражающее эту связь.

Вопрос о форме связи можно решить несколькими спосо­бами: на основе логического анализа, по данным статистичес­кой группировки или графическим способом. При парной корреляции предпочтителен последний способ, так как он позволяет выявить не только характер связи, но дает пред­ставление о степени связи.

После того, как определен вид уравнения связи, необхо­димо найти числовые значения его параметров. При вычисле­нии параметров применяют различные методы: метод наи­меньших квадратов, метод средних, метод наименьшего пре­дельного уклонения и др. Наиболее распространенным явля­ется метод наименьших квадратов. При его использовании находят такие значения параметров уравнения регрессии, при которых сумма квадратов отклонений фактических данных от расчетных является минимальной:

где y – фактическое значение результативного признака;

расчетное значение результативного признака.

Для этого решают систему нормальных уравнений, кото­рые строятся следующим образом. Исходное уравнение пере­множают сначала на коэффициент при первом неизвестном и полученные данные суммируют. Затем исходное уравнение перемножают на коэффициент при втором неизвестном, полу­ченные данные также суммируют и т. д.

Рассмотрим, как получается система нормальных уравне­ний для уравнения линейной регрессии
.

В данном уравнении коэффициент при первом неизвестном а 0 равен 1. Следовательно, исходное уравнение после перемножения сохраняет прежний вид:

,

а после суммирования

.

Коэффициент при втором неизвестном a 1 равен x . Умно­жая на него все члены исходного уравнения, получим:

,

а после суммирования

.

Значения
,
,
и
рассчитывают по данным на­блюдения, а неизвестные параметрыa 0 и a 1 путем решения системы уравнений:

Правила получения системы нормальных уравнений распространяются на все виды уравнений регрессии. После того, как определены параметры уравнения регрес­сии, необходимо его оценить, то есть проверить, насколько оно соответствует изучаемой совокупности и как тесно связан результативный признак с фактором, обусловливающим его уровень. Для этого сравнивают вариацию значений результа­тивного признака, рассчитанных по уравнению регрессии, то есть зависящих от факторного признака, с вариацией факти­ческих (исходных) значений результативного признака. Чем ближе первая вариация будет ко второй, тем в большей сте­пени уравнение регрессии отражает связь между признаками, тем теснее они связаны.

Показатель, характеризующий отношение вариаций рас­четных и исходных значений результативного признака, на­зывают индексом корреляции. Его рассчитывают по формуле:

,

где I – индекс корреляции;

общая дисперсия результативного признака (средний квадрат отклонений фактических значений у от средней );

факторная дисперсия результативного признака, рассчитанного по уравнению регрессии (средний квадрат отклонений расчетных значений от средней);

n – численность совокупности.

Индекс корреляции изменяется в пределах от 0 до 1. Он показывает, что чем ближе его значение к 1, тем сильнее связь между признаками, и тем лучше уравнение регрессии описывает взаимосвязь между признаками. При индексе кор­реляции равном 1 взаимосвязь между признаками является функциональной. Если же индекс корреляции равен 0, то связь между признаками отсутствует.

Поскольку факторная дисперсия показывает вариацию результативного признака, зависящую от факторного призна­ка, то можно рассчитать остаточную дисперсию, показываю­щую вариацию других неучтенных факторов. Она равна раз­нице между общей и факторной дисперсиями:

где  остаточная дисперсия.

Остаточная дисперсия показывает вариацию фактических значений результативного признака относительно расчетных значений, то есть колеблемость фактических значений относи­тельно линии регрессии. Чем меньше будет эта колеблемость, тем в большей степени уравнение регрессии отражает связь между признаками.

Формула индекса корреляции, рассчитанного на основе ос­таточной и общей дисперсий, имеет вид:

.

Для линейной регрессии индекс корреляции называют коэффициентом корреляции. Формула его при парной корре­ляции после преобразования имеет вид:

,

где r – коэффициент корреляции;


средние значения факторного и результативного признаков;

среднее значение произведений факторного и результативного признаков;


средние квадратические отклонения факторного и результативного признаков.

В отличие от индекса корреляции коэффициент корреля­ции показывает не только тесноту связи, но и ее направление, поскольку меняется в пределах от −1 до +1. Если коэффи­циент корреляции положительный, то связь между призна­ками прямая (прямо пропорциональная), если отрицательный, то связь обратная (обратно пропорциональная).

Квадраты индекса корреляции и коэффициента корреля­ции называют соответственно индексом детерминации (I 2) и коэффициентом детерминации (r 2). Индекс детерминации и коэффициент детерминации показывают, какая доля общей вариации результативного признака определяется изучаемым фактором.

Так как надежность изучения связей в значительной сте­пени зависит от количества сопоставляемых данных, необхо­димо измерять существенность полученного уравнения регрес­сии и индекса (коэффициента) корреляции. Показатели кор­реляции, исчисленные для ограниченной по объему совокуп­ности, могут быть искажены действием случайных факторов.

Существенность индекса (коэффициента) корреляции, а, следовательно, всего уравнения регрессии, может быть оцене­на с помощью дисперсионного анализа (F -критерия Фишера). При этом сравнивают факторную и остаточную дисперсии с учетом числа степеней свободы вариации. F -критерий в данном случае рассчиты­вают по формуле:

,

где
 выборочная факторная дисперсия;

выборочная остаточная дисперсия;

n – численность выборочной совокупности;

k – число параметров в уравнении регрессии.

Значение F -критерия можно получить также, используя значения индекса или коэффициента корреляции:

;
.

Полученное значение F-критерия сравнивают с табличным значением. При этом для факторной дисперсии число степеней свободы вариации составляет
, а для остаточной дисперсии
Если фактическое значе­ниеF -критерия больше табличного, следовательно, связь между признаками достоверна и уравнение регрессии в пол­ной мере отражает эту связь. Если фактическое значение F -критерия меньше табличного, то можно сделать вывод, что связь между признаками носит случайный характер.

Для оценки значимости индекса (коэффициента) корреля­ции и уравнения регрессии также используют t -критерий Стьюдента, который для больших выборок рассчитывают по формулам:


Для малых выборок формулы имеют вид:


Также, как при дисперсионном анализе, фактическое зна­чение t -критерия сравнивают с табличным с учетом числа степеней свободы вариации = n k . Если фактическое значение t -критерия больше табличного, то связь достоверна, если меньше, то связь несущественна.

Рассмотрим методику корреляционного анализа для пар­ной корреляции.

Пример 1 . По выборочным данным получены сведения о среднегодовом удое коров и расходе кормов на голову (табл. 7.1).

Коэфф. (индекс) множественной корреляции

R = –

Свойства R:

R ху = R ух.

1 . До 0,3 связь слабая 2 . 0,3-0,5 связь умеренная

3 . 0,5-0,7 связь заметная 4. 0,7-0,9 связь высокая

5

R 2 скорр =

R 2 скорр всегда больше, чем R 2 факт.


22. Показатели частной корреляции

Корень из R 2 = R = корень из (SS R / SS T)= корень из (1 - SS E / SS T);

R = – чем ближе к 1, тем теснее связь (а в парной = [-1; 1]).

Свойства R:

R - стандартизованный коэффициент регрессии;

Если связи между х и у нет, то R = 0; НО если R = 0, то нет только линейной связи;

R ху = R ух.

Шкала значения коэфф. корреляции:

1 . До 0,3 связь слабая 2 . 0,3-0,5 связь умеренная

3 . 0,5-0,7 связь заметная 4. 0,7-0,9 связь высокая

5 . 0,9-1,0 связь весьма высокая, близкая к функциональной.

Скорректированный (нормированный) коэфф. детерминации R 2 скорр:

По R 2 можно сравнивать модели, НО необходимо пересчитать его на число степеней свободы, т.к. модели м. иметь разный набор факторов и разные числовые наблюдения.

R 2 скорр = 1 – (SS E: (n-m-1) / SS T: (n-1)) = 1 – (1- R 2) * ((n-1) / (n-m-1))

R 2 скорр всегда больше, чем R 2 факт.

Показатели частной корреляции о снованы на соотношении сокращения остаточной вариации за счет дополнительно включенного в модель фактора к остаточной вариации до включения в модель соответствующего фактора.

Частные коэфф. корреляции (рекуррентные формулы - выражающие каждый член последовательности через предыдущих членов):

r yx 2. x 1 = корень из ((SS E yx 1 – SS E yx 1 x 2) / SS E yx 1) = к. из ((1 – SS E yx 1 x 2) / SS E yx 1), х 2 зафиксирован;

r yx 1. x 2 = корень из ((SS E yx 2 – SS E yx 1 x 2) / SS E yx 2) = к. из ((1 – SS E yx 1 x 2) / SS E yx 2), х 1 зафиксирован.

!!! Матрица частных коэфф. корреляции м.б. использована для отбора факторов в модель.


23. Оценка значимости уравнения множественной регрессии и его параметров

Значение коэфф. детерминации R 2 может отражать истинную зависимость, а может – стечение обстоятельств, т.к. при построении уравнения используются выборочные данные. Поэтому необходимо определить, насколько выборочные показатели (оценки) достоверны, значимы. Для этого используют вероятностные оценки стат. гипотез.



Статистическая гипотеза (Н) - предположение о свойстве генеральной совокупности, которое можно проверить, опираясь на данные выборки.

Этапы проверки статистических гипотез :

1. формулируется задача исследования в виде стат. гипотезы;

2 . выбирается статистическая характеристика гипотезы;

3. выдвигаются испытуемая и альтернативная Н 0 и Н 1 ;

4. определяется ОДЗ, критическая область и критическое значение статистического критерия;

5. вычисляется фактическое значение статистического критерия;

6. испытуемая Н 1 проверяется на основе сравнения значений фактического и критического критерия, и в зависимости от результатов проверки Н 1 либо отклоняется, либо принимается.

Критическая область – область, попадание значения статистического критерия в которую приводит к отклонению Н 0 . Вероятность попадания значения критерия в эту область равна уровню значимости (1 минус доверительная вероятность).

ОДЗ - область, попадание значения статистического критерия в которую приводит к принятию Н 0 .

I. Статистическая оценка достоверности регрессионной модели:

А. 1 . выдвигается H 0: r 2 в генеральной совокупности = 0;

2. выдвигается H 1: r 2 в генеральной совокупности не = 0;

3. определяется ОДЗ или уровень значимости;

4. рассчитывается критерий Фишера F (n – число единиц совокупности, m – число факторов):

F = MS R / MS E = (Σ(y с крыш – y ср) 2 / m) / (Σ(y– y с крыш) 2 / (n-m-1))

F = R 2 /(1-R 2) * (n-m-1)/m = R 2 / (1-R 2) * (n-2) ;

5 . определяется табличное значение критерия Фишера F табл;

6 . фактическое значение сравнивается с табличным.

а. Если F>Fтабл.

б. Если F

Вывод:

Число степеней свободы (df) - число свободно варьируемых переменных.

df T = df R + df E ; n-1 = m + (n – m – 1).

При расчете фактической суммы квадратных отклонений ((у – у с крыш) 2 = SS R) используются теоретические значения результативного признака (у с крыш), определенного по линии регрессии (у с крыш = a + bx). Т.к. объясненная (факторная) сумма квадратов зависит только от n констант, то данная модель имеет n степеней свободы.

Если разделить сумму квадратов на число степеней свободы, можно получить дисперсии на 1-у степень свободы (MS):

MS R = SS R /df R = Σ(y с крыш – y ср) 2 / m

MS Е = SS Е /df Е = Σ(y– y с крыш) 2 / (n-m-1)

Все показатели м. оформить в виде таблицы дисперсионного анализа ANOVA.

Источник вариации: df SS MS F
- регрессия m SS R MS R F
- остаток n-m-1 SS E MS E
- итого n-1 SS T

df – кол-во степеней свободы; MS =SS/df SS F = MS R /MS E – критерий Фишера.

Б. Есть частные F-критерии

F табл = 10.

Вывод:

df – кол-во степеней свободы; MS =SS/df – дисперсия на 1 степень свободы; SS x 2 = SS T * r 2 yx 2 - сумма квадратов отклонений (общ., факт., остат.); F = MS R /MS E – критерий Фишера. F = t 2 .

II. Оценка значимости коэффициентов регрессии:

1. Выдвигается Н 0: коэффициент регрессии b в генеральной совокупности равен 0;

2. Выдвигается Н 1: коэффициент регрессии b в генеральной совокупности не равен 0;

3. Определяется уровень значимости α;

4. Определяется критическое значение критерия Стьюдента (S eb – станд. ошибка b; b – коэфф. регрессии,абс. показатель силы связи(в лин. ур-ии), мера зависимости у от х):

t = b/S eb

S eb 1 = δ у / δ х1 * корень из ((1 - R 2 yx 1 x 2) / (1- r 2 x 1 x 2 * (n-m-1))

S eb 2 = δ у / δ х2 * корень из ((1 - R 2 yx 1 x 2) / (1- r 2 x 1 x 2 * (n-m-1))

а. t > t табл. , то Н 0 отклоняется, то есть параметр b не случайно отличается от нуля, сформировался под влиянием систематически действующего фактора.

б. t < t табл. , то Н 0 не отклоняется, и признается случайная природа формирования b.

Можно проверить достоверность а (свободный член уравнения регрессии; экономически не интерпретируется):

S e а = корень из (MS E / Σ(x-x ср) 2) = корень из (Σ(у-у с крыш) 2 /(n-2)) * Σx 2 /n* Σ(х- x ср) 2

III. Оценка качества (достоверности) модели

Ошибка аппроксимации (А) ошибка или остаток.

А = (Σ |(у-у с крыш) / у| * 100%) / n

Расчет м. оформить в таблице:

y x у с крыш у-у с крыш |(у-у с крыш) / у| * 100%
10,57 21,48 -10,91 103,22
17,50 22,29 -4,79 27,37
Итого: - - - - 197,15

Если n = 8, то А = 197,15 / 8 = 24,64 %

Если А<10% - норма.


24. Частные критерии Фишера в оценке результатов множественной регрессии

Есть частные F-критерии , с помощью которых м. оценить дополнительное включение фактора в модель. Необходимость такой оценки связана с тем, что не каждый фактор в модели существенно увеличивает фактическую вариацию – поэтому нужно ли включать этот фактор в модель?

Важно, что из-за различной связи между факторов, значимость одного и того же доп. фактора различна в зависимости от порядка его включения в модель.

Частные F-критерии строятся на сравнении прироста факторов на 1 степень свободы за счет доп. включения в модель фактора к остаточной вариации до модели.

F x1 = ((R 2 yx1x2 – r 2 yx2) / (1-R 2 yx1x2)) * (n-m-1) = 0,96

F x2 = ((R 2 yx1x2 – r 2 yx1) / (1-R 2 yx1x2)) * (n-m-1) = 1,9

F табл = 10.

Вывод: С вероятностью α м. утверждать, что включение фактора х 1 после х 2 не целесообразно, и включение х 2 после х 1 нецелесообразно – нельзя построить двухфакторную модель.

Все показатели м. оформить в виде частной таблицы дисперсионного анализа ANOVA.

df – кол-во степеней свободы; MS =SS/df – дисперсия на 1 степень свободы; SS x 2 = SS T * r 2 yx 2 - сумма квадратов отклонений (общ., факт., остат.); F = MS R /MS E – критерий Фишера. F = t 2 .

а. Если F>Fтабл. , то гипотеза о случайной природе оцениваемых характеристик отклоняется и признается статистическая значимость и надежность.

б. Если F, то гипотеза о случ… не отклоняется и признается статистическая незначимость, ненадежность уравнения регрессии.

Вывод: с вероятностью α м. утверждать, что коэфф. детерминацииR 2 в генеральной совокупности не значим; модель недостоверна.


25. Использование фиктивных переменных в моделях множественной регрессии

Фиктивная (структурная) переменная переменная, принимающая значение 1 или 0.

Используется при решении следующих задач:

1. при моделировании качественных признаков;

2. для учета структурной неоднородности, к которой приводят качественные признаки;

3. для оценки сезонных колебаний.

Фиктивные (структурны) переменные это сконструированные искусственно переменные, например, пронумерованные атрибутивные признаки (пол, образование, регион).

Рассмотрим пример:

Дано: Z=0, если камина в доме нет; Z=1, если камин в доме есть.

Рассчитаем показатели тесноты (R 2) и силы (b, Э) связи.

Оценим значимость (достоверность) параметров модели (t) и самой модели (F, F частн).

Общий вид уравнения: Y = 50 + 16X + 3Z .

Вывод: Для домов, не имеющих камина: Y = 50 + 16X (поскольку Z =0); для домов, имеющих камин: Y = 5 + 3 + 16X = 53 + 16Х (поскольку Z =1).

Вывод:

1. Увеличение жилой площади на 1000 кв.футов приводит к увеличению предсказанной средней оценочной стоимости на 16 тыс.долл. (это b) при условии, что фиктивная переменная (наличие камина) имеет постоянное значение.

2. Если жилая площадь постоянна, наличие камина увеличивает среднюю оценочную стоимость дома на 3 тыс.долл. (это коэфф. перед Z = c).

!!! Фиктивные переменные м. вводится и в нелинейные модели . При этом они вводятся линейно.

Рассмотрим пример:

ln y = ln a + b 1 ln x 1 + b 2 z; ln y = 4 +0,3 ln x + 0,05z

y c крыш = e 4 x 0,3 e 0,05z e 4 = 65 e 0,05z = 1,05

y = a + b 1 z 1 +b 2 z 2

Параметр a - среднее значение результативного признака при z 1 , z 2 = 0.

Параметр b1 и b2 характеризует разность средних уравнений результативного признака для группы 1 и базовой группы 0.

Параметр b2 характеризует разность средних уравнений результативного признака для группы 2 и базовой группы 0.

Вывод:

1. 0,3 – коэфф. Э: при увеличении площади на 1 %, стоимость увеличивается на 0,3 %.

2. e 0,05 z - оценка стоимости домов с камином в 1,05 раз дороже (на 5 %), чем без него.


26. Предпосылки метода наименьших квадратов

МНК применяется при оценке уравнения регрессии. Делаются предпосылки относительно случайной составляющей ε (ненаблюдаемой величиной): y = a + b 1 х 1 +b 2 х 2 + … + ε.

Основные предпосылки МНК:

1. случайный характер остатков (если на поле корреляции нет направленности в расположении точек ε);

2 . нулевая средняя остатков, не зависящая от фактора x: Σ(у - у х с крыш) = 0 или нелин. модель - Σ(ln у - ln у х с крыш) = 0 и также на поле корреляции … ;

3 . гомоскедастичность (дисперсия каждого

отклонения одинакова для всех значений x );

4 . отсутствие автокорреляции остатков

(распределение остатков независимо друг от друга);

5 . остатки должны подчиняться нормальному распределению.

Если все 5 предпосылок выполнены, то оценки, полученные МНК и методом максимального правдоподобия, совпадают. Если не все – нужно скорректировать модель.
27. Гетероскедастичность - понятие, проявление и меры устранения

Проблемы, возникающие при построении регрессионных моделей:

1. Гетероскедастичность.

2. Мультиколлинеарность.

Гетероскедастичность (неоднородность) - означает ситуацию, когда дисперсия ошибки в уравнении регрессии изменяется от наблюдения к наблюдению. В этом случае приходится подвергать определенной модификации МНК (иначе возможны ошибочные выводы).

Симптомы Г.:

1 . низкий коэффициент детерминации r 2 ;

2 . это м. привести к смещенности оценки.

Меры по устранению гетероскедастичности:

1 . Увеличение числа наблюдений.

2 . Изменение функциональной формы модели.

3. Разделение исходной совокупности на качественно-однородные группы и проведение анализа в каждой группе.

4 . Использование фиктивных переменных, учитывающих неоднородность.

5 . Исключение из совокупности единиц, дающих неоднородность.

Зависимость остатков от выровненного значения результата:

а. дисперсия остатков увеличивается с

увеличением выровненного значения

результата (один из случаев Г.).

б. нет зависимости (гомоскедастичность). а) б)

Тесты, используемые для выявления Г.:

1. Гольдфельда-Квандта

3. Глейзера

5. Ранговой корреляции Спирмена


28. Оценка гетероскедастичности с помощью метода Гольдфельда и Квандта

Гетероскедастичность (неоднородность) - проблема, возникающая при построении регрессионных моделей; означает ситуацию, когда дисперсия ошибки в уравнении регрессии изменяется от наблюдения к наблюдению. В этом случае приходится подвергать определенной модификации МНК (иначе возможны ошибочные выводы).

Г. проявляется, если совокупность неоднородна (изучаются разносторонние области).

Этот метод используется при малом объеме выборки. Рассмотрели однофакторную модель, для кот. дисперсия остатков возрастает пропорционально квадрату фактора. Чтобы оценить нарушение Г., предложили параметрический тест.

1. Все наблюдения упорядочивают по мере возрастания какого-либо фактора, который, как предполагается, оказывает влияние на возрастание дисперсии остатков.

2. Упорядоченную совокупность делят на три группы, причем первая и последняя должны быть равного объема с числом единиц, больших, чем число параметров модели регрессии. Число отобранных единиц обозначим k

При парных нелинейных зависимостях для определения тесноты связи между результативным и факторным признаками и оценки степени влияния факторного признака на результативный используются индексы корреляции и детерминации.

ЗАДАНИЕ 1 : Исследуем зависимость между X (среднегодовой стоимостью основных производственных фондов, млрд. руб.) и Y (ССЧ работающих, чел.) (табл. 2).

Таблица 2

Таблица 3

Таблица 4

Так как при параболическом виде связи j= 1,23, то мы не будем рассматривать этот вид связи (j должно быть меньше или равно 1).

Таблица 5

X Вид уравнения
Теоретические данные Эмпирические данные
линейное параболическое гиперболическое
340,32 - 311,82
2,7 354,29 - 359,31
356,76 - 362,11
3,1 357,58 - 362,92
3,1 357,58 - 362,92
3,1 357,58 - 362,92
3,3 359,23 - 364,39
3,5 360,87 - 365,70
3,5 360,87 - 365,70
364,98 - 368,39
4,5 369,09 - 370,49
4,7 370,73 - 371,20
4,9 372,38 - 371,86
5,6 378,13 - 373,78
389,64 - 376,47

1. Исходя из данных таблицы (Таблица 1) к эмпирическим данным близко лежит график гиперболической зависимости, потому что корреляционное отношение при этом равно 0,14 > 0,11 корреляционное отношение при линейной зависимости, а значит его значение близко к 1.

2. О более тесной говорит коэффициент корреляции, r = 0,14

3. Коэффициент детерминации показывает долю влияния фактора, D=0,02.

4. График свидетельствует о выше приведенных выводах: Если результативный признак с увеличением факторного признака возрастает не бесконечно, а стремится к конечному пределу, то для анализа такого признака применяется уравнение гиперболы.

5. Таким образом, применяется гиперболический тип зависимости.

ЗАДАНИЕ 2 : Исследуем зависимость между X (среднегодовой стоимостью основных производственных фондов, млрд. руб.) и Y (Товарной продукцией, млрд. руб.) (табл. 6).

Таблица 6

Среднегодовая стоимость основных производственных фондов, млрд. руб. Товарная продукция, млрд. руб.
1,6
2,7 2,3
1,4
3,1 2,5
3,1
3,1 3,6
3,3 1,3
3,5 2,5
3,5 7,9
2,8
4,5 5,6
4,7 3,5
4,9 4,4
5,6
12,9

Таблица 7

Таблица 8

Так как при параболическом виде связи j= 1,81, то мы не будем рассматривать этот вид связи (j должно быть меньше или равно 1).

Таблица 9

X Вид уравнения
Теоретические данные Эмпирические данные
линейное параболическое гиперболическое
-0,83 - -0,66 1,6
2,7 2,25 - 14,87 2,3
2,79 - 17,09 1,4
3,1 2,97 - 17,81 2,5
3,1 2,97 - 17,81
3,1 2,97 - 17,81 3,6
3,3 3,33 - 19,25 1,3
3,5 3,70 - 20,67 2,5
3,5 3,70 - 20,67 7,9
4,60 - 24,17 2,8
4,5 5,51 - 27,62 5,6
4,7 5,87 - 28,98 3,5
4,9 6,23 - 30,34 4,4
5,6 7,50 - 35,07
10,03 - 44,41 12,9

1. Исходя из данных таблицы (Таблица 6) к эмпирическим данным близко лежит график линейной зависимости, потому что корреляционное отношение при этом равно 0,80 > 0,45 корреляционное отношение при гиперболической зависимости, а значит его значение близко к 1.

3. Коэффициент детерминации показывает долю влияния фактора, D=0,63.

4. График свидетельствует о выше приведенных выводах: Если с увеличением факторного признака результативный признак равномерно возрастает, то такая зависимость является линейной и выражается уравнением прямой.

5. Таким образом, применяется линейный тип зависимости.

ЗАДАНИЕ 3 : Исследуем зависимость между X (ССЧ работающих, чел.) и Y (Товарной продукцией, млрд. руб.) (табл. 10).

Таблица 10

Таблица 11

Таблица 12

Таблица 13

X Вид уравнения
Теоретические данные Эмпирические данные
линейное параболическое гиперболическое
3,55 8,72 3,53 2,3
3,55 8,72 3,87 1,3
3,55 8,72 3,92 12,9
3,55 8,72 4,09 2,5
3,55 8,72 4,13 1,4
3,55 8,72 4,13 3,6
3,55 8,72 4,20 1,6
3,55 8,72 4,23 3,5
3,55 8,72 4,26 2,8
3,55 8,72 4,38 7,9
3,55 8,72 4,40
3,55 8,72 4,45 5,6
3,55 8,72 4,47
3,55 8,72 4,55 4,4
3,55 8,72 4,66 2,5

1. Исходя из данных таблицы (Таблица 6) к эмпирическим данным близко лежит график параболической зависимости. Потому что корреляционное отношение при этом равно 0,90 > 0,09 и >0,06 корреляционное отношение при гиперболической и линейной зависимостях, а значит его значение близко к 1.

2. О более тесной говорит коэффициент корреляции, r = 0,80

3. Коэффициент детерминации показывает долю влияния фактора, D=0,80.

4. График свидетельствует о выше приведенных выводах: Если связь между признаками нелинейная и с возрастанием факторного признака происходит ускоренное возрастание или убывание результативного признака, то корреляционная зависимость может быть выражена параболой второго порядка.

5. Таким образом, применяется параболический тип зависимости.

©2015-2019 сайт
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2016-08-20