Понятие статистической зависимости
Поможем в ✍️ написании учебной работы
Поможем с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой

 

Зависимость (взаимосвязь) между случайными событиями состоит в том, что появление одного из событий изменяет вероятность появления другого события.

Факт взаимосвязи между случайными событиями состоит в совместном изменении меры возможностей их появления (частоты, частости, вероятности). По наличию или отсутствию такого изменения и судят о наличии или отсутствии зависимости между событиями. Это изменение устанавливается на основе анализа двумерного вариационного ряда или таблицы сопряженности.

Например, у некоторой группы людей измерялись два признака. Признак xi, который может принимать одно из четырех значений, и признак yj, который может принимать одно из трех значений. В этом случае таблица сопряженности будет выглядеть следующим образом:

                                                                                        Таблица 12

  xi yj x 1 x 2 x 3 x 4 S
y 1 f11 f21 f31 f41 f-1
y 2 f12 f22 f32 f42 f-2
y 3 f13 f23 f33 f43 f-3
S f1- f2- f3- f4- N

 

В этой таблице внутри прямоугольника, выделенного жирной чертой, находятся частоты fij, которые отражают число людей в выборке, имеющих какое-то значение xi при условии, что y = yj . Эти частоты называются условными частотами.

Сумма частот по столбикам обозначена как fi - — это безусловные частоты признака xi. Они показывают, сколько человек в выборке имеют значение xi безотносительно к значениям признака у.

Сумма частот по столбикам обозначена как f - j — это безусловные частоты признака уi. Они показывают, сколько человек в выборке имеют значение уi безотносительно к значениям признака х.

На основании таких таблиц сопряженности рассчитываются многие меры связи.

Взаимосвязи между признаками характеризуются силой связи и ее направлением. О силе взаимосвязи свидетельствует абсолютное значение расчетной меры связи: чем она больше, тем сильнее взаимосвязь. О направлении взаимосвязи мы судим по знаку расчетной меры связи[5]: положительный знак — взаимосвязь прямая или положительная, отрицательный знак — взаимосвязь обратная или отрицательная.

Проиллюстрировать направление взаимосвязей можно при помощи следующего рисунка.

Рис. 17. Диаграммы рассеивания первичных данных для случаев различных взаимосвязей между ними

Предположим, у некоторой группы испытуемых измерены два признака — X (ось абсцисс) и Y (ось ординат). Каждый испытуемый на такой двумерной плоскости займет строго определенное место в зависимости от сочетания значений признаков X и Y у данного человека.

На графике слева показана диаграмма рассеивания для случая положительной зависимости между признаками (рост значений одного признака сочетается с ростом значений другого признака).

Средний график иллюстрирует отрицательную зависимость: рост значений одного признака сочетается с уменьшением значений другого признака.

График справа — отсутствие зависимости: четкой закономерности сочетания значений признаков не прослеживается, встречаются любые варианты.

Взаимосвязи характеризуются двумя свойствами: силой и направлением. О силе взаимосвязи мы судим по абсолютной величине данной меры: чем она больше, тем сильнее взаимосвязь. На направление зависимости (прямая или обратная взаимосвязь) нам указывает знак данной меры: положительный знак свидетельствует о прямой зависимости, отрицательный знак — об обратной.

 

Для принятия решения о наличии или отсутствии взаимозависимости между признаками в корреляционном анализе существует правило вывода: Расчетное значение по абсолютной величине сравнивается с табличным значением. Если оно больше или равно критическому (табличному) значению, то делается вывод о наличии взаимозависимости (или взаимосвязь между признаками статистически значима, или взаимосвязь между признаками статистически достоверна). При этом обязательно указывается уровень значимости вывода: при р=0,95 или a =0,05 (более слабая взаимосвязь) или р=0,99 или a=0,01 (более сильная взаимосвязь).

Для облегчения задачи выбора меры связи, адекватной данному случаю, целесообразно воспользоваться таблицей 13. В этой таблице меры связи приведены в соответствие тем измерительным шкалам, по которым измерены признаки, между которыми необходимо найти взаимосвязь.


Таблица 13


Общий обзор мер связи

 

Измерительные шкалы         

Шкала наименований

Шкала

порядка

Интервальная, пропорциональная шкалы

k = 2 k > 2

 

Шкала наименований

  k = 2 Коэффициент контингенции j      
    k > 2 Критерий c 2

 

 

Коэффициент      взаимной          сопряженности Чупрова

К

Коэффициент взаимной    сопряженности Пирсона

С

 

   

 

Шкала          

порядка

Рангово-бисериальный коэффициент корреляции rRbis

 

Ранговые коэффициенты корреляции:

Спирмена r

Кендэлла t

 

 

 

Интервальная, пропорциональная шкалы

  Бисериальный коэффициент корреляции rbis Коэффициент линейной        корреляции         Пирсона r   Корреляционное отношение h

 

Коэффициент контингенции

 

Если оба признака измерены по шкале наименований и каждый из них может иметь только два значения, то мерой связи является коэффициент контингенции «фи» — φ. В некоторых книгах по статистике этот коэффициент называется четырехклеточный коэффициент или четырехпольный коэффициент, или тетрахорический показатель связи.

Удобнее всего этот коэффициент рассчитывать по 4-хпольной таблице сопряженности признаков (таблица 14) — таблице, показывающей частоту совместного появления у испытуемых пар значений по 2-м признакам.

Таблица 14

Значение признаков X1 = 0 X2 = 1 Σ
Y1 = 0 f00 = a f10 = b a + b
Y2 = 1 f01 = c f11 = d c + d
Σ a + c b + d N = a + b + c + d

 

       Расчетное значение коэффициента контингенции вычисляется по следующей формуле:

 

Поскольку таблиц с критическими значениями для данного коэффициента не существует, то значимость этой меры связи оценивают при помощи критерия χ2.

 

Правило принятия решения:

Расчетное значение критерия необходимо сравнить с критическим (или табличным) значением. Критическое значение находится в зависимости от числа степеней свободы (приложение с таблицами критических значений). Однако, для 4-хпольной таблицы число степеней свободы всегда равно 1 (ν = 1), поэтому можно привести эти значения, которыми всегда следует пользоваться для 4-хклеточных таблиц: χ2табл. = 3,84 для р = 0,95 и = 6,64 для р = 0,99.

Если χ2расч ≥ χ2табл , то связь между признаками статистически значима, т. е. признаки изменяются согласованно. О направлении зависимости свидетельствует знак коэффициента взаимной сопряженности φ.

Если χ2расч < χ2табл , то связи между признаками нет.

 

Дата: 2019-11-01, просмотров: 198.