Виды переменных и их отношения в психологическом эксперименте. Типы отношений между зависимой и независимой переменными Типы переменных по Дружинину

Виды взаимосвязей между признаками. 3

Коэффициент корреляции. 8

Коэффициент корреляции Бравэ-Пирсона. 11

Ограничения использования коэффициента корреляции. 13

Проверка значимости корреляции. 14

Ранговая корреляция. 15

Множественная корреляция. 16

Библиографический список. 20


Виды взаимосвязей между признаками

Еще Гиппократ обратил внимание на то, что между телосложением и темпераментом людей, между строением их тела и предрасположенностью к заболеваниям существует определенная связь.
Чаще всего рассматриваются простейшие ситуации, когда в ходе исследования измеряют значения только одного варьирующего признака генеральной совокупности. Остальные признаки либо считаются постоянными для данной совокупности, либо относятся к случайным факторам, определяющим варьирование исследуемого признака. Как правило, исследования в спорте значительно сложнее и носят комплексный характер. Например, при контроле за ходом тренировочного процесса измеряется спортивный результат, и одновременно может оцениваться целый ряд биомеханических, физиологических, биохимических и других параметров (скорость и ускорения общего центра масс и отдельных звеньев тела, углы в суставах, сила мышц, показатели систем дыхания и кровообращения, объем физической нагрузки и энергозатраты организма на ее выполнение и т. д.). При этом часто возникает вопрос о взаимосвязи отдельных признаков. Например, как зависит спортивный результат от некоторых элементов техники спортивных движений? как связаны энергозатраты организма с объемом физической нагрузки определенного вида? насколько точно по результатам выполнения некоторых стандартных упражнений можно судить о потенциальных возможностях человека в конкретном виде спортивной деятельности? и т. п. Во всех этих случаях внимание исследователя привлекает зависимость между различными величинами, описывающими интересующие его признаки.

Этой цели служит математическое понятие функции, имеющее в виду случаи, когда определенному значению одной (независимой) переменной Х, называемой аргументом , соответствует определенное значение другой (зависимой) переменной Y, называемой функцией . Однозначная зависимость между переменными величинами Y и X называется функциональной , т.е. Y = f(X) (“игрек есть функция от икс”).
Например, в функции Y = 2X каждому значению X соответствует в два раза большее значение Y . В функции Y = 2X 2 каждому значению Y соответствует 2 определенных значения X .

Но такого рода однозначные или функциональные связи между переменными величинами встречаются не всегда. Известно, например, что между ростом (длиной тела) и массой человека существует положительная связь: более высокие индивиды имеют обычно и большую массу, чем индивиды низкого роста. То же наблюдается и в отношении качественных признаков: блондины, как правило, имеют голубые, а брюнеты - карие глаза. Однако из этого правила имеются исключения, когда сравнительно низкорослые индивиды оказываются тяжелее высокорослых, и среди населения хотя и нечасто, но встречаются кареглазые блондины и голубоглазые брюнеты. Причина таких “исключений” в том, что каждый биологический признак, выражаясь математическим языком, является функцией многих переменных; на его величине сказывается влияние и генетических и средовых факторов, в том числе и случайных, что вызывает варьирование признаков. Отсюда зависимость между ними приобретает не функциональный, а статистический характер , когда определенному значению одного признака, рассматриваемого в качестве независимой переменной, соответствует не одно и то же числовое значение, а целая гамма распределяемых в вариационный ряд числовых значений другого признака, рассматриваемого в качестве независимой переменной. Такого рода зависимость между переменными величинами называется корреляционной или корреляцией (термин “корреляция” происходит от лат. correlatio - соотношение, связь). При этом данный вид взаимосвязи между признаками проявляется в том, что при изменении одной из величин изменяется среднее значение другой.
Если функциональные связи одинаково легко обнаружить и на единичных, и на групповых объектах, то этого нельзя сказать о связях корреляционных, которые изучаются только на групповых объектах методами математической статистики.

· Существует ли связь между исследуемыми переменными?

· Как измерить тесноту связей?

Общая схема взаимосвязи параметров при статистическом исследовании приведена на рис. 1.

Рис 1. Взаимосвязь параметров при статистическом исследовании

На рисунке S – модель исследуемого реального объекта, Объясняющие (независимые, факторные) переменные описывают условия функционирования объекта. Случайные факторы – это факторы, влияние которых трудно учесть или влиянием которых в данный момент пренебрегают. Результирующие (зависимые, объясняемые) переменные характеризуют результат функционирования объекта.

Выбор метода анализа взаимосвязи осуществляется с учетом природы анализируемых переменных.

Корреляция – это статистическая зависимость между случайными величинами, при которой изменение одной из случайных величин приводит к изменению математического ожидания другой.

Различают парную, частную и множественную корреляцию.

Парная корреляция – это связь между двумя признаками (результативным и факторным или между двумя факторными).

Частная корреляция – это связь между двумя признаками (результативным и факторным или между двумя факторными) при фиксированном значении других факторных признаков.

Множественная корреляция – это связь между результативным и двумя или более факторными признаками, включенными в исследование.

В зависимость от количества признаков, включенных в модель, корреляционная связь может быть однофакторной (или парной) и многофакторной (или множественной).

Корреляционный анализ – это раздел математической статистики, посвященный изучению взаимосвязей между случайными величинами. Корреляционный анализ заключается в количественном

Задача корреляционного анализа сводится к установлению направления и формы связи между признаками, измерению ее тесноты и к оценке достоверности выборочных показателей корреляции.
Корреляционная связь между признаками может быть линейной и криволинейной (нелинейной), положительной и отрицательной.

Прямая корреляция отражает однотипность в изменении признаков: с увеличением значений первого признака увеличиваются значения и другого, или с уменьшением первого уменьшается второй.

Обратная корреляция указывает на увеличение первого признака при уменьшении второго или уменьшение первого признака при увеличении второго.
Например, больший прыжок и большее количество тренировок - прямая корреляция, уменьшение времени, затраченного на преодоление дистанции, и большее количество тренировок - обратная корреляция.

Корреляция изучается на основании экспериментальных данных, представляющих собой измеренные значения (x i , y i ) двух признаков. Если экспериментальных данных немного, то двумерное эмпирическое распределение представляется в виде двойного ряда значений x i и y i . При этом корреляционную зависимость между признаками можно описывать разными способами. Соответствие между аргументом и функцией может быть задано таблицей, формулой, графиком и т. д.
Корреляционный анализ, как и другие статистические методы, основан на использовании вероятностных моделей, описывающих поведение исследуемых признаков в некоторой генеральной совокупности, из которой получены экспериментальные значения x i и y i .
Когда исследуется корреляция между количественными признаками, значения которых можно точно измерить в единицах метрических шкал (метры, секунды, килограммы и т.д.), то очень часто принимается модель двумерной нормально распределенной генеральной совокупности. Такая модель отображает зависимость между переменными величинами x i и y i г рафически в виде геометрического места точек в системе прямоугольных координат. Эту графическую зависимость называются также диаграммой рассеивания или корреляционным полем .

При исследования корреляции используются графический и аналитический подходы.

Графический анализ начинается с построения корреляционного поля. Корреляционное поле (или диаграмма рассеяния) является графической зависимостью между результатами измерений двух признаков. Для ее построения исходные данные наносят на график, отображая каждую пару значений (xi,yi) в виде точки с координатами xi и yi в прямоугольной системе координат.

Визуальный анализ корреляционного поля позволяет сделать предположение о форме и направлении взаимосвязи двух исследуемых показателей. По форме взаимосвязи корреляционные зависимости принято разделять на линейные (см. рис. 2) и нелинейные (см. рис. 3). При линейной зависимости огибающая корреляционного поля близка к эллипсу. Линейная взаимосвязь двух случайных величин состоит в том, что при увеличении одной случайной величины другая случайная величина имеет тенденцию возрастать (или убывать) по линейному закону.

Рис 2. Линейная статистическая связь Рис 3. Нелинейная статистическая связь

Направление связи является положительным, если увеличение значения одного признака приводит к увеличению значения второго (см. рис. 4) и отрицательным, если увеличение значения одного признака приводит к уменьшению значения второго (см. рис. 5).

Зависимости, имеющие только положительные или только отрицательные направленности, называются монотонными.

Коэффициент корреляции

Количественная оценка тесноты взаимосвязи двух случайных величин осуществляется с помощью коэффициента корреляции. Вид коэффициента корреляции и, следовательно, алгоритм его вычисления зависят от шкалы, в которой производятся измерения изучаемых показателей и от формы зависимости.

Значение коэффициента корреляции может изменяться в диапазоне от -1 до +1:

Абсолютное значение коэффициента корреляции показывает силу взаимосвязи. Чем меньше его абсолютное значение, тем слабее связь. Если он равен нулю, то связь вообще отсутствует. Чем больше значение модуля коэффициента корреляции, тем сильнее связь и тем меньше разброс в значениях при каждом фиксированном значении . Знак коэффициента корреляции определяет направленность взаимосвязи: минус – отрицательная, плюс – положительная (см. рис. 6).

Рис.6. Корреляционные поля при различных значениях коэффициента корреляции

Рис.7. Коэффициенты корреляции при различной форме корреляционного поля.

Коэффициент корреляции отражает линейную зависимость и совсем не подходит для описания сложных, нелинейных зависимостей (нижняя строка).

Достаточно условно может быть использована следующая классификация взаимосвязей по значению коэффициента корреляции (см. табл. 1).

Таблица 1. Интерпретация значений коэффициент корреляции

Согласно исследованию научных публикаций в наиболее престижных зарубежных журналах, посвященных социальным и поведенческим наукам (Ч.Теддли, М.Элайс, 2010), 77% всех социологических исследований проведены в рамках количественного подхода. Из них 71% является корреляционными исследованиями или исследованиями, посвященными изучению связей между социальными явлениями.

Самый простой вид корреляционных исследований - изучение парных взаимосвязей или совместной изменчивости двух переменных. Такого рода исследования пригодны для решения двух научных задач:

а) доказательства существования причинно-следственной связи между переменными (наличие связи является важным, но не единственным, условием причинно-следственной зависимости);

б) предсказания: в случае наличия связи между переменными можно с определенным уровнем точности предсказывать значения одной переменной, если нам известно значение другой.

Связь между двумя переменными есть в том случае, когда изменение категории одной переменной ведет к изменению распределения второй:

Легко заметить, что в зависимости от категории переменной "Удовлетворенность работой" переменная "Продуктивность труда" меняет свое распределение. Следовательно, мы можем сделать вывод о существовании связи между переменными.

Также из этого примера видно, что каждому из значений одной переменной отвечает несколько значений другой. Такие связи называются статистическими или вероятностными. В данном случае, связь между переменными не является абсолютной. В нашем случае это означает, что кроме удовлетворенности работой есть и другие факторы, влияющие на продуктивность труда.

В случае же, когда одному значению первой переменной соответствует лишь одно значение второй, говорят о функциональных связях. Вместе с тем, даже когда есть основания говорить о функциональной связи, невозможно на все 100% продемонстрировать ее в эмпирической действительности по двум причинам: а) из-за погрешности измерительных инструментов; б) из-за невозможности контроля всех условий окружающей среды, влияющих на эту связь. И поскольку в социальных науках ученые имеют дело именно с вероятностными связями, постольку ниже речь пойдет именно о них.

Парные связи владеют тремя характеристиками: силой, направлением и формой.

Сила показывает насколько согласованна изменчивость двух переменных. Сила связи может изменяться в диапазоне от 0 до +1 (если хотя бы одна из переменных относится к номинальной шкале) или от -1 до +1 (если обе переменные относятся, по крайней мере, к порядковой шкале). При этом 0 и близкие к ней величины говорят об отсутствии связи между переменными, а величины близкие к +1 (прямая связь) или -1 (обратная связь) - о сильной связи. Один из вариантов интерпретации связи, с точки зрения ее силы, выглядит следующим образом:

Все значения в таблице приведены в модуле, т.е. должны анализироваться безотносительно к знаку. Так, например, связь -0,67 и +0,67 являются одинаковыми по силе, но разными по направлению.

Сила связи определяется с помощью коэффициентов корреляции. К коэффициентам корреляции относятся, например, фи и V-крамера (номинальные переменные, мало категорий/табличный вид), Гамма (порядковые переменные, мало категорий/табличный вид), Кендалла и Спирмена (порядковые переменные, много категорий), Пирсона (метрические переменные, много категорий).

Направление говорит о характере взаимного изменения категорий переменных. Если с увеличением значений одной переменной значения другой переменной также увеличиваются, то связь является прямой (или положительной). Если же ситуация противоположная и увеличение значений одной переменной ведет к уменьшению значений второй, то связь обратная (или отрицательная).

Направление связи может иметь место только в тех случаях, когда речи идет о порядковых и/или метрических переменных, то есть тех переменных, значения которых можно упорядочить от меньших к большим или наоборот. Таким образом, если хотя бы одна переменная относится к номинальной шкале, то можно говорить только о силе связи и ее форме, но не о направлении.

Направление связи можно определить либо с помощью таблиц сопряженности (мало категорий), либо с помощью диаграммы рассеяния (много категорий), либо с помощью знака коэффициента корреляции (количество категорий переменных не имеет значения):

А. Определение направления связи с помощью таблицы сопряженности.

Б. Определение направления связи с помощью диаграммы рассеяния.

В. Определение направления связи с помощью коэффициентов корреляции.

Форма связи указывает на особенности совместной изменчивости двух переменных. В зависимости от того, к какой шкале относится переменная, форму связи можно проанализировать либо с помощью столбчатой диаграммы/таблицы сопряженности (если хотя бы одна переменная является номинальной), либо с помощью диаграммы рассеяния (для порядковых и метрических шкал).

Выделяют несколько видов связи между переменными.

· Корреляционная зависимость предполагает взаимную согласованность изменений переменных величин, а также то, что эти изменения можно измерить однократно или многократно (в данном случае говорят о плотности связи переменных, но не о причинно-следственных связях); например, в современном российском обществе чем выше возраст, тем ниже социальный статус человека; отдельные проявления геронтократии эту закономерность не нарушают



· Функциональное воздействие предполагает, что изменения независимой переменной сопровождаются все более ускоряющимися изменениями зависимой переменной (причинно-следственные связи фиксируют влияние независимой переменной на зависимую); например, чем более радикальными политическими взглядами обладает человек, тем в большей степени он не приемлет существующий политический режим; в то же время нельзя утверждать, что чем в большей степени человек негативно оценивает власть, тем более радикальными взглядами он обладает

· Функциональная зависимость - связь переменных, означающая, что изменение одной переменной оказывает воздействие на изменение другой, которая в свою очередь воздействует на первую переменную, т.е. это связи взаимодействия; например, информированность человека

о политике напрямую связана с интересом к ней; чем больше человек политикой интересуется, тем больше в ней разбирается. Связь может быть нелинейной и немонотонной

Каким бы в итоге ни оказался тип связи между переменными, необходимо убедиться в ее наличии в принципе. Корреляционный анализ применяется для выяснения взаимодействия и тенденций изменения характеристик изучаемого явления.

Корреляция - наличие статистической взаимосвязи признаков, когда каждому определенному значению одного признака X соответствует определенное значение Y (или комплекс значений У-ряда распределения). Корреляционный анализ выясняет функциональную зависимость между переменными величинами, которая характеризуется тем, что каждому значению одной из них соответствует вполне определенное значение другой. Однако корреляционный анализ не предполагает выявления каузальных связей, поэтому при интерпретации результатов формулировки типа «переменная х влияет на переменную у» или «переменная х зависит от переменной у» недопустимы. Различают парную и множественную корреляции. Парная корреляция

характеризует тип, форму и плотность связи между двумя признаками, множественная - между несколькими. Корреляционная зависимость возникает чаще всего там, где одно явление находится под воздействием большого числа факторов, действующих с разной силой, поэтому существуют специальные меры корреляционной связи, называемые коэффициентами корреляции. Коэффициенты (в статистике их общее количество исчисляется десятками) показывают степень взаимосвязи явлений (плотность корреляционной связи, иногда исследователи говорят об интенсивности связи) и характер этой связи (направленность). Связь может быть прямой и обратной. Например, чем старше избиратель, тем более активно он участвует в выборах. Чем выше уровень доходов людей, тем в меньшей степени они склонны участвовать в выборах в качестве избирателей (обратная связь). Чем выше коэффициент корреляции между двумя переменными, тем точнее можно предсказать значения одной из них по значениям другой. Характер связи также определяется в категориях «монотонная» (направление изменения одной переменной не меняется при изменении второй переменной) и «немонотонная» связь. Помимо оценки плотности и направленности связи необходимо учитывать надежность (достоверность) связи.

44 . Корреляционный анализ. Проблема ложной корреляции. Коэффициенты корреляции: виды и условия использования.

Корреляционный анализ применяется для выяснения взаимодействия и тенденций изменения характеристик изучаемого явления.

Первоначальной стадией его развития считается период 1870- 1880-х годов, а автором понятия «коэффициент корреляции» - Фрэнсис Гальтон. Наиболее серьезные разработки в области корреляционного анализа на рубеже XIX-XX вв. выполнил Карл Пирсон. Традиционно корреляционный анализ используется для проверки гипотезы о статистической зависимости двух или нескольких переменных. В качестве вспомогательного средства анализ корреляций можно использовать при проверке пригодности экспериментальных гипотез и для включения переменных в факторный и регрессионный анализ.

Корреляционный анализ осуществляется с помощью сравнения и сопоставления рядов распределения, построенных на основании группировок по различным признакам.

Корреляция - наличие статистической взаимосвязи признаков, когда каждому определенному значению одного признака X соответствует определенное значение Y (или комплекс значений У-ряда распределения). Корреляционный анализ выясняет функциональную зависимость между переменными величинами, которая характеризуется тем, что каждому значению одной из них соответствует вполне определенное значение другой. Однако корреляционный анализ не предполагает выявления каузальных связей, поэтому при интерпретации результатов формулировки типа «переменная х влияет на переменную у» или «переменная х зависит от переменной у» недопустимы. Различают парную и множественную корреляции. Парная корреляция характеризует тип, форму и плотность связи между двумя признаками, множественная - между несколькими. Корреляционная зависимость возникает чаще всего там, где одно явление находится под воздействием большого числа факторов, действующих с разной силой, поэтому существуют специальные меры корреляционной связи, называемые коэффициентами корреляции. Коэффициенты (в статистике их общее количество исчисляется десятками) показывают степень взаимосвязи явлений (плотность корреляционной связи, иногда исследователи говорят об интенсивности связи) и характер этой связи (направленность). Связь может быть прямой и обратной. Например, чем старше избиратель, тем более активно он участвует в выборах. Чем выше уровень доходов людей, тем в меньшей степени они склонны участвовать в выборах в качестве избирателей (обратная связь). Чем выше коэффициент корреляции между двумя переменными, тем точнее можно предсказать значения одной из них по значениям другой. Характер связи также определяется в категориях «монотонная» (направление изменения одной переменной не меняется при изменении второй переменной) и «немонотонная» связь. Помимо оценки плотности и направленности связи необходимо учитывать надежность (достоверность) связи.

Корреляционный анализ последовательно решает три практические задачи:

1) определение корреляционного поля и составление корреляционной (в данном случае это комбинированная) таблицы;

2) вычисление выборочных корреляционных отношений или коэффициентов корреляции;

3) проверка статистической гипотезы значимости связи.

Коэффициент корреляции не содержит информации о том, является ли данная связь между ними причинно-следственной или сопутствующей (порожденной общей причиной).

Для установления корреляционной связи между двумя признаками необходимо доказать, что все другие переменные не оказывают воздействия на отношения двух переменных, являющихся предметом изучения. В противном случае возникает ситуация ложной корреляции. Секрет возникновения ложной корреляции заключается в том, что у двух явлений, связь которых формально подкрепляется наличием статистической связи, есть общая причина, в равной степени влияющая на каждое из них.

Во многих случаях статистически фиксируемая связь между признаками может быть объяснена третьей переменной.

Для выяснения типа связи является перспективным представление данных в виде графика, который позволяет визуально оценить степень рассеяния значений переменных. Особое внимание следует обратить на наличие «выбросов» (экстремально большие или малые значения признака), показывающих существенные отклонения от линии регрессии - условной прямой, которая показывает характер связи между

признаками на графике. Для выяснения факторов, определяющих причинно-следственную связь между переменными, прибегают к пат-анализу. Чтобы избежать ошибки в ситуации ложной корреляции, используют анализ взаимосвязи двух переменных с помощью контрольного (опосредующего) фактора. Итак, корреляционный анализ позволяет отбросить несуществующие или несущественные связи.

Специально следует оговорить, что для получения достоверных данных необходимо обеспечить достаточно большое число наблюдений, поскольку необоснованно сокращая объем выборки, мы снижаем уровень надежности полученных выводов о статистических зависимостях. Следовательно, необходимы специальные знания статистических расчетов. Операции по расчету коэффициентов корреляции осуществляют программы PC, но необходимо хотя бы иметь представление об элементарных процедурах анализа.

Корреляционному анализу предшествует стадия расчета статистики х2- Но на основании полученного значения статистики х2 мы ничего не можем сказать о плотности связи анализируемых переменных.

Для решения такой задачи необходимо обратиться к коэффициентам корреляционной связи.

Различные коэффициенты корреляции могут принимать значения от - 1 до + 1 или от 0 до +1. Специально следует оговорить, что значения коэффициентов, которые принимаются как статистически значимые, значительно разнятся между собой для различных видов коэффициентов корреляции

качестве предварительного замечания отметим, что принято признавать «сверхсильной» связью показатели корреляции свыше |±0,8|, «сильной» - от |±0,6| до |±0,8|, «умеренной» - от |±0,4| до |±0,6|, «слабой » - от |±0,2| до |±0,4|, связь отсутствует при показателях коэффициентов корреляции до |±0,2|. Применительно к значению коэффициента корреляции, приближающемуся к +1, обычно используют обозначение «строгая положительная корреляция» (perfect positive correlation), а к коэффициенту корреляции, равному -1, - «строгая отрицательная корреляция» {perfect negative correlation). А. Бююль и П. Цёфель, а также А. С. Ахременко предлагают несколько иной вариант интерпретации: до |±0,2| - очень слабая корреляция, от |+0,2| до |±0,5| - слабая корреляция, от |+0,5| до 1+0,7| - средняя корреляция, от |±0,7| до |±0,9| - высокая корреляция, свыше |±0,9| - очень высокая корреляция. Отметим, что высокие значения корреляции в реальных политических исследованиях встречаются крайне редко. И действительной исследовательской удачей является обнаружение просто статистически значимого коэффициента корреляции.

Важным показателем оценки коэффициента корреляции является показатель уровня значимости. Для корреляционного анализа он, как и для статистики хи-квадрат, не должен превышать 0,05 (р < 0,05), т.е. вероятность ошибки - подмена устойчивой статистически обоснованной случайной связи - не превышает 5%. Показатель уровня значимости является расчетным, однако как для статистики х2, так и для корреляционного анализа этот показатель формально принимают за константу.

Экспериментатор проверяет гипотезу о причинной связи двух явлений, А и В. Понятие «причинность» является одним из наиболее сложных в науке. Существует ряд эмпирических признаков причинной связи между двумя явлениями. Первый признак - разделенность причины и следствия во времени и предшествование причины следствию. Если исследователь обнаруживает изменения в объекте после экспериментального воздействия, по сравнению с аналогичным объектом, который воздействию не подвергался, у него есть повод говорить о том, что экспериментальное воздействие стало причиной изменения состояния объекта. Наличие воздействия и сравнение объектов являются необходимыми условиями та­кого вывода, ибо не всегда предшествующее событие - причина последующего.

Отлет гусей на юг отнюдь не является причиной выпадения снега через месяц. Второй признак - наличие статистической связи между двумя переменными (причиной и следствием). Изменение величины одной из переменных должно сопровождаться изменением величины другой. Иначе говоря, между переменными должна наблюдаться либо линейная корреляция, как между уровнем вербального интеллекта и школьной успеваемостью, либо нелинейная корреляция, как между уровнем активации и степенью эффективности научения (закон Йеркса-Додсона).

Наличие корреляции - недостаточное условие для вывода о причинно-следственной связи, так как связь может быть случайной или обусловленной третьей переменной.

Третий признак - причинно-следственная связь регистрируется, если экспериментальная процедура исключает иные возможности объяснения связей А и В , кроме как причинной, и все другие альтернативные причины возникновения явления В исключены.

Проверка экспериментальной гипотезы о причинной связи двух явлений производится следующим образом. Экспериментатор моделирует предполагаемую причину: она выступает в качестве экспериментального воздействия, а следствие - изменение состояния объекта - регистрируется с помощью какого-либо измерительного инструмента. Экспериментальное воздействие служит для изменения независимой переменной, которая является непосредственной причиной изменения зависимой переменной. Так, экспериментатор, предъявляя испытуемому сигналы различной околопороговой громкости, изменяет его психическое состояние - ис­пытуемый либо слышит, либо не слышит сигнал, что приводит к различным моторным или вербальным ответам («да» - «нет», «слышу» - «не слышу»).

Внешние («прочие») переменные экспериментальной ситуации экспериментатор должен контролировать. Среди внешних переменных выделяют: 1) побочные переменные , которые порождают систематическое смешение, ведущее к появлению ненадежных данных (фактор времени, фактор задачи, индивидуальные особенности испытуемых); 2) дополнительную переменную, которая существенна для изучаемой связи между причиной и следствием. При проверке частной гипотезы уровень до­полнительной переменной должен соответствовать ее уровню в изучаемой реальности. Например, при изучении связи уровня развития непосредственного и опосредованного запоминания дети должны быть одного возраста. Возраст в этом случае - дополнительная переменная. Если же проверяется общая гипотеза, то эксперимент проводится при разных уровнях дополнительной переменной, т.е. с участием групп детей разного возраста, как в известных экспериментах А. Н. Леонтьева по изучению развития опосредованного запоминания. Дополнительная переменная, особо значимая для эксперимента, называется «ключевой». Контрольной переменной называется дополнительная переменная, которая в факторном эксперименте становится второй основной.

Суть эксперимента состоит в том, что экспериментатор варьирует независимую переменную, регистрирует изменение зависимой переменной и контролирует внешние (побочные) переменные.

Исследователи различают разные виды независимой переменной: качественную («есть подсказка» - «нет подсказки»), количественную (уровень денежного вознаграждения).

Среди зависимых переменных выделяются базисные. Базисная переменная - единственная зависимая переменная, на которую оказывает влияние независимая переменная. Какие независимые, зависимые и внешние переменные встречаются при проведении психологического эксперимента?

Независимая переменная

Исследователь должен стремиться оперировать в эксперименте только независимой переменной. Эксперимент, где это условие соблюдается, назы­вают чистым экспериментом. Но чаще всего в ходе эксперимента, варьируя одну переменную, экспериментатор изменяет вместе с тем ряд других. Это изменение может быть вызвано действием экспериментатора и обусловлено связью двух переменных. Например, в эксперименте по выработке простого двигательного навыка он наказывает испытуемого за неудачи электрическим током. Размер наказания может выступать в качестве независимой переменной, а скорость выработки навыка - зависимой переменной. Наказание не только закрепляет у испытуемого соответствующие реакции, но и порождает у него ситуативную тревогу, которая влияет на результаты - увеличивает число ошибок и уменьшает скорость выработки навыка.

Центральная проблема при проведении экспериментального исследования - выделение независимой переменной и ее изоляция от других переменных.

В качестве независимых переменных в психологическом эксперименте могут выступать:

1) характеристики заданий;

2) особенности ситуации (внешние условия);

3) управляемые особенности (состояния) испытуемого.

Последние часто называют «переменными организма». Иногда выделяют четвертый вид переменных - константные характеристики испытуемого (интеллект, пол, возраст и т. д.), но они относятся к дополнительным переменным, поскольку на них нельзя воздействовать, а можно лишь учесть их уровень при формировании экспериментальных и контрольных групп.

Характеристика задания - то, чем может манипулировать экспериментатор более или менее свободно. По традиции, идущей от бихевиоризма, считается, что экспериментатор варьирует только характеристики стимулов (stimulus variables), но в его распоряжении гораздо больше возможностей. Экспериментатор может варьировать стимулы или материал задания, изменять тип ответа испытуемого (вербальный или невербальный ответ), менять шкалу оценивания и т.д. Он может варьировать инструкцию, меняя цели, которых должен достичь испытуемый в ходе выполнения задания. Экспериментатор может варьировать средства, которые имеет испытуемый для решения задачи, и ставить перед ним препятствия. Он может изменять систему поощрений и наказаний в ходе выполнения задания и т.д.

К особенностям ситуации следует отнести те переменные, которые непосредственно не входят в структуру экспериментального задания, выполняемого испытуемым. Это может быть температура в помещении, обстановка, наличие внешнего наблюдателя и т.д.

Эксперименты по выявлению эффекта социальной фасилитации (усиления) проводились по следующей схеме: испытуемому давалась какая-либо сенсомоторная или интеллектуальная задача. Он сначала выполнял ее в одиночку, а затем в присутствии другого человека или нескольких людей (последовательность, разумеется, менялась в разных группах). Оценивалось изменение продуктивности испытуемых. В этом случае задача испытуемого оставалась неизменной, изменялись лишь внешние условия эксперимента.

Что может варьировать экспериментатор?

Во-первых, это физические параметры ситуации: расположение аппаратуры, внешний вид помещения, освещенность, звуки и шумы, температура, размещение мебели, окраска стен, время проведения эксперимента (время суток, длительность и т.д.). То есть все физические параметры ситуации, не являющиеся стимулами.

Во-вторых, это социально психологические параметры: изоляция - работа в присутствии экспериментатора, работа в одиночку - работа с группой и т.д.

В-третьих, это особенности общения и взаимодействия испытуемого (испытуемых) и экспериментатора.

Судя по публикациям в научных журналах, за последние годы резко возросло количество экспериментальных исследований, в которых применяется варьирование внешних условий.

К «организменным переменным», или неуправляемым характеристикам испытуемых, относятся физические, биологические, психологические, социально-психологические и социальные признаки. Традиционно их относят к «переменным», хотя большинство из них является неизменным или относительно неизменным на протяжении жизни. Влияние дифференциально-психологических, демографических и прочих константных параметров на поведение индивида изучают в корреляционных исследованиях. Однако авторы большинства учебников по теории психологического метода, например М. Мэтлин, относят эти параметры к числу независимых переменных эксперимента.

Как правило, в современном экспериментальном исследовании дифференциально-психологические особенности индивидов, такие как интеллект, пол, возраст, социальное положение (статус) и т.д., учитываются в качестве дополнительных переменных, которые контролируются экспериментатором в общепсихологическом эксперименте. Но эти переменные могут превращаться во «вторую основную переменную» в дифференциально-психологическом исследовании, и тогда используется факторный план.

Зависимая переменная

Психологи имеют дело с поведением испытуемого, поэтому в качестве зависимой переменной выбираются параметры вербального и невербального поведения. К ним относятся: число ошибок, которое совершила крыса, пробегая лабиринт; время, которое затратил испытуемый при решении задачи, изменения мимики его лица при просмотре эротического фильма; время двигательной реакции на звуковой сигнал и т.д.

Выбор поведенческого параметра определяется исходной экспериментальной гипотезой. Исследователь должен ее максимально конкретизировать, т.е. добиться того, чтобы зависимая переменная была операционализирована - поддавалась регистрации в ходе эксперимента.

Параметры поведения условно можно разделить на формально-динамические и содержательные. Формально-динамические (или пространственно-временные) параметры достаточно легко поддаются аппаратурной регистрации. Приведем примеры этих параметров.

1. Точность. Наиболее часто регистрируемый параметр. Поскольку большинство заданий, предъявляемых испытуемому в психологических экспериментах, являются задачами на достижения, то точность или противоположный параметр - ошибочность действий - будет главным регистрируемым параметром поведения.

2. Латентность. Психические процессы протекают скрытно от внешнего наблюдателя. Время от момента предъявления сигнала до выбора ответа называется латентным временем. В некоторых случаях латентное время является важнейшей характеристикой процесса, например при решении мыслительных задач.

3. Длительность, или скорость, исполнения. Является характеристикой исполнительного действия. Время между выбором действия и окончанием его выполнения называют скоростью действия (в отличие от латентного времени).

4. Темп, или частота, действий. Важнейшая характеристика, особенно при исследовании простейших форм поведения.

5. Продуктивность. Отношение числа ошибок или качества выполнения действий ко времени выполнения. Служит важнейшей характеристикой при исследовании научения, познавательных процессов, процессов принятия решения и т. д. Содержательные параметры поведения предполагают категоризацию формы поведения либо в терминах обыденного языка, либо в терминах той теории, предположения которой проверяются в данном эксперименте.

Распознавание различных форм поведения - дело специально обученных экспертов или наблюдателей. Требуется немалый опыт, чтобы характеризовать один поступок как проявление покорности, а другой - как проявление подобострастия.

Проблема фиксации качественных особенностей поведения решается посредством: а) обучения наблюдателей и разработки карт наблюдения; б) измерения формально-динамических характеристик поведения с помощью тестов.

Зависимая переменная должна быть валидной и надежной. Надежность переменной проявляется в устойчивости ее регистрируемости при изменении условий эксперимента в течение времени. Валидность зависимой переменной определена только в конкретных условиях эксперимента и применительно к определенной гипотезе.

Можно выделить три типа зависимых переменных : 1) одновременную; 2) многомерную; 3) фундаментальную. В первом случае регистрируется лишь один параметр, и именно он считается проявлением зависимой переменной (между ними существует функциональная линейная связь), как, например, при изучении времени простой сенсомоторной реакции. Во втором случае зависимая переменная многомерна. Например, уровень интеллектуальной продуктивности проявляется во времени решения задачи, его качестве, трудности решенной задачи. Эти параметры могут фиксироваться независимо. В третьем случае, когда известно отношение между отдельными параметрами многомерной зависимой переменной, параметры рассматриваются в качестве аргументов, а сама зависимая переменная - в качестве функции. Например, фундаментальное измерение уровня агрессии F(a) рассматривается как функция отдельных ее проявлений (а) мимики, пантомимики, брани, рукоприкладства и др.

F(a) =f(a 1 ,а 2 ,... ,а n).

Существует еще одно важное свойство зависимой переменной, а именно - сензитивность (чувствительность) зависимой переменной к изменениям независимой. Суть в том, что манипуляция независимой переменной влияет на изменение зависимой. Если же мы манипулируем независимой переменной, а зависимая не изменяется, то зависимая переменная несензитивна по отношению к независимой. Два варианта проявления несензитивности зависимой переменной получили названия «эф­фект потолка» и «эффект пола». Первый случай встречается тогда, когда предъявляемая задача так проста, что уровень ее выполнения много выше всех уровней независимой переменной. Второй эффект, напротив, возникает тогда, когда задание настолько сложно, что уровень его выполнения оказывается ниже всех уровней независимой переменной.

Итак, как и прочие компоненты психологического исследования, зависимая переменная должна быть валидна, надежна, обладать чувствительностью к изменению уровня независимой переменной.

Существуют два основных приема фиксации изменений зависимой переменной. Первый применяется наиболее часто в экспериментах с участием одного испытуемого. Изменение зависимой переменной регистрируется во время эксперимента вслед за изменением уровня независимой переменной. Примером является фиксация результатов в экспериментах по научению. Кривая научения представляет собой классический вариант тренда - изменения успешности выполнения заданий в зависимости от числа проб (времени проведения эксперимента). Для обработки таких данных применяется статистический аппарат анализа трендов. Второй прием фиксации изменения уровня независимой переменной называются отсроченным измерением. Между воздействием и эффектом проходит определенный промежуток времени, его длительность устанавливается по времени отдаленности следствия от причины. Например, прием дозы алкоголя увеличивает время сенсомоторной реакции не сразу, а по прошествии определенного времени. То же самое можно сказать о влиянии заучивания конкретного количества иностранных слов на успешность перевода текста на редкий язык: эффект проявляется не сразу (если проявляется).

Отношения между переменными

В основе построения современной экспериментальной психологии лежит формула К. Левина - поведение есть функция личности и ситуации:

B = f (P; S).

Необихевиористы ставят в формулу вместо Р (личность) О (организм), что более точно, если считать испытуемыми не только людей, но и животных, а личность редуцировать к организму.

Как бы то ни было, большинство специалистов по теории психологического эксперимента, в частности МакГиган, считают, что в психологии существуют два типа законов: 1) «стимул-ответ»; 2) «организм-поведение».

Первый тип законов обнаруживается в ходе экспериментального исследования, когда стимул (задача, ситуация) - это независимая переменная, а зависимая переменная - ответ испытуемого.

Второй тип законов является продуктом метода систематического наблюдения и измерения, поскольку свойствами организма управлять с помощью психологических средств нельзя.

Существуют ли «пересечения»? Разумеется. Ведь в психологическом эксперименте зачастую учитывается влияние так называемых дополнительных переменных, большинство из которых является дифференциально-психологическими характеристиками. Следовательно, есть смысл добавить в список и «системные» законы, описывающие влияние ситуации на поведение личности, обладающей определенными свойствами. Но в психофизиологических и психофармакологических экспериментах можно воздействовать на состояние организма, а в ходе формирующего эксперимента - целенаправленно и необратимо изменять те или иные свойства личности.

В классическом психологическом поведенческом эксперименте устанавливается функциональная зависимость вида

R = f(S),

где R - ответ, a S - ситуация (стимул, задача). Переменная S систематически варьируется, а детерминируемые ею изменения ответа испытуемого фиксируются. В ходе изучения проявляются условия, при которых испытуемый ведет себя тем или иным образом. Результат фиксируется в форме линейной или нелинейной зависимости.

Другой тип зависимостей символизируется как зависимость поведения от лич­ностных свойств или состояний организма испытуемого:

R = f (О) или R = f(P).

Исследуется зависимость поведения испытуемого от того или иного состояния организма (болезни, усталости, уровня активации, фрустрации потребностей и т.д.) или от личностных свойств (тревожности, мотивации и т.д.). Исследования проводятся с участием групп людей, различающихся по данному признаку: свойству или актуальному состоянию.

Естественно, эти две строгие зависимости являются простейшими формами отношений между переменными. Возможны более сложные зависимости, устанавливаемые в конкретном эксперименте, в частности, факторные планы позволяют выявить зависимости вида R = f (S 1 , S 2), когда ответ испытуемого зависит от двух варьируемых параметров ситуации, а поведение является функцией состояния организма и среды.

Остановимся на формуле Левина. В общей форме она выражает идеал экспериментальной психологии возможность предсказать поведение конкретной личности в определенной ситуации. Переменная «личность», которая входит в состав этой формулы, вряд ли может рассматриваться лишь как «дополнительная». Традиция необихевиоризма предлагает использовать термин «промежуточная» переменная. В последнее время за такими «переменными» - свойствами и состояниями личности - закрепился тер­мин «переменная-модератор», т.е. посредник.

Рассмотрим основные возможные варианты отношений между зависимыми переменными. Существует, как минимум, шесть видов связи переменных. Первый, он же простейший, - отсутствие зависимости. Графически он выражается в форме прямой, параллельной оси абсцисс на графике, где по оси абсцисс (X) отложены уровни независимой переменной. Зависимая переменная не чувствительна к изменению независимой.

Монотонно возрастающая зависимость наблюдается тогда, когда увеличению значений независимой переменной соответствует изменение зависимой переменной.

Монотонно убывающая зависимость наблюдается, если увеличению значений независимой переменной соответствует уменьшение уровня независимой переменной.

Нелинейная зависимость U -образного типа обнаруживается в большинстве экспериментов, в которых выявляются особенности психической регуляции поведения.

Инвертированная U -образная зависимость получается в многочисленных экспериментальных и корреляционных исследованиях, как в психологии личности, мотивации, так и в социальной психологии.

Последний вариант зависимости обнаруживается не так часто, как предыдущие, - сложная квазипериодическая зависимость уровня зависимой переменной от уровня независимой.

При выборе способа описания работает «принцип экономии». Любое простое описание лучше, чем комплексное, даже если они одинаково успешны. Поэтому аргументы, распространенные в отечественных научных дискуссиях типа «Все гораздо сложнее на самом деле, чем представляет автор», по меньшей мере, бессмысленны. Тем более что никто не знает, как «на самом деле».

Так называемое «комплексное описание», «многомерное описание» есть зачастую просто попытка уйти от решения научной проблемы, способ маскировки личной некомпетентности, которую хотят скрыть за путаницей корреляционных связей и сложносоставными формулами, где все всему равняется.

Очень часто маркетолог ищет ответы на вопросы типа: «Увели­чится ли показатель рыночной доли при увеличении числа дилеров?», «Есть ли связь между объемом сбыта и рекламой?» Такие связи не всегда имеют причинно-следственный характер, а могут иметь просто статисти­ческую природу. В поставленных вопросах можно определенно говорить о влиянии одного фактора на другой. Однако степень влияния изучаемых факторов может быть различной; скорее всего, влияние могут оказывать также какие-то другие факторы. Выделяют четыре типа связей между двумя переменными: немонотонная, монотонная, линейная и криволи­нейная.

Немонотонная связь характеризуется тем, что присутствие (отсут­ствие) одной переменной систематически связано с присутствием (отсут­ствием) другой переменной, но ничего неизвестно о направлении этого взаимодействия (приводит ли, например, увеличение одной переменной к увеличению или уменьшению другой). Например, известно, что посети­тели закусочных в утренние часы предпочитают заказывать кофе, а в се­редине дня - чай.

Немонотонная связь просто показывает, что утренние посетители предпочитают также заказывать яйца, бутерброды и бисквиты, а в обе­денное время скорее заказывают мясные блюда с гарниром.

Монотонная связь характеризуется возможностью указать только общее направление связи между двумя переменными без использования каких-либо количественных характеристик. Нельзя сказать, насколько, например, определенное увеличение одной переменной приводит к уве­личению другой переменной. Существуют только два типа таких связей: увеличение и уменьшение. Например, владельцу обувного магазина из­вестно, что более взрослые дети обычно требуют обувь бoльших размеров. Однако невозможно четко установить связь между конкретным возрастом и точным размером обуви.

Линейная связь характеризует прямолинейную зависимость между двумя переменными. Знание количественной характеристики одной пе­ременной автоматически предопределяет знание величины другой пере­менной:

у=а+bх, (4.3)

где у - оцениваемая или прогнозируемая зависимая переменная (ре­зультативный признак);

а - свободный член уравнения;

b - коэффициент регрессии, измеряющий среднее отношение от­клонения результативного признака от его средней величины к отклонению факторного признака от его средней величины на одну единицу его измерения - вариация у, приходящаяся на единицу вариации х;

х - независимая переменная (факторный признак), используемая для определения зависимой переменной.

Коэффициенты а и b рассчитываются на основе наблюдений вели­чин у и х с помощью метода наименьших квадратов .

Предположим, что торговый агент продает детские игрушки, по­сещая квартиры случайным образом. Отсутствие посещения какой-то квартиры означает отсутствие продажи, или а = 0. Если в среднем каж­дый десятый визит сопровождается продажей на 62 доллара, то стоимость продажи на один визит составит 6,2 доллара, или b = 6,2.

у=0 + 6,2х.

Таким образом, можно ожидать, что при 100 визитах доход соста­вит 620 долларов. Надо помнить, что эта оценка не является обязатель­ной, а носит вероятностный характер.

Криволинейная связь характеризует связь между переменными, носящую более сложный характер по сравнению с прямой линией. На­пример, связь между переменными может описываться 5-образной кри­вой (см. раздел 7.3).

В зависимости от своего типа связь может быть охарактеризована путем определения: ее присутствия (отсутствия), направления и силы (тесноты) связи.

Присутствие характеризует наличие или отсутствие систематиче­ской связи между двумя изучаемыми переменными; оно имеет статисти­ческую природу. Проведя испытание статистической значимости, опреде­ляют, существует ли зависимость между данными. Если результаты ис­следования отвергают нулевую гипотезу, это говорит о том, что зависи­мость между данными существует.

В случае монотонных линейных связей последние могут быть опи­саны с точки зрения их направления - в сторону увеличения или уменьшения.

Связь между двумя переменными может быть сильной, умеренной, слабой или отсутствовать. Сильная зависимость характеризуется высокой вероятностью существования связи между двумя переменными, слабая - малой вероятностью.

Существуют специальные процедуры для определения указанных выше характеристик связей. Первоначально надо решить, какой тип свя­зей может существовать между двумя изучаемыми переменными. Ответ на этот вопрос зависит от выбранной шкалы измерений.

Шкала низкого уровня (наименований) может отразить только не­точные связи, в то время как шкала отношений, или интервальная, - очень точные связи. Определив тип связи (монотонная, немонотонная), надо установить, существует ли эта связь для генеральной совокупности в целом. Для этого проводятся статистические испытания.

После того как найдено, что для генеральной совокупности суще­ствует определенный тип связи, устанавливается ее направление. Нако­нец, необходимо установить силу (тесноту) связи.

Для определения, существует или нет немонотонная зависимость, используется таблица сопряженности двух переменных и критерий хи-квадрат. Как правило, критерий хи-квадрат применяется для анализа таб­лиц сопряженности номинальных признаков, однако он может использо­ваться и при анализе взаимосвязи порядковых, или интервальных, пере­менных. Если, скажем, было выяснено, что две переменные не связаны друг с другом, то их дальнейшим исследованием заниматься не стоит. Некоторые указания на связь скорее были обусловлены ошибкой выбор­ки. Если же тест на хи-квадрат указал на связь, то она существует в ре­альности для генеральной совокупности и ее, возможно, следует изучать. Однако этот анализ не указывает на характер связи.

Предположим, что изучалась лояльность к определенной марке пи­ва среди служащих и рабочих (двумя переменными, измеренными в шка­ле наименований). Результаты опроса затабулированы в следующем виде (табл. 4.16).

Таблица 4.16

Матрицы сопряженности частоты

Результаты первоначальной табуляции

Первоначальные процентные данные (деление на 200)

Проценты по колонкам

Первая из приведенных матриц содержит наблюдаемые частоты, которые сравниваются с ожидаемыми частотами, определяемыми как теоретические частоты, вытекающие из принимаемой гипотезы об отсут­ствии связи между двумя переменными (выполняется нулевая гипотеза). Величина отличия наблюдаемых частот от ожидаемых выражается с по­мощью величины х-квадрата. Последняя сравнивается с ее табличным значением для выбранного уровня значимости. Когда величина хи-квадрата мала, то нулевая гипотеза принимается, а следовательно, счита­ется, что две переменные являются независимыми и исследователю не стоит тратить время на выяснение связи между ними, поскольку связь является результатом выборочной ошибки.

Вернемся к нашему примеру и рассчитаем ожидаемые частоты, пользуясь таблицей частот:

=

где f ni - наблюдаемая частота в ячейке i;

f ai - ожидаемая частота в ячейке i;

n - число ячеек матрицы.

Из таблицы критических значений х-квадрата вытекает, что для степени свободы, равной в нашем примере 1, и уровня значимости альфа =0,05 критическое значение х-квадрата равно 3,841 . Видно, что рас­четное значение х-квадрата существенно больше его критического значе­ния. Это говорит о существовании статистически значимой связи между родом деятельности и лояльностью к исследованной марке пива, и не только для данной выборки, но и для совокупности в целом. Из таблицы следует, что главная связь заключается в том, что рабочие покупают пиво данной марки реже по сравнению со служащими.

Теснота связи и ее направление определяются путем расчета коэф­фициента корреляции, который изменяется от -1 до +1. Абсолютная ве­личина коэффициента корреляции характеризует тесноту связи, а знак указывает на ее направление .

Вначале определяется статистическая значимость коэффициента корреляции. Безотносительно к его абсолютной величине коэффициент корреляции, не обладающий статистической значимостью, бессмыслен. Статистическая значимость проверяется с помощью нулевой гипотезы, которая констатирует, что для совокупности коэффициент корреляции равен нулю. Если нулевая гипотеза отвергается, это означает, что коэф­фициент корреляции для выборки является значимым и его значение для совокупности не будет равно нулю. Существуют таблицы, с помощью которых, для выборки определенного объема, можно определить наи­меньшую величину значимости для коэффициента корреляции.


Таблица 4.17

Сила связи в зависимости от величины коэффициента корреляции

Рассмотрим пример. Исследуется возможная взаимосвязь между суммарными продажами компании на отдельных двадцати территориях и числом сбытовиков, осуществляющих эти продажи. Были рассчитаны средние величины продаж и средние квадратические отклонения. Сред­няя величина продаж составила 200 миллионов долларов, а среднее квадратическое отклонение - 50 миллионов долларов. Среднее число сбыто­виков равнялось 12 при среднем квадратическом отклонении, равном 4. Для стандартизации полученных чисел в целях проведения унифици­рованных сравнений объемы продаж в каждом регионе переводятся в величины средних квадратических отклонений от средней величины для всех регионов (путем вычитания объема продаж для каждого региона из среднего для регионов объема продаж и деления полученных величин на среднее квадратическое отклонение). Такие же расчеты проводятся и для сбытовиков, обслуживающих разные регионы (рис. 4.7). Из рис. 4.7 вид­но, что две линии изменяются подобным образом. Это говорит о поло­жительной, очень тесной связи двух исследуемых переменных.

Рис. 4.7. Корреляция между числом сбытовиков и объемами продаж

Исходные данные в рассматриваемом примере также возможно представить по-другому (рис. 4.8). Из рис. 4.8 вытекают относительно слабый разброс точек (если бы все они легли на одну линию, коэффици­ент корреляции был бы равен +1) и достаточно большой угол наклона воображаемой кривой, проведенной через эти точки, что говорит о силь­ном влиянии численности сбытовиков на объем продаж.

Корреляционная зависимость – предполагает взаимную согласованность изменений переменных величин. Эти изменения можно измерить однократно или многократно

Кластерный анализ.

Функциональное воздействие – изменения независимой переменной сопровождаются все ускоряющимися изменениями зависимой.

Функциональная зависимость – изменение одной переменной оказывает воздействие на изменение другой переменной, которая воздействует на первую переменную. Корреляционный анализ.

26. Корреляционный анализ. Проблема ложной корреляции. Коэффициенты корреляции.

Применяется для выяснения взаимодействия и тенденций изменения характеристик изучаемого явления. Корреляция – наличие статистической взаимосвязи признаков. Корреляционный анализ выясняет функциональную зависимость между переменными величинами, которая характеризуется тем, что каждому значению одной из них соответствует вполне определенное значение другой.

Парная (характеризует тип, форму, плотность связи между 2 признаками) и множественная корреляция (между несколькими).

Зависимость чаще всего возникает там, где одно явление находится под воздействием большого числа факторов, действующих с разной силой, поэтому есть специальные меры корреляционной связи – коэффициенты корреляции. Они показывают степень зависимости одного социального явления от другого (плотность связи). Чем выше коэффициент между 2 переменными, тем точнее можно предсказать значения одной из них по значениям другой. Коэффициент не содержит информации о том, является ли данная связь причинно-следственной или сопутствующей (порожденной одной причиной). Величина коэффициента позволяет определить плотность связи как меньшую или больную. По знаку для порядковых рядов можно сказать, является ли связь обратной или прямой, для номинальных знак не несет смысловой нагрузки. Для установления корреляционной связи между 2 признаками надо доказать, что все другие переменные не оказывают воздействия на отношения 2 переменных. Иначе возникает ситуация ложной корреляции. Чтобы избежать ошибки в ситуации ложной корреляции используют анализ взаимосвязи между двумя перемен-ными с помощью контрольного фактора. Корреляц. анализ позволяет отбросить несуществующие связи.

Корреляционному анализу предшествует стадия расчет статистики Х 2 . она позволяет проверить нулевую гипотезу о наличии связи между 2 рядами признаков. Нулевая гипотеза – утверждение, отрицающее зависимость между рядами переменных. Доказательство ее ложности говорит о том, что связь есть.

таблица с данными опроса.

таблица распределения вероятностных признаков. Значение в ячейках равно отношению произведения соответствующего итогового столбца и строки к общему числу опрошенных.

полученной значение необходимо сравнить с табличным критически значением Х 2 . для этого надо определить степень свободы (df).

Df = (r – 1)(c – 1)

5. определить уровень статистической значимости. Он оказывает, насколько вероятна связь, зафиксированная между 2 признаками. = 0, 05.

6. сравнить расчетное значение хи-квадрат с табличным.

7. нулевая гипотеза отвергается, если расчетное значение хи-квадрат больше, чем табличное.

Если изучается связь между альтернативными признаками, то таблица 4-клеточная. Коэффициент Юла (Q) и коэффициент контингенции (Ф).

Коэффициент Юла

Q = ac bd / ac + bd . При Q = 0 связи между признаками нет. При Q = 0, 59 существует неустойчивая связь. При Q больше или равно 1, корреляция полная. Односторонняя связь.

Для измерения двусторонней связи коэффициент контингенции. Ф всегда меньше Q.

Ф = ac bd / √ (a + d )(b + c )(a + b )(c + d )

Коэффициент корреляции Пирсона – стандартный.

P = √ X 2 / X 2 + N . N - количество опрошенных.

Если P больше или равен 0, 37, то связь есть.

Коэффициент Чупрова.

Т = √ X 2 / N √ (C -1)(C – 1). T больше или равен 0, 5.

Коэффициенты ранговой корреляции. Ранговые шкалы. Спирмен

Р = 1 – 6 ∑ d 2 / N (N 2 – 1)

D – разность между рангами. N - количество рангов.

Цель: выявление сходства распределения ответов 2 групп опрашиваемых на один и тот же вопрос. При р= - 1 порядок распределения ответом по 2 группам прямо противоположен, а при р= +1 он совпадает. Сравнивает идентичность распределения ответов 2 групп. Также есть коэффициент ранговой корреляции Кендалла и множественный коэффициент корреляции.