Главная · Диарея · Поиск объектов указанием связей между шаблонами. Корреляционный анализ спирмена

Поиск объектов указанием связей между шаблонами. Корреляционный анализ спирмена

Для социально-экономических явлений характерно, что наряду с существенными факторами, формирующими уровень результативного признака, на него оказывают воздействие многие другие неучтенные и случайные факторы. Это свидетельствует о том, что взаимосвязи явлений, которые изучает статистика, носят корреляционный характер и аналитически выражаются функцией вида:

y ср. x == f (x).

Корреляция – это статистическая зависимость между случайными величинами, не имеющими строго функционального характера, при которой изменений одной из случайных величин приводит к изменению математического ожидания другой.

В статистике принято различать следующие варианты зависимостей :

1. Парная корреляция – связь между двумя признаками (результативным и факторным или двумя факторными).

2. Частная корреляция – зависимость между результативным и одним факторным признаками при фиксированном значении других факторных признаков.

3. Множественная корреляция – зависимость результативного и двух или более факторных признаков, включенных в исследование.

Корреляционный анализ имеет своей задачей количественное определение тесноты связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаков (при многофакторной связи).

Теснота связи количественно выражается величиной коэффициентов корреляции. Коэффициенты корреляции, представляя количественную характеристику тесноты связи между признаками, дают возможность определять “полезность” факторных признаков при построении уравнений множественной регрессии. Величина коэффициента корреляции служит также оценкой соответствия уравнения регрессии выявленным причинно-следственным связям.

Первоначально исследования корреляции проводились в биологии, а позднее распространились и на другие области, в том числе и на социально-экономическую. Одновременно с корреляцией начала использоваться и регрессия. Корреляция и регрессия тесно связаны между собой: корреляция оценивает силу (теснота) статистической связи, регрессия исследует ее форму . Та и другая служат для установления соотношения между явлениями, для определения наличия и отсутствия связи.

Корреляционно-регрессионный анализ как общее понятие включает в себя измерение тесноты, направления связи(корреляционный анализ) и установление аналитического выражения (формы) связи (регрессионный анализ).

Регрессионный анализ заключается в определении аналитического выражения связи, в котором изменение одной величины (называемой зависимой или результативным признаком) обусловлено влиянием одной или нескольких независимых величин (факторов), а множество всех прочих факторов, также оказывающих влияние на зависимую величину, принимается за постоянные и средние значения. Регрессия может быть однофакторной (парной) и многофакторной (множественной) .

По форме зависимости различают:

1) линейную регрессию, которая выражается уравнениями прямой (линейной функцией) вида: Yср. x = а 0 + а 1 х

2) нелинейную регрессию, которая выражается уравнениями вида:

Парабола: Yср. x = а 0 + а 1 х + а 2 х 2

Гипербола: Yср. x = а 0 + а 1 / х и др.

По направлению связи различают:

1) прямую регрессию (положительную), возникающую при условии, если с увеличением или уменьшением независимой величины значения зависимой также соответственно увеличиваются или уменьшаются;

2) обратную (отрицательную) регрессию, проявляющуюся при условии, что с увеличением или уменьшением независимой величины зависимая соответственно уменьшается или увеличивается.

Положительную и отрицательную регрессии легче понять, если использовать их графическое изображение (см. рисунки ниже).

а) Прямая (положительная) регрессия.

б) Обратная (отрицательная) регрессия.

Рисунок 10 – Прямая и обратная регрессия

Для простой (парной) регрессии в условиях, когда достаточно полно установлены причинно-следственные связи, приобретает практический смысл только последнее положение; при множественности причинных связей невозможно четко разграничить одни причинные явления от других.

Итак, все явления и процессы, характеризующие социально-экономическое развитие и составляющие единую систему национальных счетов, тесно взаимосвязаны и взаимозависимы между собой. В статистике показатели, характеризующие эти явления, могут быть связаны либо корреляционной зависимостью , либо быть независимыми . Корреляционная зависимость является частным случаем стохастической зависимости, при которой изменение значений факторных признаков (х 1 , х 2 , х 3 ….х k) влечет за собой изменение среднего значения результативного признака. Корреляционная зависимость исследуется с помощью методов корреляционного и регрессионного анализов. Корреляционный анализ изучает взаимосвязи показателей и позволяет решить задачи: оценка тесноты связи между показателями с помощью парных, частных и множественных коэффициентов корреляции; оценка уровня регрессии. Целью регрессионного анализа является оценка функциональной зависимости условного среднего значения результативного признака (Y) от факторных (х 1 , х 2 , х 3 ….х k). Уравнение регрессии, или статистическая модель связи социально-экономических явлений, выражаемая функцией: Yср. x = f (х 1 , х 2 , х 3 ….х k), является достаточно адекватной реальному

моделируемому явлению или процессу в случае соблюдения следующих требований их построения:

1. Совокупность исследуемых исходных данных должна быть однородной и математически описываться непрерывными функциями.

2. Возможность описания моделируемого явления одним или несколькими уравнениями причинно-следственной связи.

3. Все факторные признаки должны иметь количественное (цифровое) выражение.

4. Наличие достаточно большого объема исследуемой выборочной совокупности.

5. Причинно-следственные связи между явлениями и процессами следует описывать линейной или приводимой к линейной формой зависимости.

6. Отсутствие количественных ограничений на параметры модели связи.

Постоянство территориальной и временной структуры изучаемой совокупности


Корреляционный анализ (от лат. «соотношение», «связь») применяется для проверки гипотезы о статистической зависимости значений двух или нескольких переменных в том случае, если исследователь может их регистрировать (измерять), но не контролировать (изменять).

Когда повышение уровня одной переменной сопровождается повышением уровня другой, то речь идет о положительной корреляции. Если же рост одной переменной происходит при снижении уровня другой, то говорят об отрицательной корреляции. При отсутствии связи переменных мы имеем дело с нулевой корреляцией.

При этом переменными могут быть данные тестирований, наблюдений, экспериментов, социально-демографические характеристики, физиологические параметры, особенности поведения и т. д. К примеру, использование метода позволяет нам дать количественно выраженную оценку взаимосвязи таких признаков, как: успешность обучения в вузе и степень профессиональных достижений по его окончании, уровень притязаний и стресс, количество детей в семье и качества их интеллекта, черты личности и профессиональная ориентация, продолжительность одиночества и динамика самооценки, тревожность и внутригрупповой статус, социальная адаптированность и агрессивность при конфликте...

В качестве вспомогательных средств, процедуры корреляции незаменимы при конструировании тестов (для определения валидности и надежности измерения), а также как пилотажные действия по проверке пригодности экспериментальных гипотез (факт отсутствия корреляции позволяет отвергнуть предположение о причинно-следственной связи переменных).

Усиление интереса в психологической науке к потенциалу корреляционного анализа обусловлено целым рядом причин. Во-первых, становится допустимым изучение широкого круга переменных, экспериментальная проверка которых затруднена или невозможна. Ведь по этическим соображениям, к примеру, нельзя провести экспериментальные исследования самоубийств, наркомании, деструктивных родительских воздействий, влияния авторитарных сект. Во-вторых, возможно получение за короткое время ценных обобщений данных о больших количествах исследуемых лиц. В-третьих, известно, что многие феномены изменяют свою специфику во время строгих лабораторных экспериментов. А корреляционный анализ предоставляет исследователю возможность оперировать информацией, полученной в условиях, максимально приближенных к реальным. В-четвертых, осуществление статистического изучения динамики той или иной зависимости нередко создает предпосылки к достоверному прогнозированию психологических процессов и явлений.

Однако следует иметь в виду, что применение корреляционного метода связано и с весьма существенными принципиальными ограничениями.

Так, известно, что переменные вполне могут коррелировать и при отсутствии причинно-следственной связи между собой.

Это иногда возможно в силу действия случайных причин, при неоднородности выборки, из-за неадекватности исследовательского инструментария поставленным задачам. Такая ложная корреляция способна стать, скажем, «доказательством» того, что женщины дисциплинированнее мужчин, подростки из неполных семей более склонны к правонарушениям, экстраверты агрессивнее интровертов и т. п. Действительно, стоит отобрать в одну группу мужчин, работающих в высшей школе, и женщин, предположим, из сферы обслуживания, да еще и протестировать тех и других на знание научной методологии, то мы получим выражение заметной зависимости качества информированности от пола. Можно ли доверять такой корреляции?

Еще чаще, пожалуй, в исследовательской практике встречаются случаи, когда обе переменные изменяются под влиянием некоей третьей или даже нескольких скрытых детерминант.

Если мы обозначим цифрами переменные, а стрелками - направления от причин к следствиям, то увидим целый ряд возможных вариантов:

1→ 2→ 3→ 4

1← 2← 3→ 4

1← 2→ 3→ 4

1← 2← 3← 4

Невнимание к воздействию реальных, но неучтенных исследователями факторов позволило представить обоснования того, что интеллект - сугубо наследуемое образование (психогенетический подход) или, напротив, что он обусловлен лишь влиянием социальных составляющих развития (социогенетический подход). В психологии, следует заметить, нераспространены феномены, имеющие однозначную первопричину.

Кроме того, факт наличия взаимосвязи переменных не дает возможности выявить по итогам корреляционного исследования причину и следствие даже в тех случаях, когда промежуточных переменных не существует.

Например, при изучении агрессивности детей было установлено, что склонные к жестокости дети чаще сверстников смотрят фильмы со сценами насилия. Означает ли это, что такие сцены развивают агрессивные реакции или, наоборот, подобные фильмы привлекают самых агрессивных детей? В рамках корреляционного исследования дать правомерный ответ на этот вопрос невозможно.

Необходимо запомнить: наличие корреляций не является показателем выраженности и направленности причинно-следственных отношений.

Другими словами, установив корреляцию переменных, мы можем судить не о детерминантах и производных, а лишь о том, насколько тесно взаимосвязаны изменения переменных и каким образом одна из них реагирует на динамику другой.

При использовании данного метода оперируют той или иной разновидностью коэффициента корреляции. Его числовое значение обычно изменяется от -1 (обратная зависимость переменных) до +1 (прямая зависимость). При этом нулевое значение коэффициента соответствует полному отсутствию взаимосвязи динамики переменных.

Например, коэффициент корреляции +0,80 отражает наличие более выраженной зависимости между переменными, чем коэффициент +0,25. Аналогично, зависимость между переменными, характеризуемая коэффициентом -0,95, гораздо теснее, чем та, где коэффициенты имеют значения +0,80 или + 0,25 («минус» указывает нам только на то, что рост одной переменной сопровождается уменьшением другой).

В практике психологических исследований показатели коэффициентов корреляции обычно не достигают +1 или -1. Речь может идти только о той или иной степени приближения к данному значению. Часто корреляция считается выраженной, если ее коэффициент выше ±0,60. При этом недостаточной корреляцией, как правило, считаются показатели, располагающиеся в интервале от -0,30 до +0,30.

Однако, сразу следует оговорить, что интерпретация наличия корреляции всегда предполагает определение критических значений соответствующего коэффициента. Рассмотрим этот момент более подробно.

Вполне может получиться так, что коэффициент корреляции равный +0,50 в некоторых случаях не будет признан достоверным, а коэффициент, составляющий +0,30, окажется при определенных условиях характеристикой несомненной корреляции. Многое здесь зависит от протяженности рядов переменных (т. е. от количества сопоставляемых показателей), а также от заданной величины уровня значимости (или от принятой за приемлемую вероятность ошибки в расчетах).

Ведь, с одной стороны, чем больше выборка, тем количественно меньший коэффициент будет считаться достоверным свидетельством корреляционных отношений. А с другой стороны, если мы готовы смириться со значительной вероятностью ошибки, то можем посчитать за достаточную небольшую величину коэффициента корреляции.

Существуют стандартные таблицы с критическими значениями коэффициентов корреляции. Если полученный нами коэффициент окажется ниже, чем указанный в таблице для данной выборки при установленном уровне значимости, то он считается статистически недостоверным.

Работая с такой таблицей, следует знать, что пороговой величиной уровня значимости в психологических исследованиях обычно считается 0,05 (или пять процентов). Разумеется, риск ошибиться будет еще меньше, если эта вероятность составляет 1 на 100 или, еще лучше, 1 на 1000.

Итак, не сама по себе величина подсчитанного коэффициента корреляции служит основанием для оценки качества связи переменных, а статистическое решение о том, можно ли считать вычисленный показатель коэффициента достоверным.

Зная это, обратимся к изучению конкретных способов определения коэффициентов корреляции.

Значительный вклад в разработку статистического аппарата корреляционных исследований внес английский математик и биолог Карл Пирсон (1857-1936), занимавшийся в свое время проверкой эволюционной теории Ч. Дарвина.

Обозначение коэффициента корреляции Пирсона (r) происходит от понятия регрессии - операции по сведению множества частных зависимостей между отдельными значениями переменных к их непрерывной (линейной) усредненной зависимости.

Формула для расчета коэффициента Пирсона имеет такой вид:

где x, y - частные значения переменных, S - (сигма) - обозначение суммы, а - средние значения тех же самых переменных. Рассмотрим порядок использования таблицы критических значений коэффициентов Пирсона. Как мы видим, в левой ее графе указано число степеней свободы. Определяя нужную нам строчку, мы исходим из того, что искомая степень свободы равна n -2, где n - количество данных в каждом из коррелируемых рядов. В графах же, расположенных с правой стороны, указаны конкретные значения модулей коэффициентов.

Причем, чем правее расположен столбик чисел, тем выше достоверность корреляции, увереннее статистическое решение о её значимости.

Если у нас, например, коррелируют два ряда цифр по 10 единиц в каждом из них и получен по формуле Пирсона коэффициент, равный +0,65, то он будет считаться значимым на уровне 0,05 (так как больше критического значения в 0,632 для вероятности 0,05 и меньше критического значения 0,715 для вероятности 0,02). Такой уровень значимости свидетельствует о существенной вероятности повторения данной корреляции в аналогичных исследованиях.

Теперь приведем пример вычисления коэффициента корреляции Пирсона. Пусть в нашем случае необходимо определить характер связи между выполнением одними и теми же лицами двух тестов. Данные по первому из них обозначены как x , а по второму - как y .

Для упрощения расчетов введены некоторые тождества. А именно:

При этом мы имеем следующие результаты испытуемых (в тестовых баллах):

Заметим, что число степеней свободы равно в нашем случае 10. Обратившись к таблице критических значений коэффициентов Пирсона, узнаем, что при данной степени свободы на уровне значимости 0,999 будет считаться достоверным любой показатель корреляции переменных выше, чем 0,823. Это дает нам право считать полученный коэффициент свидетельством несомненной корреляции рядов x и y .

Применение линейного коэффициента корреляции становится неправомерным в тех случаях, когда вычисления производятся в пределах не интервальной, а порядковой шкалы измерения. Тогда используют коэффициенты ранговой корреляции. Разумеется, результаты при этом получаются менее точными, так как сопоставлению подлежат не сами количественные характеристики, а лишь порядки их следования друг за другом.

Среди коэффициентов ранговой корреляции в практике психологических исследований довольно часто применяют тот, который предложен английским ученым Чарльзом Спирменом (1863-1945), известным разработчиком двухфакторной теории интеллекта.

Используя соответствующий пример, рассмотрим действия, необходимые для определения коэффициента ранговой корреляции Спирмена.

Формула его вычисления выглядит следующим образом:

где d - разности между рангами каждой переменной из рядов x и y ,

n - число сопоставляемых пар.

Пусть x и y - показатели успешности выполнения испытуемыми некоторых видов деятельности (оценки индивидуальных достижений). При этом мы располагаем следующими данными:

Заметим, что вначале производится раздельное ранжирование показателей в рядах x и y . Если при этом встречается несколько равных переменных, то им присваивается одинаковый усредненный ранг.

Затем осуществляется попарное определение разности рангов. Знак разности несущественен, так как по формуле она возводится в квадрат.

В нашем примере сумма квадратов разностей рангов ∑d 2 равна 178. Подставим полученное число в формулу:

Как мы видим, показатель коэффициента корреляции в данном случае составляет ничтожно малую величину. Тем не менее, сопоставим его с критическими значениями коэффициента Спирмена из стандартной таблицы.

Вывод: между указанными рядами переменных x и y корреляция отсутствует.

Надо заметить, что использование процедур ранговой корреляции предоставляет исследователю возможность определять соотношения не только количественных, но и качественных признаков, в том, разумеется, случае, если последние могут быть упорядочены по возрастанию выраженности (ранжированы).

Нами были рассмотрены наиболее распространенные, пожалуй, на практике способы определения коэффициентов корреляции. Иные, более сложные или реже применяемые разновидности данного метода при необходимости можно найти в материалах пособий, посвященных измерениям в научных исследованиях.



Лекция № 4

1. Сущность теории корреляции.

2. Вычисление коэффициента корреляции.

3. Оценка точности коэффициента корреляции.

4. Ранговая корреляция.

5. Получение эмпирических формул зависимости явлений.

6. Множественная корреляция.

7. Частная корреляция.

8. Компонентный и факторный анализы.

1 Сущность теории корреляции. Диалектический подход к изучению закономерностей природы и общества требует рассмотрения процессов и явлений в их сложных взаимосвязях.

Явления географической среды зависят от многих, часто неизвест­ных и меняющихся факторов. Выявить и изучить такие связи помогает теория корреляции - один из центральных разделов математической статистики, исключительно важный для исследователей.

Рисунок 4.1 – Функциональ­ная зависимость

Главные задачи корреляционного анализа - изучение формы, знака (плюс или минус) и тесноты связей.

Опишем кратко сущность теории корреляции.

Все связи делятся на функцио­нальные, рассматриваемые в курсах математического анализа, и корреля­ционные.

Функциональная зависимость предполагает однозначное соответ­ствие между величинами, когда численному значению одной величины, называемой аргументом, соответствует строго определенное значение другой величины - функции. При графическом изображении функцио­нальной связи в прямоугольной системе координат (х, у), если по оси абсцисс отложить значение одного признака, а по оси ординат - друго­го, все точки расположатся на одной линии (прямой или кривой). Функ­циональные (идеальные) связи встречаются в абстрактных математиче­ских обобщениях. Например, зависимость площади круга от радиуса (R) выразится на графике определенной кривой (рис. 1), построенной по формуле

В любой опытной науке экспериментатор имеет дело не с функ­циональными связями, а с корреляционными, для которых характерен известный разброс результатов эксперимента. Причина колеблемости заключается в том, что функция (изучаемое явление) зависит не только от одного или нескольких рассматриваемых факторов, но и от множест­ва других. Так, урожайность зерновых культур будет зависеть от ряда климатических, почвенных, экономических и других условий. Если связь урожайности с каким-либо из указанных факторов изобразить графически в системе координат (х, у), то получим разброс точек. Зако­номерности корреляционных связей и изучает теория корреляции.

В основе теории корреляции лежит представление о тесноте связи между изучаемыми явлениями (большая или малая связь). Для луч­шего уяснения редко встречаемого в географической литературе поня­тия «теснота связи» представим его в графической форме путем построения так называемого поля корреляции. Для этого результаты каждого наблюдения за элементами статистической совокупности по двум признакам отмечаем точкой в системе прямоугольных координат х и у. Таким путем, например, можно изобразить зависимость урожайно­сти зерновых по районам от гидротермического коэффициента. Чем больше разброс точек на поле корреляции, тем меньше теснота связи между изучаемыми явлениями. Рассмотрим два корреляционных поля (а и б, рис. 4.2). На поле а показана зависимость скорости роста оврагов (у) от площади водосбора (xi), на поле б - от угла наклона (хз). Меньший разброс точек первого корреляционного поля указывает на то, что скорость роста оврагов более тесно связана с площадями водосбо­ров, чем с углами наклона. Иначе можно сказать: изучаемое явление зависит от первого картометрического показателя в большей степени.



По общему направлению роя точек - слева вверх направо - можно заключить, что в обоих случаях связь положительная (со знаком плюс).


Рисунок 4.2 – Корреляционная положительная связь:
а) большая теснота связи б) малая теснота связи

Рисунок 4.3 – Корреляционная отрицательная связь

При отрицательной (минусовой) зависимости рой точек направлен слева вниз направо (рис. 4.3). По характеру размещения точек в рое, их близо­сти к оси можно визуально определить не только тесноту и знак связи, но и ее форму, которая подразделяется на прямолинейную и криволинейную.

Первая форма связи воспроиз­ведена на рис. 4.2 а и б. Она условна и является частным случаем связи криволинейной. Однако именно прямолинейная связь (при всей ее условности) рассматривается в географических и других исследо­ваниях наиболее часто из-за простоты математико-статистического аппарата ее оценки и возможности применения при изучении многофакторных связей и зависимостей.

Рисунок 4.4 – Криволинейная форма связи

Степень кривизны географических корреляционных связей во многом зависит от меридиональной протяженности изучаемых терри­торий. На рисунке 4.4 показана в схематизированном виде криволинейная зависимость среднегодовой температуры (t) от географической широты t(j) в глобальном масштабе - от южного полюса (ЮП) через экватор (Э) до северного полюса (СП). Чем меньше протяженность изучаемой территории с юга на север, тем больше оснований назвать ее прямолинейной.

Так, на восходящем отрезке АВ (южное полушарие) связь прямолинейная положительная, а на нисходящем отрезке CD (северное полушарие) - прямолинейная отрицательная. На приэкваториальном отрезке ВС связь сохраняется криволинейной.

Визуально-графический способ изучения тесноты и формы связи прост, нагляден, но недоста­точно точен. Математико-статистическая обработка результатов наблюдений позволяет определить чи­словые значения, характеризующие как форму, так и тесноту связей.

2 Вычисление коэффициента корреляции. Наиболее распространенным показателем тесноты прямолинейной связи двух количественных признаков считается коэффициент корре­ляции (r). Его абсолютное численное значение находится в пределах от О до 1. Чем теснее связь, тем больше абсолютное значение г.

Если r = 0, то связи нет, если он равен ±1, то связь функциональ­ная (точки расположатся строго по линии). Знак «плюс» (+) указывает на прямую (положительную) зависимость, «минус» – на обратную (отрицательную). Предельные значения коэффициента корреляции (r = + 1, 0 и - 1) в практике географических исследований не встречаются; обычно их числовые значения находятся между нулем и положительной или отрицательной единицей.

Рассмотрим наиболее распространенную схему вычисления, опирающуюся на предварительные расчеты средних арифметически, центральных отклонений и средних квадратических отклонений да каждого количественного признака. Предположим, необходимо найти тесноту связи между количеством осадков в июле (х) и урожайностью пшеницы (у). Эти данные вносятся в первые два столбца таблицы 1.

Схема вычисления коэффициента корреляции

– сумма по столбцу 5; n – число наблюдений; d x и d у – средние квадратические отклонения признаков х и у, вычисленные по формуле, при­веденной в лекции 2. В нашем примере связь хорошая.

Таблица 1

X У Х-Х У-У (х-х).(у-у) (Х-Х) 2 (У-У) 2
-50 -10
-50 -6
-10 -6
-1 -10
-10 -7
1 600
800 180 0 0 1560 8600 464

Затем вычисляем разности между конкретными значениями ис­ходных величин и их средними арифметическими. Результаты этих расчетов записываем в столбцы 3 и 4. Вычисление чисел в столбцах 5, б и 7 вполне понятно из надписей над соответствующими столбцами. Под каждым столбцом подсчитываем суммы. Коэффициент корреляции (г) вычисляем по формуле

Особо ценен 5-й столбец схемы, представляющий собой совокуп­ность произведений центральных отклонений и названный ковариаци­онным столбцом. Он позволяет проверить правильность определения знака и численного значения коэффициента корреляции по соотноше­нию сумм плюсовых и минусовых показателей членов ковариационного ряда. Чем больше разнятся суммы плюсов и минусов, тем теснее связь исходных показателей. Примерное равенство их свидетельствует о низ­кой связи. Знак коэффициента корреляции будет соответствовать знаку превышения одной суммы над другой.

Коэффициент корреляции, как и d, проще определяется без вы­числения отклонений от средней. Приведем схему такого вычисления по данным предыдущего примера. Схема проста, и для ее понимания достаточно надписей над столбцами таблицы 2.

3 Оценка точности коэффициента корреляции. Как и всякая другая выборочная математико-статистическая ха­рактеристика, коэффициент корреляции имеет свою ошибку репрезен­тативности, вычисляемую при больших выборках (n > 50) по формуле

Таким образом, точность вычисления коэффициента корреляции повышается с увеличением объема выборки; она велика также при большой тесноте связи (r близок к +1 или -1).

Приведем пример вычисления ошибки выборочного r.

Коэффици­ент корреляции между заболеваемостью дизентерией и одним из клима­тических факторов r = 0,82.

Показатель тесноты связи вычисляется по данным 64 пунктов. Тогда

Получив суммы по всем столбцам, вычисляем коэффициент корреляции по формуле

С точностью определения коэффициента корреляции тесно связан вопрос о реальности существования этой связи между рассматриваемы­ми признаками. При малом объеме выборки или малой тесноте связи часто ошибки, коэффициента корреляции оказываются настолько боль­шими и сопоставимыми с самим коэффициентом, что встает вопрос, не случайно ли его значение отличается от нуля и соответствует ли опре­деленный знак связи действительной ее направленности (плюсовой или минусовой?) Этот вопрос разрешается численным сравнением r

чаться от нуля случайно, и связь явлений не доказывается.

Проверим, существует ли связь между явлениями в нашем примере

связь недостоверна, то есть ее может и не быть.

4 Ранговая корреляция. В географических исследованиях при малых объемах выбора часто требуется обработать статистический материал быстро, не претендуя на высокую точность. Для этого можно ограничиться вычислением не коэффициента корреляции, а ранговой корреляции. Суть этого показателя состоит в том, что действительные значения количественных признаков заменяются их рангами, то есть последовательным рядом простых чисел, начиная с единицы в порядке возрастания признака Например, имеются данные об урожайности зерновых культур (у) и количестве осадков за два месяца перед колошением (х) по пяти районам (табл. 3, столбцы 1 и 2). Требуется вычислить тесноту связи. Заме­няем значения признаков их рангами Хр и Ур (столбцы 3 и 4), находим разности рангов (столбец 5), затем вычисляем квадраты этих разностей (столбец 6).

Ранговый коэффициент корреляции (r) вычисляется по формуле

Этот показатель тесноты связи рассчитывается главным образом то­гда, когда достаточно выяснить приближенную величину тесноты связи, и поэтому полученные результаты можно округлять лишь до десятого знака. Ранговый коэффициент корреляции представляет ценность еще и потому, что в распоряжение географа-исследователя часто поступают данные о многих природных и социально-экономических явлениях, заранее выраженные в рангах или баллах, а последние легко перевести в ранги.

5 Получение эмпирических формул зависимости явлений. Корреляционные методы позволяют определить не только тесноту связи явлений, но и эмпирические формулы зависимости, с помощью которых можно по одним признакам находить другие, часто недоступ­ные или мало доступные наблюдению.

При вычислении коэффициента корреляции обычно получают пять основных статистических показателей - , , d x , d у и r. Эти пока­затели дают возможность легко и быстро рассчитать параметры линей­ной зависимости у от х. Известно, что такая зависимость выражается формулой

Параметры а и b вычисляются по формулам

Например, необходимо построить эмпирическую формулу линей­ной зависимости урожайности (у) от процента гумуса в почве (х). При вычислении коэффициента корреляции были получены следующие

По найденной формуле можно представить примерную урожай­ность, зная процент гумуса на любом участке изучаемой территории. Так, если процент гумуса равен 10, то следует ожидать урожайность у = 7+0,6-х ==7+0,6-10 =13 ц/га.

Чем больше абсолютная величина r , тем более точной и надежной будет эмпирическая формула зависимости.

6 Множественная корреляция. При изучении многофакторных связей встает проблема определе­ния степени совместного влияния нескольких факторов на исследуемое явление.

Корреляционный анализ обычно начинается с вычисления парных коэффициентов корреляции (r xy), выражающих степень зависимости изучаемого явления (у) от какого-либо фактора (х). Например, опреде­ляются коэффициенты корреляции между урожайностью зерновых культур, с одной стороны, и рядом климатических, почвенных и эконо­мических факторов - с другой. Анализ полученных парных коэффициентов корреляции позволяет выявить наиболее важные факторы уро­жайности.

Следующая ступень корреляционного анализа заключается в том, что вычисляется коэффициент множественной корреляции (R), показы­вающий степень совместного влияния важнейших факторов (x 1 , x 2 , ... x n) на изучаемое явление (у), например, на урожайность зерновых куль­тур. Расчет для множества факторов представляет собой очень трудоем­кий процесс, часто требующий применения ЭВМ.

Рассмотрим простейший пример вычисления степени совокупного влияния на урожайность (у) только двух факторов: гидротермического коэффициента (x 1) и стоимости основных средств производства (х 2). Для этого вначале следует определить коэффициенты корреляции меж­ду тремя признаками (у, x 1 , и х 2) попарно. Оказалось, что

1) коэффициент корреляции между урожайностью зерновых культур (у) и гидротермическим коэффициентом (х 1) == 0,80;

2) коэффициент корреляции между урожайностью зерновых культур (у) и стоимостью основных средств производства (х 2) == 0,67;

3) коэффициент корреляции между самими факторами урожайности (гидротермическим коэффициентом и стоимостью основных средств производства) = 0,31.

Коэффициент множественной корреляции, выражающий зависи­мость изучаемого явления от совокупного влияния двух факторов, вы­числяется по формуле

В нашем примере

Совокупное влияние нескольких факторов на изучаемое явление больше, чем каждого из этих факторов в отдельности. Действительно, 0,92 больше как 0,80, так и 0,67.

Квадрат коэффициента множественной корреляции (R 2 = 0,84) означает, что колеблемость урожайности зерновых объясняется воздей­ствием учтенных факторов (гидротермические коэффициенты и стои­мость основных средств производства) на 84%. На долю остальных неучтенных факторов приходится всего 16%.

Линейную зависимость одной переменной (у) от двух других можно выразить уравнением

7 Частная корреляция. В предыдущем параграфе была рассмотрена схема вычисления я коэффициента множественной корреляции, выражающего степень совместного воздействия двух факторов (x 1 и х 2) на изучаемое явление у. Представляет интерес выявить, как тесно связан у с x 1 при постоянстве величине х 2 ; или у с х 2 при исключении влияния x 1 . Для этого следу вычислить коэффициент частной корреляции () по формуле:

, (13)

Где ryx 1 – коэффициент корреляции между первым фактором и изучаемым явлением (у), ryx 2 – коэффициент корреляции между вторым фактором (х 2) и изучаемым явлением (у), rx 1 x 2 – коэффициент корреляции между факторами (х 1) (х 2)

Пользу коэффициента частной корреляции покажем на приме изучения овражной эрозии. Известно, что скорость роста оврагов во многом зависит от энергии поверхностного стока, определяемой eё объемом и скоростью. Первая характеристика может быть выражена таким морфометрическим показателем, как площадь водосбора при вершине оврага, а скорость стока - углом наклона у вершины оврага. Были измерены скорости роста n-го числа оврагов (у), углы наклов (x 1) и площади водосбора (х 2), вычислены парные коэффициенты корреляции: =: - 0,2, = 0,8; == - 0,7. Отрицательное значение первого коэффициента корреляции выглядит парадоксальным. Действительно, трудно представить, чтобы скорости роста оврагов были тем больше, чем меньше угол наклона.

Рисунок 4.5 – Продольный профиль балки растущего оврага

Объяснить эту аномалию может обычно вогнутая форма продольного профиля балки, где растет овраг (рис. 4.5). Благодаря такой форме профиля наблюдается противоположность воздействия двух рассматриваемых факторов (x 1 , и х 2) на ско­рость роста оврагов (у): овраг, начинающий свое развитие в устье балка имеет малый угол наклона (a i), но зато наибольшую площадь водосбо­ра, обеспечивающую максимальный объем стекающей воды. По мера приближения вершины оврага к водоразделу угол наклона растет (a 1 , a 2 , a 3 , a 4 , a 5), но площадь водосбора уменьшается (S 1 – S 5). Преоб­ладающее воздействие площади водосбора (объема воды) над воздейст­вием угла наклона (ее скорости) и привело к отрицательному значению зависимости скорости роста оврагов от угла наклона. Разнонаправленность воздействия двух рассмотренных факторов объясняет также ми­нусовой знак их корреляционной взаимозависимости (== - 0.7). Для того, чтобы определить, насколько велика зависимость скорости роста оврагов от угла наклона при исключении влияния другого фактора (площади водосбора), необходимо вычислить коэффициент частной корреляции по формуле (13). Оказалось, что

Таким образом, только в результате корреляционных расчетов ста­ло возможным убедиться в прямой, а не обратной зависимости скорости роста оврагов от угла наклона, но только при условии исключения воз­действия площади водосбора.

8 Компонентный и факторный анализы. Из множества известных показателей тесноты корреляционных связей следует подчеркнуть особо важное значение коэффициента кор­реляции. Его отличает прежде всего повышенная информативность -способность оценивать не только тесноту, но и знак связи. Коэффици­енты корреляции лежат в основе вычисления более сложных показате­лей, характеризующих взаимосвязи не двух, а большего числа факторов.

Рассмотренный в настоящей лекции аппарат множественной и ча­стной корреляции правомерно считать начальным этапом изучения многофакторных корреляционных связей и зависимостей в географии. В условиях активной информатизации и компьютеризации человеческо­го общества наших дней перспектива развития этого направления ви­дится в использовании более сложного аппарата факторного и компо­нентного анализов. Их объединяет: наличие исключительно большого объема разнообразной информации, необходимость ее математической обработки с помощью ЭВМ, способность «сжимать» информацию, выделять главные и исключать второстепенные показатели, факторы и компоненты.

Факторный анализ предназначен для сведения множества исходныx количественных показателей к малому числу факторов. На их основе вычисляются интегральные показатели, несущие в себе информацию нового качества. В основе математических расчетов лежит создание матрицы, элементами которой выступают обычные коэффициенты корреляции или ковариации, отражающие попарные связи между всеми исходными количественными показателями.

Компонентный анализ (метод главных компонент) в отличие о факторного анализа опирается на массовые расчеты не корреляций, дисперсий, характеризующих колеблемость количественных признаке; л

В результате таких математических расчетов любое самое большое число исходных данных заменяется ограниченным числомглавных компонент, отличающихся наиболее высокой дисперсностью, а, следовательно, и информативностью.

Желающим глубже познакомиться с теорией, методикой и накопленным опытом использования факторного и компонентного анализов в географических исследованиях следует обратиться к работам С.Н. Сербенюка (1972), Г.Т. Максимова (1972), П.И. Рахлина (1973), В.Т. Жукова, С.Н. Сербенюка, B.C. Тикунова (1980), В.М. Жуковской (1964), B.M. Жуковской, И.М. Кузиной (1973), В.М. Жуковской, И.Б. Мучник (1976):

В заключение отметим, что при криволинейных зависимостях коэффициенту корреляции не всегда можно доверять, особенно когда изучаются природные явления на территориях значительной протяжен­ности с севера на юг. В этом случае лучше вычислять корреляционные отношения, которые нуждаются в большом объеме статистической со­вокупности и в предварительной группировке данных (Лукомский, 1961).

ВОПРОСЫ И ЗАДАНИЯ

1. Назовите главные задачи корреляционного анализа.

2. Опишите схему вычисления коэффициента корреляции.

3. Как вычисляется ошибка выборочного коэффициента корреляции?

4. Какова схема вычисления рангового коэффициента корреляции?

5. Опишите получение эмпирических формул зависимости для двух показателей. Каково их использование?

6. В чем сущность множественного коэффициента корреляции?

7. Каково назначение частного коэффициента корреляции?

8. Что такое компонентный анализ?

9. Дайте определение факторного анализа.

Корреляция - это степень, в которой события или личные характеристики человека зависят друг от друга. Корреляционный метод - процедура в исследовании, использующаяся, чтобы определить взаимосвязь между переменными. Данный метод может, например, ответить на вопрос: «существует ли корреляция между количеством стресса, с которым сталкиваются люди и степенью испытываемой ими депрессии?» То есть, по мере того, как люди продолжают переживать стресс, насколько увеличивается вероятность того, что они впадут в депрессию?

Корреляция - степень зависимости друг от друга событий или характеристик.

Корреляционный метод - процедура исследований, которая используется для определения того, насколько события или характеристики зависят друг от друга.

Чтобы ответить на этот вопрос, исследователи подсчитывают баллы жизненного стресса (например, количество угрожающих событий, переживаемых человеком в определенный период времени) и баллы депрессии (например, баллы в опросниках по депрессии). Как правило, исследователи обнаруживают, что эти переменные увеличиваются или уменьшаются вместе (Stader & Hokanson, 1998; Paykel & Cooper, 1992). To есть чем больше количество баллов стресса в жизни определенного человека, тем выше его или ее сумма баллов по депрессии. Корреляции такого рода имеют позитивную направленность и их называют позитивной корреляцией.

Корреляция может иметь и негативную, а не позитивную направленность. При негативной корреляции, когда значение одной переменной возрастает, значение другой уменьшается. Исследователи обнаружили, например, негативную корреляцию между депрессией и уровнем активности. Чем больше депрессия человека, тем меньше его занятость.

Существует еще и третья взаимосвязь в корреляционном исследовании. Две переменные могут быть не взаимосвязаны, то есть между ними не существует последовательной взаимосвязи. Когда число одной переменной возрастает, показатели другой переменной иногда возрастают, иногда уменьшаются. Исследования обнаружили, например, что депрессия и интеллект не зависят друг от друга.

Кроме знания направленности корреляции исследователям нужно знать ее величину или силу. То есть насколько близко эти две переменные соотносятся между собой. Действительно ли одна переменная всегда зависит от другой или их взаимосвязь менее определенна? Когда обнаруживается тесная взаимосвязь двух переменных у многих испытуемых, то говорят, что корреляция - высокая или устойчивая.

Направленность и величина корреляции часто имеет численное значение и выражается в статистическом понятии - коэффициенте корреляции ( r ). Коэффициент корреляции может варьироваться от +1.00, показывающего полную позитивную корреляцию между двумя переменными, и до -1.00 - этот коэффициент указывает на полную негативную корреляцию. Знак коэффициента (+ или -) обозначает направленность корреляции; число представляет ее величину. Чем ближе коэффициент к 0, тем слабее корреляция и меньше ее величина. Так корреляции +0.75 и -0.75 имеют одинаковые величины, а корреляция +.25 слабее и той и другой корреляции.

Коэффициент корреляции ( r ) - статистический термин, указывающий направленность и величину корреляции, колеблющийся от -1.00 до +1.00.

Поведение людей меняется, и многие человеческие реакции можно оценивать лишь приблизительно. Поэтому в психологических исследованиях корреляции не достигают величины полной позитивной или полной негативной корреляции. В одном исследовании стресса и депрессии, проводившемся с 68 взрослыми, корреляция между двумя переменными составила +0.53 (Miller et al., 1976). Несмотря на то, что эту корреляцию едва ли можно назвать абсолютной, ее величина в психологическом исследовании считается большой.

Статистический анализ корреляционных данных

Ученые должны решить, действительно ли корреляция, обнаруженная ими в данной группе испытуемых, точно отражает подлинную корреляцию в общем населении. Может ли наблюдаемая корреляция возникать только случайно? Ученые могут протестировать свои выводы при помощи статистического анализа данных, применив принципы вероятности. В сущности, они задаются вопросом, насколько вероятно, что данные отдельного исследования были получены случайно. Если статистический анализ указывает на очень малую вероятность того, что обнаруженная корреляция была получена случайно, то исследователи называют корреляцию статистически значимой и делают вывод, что их данные отражают подлинную корреляцию, встречающуюся повсеместно.

Преимущества и недостатки корреляционного метода

У корреляционного метода есть некоторые преимущества по сравнению с изучением отдельных случаев болезни. Поскольку исследователи получают свои переменные, основываясь на многочисленных примерах, и применяют статистический анализ, то они лучше могут обобщить данные о людях, которых изучали. Исследователи также могут повторить корреляционные исследования на новых испытуемых, чтобы проверить результаты своих изысканий.

Несмотря на то, что корреляционные исследования позволяют исследователям описать взаимосвязь между двумя переменными, они не объясняют эту взаимосвязь. Когда мы взглянем на позитивную корреляцию, обнаруживающуюся при исследовании разных жизненных стрессов, у нас может возникнуть искушение сделать вывод, что усиление стресса приводит к более сильной депрессии. На самом деле, однако, эти две переменные могли коррелировать по одной из трех причин: 1) жизненный стресс может приводить к депрессии; 2) депрессия может заставить людей перенести более сильный стресс (например, депрессивный подход к жизни приводит к тому, что люди будут неправильно распоряжаться деньгами или депрессия негативно скажется на их социальных взаимоотношениях); 3) депрессия и жизненный стресс могут быть обусловлены третьей переменной, такой как бедность. Вопросы причинности требуют применения экспериментального метода.

<Вопросы для размышления. Как бы вы объяснили значительную корреляцию между жизненным стрессом и депрессией? Какая из интерпретаций, по вашему мнению, наиболее точна?>

Особые формы корреляционного исследования

Клиницисты широко используют два типа корреляционных исследований - эпидемиологические исследования и долгосрочные (лонгитюдные) исследования. В ходе эпидемиологических исследований обнаруживается общее число случаев и распространенность определенного расстройства среди указанной части населения (Weissman, 1995). Число случаев - это количество новых случаев расстройств, возникших за данный период времени. Распространенность - общее число случаев среди населения в данный период времени; распространенность расстройства или заболевания включает как уже существующие, так и новые случаи.

За прошедшие двадцать лет клиницисты в США разработали самое обширное эпидемиологическое исследование, которое когда-либо проводилось, и назвали его Районным эпидемиологическим исследованием. Они взяли интервью более чем у 20 000 людей в пяти городах, чтобы выяснить преобладание разных психических расстройств и то, какие программы применялись для их лечения (Regier et al., 1993). Это исследование сравнивалось в эпидемиологическими исследованиями в других странах, чтобы проверить, как уровни психических расстройств и программы лечения варьируются в разных странах мира (Weissman, 1995).

<Близнецы, корреляция и наследственность. Корреляционные исследования многих пар близнецов позволяют сделать вывод о возможной взаимосвязи между генетическими факторами и некоторыми психическими расстройствами. Идентичные близнецы (близнецы, которые, как и изображенные здесь, обладают идентичными генами) проявляют высокую степень корреляции при некоторых расстройствах, и эта корреляция выше, чем у неидентичных близнецов (с неидентичными генами).>

Такие эпидемиологические исследования помогают психологам выделить группы риска, предрасположенные к определенным расстройствам. Оказывается, что среди женщин превалирует уровень расстройств, связанных с тревожным состоянием и депрессией, в отличие от мужчин, среди которых преобладает более высокий уровень алкоголизма, чем у женщин. У пожилых людей уровень суицида выше, чем у людей помоложе. У людей в некоторых не западных странах (например, в Тайване) уровень психической дисфункции выше, чем на Западе. Эти тенденции приводят исследователей к предположению, что какие-то особые факторы и среда провоцируют определенные типы расстройств (Rogers & Holloway, 1990). Так, ухудшение здоровья у пожилых людей с большей вероятностью приводит их к самоубийству; культурные прессы или установки, распространенные в одной стране, приводят к определенному уровню психических дисфункций, отличающемуся от уровня тех же дисфункций в другой стране.

Эпидемиологическое исследование - исследование, которое определяет число случаев заболевания и его распространенность среди данного слоя населения.

Число случаев заболевания - количество новых случаев расстройства, возникающих в данном слое населения в определенный период времени.

Распространенность - общее число случаев расстройств, возникающих в данном слое населения за определенный период времени.

Проводя долгосрочные исследования, психологи наблюдают тех же самых испытуемых в разных ситуациях на протяжении длительного периода времени. В одном таком опыте ученые наблюдали в течение многих лет развитие нормально функционирующих детей, чьи отец или мать страдали от шизофрении (Parnas, 1988; Mednick, 1971). Исследователи обнаружили среди прочего, что дети родителей с тяжелыми формами шизофрении чаще обнаруживали психические отклонения и совершали преступления на поздних стадиях своего развития.

Долгосрочное (лонгитюдное) исследование - исследование, в котором те же самые испытуемые наблюдаются в течение длительного периода времени.

Корреляционно-регрессионный анализ - один из наиболее широко распространенных и гибких приемов обработки стати­стических данных. Данный метод начинает свой отсчет с 1795 г., когда английский исследователь Фрэнсис Гальтон предложил теоретические основы регрессионного метода, а в 1801 г. рассчи­тал с его помощью траекторию полета планеты Церера. Им же введен в статистику термин «корреляция». Можно также назвать

французского кристаллографа Огюста Браве, немецкого физика Густава Теодора Фехнера, английского экономиста и статистика Фрэнсиса Эджуорта, впервые высказывавших в середине-конце XIX в. идеи о количественном измерении связей явлений. В раз­ное время над теорией анализа работали известные в области теоретической статистики ученые Карл Фридрих Гаусс (Герма­ния), Адриен Мари Лежандр (Франция), Карл Пирсон (Англия) и др.

Корреляционно-регрессионный анализ состоит в построении и анализе экономико-математической модели в виде уравнения регрессии (корреляционной связи), характеризующего зависи­мость признака от определяющих его факторов.

Корреляционно-регрессионный анализ предполагает сле­дующие этапы:

Предварительный анализ (здесь формулируются основные направления всего анализа, определяется методика оценки ре­зультативного показателя и перечень наиболее существенных факторов);

Сбор информации и ее первичная обработка;

Построение модели (один из важнейших этапов);

Оценка и анализ модели.

Задачи корреляционного анализа сводятся к выделению важ­нейших факторов, которые влияют на результативный признак, измерению тесноты связи между факторами, выявлению неиз­вестных причин связей и оценке факторов, оказывающих макси­мальное влияние на результат.

Задачи регрессионного анализа заключаются в установлении формы зависимости, определении уравнения регрессии и его ис­пользовании для оценки неизвестных значений зависимой пере­менной, прогнозировании возможных значений результативного признака при задаваемых значениях факторных признаков.



При использовании корреляционно-регрессионного анализа необходимо соблюдать следующие требования.

1. Совокупность исследуемых исходных данных должна быть однородной и математически описываться непрерывными функциями.

2. Все факторные признаки должны иметь количественное (цифровое) выражение.

3. Необходимо наличие массовости значений изучаемых по­казателей.

4. Причинно-следственные связи между явлениями и процес­сами могут быть описаны линейной или приводимой к линейной формой зависимости.

5. Не должно быть количественных ограничений на парамет­ры модели связи.

6. Необходимо обеспечить постоянство территориальной и временной структуры изучаемой совокупности.

Корреляция - статистическая зависимость между случай­ными величинами, не имеющими строго функционального харак­тера, при которой изменение одной из случайных величин приво­дит к изменению математического ожидания другой.

В статистике принято различать следующие варианты зави­симостей.

1. Парная корреляция - связь между двумя признаками (ре­зультативным и факторным).

2. Частная корреляция - зависимость между результатив­ным и одним из факторных признаков при фиксированном значе­нии других факторных признаков.

3. Множественная корреляция - зависимость результатив­ного и двух или более факторных признаков, включенных в ис­следование.

Корреляционная связь - частный случай стохастической связи и состоит в том, что разным значениям одной переменной соответствуют различные средние значения другой.

Обязательное условие применения корреляционного метода - массовость значений изучаемых показателей, что позволяет вы­явить тенденцию, закономерность развития, форму взаимосвязи между признаками. Тогда, в соответствии с законом больших, чи­сел, влияние других факторов сглаживается, нейтрализуется. На­личие корреляционной связи присуще многим общественным явлениям.

Показатели тесноты связи между признаками называют ко­эффициентами корреляции. Их выбор зависит от того, в каких шкалах измерены признаки. Основными шкалами являются:

1) номинальная шкала (наименований) предназначена для описания принадлежности объектов к определенным социальным группам (например, коэффициенты ассоциации и контингенции, коэффициенты Пирсона и Чупрова);

2) шкала порядка (ординальная) применяется для измерения упорядоченности объектов по одному или нескольким признакам (например, коэффициенты Спирмена и Кенделла);

3) количественная шкала используется для описания количе­ственных показателей - например, линейный коэффициент кор­реляции и корреляционное отношение.

Корреляционный анализ - метод статистического исследо­вания экспериментальных данных, позволяющий определить сте­пень линейной зависимости между переменными.

Парная линейная корреляция - простейшая система корре­ляционной связи, представляющая линейную связь между двумя признаками. Ее практическое значение состоит в выделении од­ного важнейшего фактора, который и определяет вариацию ре­зультативного признака.

Для определения степени тесноты парной линейной зависи­мости служит линейный коэффициент корреляции, который был впервые введен в начале 1890-х гг. Пирсоном, Эджуортом и Велдоном. В теории разработаны и на практике применяются раз­личные варианты формул расчета данного коэффициента:

Где ,

где n - число наблюдений.

При малом числе наблюдений для практических вычислений линейный коэффициент корреляции удобнее исчислять по формуле:

,

где r принимает значения в пределах от -1 до 1.

Чем ближе линейный коэффициент корреляции по абсолют­ной величине к I, тем теснее связь. С другой стороны, если он ра­вен 1, то зависимость является не стохастической, а функциональ­ной. Знак при нем указывает направление связи: знак «-» соответ­ствует обратной зависимости, «+» - прямой. Величина коэффициента корреляции служит также оценкой соответствия уравнения регрессии выявленным причинно-следственным связям.

Степень взаимного влияния факторов в зависимости от ко­эффициента корреляции приведена в табл. 1.

Таблица 1

Количественная оценка тесноты связи

при различных значениях коэффициента корреляции

После того, как с помощью корреляционного анализа выяв­лено наличие статистических связей между переменными и оце­нена степень их тесноты, обычно переходят к математическому описанию зависимостей, то есть к регрессионному анализу.

Термин «регрессия» (произошел от латинского regression - отступление, возврат к чему-либо) был также введен Ф. Гальтоном в 1886 г. Обрабатывая статистические данные в связи с ана­лизом наследственности роста, он отметил прямую зависимость между ростом родителей и их детей (наблюдение само по себе не слишком глубокое). Но относительно старших сыновей ему уда­лось установить более тонкую зависимость. Он рассчитал, что средний рост старшего сына лежит между средним ростом насе­ления и средним ростом родителей. Если рост родителей выше среднего, то их наследник, как правило, ниже; если средний рост родителей ниже среднего, то рост их потомка выше. Когда Гальтон нанес на график средний рост старших сыновей для различ­ных значений среднего роста родителей, он получил почти пря­мую линию, проходящую через нанесенные точки.

Поскольку рост потомства стремится двигаться к среднему, Гальтон назвал это явление регрессией к среднему состоянию, а ли­нию, проходящую через точки на графике, - линией регрессии.

Регрессивный анализ применяется в тех случаях, когда необ­ходимо отыскать непосредственно вид зависимости х и у. При этом предполагается, что независимые факторы не случайные величины, а результативный показатель у имеет постоянную, не­зависимую от факторов дисперсию и стандартное отклонение.

Одна из проблем построения уравнения регрессии - размер­ность, то есть определение числа факторных признаков, вклю­чаемых в модель. Их число должно быть оптимальным.

Сокращение размерности за счет исключения второстепен­ных, несущественных факторов позволяет получить модель, бы­стрее и качественнее реализуемую. В то же время построение мо­дели малой размерности может привести к тому, что она будет недостаточно полно описывать исследуемое явление или процесс в единой системе национального счетоводства.

При построении модели число факторных признаков должно быть в 5-6 раз меньше объема изучаемой совокупности.

Если результативный признак с увеличением факторного признака равномерно возрастает или убывает, то такая зависи­мость является линейной и выражается уравнением прямой.

Линейная регрессия сводится к нахождению уравнения вида:

где х - индивидуальное значение факторного признака; а 0 , а 1 - параметры уравнения прямой (уравнения регрессии); у х - теоре­тическое значение результирующего фактора.

Данное уравнение показывает среднее значение изменения ре­зультативного признака х на одну единицу его измерения. Знак па­раметра показывает направление этого изменения. На практике по­строение линейной регрессии сводится к оценке ее параметров а 0 , а 1.

При классическом подходе параметры уравнения а 0 , а 1 нахо­дятся методом наименьших квадратов, который позволяет полу­чить такие оценки параметров, при которых сумма квадратов от­клонений фактических значений результативного признака у от расчетных, теоретических (у х) была бы минимальной.

Для нахождения минимума данной функции приравняем к нулю частные производные и тем самым получим систему двух линейных уравнений, которая называется системой нормальных уравнений:

В уравнении прямой параметр а 0 экономического смысла не имеет, параметр а 1 является коэффициентом регрессии и показы­вает изменение результативного признака при изменении фак­торного на единицу.

Или по следующим формулам:

Где , , ,

Между линейным коэффициентом корреляции и коэффици­ентом регрессии существует определенная зависимость, выра­женная формулой

Часто исследуемые признаки имеют разные единицы измере­ния, поэтому для оценки влияния факторного признака на ре­зультативный применяется коэффициент эластичности. Он рас­считывается для каждой точки и в среднем по всей совокупности по формуле:

где у" х - первая производная уравнения регрессии.

Коэффициент эластичности показывает, на сколько процен­тов изменяется результативный признак при изменении фактор­ного признака на 1%.

Чтобы иметь возможность судить о сравнительной связи влияния отдельных факторов и о тех резервах, которые в них за­ложены, должны быть вычислены частные (средние) коэффициенты эластичности .

Различия в единицах измерения факторов устраняют с помо­щью частных (средних) коэффициентов эластичности , которые рассчитываются по формуле:

где а i - коэффициент регрессии при факторе х; - средние значения факторного и результативного признаков.

Частные коэффициенты эластичности показывают, на сколь­ко процентов в среднем изменяется анализируемый показатель с изменением на 1 % каждого фактора при фиксированном поло­жении других факторов.

Альтернативным показателем степени зависимости между двумя переменными является линейный коэффициент детерми­нации , представляющий собой квадрат линейного коэффициента корреляции r 2 . Его числовое значение всегда заключено в пределе от 0 до 1. Он характеризует долю вариации (разброса) зависимой переменной. Значение коэффициента детерминации непосредст­венно указывает степень влияния независимого фактора на ре­зультативный показатель.

Степень тесноты связи полностью соответствует теоретиче­скому корреляционному отношению , которое является универ­сальным показателем тесноты связи по сравнению с линейным коэффициентом корреляции.

С помощью теоретического корреляционного отношения из­меряется теснота связи любой формы, а посредством линейного коэффициента корреляции - только прямолинейной связи.

Теоретическое корреляционное отношение рассчитывается по формулам:

где - факторная дисперсия; - общая дисперсия.

Для упрощения расчетов меры тесноты корреляционной свя­зи часто применятся индекс корреляционной связи, который оп­ределяется по формулам:

где - остаточная дисперсия.

Линейные модели отличаются простой интерпретируемостью и хорошо разработанными приемами оценивания коэффициентов регрессии. Обычно для них все три наиболее распространенных метода статистического оценивания - максимального правдопо­добия, наименьших квадратов и моментов - дают оптимальные решения и соответственно приводят к оценкам, обладающим ли­нейностью, эффективностью, несмещенностью. Принимая во внимание, что линейные регрессионные модели не могут с оди­наково высокой степенью достоверности описывать многообраз­ные процессы, происходящие в реальности, их дополняет боль­шой класс нелинейных моделей. Для последних, однако, с учетом их сложности и специфичности приемов параметрического оце­нивания предпочтительным остается приведение к простой ли­нейной форме.