В процессе корреляционного анализа оценивается теснота статистической связи между исследуемыми переменными. Далее следует проводить регрессионный анализ, основная задача которого заключается в исследовании зависимости изучаемой переменной от различных факторов и отображении их взаимосвязи в форме регрессионной модели.
В регрессионных моделях зависимая переменная Y может быть представлена в виде функции , где – независимые (объясняющие) переменные, или факторы. Связь между переменной Y и независимыми факторами можно охарактеризовать функцией регрессии , которая показывает, каково будет в среднем значение переменной Y, если переменные примут конкретные значения. Данное обстоятельство позволяет использовать модель регрессии не только для анализа, но и для прогнозирования экономических явлений.
В регрессионном анализе рассматривается односторонняя зависимость случайной зависимой переменной Y от одной (или нескольких) неслучайной факторной переменной Х. Такая зависимость может возникнуть, например, в случае, когда при каждом фиксированном значении фактора Х соответствующие значения Y подвержены случайному разбросу за счет действия неконтролируемых факторов. В силу воздействия таких неучтенных случайных факторов и причин отдельные наблюдения Y будут в какой-либо мере отклоняться от функции регрессии.
Таким образом, задачами регрессионного анализа являются установление формы зависимости между переменными, оценка функции регрессии, оценка неизвестных значений (прогноз значений) зависимой переменной.
Регрессионная задача для случая одного факторного признака формулируется следующим образом: пусть между переменными Х и Y теоретически существует некоторая линейная зависимость: .
Это «истинное» уравнение регрессии. Однако в действительности между Х и Y наблюдается не столь жесткая связь, т.к. обычно зависимая переменная находится под влиянием неизвестных, случайных причин (возмущения и помехи). Например, существенным источником отклонений являются ошибки измерения. Учитывая возможные отклонения, линейное уравнение связи двух переменных (парная регрессия) примет вид: (19),
где α – постоянная величина (свободный член уравнения); β – коэффициент регрессии, определяющий наклон линии, вдоль которой рассеяны данные наблюдений; ε – случайная переменная (возмущение, остаток). Случайная составляющая ε и отражает тот факт, что изменение будет неточно описываться изменением , т.к. присутствуют другие, неучтенные факторы в данной модели.
Таким образом в уравнении значение каждого наблюдения представлено как сумма двух частей – систематической и случайной .
В свою очередь систематическую часть можно представить в виде уравнения .
Возможны и нелинейные связи:
– параболическая ;
– гиперболическая .
Экономические явления, как правило, определяются большим числом одновременно и совокупно действующих факторов. В связи с этим часто возникает задача исследования зависимости одной зависимой переменной Y от нескольких объясняющих переменных . Эта задача решается с помощью множественного регрессионного анализа. Тогда модель множественной линейной регрессии можно представить в виде:
.
Включение в регрессионную модель новых объясняющих переменных усложняет вычисления. Поэтому в этом случае прибегают к матричному описанию регрессии.