ݺߣ

ݺߣShare a Scribd company logo
Основная      цель       множественной
регрессии – построить модель с большим
числом факторов, определив при этом
влияние каждого из них в отдельности, а
также совокупное их воздействие на
моделируемый показатель.
   спецификации модели: отбор факторов и выбор вида
    уравнения регрессии.
   Факторы, включаемые во множественную
    регрессию, должны отвечать следующим требованиям:
    1. Они должны быть количественно измеримы. Если
    необходимо включить в модель качественный
    фактор, не имеющий количественного измерения, то
    ему нужно придать количественную определенность.
   2. Факторы не должны быть интеркоррелированы и
    тем более находиться в точной функциональной связи
   Включение в модель факторов с высокой
    интеркорреляцией (т.е. корреляции между
    объясняющими переменными), может привести к
    нежелательным последствиям – система нормальных
    уравнений может оказаться плохо обусловленной и
    повлечь за собой неустойчивость и ненадежность
    оценок коэффициентов регрессии.
   Если между факторами существует высокая
    корреляция, то нельзя определить их изолированное
    влияние на результативный показатель и параметры
    уравнения регрессии оказываются
    неинтерпретируемыми.
   Включаемые во множественную регрессию факторы
    должны объяснить вариацию независимой переменной
   Если строится модель с набором m факторов, то для нее
    рассчитывается показатель детерминации , который
    фиксирует долю объясненной вариации результативного
    признака за счет рассматриваемых в регрессии факторов.
    Влияние других, не учтенных в модели факторов,
    оценивается как       с соответствующей остаточной
    дисперсией .
   При дополнительном включении в регрессию m фактора
    коэффициент детерминации должен возрастать, а остаточная
    дисперсия уменьшаться:
          и        .
   Если же этого не происходит и данные показатели
    практически не отличаются друг от друга, то включаемый в
    анализ фактор      не улучшает модель и практически
    является лишним фактором.
   Насыщение модели лишними факторами не снижает
    величину остаточной дисперсии и не увеличивает
    показатель детерминации и приводит к статистической
    незначимости параметров регрессии по критерию
    Стьюдента
   Поэтому отбор факторов осуществляется в две стадии: на
    первой подбираются факторы исходя из сущности
    проблемы; на второй – на основе матрицы показателей
    корреляции определяют статистики для параметров
    регрессии.
   Коэффициенты интеркорреляции (т.е. корреляции между
    объясняющими переменными) позволяют исключать из
    модели дублирующие факторы. Считается, что две
    переменные явно коллинеарны, т.е. находятся между собой
    в линейной зависимости, если        . Если факторы явно
    коллинеарны, то они дублируют друг друга и один из них
    рекомендуется исключить из регрессии
   Пусть, например, при изучении зависимости
              матрица парных коэффициентов корреляции
    оказалась следующей:




Очевидно, что факторы х1 и х2 дублируют друг друга. В
 анализ целесообразно включить фактор х2, а не х1.
 Поэтому в данном случае в уравнение множественной
 регрессии включаются факторы х2, х3.
   По величине парных коэффициентов корреляции
    обнаруживается лишь явная коллинеарность
    факторов. Наибольшие трудности в использовании
    аппарата множественной регрессии возникают при
    наличии мультиколлинеарности факторов, когда
    более чем два фактора связаны между собой
    линейной зависимостью, т.е. имеет место
    совокупное воздействие факторов друг на друга.
    Наличие мультиколлинеарности факторов может
    означать, что некоторые факторы будут всегда
    действовать в унисон. В результате вариация в
    исходных данных перестает быть полностью
    независимой и нельзя оценить воздействие каждого
    фактора в отдельности.
   Включение в модель мультиколлинеарных
    факторов нежелательно в силу следующих
    последствий:
   Затрудняется интерпретация параметров
    множественной регрессии как характеристик
    действия факторов в «чистом» виде, ибо факторы
    коррелированы; параметры линейной регрессии
    теряют экономический смысл.
   Оценки параметров ненадежны, обнаруживают
    большие стандартные ошибки и меняются с
    изменением объема наблюдений (не только по
    величине, но и по знаку), что делает модель
    непригодной для анализа и прогнозирования.
   Для оценки мультиколлинеарности факторов может
    использоваться определитель матрицы парных
    коэффициентов корреляции между факторами.
Множественная регрессия
   Чем ближе к нулю определитель матрицы
    межфакторной корреляции, тем сильнее
    мультиколлинеарность факторов и ненадежнее
    результаты множественной регрессии. И, наоборот,
    чем ближе к единице определитель матрицы
    межфакторной корреляции, тем меньше
    мультиколлинеарность факторов.
   Существует ряд подходов преодоления сильной
    межфакторной корреляции. Самый простой путь
    устранения мультиколлинеарности состоит в
    исключении из модели одного или нескольких
    факторов. Другой подход связан с преобразованием
    факторов, при котором уменьшается корреляция
    между ними.
   Одним из путей учета внутренней корреляции
    факторов является переход к совмещенным
    уравнениям регрессии, т.е. к уравнениям, которые
    отражают не только влияние факторов, но и их
    взаимодействие. Так, если          , то возможно
    построение следующего совмещенного уравнения:

   Рассматриваемое уравнение включает
    взаимодействие первого порядка (взаимодействие
    двух факторов). Возможно включение в модель и
    взаимодействий более высокого порядка, если будет
    доказана их статистическая значимость по F-
    критерию Фишера
   Отбор факторов, включаемых в регрессию, является одним из важнейших
    этапов практического использования методов регрессии. Подходы к
    отбору факторов на основе показателей корреляции могут быть разные.
    Они приводят построение уравнения множественной регрессии
    соответственно к разным методикам. В зависимости от того, какая
    методика построения уравнения регрессии принята, меняется алгоритм ее
    решения на ЭВМ.
   Наиболее широкое применение получили следующие методы построения
    уравнения множественной регрессии:
   Метод исключения – отсев факторов из полного его набора.
   Метод включения – дополнительное введение фактора.
   Шаговый регрессионный анализ – исключение ранее введенного фактора.
   При отборе факторов также рекомендуется пользоваться следующим
    правилом: число включаемых факторов обычно в 6–7 раз меньше объема
    совокупности, по которой строится регрессия. Если это соотношение
    нарушено, то число степеней свободы остаточной дисперсии очень мало.
    Это приводит к тому, что параметры уравнения регрессии оказываются
    статистически незначимыми, а -критерий меньше табличного значения.
   Рассмотрим линейную модель множественной
    регрессии
                               (2.1)
   Классический подход к оцениванию
    параметров линейной модели множественной
    регрессии основан на методе наименьших
    квадратов (МНК). МНК позволяет получить
    такие оценки параметров, при которых сумма
    квадратов отклонений фактических значений
    результативного признака от расчетных
    минимальна:
                                     (2.2)
   Как известно из курса математического
    анализа, для того чтобы найти экстремум
    функции нескольких переменных, надо
    вычислить частные производные первого
    порядка по каждому из параметров и
    приравнять их к нулю.
   Итак. Имеем функцию аргумента:



   Находим частные производные первого
    порядка:
Множественная регрессия
   Метод наименьших квадратов применим и
    к уравнению множественной регрессии в
    стандартизированном масштабе:

   где             – стандартизированные
    переменные:           ,       , для
    которых среднее значение равно нулю:
    , а среднее квадратическое отклонение
    равно единице:           ; –
    стандартизированные коэффициенты
    регрессии.
   Стандартизованные коэффициенты регрессии
    показывают, на сколько единиц изменится в
    среднем результат, если соответствующий
    фактор изменится на одну единицу при
    неизменном среднем уровне других факторов.
    В силу того, что все переменные заданы как
    центрированные и нормированные,
    стандартизованные коэффициенты регрессии
    можно сравнивать между собой. Сравнивая их
    друг с другом, можно ранжировать факторы по
    силе их воздействия на результат. В этом
    основное достоинство стандартизованных
    коэффициентов регрессии в отличие от
    коэффициентов «чистой» регрессии, которые
    несравнимы между собой.
   Применяя МНК к уравнению множественной
    регрессии в стандартизированном
    масштабе, получим систему нормальных
    уравнений вида

                                        (2.5)

   где    и    – коэффициенты парной и
    межфакторной корреляции.
   Коэффициенты «чистой» регрессии   связаны
    со стандартизованными коэффициентами
    регрессии следующим образом:
   Рассмотренный смысл стандартизованных
    коэффициентов регрессии позволяет их использовать
    при отсеве факторов – из модели исключаются факторы
    с наименьшим значением     .
   На основе линейного уравнения множественной
    регрессии
                                        (2.7)
   могут быть найдены частные уравнения регрессии:


                                  (2.8)

   т.е. уравнения регрессии, которые связывают
    результативный признак с соответствующим фактором
    при закреплении остальных факторов на среднем
    уровне. В развернутом виде систему (2.8) можно
    переписать в виде:
   В отличие от парной регрессии частные
    уравнения регрессии характеризуют
    изолированное влияние фактора на
    результат, ибо другие факторы закреплены на
    неизменном уровне. Эффекты влияния других
    факторов присоединены в них к свободному
    члену уравнения множественной регрессии. Это
    позволяет на основе частных уравнений
    регрессии определять частные коэффициенты
    эластичности:
   где   –коэффициент регрессии для фактора в
    уравнении множественной регрессии,           –
    частное уравнение регрессии.
   Наряду с частными коэффициентами эластичности
    могут быть найдены средние по совокупности
    показатели эластичности:
                                          (2.11)

   которые показывают на сколько процентов в
    среднем изменится результат, при изменении
    соответствующего фактора на 1%. Средние
    показатели эластичности можно сравнивать друг с
    другом и соответственно ранжировать факторы по
    силе их воздействия на результат.
   Рассмотрим пример (для сокращения объема
    вычислений ограничимся только десятью
    наблюдениями). Пусть имеются следующие данные
    (условные) о сменной добыче угля на одного рабочего
    y (т), мощности пласта    (м) и уровне механизации
    работ     (%), характеризующие процесс добычи угля
    в 10 шахтах.


   Предполагая, что между переменными y
    , , существует линейная корреляционная
    зависимость, найдем уравнение регрессии y по  и
    .
   Для удобства дальнейших вычислений составляем
    таблицу (      ):
Множественная регрессия
   Для нахождения параметров уравнения регрессии в данном
    случае необходимо решить следующую систему
    нормальных уравнений:



   Откуда получаем, что              . Т.е. получили
    следующее уравнение множественной регрессии:

   Оно показывает, что при увеличении только мощности
    пласта (при неизменном ) на 1 м добыча угля на одного
    рабочего y увеличится в среднем на 0,854 т, а при
    увеличении только уровня механизации работ (при
    неизменном ) на 1% – в среднем на 0,367 т.
   Найдем уравнение множественной регрессии в
    стандартизованном масштабе:
   при этом стандартизованные коэффициенты
    регрессии будут


   Т.е. уравнение будет выглядеть следующим
    образом:

   Так как стандартизованные коэффициенты
    регрессии можно сравнивать между собой, то
    можно сказать, что мощность пласта оказывает
    большее влияние на сменную добычу угля, чем
    уровень механизации работ.
   Сравнивать влияние факторов на результат можно
    также при помощи средних коэффициентов
    эластичности (2.11):

   Вычисляем:


   Т.е. увеличение только мощности пласта (от своего
    среднего значения) или только уровня механизации
    работ на 1% увеличивает в среднем сменную
    добычу угля на 1,18% или 0,34% соответственно.
    Таким образом, подтверждается большее влияние
    на результат y фактора , чем фактора .
Ad

Recommended

Phi (φ) Correlation
Phi (φ) Correlation
Sharlaine Ruth
Kuhn munkres algorithm
Kuhn munkres algorithm
Abdullah Nasser
Statistical inference: Statistical Power, ANOVA, and Post Hoc tests
Statistical inference: Statistical Power, ANOVA, and Post Hoc tests
Eugene Yan Ziyou
Irrational number
Irrational number
MartinGeraldine
1.6 Uses and Misuses
1.6 Uses and Misuses
mlong24
Introduction to Groups and Permutation Groups
Introduction to Groups and Permutation Groups
Amit Amola
Cantor Set
Cantor Set
cyriljoyce
SUBJECT ORIENTATION PPT (PInk).pptx
SUBJECT ORIENTATION PPT (PInk).pptx
MiralunaPilonesNuez
Regression
Regression
Михаил Шишков
15-Корреляция. Два основных вопроса теории корреляции. Регрессионный анализ..ppt
15-Корреляция. Два основных вопроса теории корреляции. Регрессионный анализ..ppt
akmal090785
Прогнозирование - Лекция 3. Множественная регрессия
Прогнозирование - Лекция 3. Множественная регрессия
Gleb Zakhodiakin
Линейная регрессия
Линейная регрессия
DEVTYPE
Нелин модели
Нелин модели
Nursultan Kipshakbayev
Regress 2015.05.011
Regress 2015.05.011
Kh Ider
Прикладная эконометрика. Лекция 3.
Прикладная эконометрика. Лекция 3.
Vladimir Tcherniak
6
6
Dr. Jury Belonozhkin
Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6
Vladimir Tcherniak
анализ данных тема 4
анализ данных тема 4
kolch
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
Gleb Zakhodiakin
Конкурс презентаций - Малашенко
Конкурс презентаций - Малашенко
galkina
метод наименьших квадратов
метод наименьших квадратов
Елена Ключева
Прогнозирование - Лекция 4. Регрессионные модели временных рядов
Прогнозирование - Лекция 4. Регрессионные модели временных рядов
Gleb Zakhodiakin
Эконометрика: тема 2
Эконометрика: тема 2
Nikita V. Artamonov
391.эконометрика основы математического моделирования социально экономических...
391.эконометрика основы математического моделирования социально экономических...
ivanov15548
10
10
Dr. Jury Belonozhkin
Эконометрика: тема 1
Эконометрика: тема 1
Nikita V. Artamonov
Нелинейная регрессия
Нелинейная регрессия
DEVTYPE
14
14
Dr. Jury Belonozhkin

More Related Content

Similar to Множественная регрессия (20)

Regression
Regression
Михаил Шишков
15-Корреляция. Два основных вопроса теории корреляции. Регрессионный анализ..ppt
15-Корреляция. Два основных вопроса теории корреляции. Регрессионный анализ..ppt
akmal090785
Прогнозирование - Лекция 3. Множественная регрессия
Прогнозирование - Лекция 3. Множественная регрессия
Gleb Zakhodiakin
Линейная регрессия
Линейная регрессия
DEVTYPE
Нелин модели
Нелин модели
Nursultan Kipshakbayev
Regress 2015.05.011
Regress 2015.05.011
Kh Ider
Прикладная эконометрика. Лекция 3.
Прикладная эконометрика. Лекция 3.
Vladimir Tcherniak
6
6
Dr. Jury Belonozhkin
Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6
Vladimir Tcherniak
анализ данных тема 4
анализ данных тема 4
kolch
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
Gleb Zakhodiakin
Конкурс презентаций - Малашенко
Конкурс презентаций - Малашенко
galkina
метод наименьших квадратов
метод наименьших квадратов
Елена Ключева
Прогнозирование - Лекция 4. Регрессионные модели временных рядов
Прогнозирование - Лекция 4. Регрессионные модели временных рядов
Gleb Zakhodiakin
Эконометрика: тема 2
Эконометрика: тема 2
Nikita V. Artamonov
391.эконометрика основы математического моделирования социально экономических...
391.эконометрика основы математического моделирования социально экономических...
ivanov15548
10
10
Dr. Jury Belonozhkin
Эконометрика: тема 1
Эконометрика: тема 1
Nikita V. Artamonov
Нелинейная регрессия
Нелинейная регрессия
DEVTYPE
14
14
Dr. Jury Belonozhkin
15-Корреляция. Два основных вопроса теории корреляции. Регрессионный анализ..ppt
15-Корреляция. Два основных вопроса теории корреляции. Регрессионный анализ..ppt
akmal090785
Прогнозирование - Лекция 3. Множественная регрессия
Прогнозирование - Лекция 3. Множественная регрессия
Gleb Zakhodiakin
Линейная регрессия
Линейная регрессия
DEVTYPE
Regress 2015.05.011
Regress 2015.05.011
Kh Ider
Прикладная эконометрика. Лекция 3.
Прикладная эконометрика. Лекция 3.
Vladimir Tcherniak
Прикладная эконометрика. Лекция 6
Прикладная эконометрика. Лекция 6
Vladimir Tcherniak
анализ данных тема 4
анализ данных тема 4
kolch
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
Прогнозирование - Лекция 2. Корреляционный анализ и простая линейная регрессия
Gleb Zakhodiakin
Конкурс презентаций - Малашенко
Конкурс презентаций - Малашенко
galkina
метод наименьших квадратов
метод наименьших квадратов
Елена Ключева
Прогнозирование - Лекция 4. Регрессионные модели временных рядов
Прогнозирование - Лекция 4. Регрессионные модели временных рядов
Gleb Zakhodiakin
391.эконометрика основы математического моделирования социально экономических...
391.эконометрика основы математического моделирования социально экономических...
ivanov15548
Нелинейная регрессия
Нелинейная регрессия
DEVTYPE

Множественная регрессия

  • 1. Основная цель множественной регрессии – построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель.
  • 2. спецификации модели: отбор факторов и выбор вида уравнения регрессии.  Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям: 1. Они должны быть количественно измеримы. Если необходимо включить в модель качественный фактор, не имеющий количественного измерения, то ему нужно придать количественную определенность.  2. Факторы не должны быть интеркоррелированы и тем более находиться в точной функциональной связи
  • 3. Включение в модель факторов с высокой интеркорреляцией (т.е. корреляции между объясняющими переменными), может привести к нежелательным последствиям – система нормальных уравнений может оказаться плохо обусловленной и повлечь за собой неустойчивость и ненадежность оценок коэффициентов регрессии.  Если между факторами существует высокая корреляция, то нельзя определить их изолированное влияние на результативный показатель и параметры уравнения регрессии оказываются неинтерпретируемыми.  Включаемые во множественную регрессию факторы должны объяснить вариацию независимой переменной
  • 4. Если строится модель с набором m факторов, то для нее рассчитывается показатель детерминации , который фиксирует долю объясненной вариации результативного признака за счет рассматриваемых в регрессии факторов. Влияние других, не учтенных в модели факторов, оценивается как с соответствующей остаточной дисперсией .  При дополнительном включении в регрессию m фактора коэффициент детерминации должен возрастать, а остаточная дисперсия уменьшаться:  и .  Если же этого не происходит и данные показатели практически не отличаются друг от друга, то включаемый в анализ фактор не улучшает модель и практически является лишним фактором.
  • 5. Насыщение модели лишними факторами не снижает величину остаточной дисперсии и не увеличивает показатель детерминации и приводит к статистической незначимости параметров регрессии по критерию Стьюдента  Поэтому отбор факторов осуществляется в две стадии: на первой подбираются факторы исходя из сущности проблемы; на второй – на основе матрицы показателей корреляции определяют статистики для параметров регрессии.  Коэффициенты интеркорреляции (т.е. корреляции между объясняющими переменными) позволяют исключать из модели дублирующие факторы. Считается, что две переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если . Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии
  • 6. Пусть, например, при изучении зависимости матрица парных коэффициентов корреляции оказалась следующей: Очевидно, что факторы х1 и х2 дублируют друг друга. В анализ целесообразно включить фактор х2, а не х1. Поэтому в данном случае в уравнение множественной регрессии включаются факторы х2, х3.
  • 7. По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью, т.е. имеет место совокупное воздействие факторов друг на друга. Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой и нельзя оценить воздействие каждого фактора в отдельности.
  • 8. Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий:  Затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл.  Оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.  Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами.
  • 10. Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И, наоборот, чем ближе к единице определитель матрицы межфакторной корреляции, тем меньше мультиколлинеарность факторов.  Существует ряд подходов преодоления сильной межфакторной корреляции. Самый простой путь устранения мультиколлинеарности состоит в исключении из модели одного или нескольких факторов. Другой подход связан с преобразованием факторов, при котором уменьшается корреляция между ними.
  • 11. Одним из путей учета внутренней корреляции факторов является переход к совмещенным уравнениям регрессии, т.е. к уравнениям, которые отражают не только влияние факторов, но и их взаимодействие. Так, если , то возможно построение следующего совмещенного уравнения:  Рассматриваемое уравнение включает взаимодействие первого порядка (взаимодействие двух факторов). Возможно включение в модель и взаимодействий более высокого порядка, если будет доказана их статистическая значимость по F- критерию Фишера
  • 12. Отбор факторов, включаемых в регрессию, является одним из важнейших этапов практического использования методов регрессии. Подходы к отбору факторов на основе показателей корреляции могут быть разные. Они приводят построение уравнения множественной регрессии соответственно к разным методикам. В зависимости от того, какая методика построения уравнения регрессии принята, меняется алгоритм ее решения на ЭВМ.  Наиболее широкое применение получили следующие методы построения уравнения множественной регрессии:  Метод исключения – отсев факторов из полного его набора.  Метод включения – дополнительное введение фактора.  Шаговый регрессионный анализ – исключение ранее введенного фактора.  При отборе факторов также рекомендуется пользоваться следующим правилом: число включаемых факторов обычно в 6–7 раз меньше объема совокупности, по которой строится регрессия. Если это соотношение нарушено, то число степеней свободы остаточной дисперсии очень мало. Это приводит к тому, что параметры уравнения регрессии оказываются статистически незначимыми, а -критерий меньше табличного значения.
  • 13. Рассмотрим линейную модель множественной регрессии (2.1)  Классический подход к оцениванию параметров линейной модели множественной регрессии основан на методе наименьших квадратов (МНК). МНК позволяет получить такие оценки параметров, при которых сумма квадратов отклонений фактических значений результативного признака от расчетных минимальна: (2.2)
  • 14. Как известно из курса математического анализа, для того чтобы найти экстремум функции нескольких переменных, надо вычислить частные производные первого порядка по каждому из параметров и приравнять их к нулю.  Итак. Имеем функцию аргумента:  Находим частные производные первого порядка:
  • 16. Метод наименьших квадратов применим и к уравнению множественной регрессии в стандартизированном масштабе:  где – стандартизированные переменные: , , для которых среднее значение равно нулю: , а среднее квадратическое отклонение равно единице: ; – стандартизированные коэффициенты регрессии.
  • 17. Стандартизованные коэффициенты регрессии показывают, на сколько единиц изменится в среднем результат, если соответствующий фактор изменится на одну единицу при неизменном среднем уровне других факторов. В силу того, что все переменные заданы как центрированные и нормированные, стандартизованные коэффициенты регрессии можно сравнивать между собой. Сравнивая их друг с другом, можно ранжировать факторы по силе их воздействия на результат. В этом основное достоинство стандартизованных коэффициентов регрессии в отличие от коэффициентов «чистой» регрессии, которые несравнимы между собой.
  • 18. Применяя МНК к уравнению множественной регрессии в стандартизированном масштабе, получим систему нормальных уравнений вида (2.5)  где и – коэффициенты парной и межфакторной корреляции.  Коэффициенты «чистой» регрессии связаны со стандартизованными коэффициентами регрессии следующим образом:
  • 19. Рассмотренный смысл стандартизованных коэффициентов регрессии позволяет их использовать при отсеве факторов – из модели исключаются факторы с наименьшим значением .  На основе линейного уравнения множественной регрессии  (2.7)  могут быть найдены частные уравнения регрессии: (2.8)  т.е. уравнения регрессии, которые связывают результативный признак с соответствующим фактором при закреплении остальных факторов на среднем уровне. В развернутом виде систему (2.8) можно переписать в виде:
  • 20. В отличие от парной регрессии частные уравнения регрессии характеризуют изолированное влияние фактора на результат, ибо другие факторы закреплены на неизменном уровне. Эффекты влияния других факторов присоединены в них к свободному члену уравнения множественной регрессии. Это позволяет на основе частных уравнений регрессии определять частные коэффициенты эластичности:
  • 21. где –коэффициент регрессии для фактора в уравнении множественной регрессии, – частное уравнение регрессии.  Наряду с частными коэффициентами эластичности могут быть найдены средние по совокупности показатели эластичности: (2.11)  которые показывают на сколько процентов в среднем изменится результат, при изменении соответствующего фактора на 1%. Средние показатели эластичности можно сравнивать друг с другом и соответственно ранжировать факторы по силе их воздействия на результат.
  • 22. Рассмотрим пример (для сокращения объема вычислений ограничимся только десятью наблюдениями). Пусть имеются следующие данные (условные) о сменной добыче угля на одного рабочего y (т), мощности пласта (м) и уровне механизации работ (%), характеризующие процесс добычи угля в 10 шахтах.  Предполагая, что между переменными y , , существует линейная корреляционная зависимость, найдем уравнение регрессии y по и .  Для удобства дальнейших вычислений составляем таблицу ( ):
  • 24. Для нахождения параметров уравнения регрессии в данном случае необходимо решить следующую систему нормальных уравнений:  Откуда получаем, что . Т.е. получили следующее уравнение множественной регрессии:  Оно показывает, что при увеличении только мощности пласта (при неизменном ) на 1 м добыча угля на одного рабочего y увеличится в среднем на 0,854 т, а при увеличении только уровня механизации работ (при неизменном ) на 1% – в среднем на 0,367 т.
  • 25. Найдем уравнение множественной регрессии в стандартизованном масштабе:  при этом стандартизованные коэффициенты регрессии будут  Т.е. уравнение будет выглядеть следующим образом:  Так как стандартизованные коэффициенты регрессии можно сравнивать между собой, то можно сказать, что мощность пласта оказывает большее влияние на сменную добычу угля, чем уровень механизации работ.
  • 26. Сравнивать влияние факторов на результат можно также при помощи средних коэффициентов эластичности (2.11):  Вычисляем:  Т.е. увеличение только мощности пласта (от своего среднего значения) или только уровня механизации работ на 1% увеличивает в среднем сменную добычу угля на 1,18% или 0,34% соответственно. Таким образом, подтверждается большее влияние на результат y фактора , чем фактора .