Причини і наслідки мультиколінеарності. виявлення

Жарознижуючі засоби для дітей призначаються педіатром. Але бувають ситуації невідкладної допомоги при лихоманці, коли дитині потрібно дати ліки негайно. Тоді батьки беруть на себе відповідальність і застосовують жарознижуючі препарати. Що дозволено давати дітям грудного віку? Чим можна збити температуру у дітей старшого віку? Які ліки найбезпечніші?

відповіді на екзаменаційні квиткиз економетрики Яковлєва Ангеліна Віталіївна

37. Визначення мультиколінеарності. Наслідки мультіколлінеарності. Методи виявлення мультиколінеарності

Найбільші труднощі у використанні апарату множинної регресії виникають при наявності мультиколінеарності факторних змінних, коли більш ніж два фактори пов'язані між собою лінійною залежністю.

Мультиколінеарності для лінійної регресії називається наявність лінійної залежності між факторними змінними, включеними в модель.

Мультиколінеарності - порушення одного з основних умов, що лежать в основі побудови лінійної моделі множинної регресії.

Мультиколінеарності в матричному вигляді - це залежність між стовпцями матриці факторних змінних Х:

Якщо не враховувати одиничний вектор, то розмірність даної матриці дорівнює n * n.Якщо ранг матриці Хменше n, То в моделі присутня повна або сувора мультиколінеарності. Але на практиці повна мультиколінеарності майже не зустрічається.

Можна зробити висновок, що однією з основних причин присутності мультіколлінеарності в моделі множинної регресії є погана матриця факторних змінних Х.

Чим сильніше мультиколінеарності факторних змінних, тим менш надійною є оцінка розподілу суми пояснене варіації за окремими факторами за допомогою методу найменших квадратів.

Включення в модель мультіколлінеарності факторів небажано з кількох причин:

1) основна гіпотеза про незначущості коефіцієнтів множинної регресії може підтвердитися, але сама модель регресії при перевірці за допомогою F-критерію виявляється значущою, що свідчить про завищену величиною коефіцієнта множинної кореляції;

2) отримані оцінки коефіцієнтів моделі множинної регресії можуть бути невиправдано завищені або мати неправильні знаки;

3) додавання або виключення з вихідних даних одного-двох спостережень впливає на оцінки коефіцієнтів моделі;

4) мультіколлінеарності фактори, включені в модель множинної регресії, здатні зробити її непридатною для подальшого застосування.

Конкретних методів виявлення мультиколінеарності не існує, а прийнято застосовувати ряд емпіричних прийомів. У більшості випадків множинний регресійний аналіз починається з розгляду кореляційної матриці факторних змінних R або матриці ( ХТХ).

Кореляційної матрицею факторних зміннихназивається симетрична щодо головної діагоналі матриця лінійних коефіцієнтів парної кореляції факторних змінних:

де rij- лінійний коефіцієнт парної кореляції між i-м і j-им факторними змінними,

На діагоналі кореляційної матриці знаходяться одиниці, тому що коефіцієнт кореляції факторной змінної з самою собою дорівнює одиниці.

При розгляді даної матриці з метою виявлення мультиколінеарності факторів керуються такими правилами:

1) якщо в кореляційної матриці факторних змінних присутні коефіцієнти парної кореляції за абсолютною величиною великі 0,8, то роблять висновок, що в даній моделі множинної регресії існує мультиколінеарності;

2) обчислюють власні числа кореляційної матриці факторних змінних ? minі ? max. якщо ? min <10-5, То в моделі регресії присутній мультиколінеарності. якщо відношення

то також роблять висновок про наявність мультиколінеарності факторних змінних;

3) обчислюють визначник кореляційної матриці факторних змінних. Якщо його величина дуже мала, то в моделі регресії присутній мультиколінеарності.

Цей текст є ознайомчим фрагментом.З книги 100 великих чудес техніки автора Мусский Сергій Анатолійович

Літак дальнього радіолокаційного виявлення «Боїнг» E-3 Це було 8 травня 1942 року в Кораловому морі. «О 10 годині 55 хвилин радіолокаційна установка виявила велику групу ворожих літаків, яка пасувала з північного сходу. Об 11 годині 13 хвилин спостерігачі «Лексінгтона»

З книги Енциклопедія безпеки автора Громов В І

1.3.5. Засоби виявлення і знешкодження хв Виявлення хв, окремих фугасів, а також мінували ділянок проводиться: - за зовнішніми ознаками; - спеціальними приладами (міношукачі, щупи, стетоскопи); - собаками мінорозискной служби. * Демаскуючі ознаки

З книги Відповіді на екзаменаційні квитки з економетрики автора Яковлєва Ангеліна Віталіївна

38. Методи усунення мультиколінеарності Якщо оцінену модель регресії передбачається використовувати для вивчення економічних зв'язків, то усунення мультиколінеарності факторів є обов'язковим, тому що їх наявність в моделі може привести до неправильних

З книги Судова медицина і психіатрія: Шпаргалка автора Автор невідомий

З книги Цивільний кодекс РФ автора ГАРАНТ

Із книги " Шпигунські штучки 2 "або як зберегти свої секрети автора Андріанов Володимир Ілліч

4.2. Спеціальні інструменти для виявлення схованок 4.2.1. Пошукове зеркалоОсновним інструментом для виявлення схованок є пошукове дзеркало. Воно може бути маленьким, приблизно як у зубного лікаря, може бути і набагато більше. Дзеркало (рис. 4.2) кріпиться на

З книги Криміналістика. шпаргалки автора Петренко Андрій Віталійович

27. Правила і класифікація методів виявлення слідів 1. Першими повинні застосовуватися руйнівні методи. Жінкам необхідно рекомендувати розпочинати з мікрометодів: чи не залишилося жодних жирових слідів, найдрібніших клітинок відшарувалася кожі.2. Далі застосовуються не руйнівні методи,

З книги Сила шаманів. Бойова і лікувальна магія індіанців Дикого Заходу автора Стукалин Юрій Вікторович

38. Сліди зубів: особливості виявлення та їх ознаки Досить поширеними є трасологічні дослідження слідів зубів людини. Криміналістика вивчає тільки сліди зубів на матеріалах, поверхнях, їжі; сліди на тілі людини - предмет вивчення

З книги Підручник виживання снайпера [ «Стріляй рідко, але влучно!»] автора Федосєєв Семен Леонідович

41. Особливості виявлення, вилучення куль і гільз В більшості випадків гільза залишається на місці злочину, спосіб виявлення може бути: а) вибірковий; б) сплошной.Прімененіе вибіркового способу для короткоствольної зброї таке: - встановлюється

З книги Обман і провокації в малому і середньому бізнесі автора Гладкий Олексій Анатолійович

57. Засоби для виявлення мікрооб'єктів Мікрооб'єкти - це матеріальні об'єкти, пов'язані з подією злочину, пошук, виявлення, вилучення і дослідження яких з огляду на їх малих розмірів і маси скрутні або неможливі неозброєним глазом.Действія з

З книги Базова підготовка спецназу [Екстремальне виживання] автора Ардашев Олексій Миколайович

58. Особливості виявлення мікрооб'єктів Пошук і виявлення мікрооб'єктів повинні здійснюватися з дотриманням запобіжних заходів. Всі об'єкти спочатку оглядаються без будь-яких переміщень; при зміні положення об'єкта під нього поміщають чистий аркуш кальки,

З книги автора

Методи виявлення чаклунів «Є багато способів відрізнити чаклуна від шамана, хоча більшість людей, що володіють потужною Силою, практикують і те й інше, - говорили чірікауа апачі. - Людина могла жити поруч з чаклуном і не знати про це. Наприклад, чаклункою могла бути його

З книги автора

З книги автора

Антижучок, або Засоби виявлення шпигунської апаратури Як уже зазначалося, в даний час на російському ринку представлено безліч найрізноманітніших шпигунських пристроїв і розвідувальної апаратури: приховані мікрофони, жучки, системи прихованого

мультиколінеарності- це коррелированность двох або декількох змінних в рівнянні регресії. При наявності мультиколінеарності МНК-оцінки формально існують, але мають ряд недоліків:

1) невелика зміна вихідних даних призводить до істотної зміни оцінок регресії;

2) оцінки мають великі стандартні помилки, малу значимість, в той час як модель в цілому є значущою (індекс детермінації має високе значення).

Головною причиною виникнення мультиколінеарності є наявність в досліджуваному об'єкті процесів, які одночасно впливають на деякі вхідні змінні, але не враховані в моделі. Це може бути результатом неякісного дослідження предметної області або складності взаємозв'язків параметрів досліджуваного об'єкта.

Розрізняють два види мультіколлінеарності: повну і часткову.

Наприклад, якщо в моделі пояснюючі змінні пов'язані лінійним співвідношенням, то вихідне рівняння зводиться до рівняння простої лінійної залежності.

Останнє рівняння не дозволяє розділити вклади і в пояснення поведінки змінної.

повна(Досконала) мультиколінеарності має місце, коли між змінними є лінійна функціональна зв'язок.

часткова(Недосконала) коллинеарность виникає в разі досить тісних лінійних статистичних зв'язків між пояснюють змінними.

Недосконала мультиколінеарності факторів характеризується величиною коефіцієнта кореляції між ними. Чим більше значення коефіцієнта кореляції, тим важче розділити вплив пояснюють змінних і тим менш надійними будуть оцінки коефіцієнтів регресії при цих змінних. Тому, якщо при оцінці рівняння регресії кілька пояснюють змінних виявилися незначними, то потрібно з'ясувати, чи немає серед них сильно корельованих між собою. Для цього розраховується кореляційна матриця(Це передбачено стандартними статистичними пакетами), і перевіряється статистична значимість коефіцієнтів парної кореляції. При наявності сильної кореляції (коефіцієнт кореляції за абсолютною величиною більше 0,7) один з пари пов'язаних між собою факторів виключається або в якості пояснюватиме змінної береться якась їхня функція. Якщо незначною виявилася тільки одна змінна, то її можна виключити або замінити іншою.

Для оцінки наявності мультиколінеарності може бути використаний визначник матриці межфакторной кореляції, а значимість мультіколлінеарності чинників може бути оцінена за допомогою статистики.

У ряді випадків мультиколінеарності не є таким вже серйозним злом, щоб її виявляти і усувати. Все залежить від цілей дослідження. Якщо основне завдання моделювання - тільки прогнозування значень залежної змінної, то при досить великому коефіцієнті детермінації () присутність мультиколінеарності не позначається на прогнозних якостях моделі. Якщо ж метою моделювання є і визначення внеску кожного фактора у зміну залежною змінною, то наявність мультиколінеарності є серйозною проблемою.


Найпростішим методом усунення мультиколінеарності є виключення з моделі однієї або ряду корельованих змінних.

Оскільки мультиколінеарності безпосередньо залежить від вибірки, то, можливо, при іншій вибірці мультіколлінеарності не буде взагалі або вона не буде настільки серйозною. Тому для зменшення мультиколінеарності в ряді випадків досить збільшити обсяг вибірки.

У ряді випадків проблема мультиколінеарності може бути вирішена шляхом зміни специфікації моделі: або змінюється форма моделі, або додаються чинники, не враховані в первісній моделі, але істотно впливають на залежну змінну.

література:

1. Єлісєєва І.І. Економетрика: підручник. М .: Фінанси і статистика, 2008.

2. Бородич С.А. економетрика: навчальний посібник. Мн .: Нове знання, 2001..

3. Кремер Н.Ш. Економетрика: підручник для студентів вищих навчальних закладів. М .: ЮНИТИ-ДАНА, 2008.


Відзначимо, що в ряді випадків мультиколінеарності не є таким вже серйозним «злом», щоб докладати значних зусиль по її виявлення та усунення. В основному, все залежить від цілей дослідження.
Якщо основне завдання моделі - прогноз майбутніх значень залежної змінної, то при досить великому коефіцієнті детермінації R2 (gt; 0,9) наявність мультиколінеарності зазвичай не позначається на прогнозних якостях моделі (якщо в майбутньому між корельованими змінними будуть зберігатися ті ж відносини, що і раніше ).
Якщо необхідно визначити ступінь впливу кожної з пояснюють змінних на залежну змінну, то мультиколінеарності, яка веде до збільшення стандартних помилок, швидше за все, спотворить справжні залежності між змінними. У цій ситуації мультиколінеарності є серйозною проблемою.
Єдиного методу усунення мультиколінеарності, придатного в будь-якому випадку, не існує. Це пов'язано з тим, що причини і наслідки мультиколінеарності неоднозначні і багато в чому залежать від результатів вибірки.
Виняток змінної (их) з моделі
Найпростішим методом усунення мультиколінеарності є виключення з моделі однієї або ряду корельованих змінних. При застосуванні даного методу необхідна певна обережність. У даній ситуації можливі помилки специфікації, тому в прикладних економетричних моделях бажано не виключати пояснюючі змінні до тих пір, поки мультиколінеарності не стане серйозною проблемою.
Отримання додаткових даних або нової вибірки
Оскільки мультиколінеарності безпосередньо залежить від вибірки, то, можливо, при іншій вибірці мультіколлінеарності НЕ буде або вона не буде настільки серйозною. Іноді для зменшення мультиколінеарності досить збільшити обсяг вибірки. Наприклад, при використанні щорічних даних можна перейти до поквартальним даними. Збільшення кількості даних скорочує дисперсії коефіцієнтів регресії і тим самим збільшує їх статистичну значущість. Однак отримання нової вибірки або розширення старої не завжди можливо або пов'язано з серйозними витратами. Крім того, такий підхід може посилити автокореляцію. Ці проблеми обмежують можливість використання даного методу.
Зміна специфікації моделі
У ряді випадків проблема мультиколінеарності може бути вирішена шляхом зміни специфікації моделі: або змінюється форма моделі, або додаються пояснюючі змінні, не враховані в первісній моделі, але істотно впливають на залежну змінну. якщо даний методмає підстави, то його використання зменшує суму квадратів відхилень, тим самим скорочуючи стандартну помилку регресії. Це призводить до зменшення стандартних помилок коефіцієнтів.
Використання попередньою інформацією про деякі параметрах
Іноді при побудові моделі множинної регресії можна скористатися попередньою інформацією, зокрема відомими значеннями деяких коефіцієнтів регресії.
Цілком ймовірно, що значення коефіцієнтів, розраховані для будь-яких попередніх (зазвичай більш простих) моделей або для аналогічної моделі по раніше отриманій вибірці, можуть бути використані для розроблюваної в даний момент моделі.
Відбір найбільш істотних пояснюють змінних. Процедура послідовного приєднання елементів
Перехід до меншого числа пояснюють змінних може зменшити дублювання інформації, що доставляється сильно взаємозалежними ознаками. Саме з цим ми стикаємося в разі мультиколінеарності пояснюють змінних.
нехай

множинний коефіцієнт
кореляції між залежною змінною Y і набором пояснюють змінних X 1, X 2, ..., Xm. Він визначається як звичайний парний коефіцієнт кореляції між Y і лінійною функцією
регресії Y = b0 + KX1 + b2X2 + ... + bmXm. Нехай amp; = R-1 - матриця, обернена до матриці R:


Тоді квадрат коефіцієнта Ry.X = Rr (xi, x2, .., x) може бути обчислений за формулою:


Підправлений на Незміщеність оцінка R * 2.X коефіцієнта детермінації R2y.X має вигляд:

(Якщо поформуле (6.7) отримують негативне число, то вважають


Нижня довірча межа для

визначається
за формулою:

На практиці, при вирішенні питання про те, які пояснюють змінні слід включати в модель, часто використовують процедуру послідовного приєднання елементів.
(J = 1, 2, ..., m). При цьому

збігається з квадратом звичайного
парного коефіцієнта кореляції

нехай


тоді найбільш інформативною буде мінлива xp. Потім розраховують підправлений на Незміщеність коефіцієнт
(При m = 1) і його нижню довірчу кордон R2min (1).


більш інформативною буде пара jxp, xq). Затемрассчітивают підправлений на Незміщеність коефіцієнт (при m = 2)
і його нижню довірчу кордон R2min (2).

Процедуру продовжують до тих пір, коли на кроці (до +1) виконається умова:
Тоді в модель включають найбільш інформативні змінні, отримані на перших до кроках. Відзначимо, що в розрахунках використовують формули (6.7) і (6.8), в яких замість т беруть відповідне значення номера кроку к.
Насправді цей метод не гарантує, що ми позбавимося від мультиколінеарності.
Використовують і інші методи усунення мультиколінеарності.
Приклад 6.1. Є такі умовні дані (табл. 6.1):
Таблиця 6.1
Дані для методу послідовного включення


Х1

Х2

Х3

У

1

1,5

0,7

12

2

2,5

1,2

20

3

1

1,4

15

4

5,5

1,9

41

5

3

2,5

33

6

3

3,1

35

7

2,8

3,5

38

8

0,5

4

28

9

4

3,8

47

10

2

5,3

40

Розглянемо вплив на залежну змінну кожної з пояснюють змінних окремо. Обчислюючи парні коефіцієнти кореляції, отримаємо, що найбільше значення має коефіцієнт

тоді:


Розглянемо вплив на залежну змінну пар змінних (x1, x2) і (x1, x3). Спочатку розглянемо вплив пари змінних (x1, x2).



icuvum uvjpcuuivi, ихсдул рсьімслдсіцшім мсііда ііі ^ ісдіьсіїсльпі-
го приєднання змінних, в рівняння слід включити дві пояснюючі змінні. Отже, теоретичне рівняння набуде вигляду:
Гребньової метод
Розглянемо «гребньовій метод» ( «рідж-регресія») усунення мультиколінеарності. Метод був запропонований А. Е. Хоерлом в 1962 р і застосовується, коли матриця (xtX) близька до виродженої. До діагональним елементам матриці (xtX) додають деякий невеликий число (від 0,1 до 0,4). При цьому отримують зміщені оцінки параметрів рівняння. Але стандартні помилки таких оцінок у разі мультиколінеарності нижче помилок даються звичайним методом найменших квадратів.
Приклад 6.2. Вихідні дані представлені «табл6 2 Коефіцієнт кореляції пояснюють змінних

що
свідчить про сильну мультіколлінеарності.
Таблиця 6.2
Дані для дослідження мультиколінеарності гребньовим методом


x1

x2

У

1

1,4

7

2

3,1

12


Тоді отримаємо рівняння у = 2,63 + 1,37x1 + 1,95x2. діагональні елементи оберненої матрицізначно знизяться і будуть рівні z00 = 0,45264, z11 = 1,57796, z00 = 0,70842, що призводить до зниження стандартних помилок коефіцієнтів.
резюме
Серед основних наслідків, до яких може привести мультиколінеарності, можна виділити наступні:
  1. при перевірці основної гіпотези про незначущості коефіцієнтів множинної регресії за допомогою t-критерію в більшості випадків вона приймається, проте саме рівняння регресії при перевірці за допомогою A-критерію виявляється значущим, що свідчить про завищену величиною коефіцієнта множинної кореляції;
  2. отримані оцінки коефіцієнтів рівняння множинної регресії в основному невиправдано завищені або мають неправильні знаки;
  3. додавання або виключення з вихідних даних одного-двох спостережень впливає на оцінки коефіцієнтів моделі;
  4. наявність мультиколінеарності в моделі множинної регресії може зробити її непридатною для подальшого застосування (наприклад, для побудови прогнозів).
Питання для самоперевірки
  1. Що таке мультиколінеарності?
  2. Які показники свідчать про наявність мультиколінеарності?
  3. Чому дорівнює визначник матриці XTX в разі досконалої мультіколлінеарності?
  4. Що можна сказати про сенс коефіцієнтів при пояснюють змінних в разі мультиколінеарності?
  5. Яке перетворення виробляють в Гребньова методі, до чого воно призводить?
  6. Який порядок дій у методі послідовного збільшення числа пояснюють змінних?
  7. Що показує коефіцієнт кореляції?
  8. Що показує приватний коефіцієнт кореляції?

Після вивчення даного розділу студент повинен: знати

  • основні проблеми, що виникають при порушенні припущення МНК про відсутність мультиколінеарності;
  • методи виявлення і усунення мультиколінеарності; вміти
  • виявляти порушення класичної передумови МІК - мультіколлінеарності;

володіти

  • методами виявлення наявності порушень передумов МІК;
  • методами усунення мультиколінеарності.

поняття мультиколінеарності

мультіколлінеарностіназивається висока ступінь корелювати ™ двох або декількох пояснюють змінних в рівнянні множинної регресії. Крайнім випадком мультіколлінеарності є лінійна залежність між пояснюють змінними. Вважається, що дві змінні X, - і X сильно корельовані, якщо вибірковий коефіцієнт кореляції двох пояснюють змінних г хх. >0,7.

Розглянемо видимультиколінеарності.

1. Сувора мультиколінеарності - наявність лінійної функціональної зв'язку між пояснюють змінними (іноді також лінійна зв'язок з залежною змінною). Зв'язок між пояснюють змінними - функціональна.

Сувора мультиколінеарності не дозволяє однозначно визначити коефіцієнти регресії b tі bjі розділити вклади пояснюють змінних Xjі Xjв залежну змінну У.

2. Нестрогая мультиколінеарності - наявність сильної лінійної кореляційної зв'язку між пояснюють змінними (іноді також і залежною змінною). При нестрогой мультіколлінеарності зв'язок між пояснюють змінними кореляційний.

складністьпроблеми мультиколінеарності полягає в наступному.

  • 1. Кореляційні зв'язки є завжди. Проблема мультиколінеарності - сила прояву кореляційних зв'язків.
  • 2. Однозначних критеріїв визначення мультиколінеарності не існує.
  • 3. Сувора мультиколінеарності порушує передумову 5 теореми Гаусса - Маркова і робить побудову регресії неможливим (див. Гл. 4, параграф 4.1), так як відповідно до теореми Кронекера - Капеллі система рівнянь має безліч рішень.
  • 4. Нестрогая мультиколінеарності утруднює роботу, але не перешкоджає отриманню правильних висновків.

Пояснимо сказане про проблему мультиколінеарності. нехай є тпояснюють чинників Х (, Х 2, ..., Х т.Матриця межфакторной кореляції складається з парних коефіцієнтів кореляції і має вигляд

Парний коефіцієнт кореляції г х. х.визначається за формулою 1

Відзначимо, що так як r xx = 1, i = 1,2,..., т,і г х х. = г х х.,то дана матриця є симетричної.

Якщо зв'язок між факторами повністю відсутня, то недіагональні елементи матриці межфакторной кореляції дорівнюватимуть нулю, а її визначник буде дорівнювати одиниці: | R xx = 1.

приклад 7.1

Нехай є чотири пояснюючі змінні Х ь Х->, Х 3,Аф При відсутності взаємної кореляціїміж змінними (> Хх= 0) визначник матриці межфакторной кореляції дорівнюватиме

Протилежний випадок: якщо зв'язок між факторами є дуже тісному (практично функціональної), то визначник матриці межфакторной кореляції дорівнюватиме нулю.

приклад 7.2

Є чотири пояснюючі змінні X lt Х 2, Х 3,Х 4, між усіма змінними сильна функціональна зв'язок (Г х. Х.= 1). тоді

Висновок.Наявність мультиколінеарності можна підтвердити, знайшовши визначник матриці межфакторной кореляції. якщо | R xx.| ~ 1, то мультиколінеарності відсутня, а якщо | Л |

Досконала мультиколінеарності - рівність визначника матриці межфакторной кореляції нулю - проявляється швидше в теорії, а практично між деякими пояснюють змінними існує дуже сильна кореляційна залежність г х. х> 0,7, а не функціональна г х. х =1.

Зауваження 7.1.Існує справжня мультиколінеарності при відсутності залежності між змінними, що показано в прикладі 7.3.

приклад 7.3

Є вибірка з 10 груп спостережень (табл. 7.1).

Таблиця 7.1

Дані наприклад 7.3

У даній вибірці існує сувора мультиколінеарності при відсутності залежності між змінними: х, * f (xj), г * j.

Матриця парних коефіцієнтів кореляції

Визначник цієї матриці дорівнює -0,003402, тобто практично дорівнює нулю. Це говорить про досконалої мультіколлінеарності у вибірці. Коефіцієнти парної корреляціі.г | 2 І.Г 23 дуже високі.

Повна матриця парних коефіцієнтів кореляції R yx.включає коефіцієнти парної кореляції чинників з результатом г 1 / г.і факторів між собою г х. х:


Відзначимо, що в разі мультиколінеарності в модель регресії включаються ті чинники, які більш сильно пов'язані з залежною змінною, але слабо пов'язані з іншими факторами.

Причини виникнення мультиколінеарностінаступні:

  • 1) помилкове включення в рівняння регресії двох або більше лінійно залежних пояснюють змінних;
  • 2) дві (або більше) пояснюючі змінні, в нормальній ситуації слабо корельовані, стають в конкретній вибірці сильно корельованими;
  • 3) в модель включається пояснює змінна, сильно корелює з залежною змінною (така змінна називається домінантною).
  • 2 Термін коллинеарность характеризує лінійну зв'язок між двома пояснюють змінними. Мультиколінеарності означає лінійну зв'язок між більш ніж двома пояснюють змінними. На практиці завжди використовується один термін - мультиколінеарності.
  • У гл. 2 відповідна формула - це формула (2.9).

Мультиколінеарності означає, що в множинної регресійної моделі дві або більше числонезалежних змінних (факторів) пов'язані між собою тісною лінійною залежністю або, іншими словами, мають високий ступінь кореляції ().

Наслідки мультіколлінеарності:

1. Першим практичним наслідком мультиколінеарності є велика дисперсія і коваріація оцінок параметрів, обчислених методом найменших квадратів.

2. Другим практичним наслідком мультиколінеарності є збільшення довірчих інтервалів теоретичних коефіцієнтів рівняння лінійної регресії.

3. Зменшується статистика коефіцієнтів, тому можливий висновок про статистичну незначущість коефіцієнта.

4. Коефіцієнти рівняння регресії стають дуже чутливими до найменших змін даних.

5. Утруднюється визначення внеску кожної з змінних в що пояснюється рівнянням дисперсію ознаки.

На жаль, немає єдиного підходу для визначення мультиколінеарності. Наведемо кілька методів тестування наявності мультиколінеарності.

1) Високе значення коефіцієнта детермінації і низькі статистики деяких змінних.

2) Високі значення приватних коефіцієнтів кореляції. Однак ця умова є достатньою, але не є необхідною умовоюнаявності мультиколінеарності. Вона може мати місце навіть при відносно невеликих значеннях коефіцієнтів кореляції, коли число факторів більше двох.

3) тест Фаррара-Глобера.

Цей тест має й іншу назву: побудова допоміжної регресії.

Коефіцієнт детермінації є коефіцієнтом детермінації в рівнянні регресії, яке пов'язує фактор з іншими факторами Наприклад, .є коефіцієнтом детермінації такої регресії:

Для кожного коефіцієнта детермінації розраховуємо відношення:

Тест перевіряє гіпотезу

при конкуруючої гіпотезі

Обчислення значення порівнюємо з критичним значенням, знайденим за таблицями розподілу Фішера з і ступенями свободи і заданим рівнем значущості. Якщо то відкидаємо нульову гіпотезу і вважаємо, що фактор є мультиколінеарності; якщо то нульову гіпотезу приймаємо і переконуємося, що фактор не є мультиколінеарності.

Для усунення мультиколінеарності існує кілька способів.

Перший спосіб.Якщо між двома факторами і існує мультиколінеарності, то один з факторів виключається з розгляду.

Підтримайте проект - поділіться посиланням, спасибі!
Читайте також
Сбебранк (він же Ощадбанк) Сбебранк (він же Ощадбанк) Рішення проблем з ліцензією у Autocad Чи не запускається autocad windows 7 Рішення проблем з ліцензією у Autocad Чи не запускається autocad windows 7 Інструкція з використання PIN коду КріптоПро, під час підписання кількох документів - Інструкції - АТ Інструкція з використання PIN коду КріптоПро, під час підписання кількох документів - Інструкції - АТ "ПЕК-Торг"