Факторний аналіз у STATISTICA. Кореляційна матриця Кореляційна матриця для факторного аналізу

Жарознижувальні засоби для дітей призначаються педіатром. Але бувають ситуації невідкладної допомоги за лихоманки, коли дитині потрібно дати ліки негайно. Тоді батьки беруть на себе відповідальність і застосовують жарознижувальні препарати. Що можна давати дітям грудного віку? Чим можна збити температуру у старших дітей? Які ліки найбезпечніші?

Дисперсійний аналіз факторів

Факторна матриця

Змінна Фактор А Фактор Б

Як видно з матриці, факторні навантаження (або ваги) А та Б для різних споживчих вимог значно відрізняються. Факторна навантаження А вимоги Т 1 відповідає тісноті зв'язку, що характеризується коефіцієнтом кореляції, рівним 0,83, тобто. хороша (тісна) залежність. Факторне навантаження Б для того ж вимоги дає r k= 0,3, що відповідає слабкій тісноті зв'язку. Як і передбачалося, фактор Б дуже добре корелюється зі споживчими вимогами Т2, Т4 та Т6.

Враховуючи, що факторні навантаження як А, так і Б впливають на споживчі вимоги, що не належать до їх групи, з тіснотою зв'язку не більше 0,4 (тобто слабо), можна вважати, що представлена ​​вище матриця інтеркореляцій визначається двома незалежними факторами, які своєю чергою визначають шість споживчих вимог (крім Т 7).

Змінну Т 7 можна було виділити в самостійний фактор, оскільки з жодною споживчою вимогою вона не має значного кореляційного навантаження (більше 0,4). Але, на наш погляд, цього не слід робити, оскільки фактор «двері не повинні іржавіти» не мають безпосереднього відношення до споживчих вимог щодо конструкціїдвері.

Таким чином, при затвердженні технічного завдання на проектування конструкції дверей автомобіля саме назви отриманих факторів будуть вписані як споживчі вимоги, за якими необхідно знайти конструктивне рішення у вигляді інженерних характеристик.

Вкажемо одне принципово важливе властивість коефіцієнта кореляції між змінними: зведений квадрат, він показує, яка частина дисперсії (розкиду) ознаки є загальної двох змінних, наскільки сильно ці змінні перекриваються. Так, наприклад, якщо дві змінні Т 1 і Т 3 з кореляцією 0,8 перекриваються зі ступенем 0,64 (0,8 2), це означає, що 64% ​​дисперсій тієї і іншої змінної є загальними, тобто. збігаються. Можна також сказати, що спільністьцих змінних дорівнює 64%.

Нагадаємо, що факторні навантаження у факторній матриці є також коефіцієнтами кореляції, але між факторами та змінними (споживчими вимогами).

Змінна Фактор А Фактор Б

Тому зведене в квадрат факторне навантаження (дисперсія) характеризує ступінь спільності (або перекриття) даної змінної та даного фактора. Визначимо ступінь перекриття (дисперсію D) обох факторів зі змінною (споживчою вимогою) Т1. І тому необхідно обчислити суму квадратів терезів чинників із першої змінної, тобто. 0,83 х 0,83 + 0,3 х 0,3 = 0,70. Таким чином, спільність змінної Т1 з обома факторами становить 70%. Це досить значне перекриття.


У той же час низька спільність може свідчити про те, що змінна вимірює або відображає щось якісно відмінне від інших змінних, включених в аналіз. Це має на увазі, що дана змінна не поєднується з факторами з однієї з причин: або вона вимірює інше поняття (як, наприклад, змінна Т 7), або має велику помилку вимірювання, або існують ознаки, що спотворюють дисперсію.

Слід зазначити, що значимість кожного фактора також визначається величиною дисперсії між змінними та факторним навантаженням (вагою). Для того, щоб обчислити власне значення фактора, потрібно знайти в кожному стовпчику факторної матриці суму квадратів факторного навантаження для кожної змінної. Таким чином, наприклад, дисперсія фактора А (DA) складе 2,42 (0,83 х 0,83 + 0,3 х 0,3 + 0,83 х 0,83 + 0,4 х 0,4 + 0 , 8 х 0,8 + 0,35 х 0,35). Розрахунок значущості чинника Б показав, що D Б = 2,64, тобто. значимість чинника Б вища, ніж чинника А.

Якщо власне значення фактора розділити на кількість змінних (у нашому прикладі їх сім), то отримана величина покаже, яку частку дисперсії (або обсяг інформації) у вихідній кореляційній матриці складе цей фактор. Для фактора А? ~ 0,34 (34%), а для фактора Б -? = 0,38 (38%). Підсумувавши результати, отримаємо 72%. Таким чином, два фактори, об'єднані, заповнюють лише 72% дисперсії показників вихідної матриці. Це означає, що в результаті факторизації частина інформації у вихідній матриці була принесена в жертву побудови двофакторної моделі. В результаті втрачено 28% інформації, яка могла б відновитися, якби було прийнято шестифакторну модель.

Де ж допущена помилка, враховуючи, що всі розглянуті змінні, що стосуються вимог щодо конструкції дверей, враховані? Найімовірніше, значення коефіцієнтів кореляції змінних, які стосуються одному чиннику, дещо занижені. З урахуванням проведеного аналізу можна було повернутися до формування інших значень коефіцієнтів кореляції в матриці інтеркореляцій (див. табл. 2.2).

На практиці часто стикаються з такою ситуацією, коли кількість незалежних факторів досить велика, щоб їх все врахувати у вирішенні проблеми або з технічної чи економічної точки зору. Існує ряд способів обмеження числа факторів. Найбільш відомий з них – аналіз Парето. При цьому відбираються ті фактори (у міру зменшення значущості), які потрапляють до 80-85%-ного кордону їх сумарної значущості.

Факторний аналіз можна використовувати при реалізації методу структурування функції якості (QFD), що широко застосовується за кордоном при формуванні технічного завдання на новий виріб.

ФАКТОРНИЙ АНАЛІЗ

Ідея факторного аналізу

При дослідженні складних об'єктів, явищ, систем фактори, що визначають властивості цих об'єктів, часто-густо неможливо виміряти безпосередньо, а іноді невідомо навіть їх число і зміст. Але для вимірювання можуть бути доступні інші величини, які так чи інакше залежать від цікавих для нас факторів. Причому, коли вплив невідомого фактора, що цікавить нас, проявляється в декількох вимірюваних ознаках або властивостях об'єкта, ці ознаки можуть виявляти тісний зв'язок між собою і загальна кількість факторів може бути набагато менше, ніж кількість вимірюваних змінних.

Для виявлення факторів, що визначають вимірювані ознаки об'єктів, використовуються методи факторного аналізу

Як приклад застосування факторного аналізу можна вказати вивчення властивостей особистості основі психологічних тестів. Властивості особистості не піддаються прямому виміру. Про них можна судити лише з поведінки людини чи характеру відповіді питання. Для пояснення результатів дослідів їх піддають факторному аналізу, який дозволяє виявити ті особистісні властивості, які впливають на поведінку індивідуума.
В основі різних методівфакторного аналізу лежить наступна гіпотеза: спостережувані чи вимірювані параметри є лише непрямими характеристиками досліджуваного об'єкта, насправді існують внутрішні (приховані, латентні, безпосередньо не спостережені) параметри і властивості, число яких мало і які визначають значення спостережуваних параметрів. Ці внутрішні параметри прийнято називати факторами.

Мета факторного аналізу – сконцентрувати вихідну інформацію, виражаючи велику кількість аналізованих ознак через меншу кількість більш ємних внутрішніх характеристик явища, які, проте, не піддаються безпосередньому виміру

Встановлено, що виділення та подальше спостереження за рівнем загальних факторів дає можливість виявляти передвідмовні стани об'єкта на ранніх стадіях розвитку дефекту. Факторний аналіз дає змогу відстежувати стабільність кореляційних зв'язків між окремими параметрами. Саме кореляційні зв'язки між параметрами, а також між параметрами та загальними факторами містять основну діагностичну інформацію про процеси. Застосування інструментарію пакета Statistica при виконанні факторного аналізу виключає необхідність використання додаткових обчислювальних засобів та робить аналіз наочним та зрозумілим для користувача.

Результати факторного аналізу будуть успішними, якщо вдається дати інтерпретацію виявлених факторів, виходячи із значення показників, що характеризують ці фактори. Ця стадія роботи дуже відповідальна; вона вимагає чіткого уявлення про змістовний зміст показників, які залучені до аналізу та основі яких виділено чинники. Тому при попередньому ретельному відборі показників для факторного аналізу слід керуватися їх змістом, а не прагненням до включення в аналіз якнайбільшого їх числа.

Сутність факторного аналізу

Наведемо кілька основних положень факторного аналізу. Нехай для матриці Хвиміряних параметрів об'єкта існує коварійна (кореляційна) матриця C, де р- Число параметрів, n- Число спостережень. Шляхом лінійного перетворення X=QY+Uможна зменшити розмірність вихідного факторного простору Хдо рівня Y, при цьому р"<<р. Це відповідає перетворенню точки, що характеризує стан об'єкта в j-мірному просторі, в новий простір вимірів з меншою розмірністю рОчевидно, що геометрична близькість двох або безлічі точок у новому факторному просторі означає стабільність стану об'єкта.

Матриця Yмістить фактори, що не спостерігаються, які по суті є гіперпараметрами, що характеризують найбільш загальні властивості аналізованого об'єкта. Загальні чинники найчастіше вибирають статистично незалежними, що полегшує їхню фізичну інтерпретацію. Вектор ознак, що спостерігаються Хмає сенс наслідки зміни цих гіперпараметрів.

Матриця Uскладається з залишкових факторів, які включають в основному помилки вимірювання ознак x(i). Прямокутна матриця Qмістить факторні навантаження, що визначають лінійний зв'язок між ознаками та гіперпараметрами.
Факторні навантаження – це значення коефіцієнтів кореляції кожного з вихідних ознак із кожним із виявлених чинників. Чим тісніше зв'язок даної ознаки з аналізованим фактором, тим вище значення факторного навантаження. Позитивний знак факторного навантаження вказує на прямий (а негативний знак – зворотний) зв'язок даної ознаки з фактором.

Таким чином, дані про факторні навантаження дозволяють сформулювати висновки про набір вихідних ознак, що відображають той чи інший фактор, і про відносну вагу окремої ознаки в структурі кожного фактора.

Модель факторного аналізу схожа на моделі багатовимірного регресійного та дисперсійного аналізу. Принципова відмінність моделі факторного аналізу в тому, що вектор Y - це фактори, що не спостерігаються, а в регресійному аналізі - це реєстровані параметри. У правій частині рівняння (8.1) невідомими є матриця факторних навантажень Q та матриця значень загальних факторів Y.

Для знаходження матриці факторних навантажень використовують рівняння QQ т = S–V, де Q т – транспонована матриця Q, V – матриця підступів залишкових факторів U, тобто. . Рівняння вирішується шляхом ітерацій при завданні деякого нульового наближення матриці коварійної V(0). Після знаходження матриці факторних навантажень Q обчислюються загальні фактори (гіперпараметри) за рівнянням
Y=(Q т V -1)Q -1 Q т V -1 X

Пакет статистичного аналізу Statistica дозволяє в діалоговому режимі обчислити матрицю факторних навантажень, а також значення кількох заздалегідь заданих головних факторів, найчастіше двох - першим двом головним компонентам вихідної матриці параметрів.

Факторний аналіз у системі Statistica

Розглянемо послідовність виконання факторного аналізу з прикладу обробки результатів анкетного опитування працівників підприємства. Потрібно виявити основні чинники, що визначають якість трудового життя.

На першому етапі необхідно відібрати змінні щодо факторного аналізу. Використовуючи кореляційний аналіз, дослідник намагається виявити взаємозв'язок досліджуваних ознак, що, своєю чергою, дає можливість виділити повний і надлишковий набір ознак шляхом об'єднання сильно корелюючих ознак.

Якщо проводити факторний аналіз за всіма змінними, то результати можуть вийти не зовсім об'єктивними, оскільки деякі змінні визначається іншими даними, і не можуть регулюватися співробітниками організації.

Щоб зрозуміти, які показники слід виключити, побудуємо за наявними даними матрицю коефіцієнтів кореляції в Statistica: Statistics/ Basic Statistics/ Correlation Matrices/ Ok. У стартовому вікні цієї процедури Product-Moment and Partial Correlations (Рис. 4.3) для розрахунку квадратної матриці використовується кнопка One variable list. Вибираємо всі змінні (Select all), Ok, Summary. Отримуємо кореляційну матрицю.

Якщо коефіцієнт кореляції змінюється не більше від 0,7 до 1, це означає сильну кореляцію показників. У цьому випадку можна виключити одну змінну із сильною кореляцією. І навпаки, якщо коефіцієнт кореляції малий, можна виключити змінну через те, що вона нічого не додасть до загальної суми. У нашому випадку сильної кореляції між будь-якими змінними немає, і факторний аналіз будемо проводити повного набору змінних.

Для запуску факторного аналізу необхідно викликати модуль Statistics / Multivariate Exploratory Techniques (багатомірні методи дослідження) / Factor Analysis (факторний аналіз). На екрані з'явиться вікно Factor Analysis.



Для аналізу вибираємо усі змінні електронної таблиці; Variables (змінні): select all, Ok. У рядку Input file (тип файлу вхідних даних) вказується Raw Data (вихідні дані). У модулі можливі два типи вихідних даних – Raw Data (вихідні дані) та Correlation Matrix – кореляційна матриця.

У розділі MD deletion задається спосіб обробки пропущених значень:
* Casewise - спосіб виключення пропущених значень (за умовчанням);
* Pairwise - парний спосіб виключення пропущених значень;
* Mean substitution – підстановка середнього замість пропущених значень.
Спосіб Casewise полягає в тому, що в електронній таблиці, яка містить дані, ігноруються всі рядки, в яких є хоча б одне пропущене значення. Це стосується всіх змінних. У методі Pairwise ігноруються пропущені значення не для всіх змінних, а лише для обраної пари.

Виберемо спосіб обробки пропущених значень Casewise.

Statistica обробить пропущені значення тим способом, який зазначений, обчислить кореляційну матрицю та запропонує на вибір кілька методів факторного аналізу.

Після натискання кнопки Ok з'являється вікно Define Method of Factor Extraction (визначити спосіб виділення факторів).

Верхня частина вікна є інформаційною. Тут повідомляється, що пропущені значення опрацьовано методом Casewise. Опрацьовано 17 спостережень та 17 спостережень прийнято для подальших обчислень. Кореляційну матрицю обчислено для 7 змінних. Нижня частина вікна містить три вкладки: Quick, Advanced, Descriptives.

У вкладці Descriptives (описові статистики) є дві кнопки:
1- переглянути кореляції, середні та стандартні відхилення;
2- побудувати множинну регресію.

Натиснувши на першу кнопку, можна подивитися середні та стандартні відхилення, кореляції, підступи, побудувати різні графіки та гістограми.

У вкладці Advanced, у лівій частині, виберемо спосіб (Extraction method) факторного аналізу: Principal components (метод основних компонент). У правій частині вибираємо максимальну кількість факторів (2). Задається або максимальна кількість факторів (Max no of factors), або мінімальне значення: 1 (eigenvalue).

Натискаємо Ok, і Statistica швидко здійснить обчислення. На екрані з'являється вікно Factor Analysis Results (Результати факторного аналізу). Як говорилося раніше, результати факторного аналізу виражаються набором факторних навантажень. Тому далі працюватимемо із вкладкою Loadings.

Верхня частина вікна – інформаційна:
Number of variables (число аналізованих змінних): 7;
Метод (метод виділення факторів): Principal components (головних компонентів);
Log (10) determinant of correlation matrix (десятковий логарифм детермінанта кореляційної матриці): -1,6248;
Number of factors extracted (кількість виділених факторів): 2;
Eigenvalues ​​(власні значення): 3,39786 та 1,19130.
У нижній частині вікна знаходяться функціональні кнопки, що дозволяють всебічно переглянути результати аналізу, чисельно та графічно.
Factor rotation – обертання чинників, у цьому випадаючому вікні можна вибрати різні повороти осей. За допомогою повороту системи координат можна отримати безліч рішень, з яких необхідно вибрати рішення, що інтерпретується.

Існують різні методи обертання координат простору. Пакет Statistica пропонує вісім таких методів, представлених у модулі факторного аналізу. Так, наприклад, метод варимакс відповідає перетворенню координат: обертання, що максимізує дисперсію. У методі варимакс отримують спрощене опис стовпців факторної матриці, зводячи всі значення 1 або 0. При цьому розглядається дисперсія квадратів навантажень фактора. Факторна матриця, одержувана за допомогою методу обертання варимакс, більшою мірою інваріантна по відношенню до вибору різноманітних змінних.

Обертання методом квартімакс ставить за мету аналогічне спрощення тільки по відношенню до рядків факторної матриці. Еквімакс займає проміжне положення? при обертанні факторів за цим методом одночасно робиться спроба спростити і стовпці, і рядки. Розглянуті методи обертання належать до ортогональних обертань, тобто. в результаті виходять некорельовані фактори. Методи прямого обліміну та промакс обертання відносяться до косокутних обертань, в результаті яких виходять кореловані між собою фактори. Термін?normalized? у назвах методів вказує на те, що факторні навантаження нормуються, тобто поділяються на квадратний корінь із відповідної дисперсії.

З усіх запропонованих методів ми спочатку подивимося результат аналізу без обертання системи координат – Unrotated. Якщо отриманий результат виявиться інтерпретованим і влаштовуватиме нас, то на цьому можна зупинитися. Якщо ні, можна обертати осі та подивитися інші рішення.

Клацаємо по кнопці "Factor Loading" і дивимося чисельно факторні навантаження.



Нагадаємо, що факторні навантаження – це значення коефіцієнтів кореляції кожної із змінних із кожним із виявлених факторів.

Значення факторного навантаження, більше 0,7 показує, що ця ознака чи змінна тісно пов'язані з аналізованим фактором. Чим тісніше зв'язок даної ознаки з аналізованим фактором, тим вище значення факторного навантаження. Позитивний знак факторного навантаження вказує на прямий (а негативний знак? На зворотний) зв'язок даної ознаки з фактором.
Отже, із таблиці факторних навантажень було виявлено два фактори. Перший визначає ОСБ – відчуття соціального благополуччя. Інші змінні зумовлені другим чинником.

У рядку Expl. Var (рис. 8.5) наведена дисперсія, що припадає на той чи інший фактор. У рядку Prp. Totl наведена частка дисперсії, що припадає на перший та другий фактор. Отже, перший чинник припадає 48,5 % всієї дисперсії, але в другий чинник – 17,0 % всієї дисперсії, решта посідає інші невраховані чинники. У результаті два виявлені фактори пояснюють 65,5 % усієї дисперсії.



Тут ми також бачимо дві групи факторів – ОСБ та решту змінних, з яких виділяється ЖСР – бажання змінити роботу. Мабуть, має сенс досліджувати це бажання ґрунтовніше на основі збору додаткових даних.

Вибір та уточнення кількості факторів

Як тільки отримано інформацію про те, скільки дисперсії виділив кожен фактор, можна повернутися до питання, скільки факторів слід залишити. За своєю природою це рішення довільне. Але є деякі загальновживані рекомендації, і практично слідування їм дає найкращі результати.

Кількість загальних факторів (гіперпараметрів) визначається шляхом обчислення власних чисел (рис. 8.7) матриці Х у модулі факторного аналізу. Для цього у вкладці Explained variance (рис. 8.4) потрібно натиснути кнопку Scree plot.


Максимальна кількість загальних факторів може дорівнювати кількості власних чисел матриці параметрів. Але зі збільшенням числа чинників значно зростають проблеми їхньої фізичної інтерпретації.

Спочатку можна відібрати лише фактори, з власними значеннями, більшими 1. Фактично, це означає, що якщо фактор не виділяє дисперсію, еквівалентну, принаймні, дисперсії однієї змінної, то він опускається. Цей критерій використовується найширше. У наведеному вище прикладі на основі цього критерію слід зберегти лише 2 фактори (дві головні компоненти).

Можна знайти таке місце на графіку, де спад своїх значень зліва направо максимально сповільнюється. Передбачається, що праворуч від цієї точки знаходиться лише "факторіальний осип". Відповідно до цього критерію можна залишити у прикладі 2 або 3 фактори.
З рис. видно, що третій чинник трохи збільшує частку загальної дисперсії.

Факторний аналіз параметрів дозволяє виявити на ранній стадії порушення робочого процесу (виникнення дефекту) у різних об'єктах, яке часто неможливо помітити шляхом безпосереднього спостереження за параметрами. Це тим, що порушення кореляційних зв'язків між параметрами виникає значно раніше, ніж зміна одного параметра. Таке перекручування кореляційних зв'язків дозволяє своєчасно виявити факторний аналіз параметрів. Для цього достатньо мати масиви зареєстрованих параметрів.

Можна дати загальні рекомендації щодо використання факторного аналізу незалежно від предметної області.
* На кожен фактор має припадати не менше двох виміряних параметрів.
* Кількість вимірювань параметрів має бути більшою за кількість змінних.
* Кількість факторів має обґрунтовуватися, виходячи з фізичної інтерпретації процесу.
* Завжди слід домагатися того, щоб кількість факторів була набагато меншою від числа змінних.

Критерій Кайзера іноді зберігає дуже багато чинників, тоді як критерій кам'янистої осипу іноді зберігає дуже мало чинників. Однак обидва критерії цілком хороші за нормальних умов, коли є відносно невелика кількість факторів і багато змінних. Насправді важливіше питання, коли отримане рішення може бути інтерпретовано. Тому зазвичай досліджується кілька рішень з більшою чи меншою кількістю факторів, а потім вибирається одне найбільш осмислене.

Простір вихідних ознак має бути представлений в однорідних шкалах вимірювання, тому що це дозволяє обчислювати використовувати кореляційні матриці. В іншому випадку виникає проблема "ваги" різних параметрів, що призводить до необхідності застосування при обчисленні коваріаційних матриць. Звідси може виникнути додаткова проблема повторюваності результатів факторного аналізу за зміни кількості ознак. Слід зазначити, що зазначена проблема просто вирішується у пакеті Statistica шляхом переходу до стандартизованої форми представлення параметрів. При цьому всі параметри стають рівнозначними за ступенем їхнього зв'язку з процесами в об'єкті дослідження.

Погано обумовлені матриці

Якщо в наборі вихідних даних є надлишкові змінні та не проведено їх виключення кореляційним аналізом, то не можна обчислити зворотну матрицю (8.3). Наприклад, якщо змінна є сумою двох інших змінних, відібраних для цього аналізу, кореляційна матриця для такого набору змінних не може бути звернена, і факторний аналіз принципово не може бути виконаний. Насправді це відбувається, коли намагаються застосувати факторний аналіз до багатьох сильно залежних змінних, що іноді трапляється, наприклад, у обробці запитальників. Тоді можна штучно знизити всі кореляції в матриці шляхом додавання малої константи до діагональних елементів матриці, а потім стандартизувати її. Ця процедура зазвичай призводить до матриці, яка може бути звернена, і тому до неї застосовний факторний аналіз. Більше того, ця процедура не впливає на набір факторів, але оцінки виявляються менш точними.

Факторне та регресійне моделювання систем зі змінними станами

Системою зі змінними станами (СПС) називається система, відгук якої залежить тільки від вхідного впливу, а й від узагальненого постійного у часі параметра, визначального стан. Регульований підсилювач чи атенюатор? це приклад найпростішої УПС, у якому коефіцієнт передачі може дискретно чи плавно змінюватись за яким-небудь законом. Дослідження УПС зазвичай проводиться для лінеаризованих моделей, у яких перехідний процес, пов'язаний із зміною параметра стану, вважається завершеним.

Атенюатори, виконані на основі Г-, Т-і П-подібного з'єднання послідовно і паралельно включених діодів набули найбільшого поширення. Опір діодів під впливом керуючого струму може змінюватися в широких межах, що дозволяє змінювати АЧХ та загасання в тракті. Незалежність фазового зсуву при регулюванні загасання таких атенюаторах досягається за допомогою реактивних ланцюгів, включених в базову структуру. Очевидно, що при різному співвідношенні опорів паралельних і послідовних діодів може бути отриманий той самий рівень послаблення, що вноситься. Але зміна фазового зсуву буде різною.

Досліджуємо можливість спрощення автоматизованого проектування атенюаторів, що виключає подвійну оптимізацію коригувальних ланцюгів та параметрів керованих елементів. Як досліджувану УПС використовуватимемо електрично керований атенюатор, схема заміщення якого наведена на рис. 8.8. Мінімальний рівень загасання забезпечується у разі малого опору елемента Rs та великого опору елемента Rp. У міру збільшення опору елемента Rs і зменшення опору елемента Rp ослаблення, що вноситься, збільшується.

Залежності зміни фазового зсуву від частоти та згасання для схеми без корекції та з корекцією наведені на рис. 8.9 та 8.10 відповідно. У коректованому атенюаторі в діапазоні ослаблень 1,3-7,7 дБ і смузі частот 0,01-4,0 ГГц досягнуто зміни фазового зсуву не більше 0,2 °. В атенюатор без корекції зміна фазового зсуву в тій же смузі частот і діапазоні послаблень досягає 3°. Таким чином, фазове зрушення зменшено за рахунок корекції майже в 15 разів.


Вважатимемо параметри корекції та управління незалежними змінними або факторами, що впливають на згасання та зміну фазового зсуву. Це дає можливість за допомогою системи Statistica провести факторний та регресійний аналіз УПС з метою встановлення фізичних закономірностей між параметрами ланцюга та окремими характеристиками, а також спрощення пошуку оптимальних параметрів схеми.

Вихідні дані формувалися в такий спосіб. Для параметрів корекції та опорів управління, що відрізняються від оптимальних у більшу і меншу сторони на сітці частот 0,01?4 ГГц, були обчислені послаблення, що вноситься, і зміна фазового зсуву.

Методи статистичного моделювання, зокрема, факторний та регресійний аналіз, які раніше не використовувалися для проектування дискретних пристроїв із змінними станами, дозволяють виявити фізичні закономірності роботи елементів системи. Це сприяє створенню структури пристрою, виходячи із заданого критерію оптимальності. Зокрема, у цьому розділі розглядався фазоінваріантний атенюатор як типовий приклад системи із змінними станами. Виявлення та інтерпретація факторних навантажень, що впливають на різні досліджувані характеристики, дозволяє змінити традиційну методологію та суттєво спростити пошук параметрів корекції та параметрів регулювання.

Встановлено, що використання статистичного підходу до проектування подібних пристроїв виправдано як оцінки фізики їх роботи, так обгрунтування принципових схем. Статистичне моделювання дозволяє суттєво скоротити обсяг експериментальних досліджень.

Результати

  • Спостереження за загальними факторами та відповідними факторними навантаженнями – це необхідне виявлення внутрішніх закономірностей процесів.
  • З метою визначення критичних значень контрольованих відстаней між факторними навантаженнями слід накопичувати та узагальнювати результати факторного аналізу для однотипних процесів.
  • Застосування факторного аналізу не обмежується фізичними особливостями процесів. Факторний аналіз є як потужним методом моніторингу процесів, так і застосуємо до проектування систем різного призначення.

Якщо проводити факторний аналіз як належить, а не задовольнятися установками за умовчанням ("маленьким джиффі", як з глузуванням обізвали стандартний джентльменський набір методологи), відданим методом отримання факторів є або метод максимальної правдоподібності, або узагальнений метод найменших квадратів. Ось тут нас може очікувати неприємність: процедура видає повідомлення про помилку: correlation matrix is ​​not positive definite. Що це означає, чому трапляється і як боротися із проблемою?
Справа в тому, що в процесі факторизації процедура виконує пошук так званої зворотної матриці щодо кореляційної. Тут існує аналогія зі звичними дійсними числами: помноживши число на зворотне до нього число, ми маємо отримати одиницю (наприклад, 4 та 0.25). Однак для деяких чисел зворотних до них не існує - нуль неможливо помножити на щось, що дасть одиницю. З матрицями та сама історія. Матриця, помножена на зворотну до неї матрицю, дає одиничну матрицю (одиниці стоять по діагоналі, проте інші значення нульові). Однак для деяких матриць немає зворотних, а значить, провести для таких випадків факторний аналіз стає неможливим. З'ясувати цей факт можна за допомогою особливої ​​кількості, що називається визначником (детермінантом). Якщо воно для матриці прагне нуля або негативне, то ми зіткнулися з проблемою.
Які ж причини цієї ситуації? Найчастіше вона виникає внаслідок існування лінійної залежності між змінними. Звучить дивно, оскільки саме такі залежності ми шукаємо, використовуючи багатовимірні методи. Однак, у разі, коли такі залежності перестають бути імовірнісними, стають жорстко детермінованими алгоритми багатовимірного аналізу дають збій. Розглянемо наступний приклад. Нехай у нас є такий набір даних:
data list free/V1 to V3. begin data. 1 2 3 2 1 2 3 5 4 4 4 5 5 3 1 end data. compute V4 = V1 + V2 + V3.
Остання змінна є точну суму перших трьох. Коли виникає подібна ситуація у реальному дослідженні? Коли ми включаємо в набір змінних сирі бали за субтестами та тестом в цілому; коли кількість змінних набагато більша за кількість піддослідних (особливо якщо змінні сильно корелюють або мають обмежений набір значень). І тут точні лінійні залежності можуть бути випадково. Часто залежності є артефактом процедури вимірювання - наприклад, якщо підраховуються відсотки всередині спостережень (скажімо, відсоток висловлювань певного типу), використовується метод ранжирування або розподілу постійної суми, вводяться певні обмеження на вибір альтернатив і т.п. Як бачимо, цілком поширені ситуації.
Якщо при проведенні факторного аналізу в SPSS наведеного вище масиву замовити висновок детермінанта і зворотної кореляційної матриці, то пакет повідомить про проблему.
Як виявити групу змінних, які створюють мультиколінеарність? Виявляється, старий добрий метод головних компонентів, незважаючи на лінійну залежність, продовжує працювати і щось видає на гора. Якщо побачите, що спільноти якийсь із змінних наближаються до 0.90-0.99, а власні числа деяких чинників стають дуже дрібними (або навіть негативними), це поганий символ. Замовте обертання варимакс і подивіться, яка група змінних потрапила разом з підозрюваною в злочинному зв'язку товаркою. Зазвичай і навантаження її цього чинник є надзвичайно великий (0.99, наприклад). Якщо цей набір змінних невеликий, змістовно різнорідний, виключена можливість артефактної лінійної залежності і вибірка досить велика, то виявлення такого зв'язку можна вважати не менш цінним результатом. Можна таку групу покрутити в регресійному аналізі: ту змінну, яка показала найбільше навантаження, зробити залежною, а решту спробувати як предиктори. R, тобто. коефіцієнт множинної кореляції, повинен у цьому випадку дорівнювати 1. Якщо лінійний зв'язок дуже запущений, то регресія мовчки викине ще якісь з предикторів, дивіться уважно, чого не вистачає. Замовивши додатково висновок діагностики мультиколлінеарності, можна зрештою намацати набір, що утворює точну лінійну залежність.
Ну і, нарешті, ще кілька дрібніших причин того, що кореляційна матриця не є позитивно визначеною. Це, по-перше, наявність великої кількості невідповідей. Іноді, щоб використовувати максимум наявної інформації, дослідник замовляє обробку перепусток попарним способом. У результаті може вийти настільки "нелогічна" матриця зв'язку, що моделі факторного аналізу вона виявиться не по зубах. По-друге, якщо ви вирішили факторизувати кореляційну матрицю, наведену в літературі, ви можете зіткнутися з негативним впливом заокруглення чисел.

Основні положення

Факторний аналіз – це один із нових розділів багатовимірного статистичного аналізу. Спочатку цей метод розроблявся пояснення кореляції між вихідними параметрами. Результатом кореляційного аналізу є матриця коефіцієнтів кореляції. При малій кількості ознак (змінних) можна провести візуальний аналіз цієї матриці. Зі зростанням числа ознак (10 і більше) візуальний аналіз не дасть позитивних результатів. Виявляється, що все різноманіття кореляційних зв'язків можна пояснити дією кількох узагальнених факторів, які є функціями досліджуваних параметрів, при цьому самі фактори можуть бути невідомі, але можна виразити їх через досліджувані ознаки. Основоположником факторного аналізу є американський вчений Л. Терстоун.

Сучасні статистики під факторним аналізом розуміють сукупність методів, які на основі реально існуючого зв'язку між ознаками дозволяє виявити латентні (приховані) узагальнюючі характеристики організаційної структури та механізми розвитку явищ і процесів, що вивчаються.

Приклад: припустимо, що n автомобілів оцінюється за двома ознаками:

x 1 – вартість автомобіля,

x 2 – тривалість робочого ресурсу двигуна.

За умови корелювання x 1 і x 2 в системі координат з'являється спрямоване і досить щільне скупчення точок, формально відображається новими осями (Рис.5).

Рис.6

Характерна риса F 1 та F 2 полягає в тому, що вони проходять через щільні скупчення точок і в свою чергу корелюють з x 1 x 2. Максимальне

число нових осей дорівнюватиме числу елементарних ознак. Подальші розробки факторного аналізу показали, що цей метод може бути успішно застосований у завданнях угруповання та класифікації об'єктів.

Подання інформації у факторному аналізі.

Для проведення факторного аналізу інформація має бути подана у вигляді матриці розміром m x n:

Рядки матриці відповідають об'єктам спостережень (i=), а стовпці – ознакам (j=).

Ознаки, що характеризують об'єкт, мають різну розмірність. Для того, щоб їх привести до однієї розмірності та забезпечити сумісність ознак, матрицю вихідних даних зазвичай нормують, вводячи єдиний масштаб. Найпоширенішим способом нормування є стандартизація. Від змінних переходять до змінних

Середнє значення jознаки,

Середньоквадратичне відхилення.

Таке перетворення називається стандартизацією.

Основна модель факторного аналізу

Основна модель факторного аналізу має вигляд:

z j – j-й ознака (величина випадкова);

F 1 , F 2 , …, F p- Загальні фактори (величини випадкові, нормально розподілені);

u j- Характерний фактор;

j1 , j2 , …, jp фактори навантаження, що характеризують суттєвість впливу кожного фактора (параметри моделі, що підлягають визначенню);

Загальні чинники мають значення для аналізу всіх ознак. Характерні фактори показують, що він відноситься тільки до даної ознаки, це специфіка ознаки, яка не може бути виражена через фактори. Факторні навантаження j1 , j2 , …, jp характеризують величину впливу того чи іншого загального фактора у варіації даної ознаки. Основне завдання факторного аналізу – визначити факторні навантаження. Дисперсію S j 2 кожної ознаки, можна розділити на 2 складові:

    перша частина зумовлює дію загальних факторів - спільність h j 2;

    друга частина зумовлює дію характерного фактора -характерність - d j 2 .

Усі змінні представлені у стандартизованому вигляді, тому дисперсія - держпризнака S j 2 = 1.

Якщо загальні та характерні фактори не корелюють між собою, то дисперсію j-ї ознаки можна представити у вигляді:

де - частка дисперсії ознаки, що припадає на k-ий фактор.

Повний внесок будь-якого фактора в сумарну дисперсію дорівнює:

Внесок усіх загальних факторів у сумарну дисперсію:

Результати факторного аналізу зручно подати у вигляді таблиці.

Факторні навантаження

Товариства

a 11 a 21 … a p1

a 12 a 22 a p2

… … … …

a 1m a 2m a pm

факторів

V 1 V 2 … V p

А- матриця факторних навантажень. Її можна отримати різними способами, в даний час найбільше поширення отримав метод головних компонент або головних факторів.

Обчислювальна процедура способу основних чинників.

Розв'язання задачі за допомогою головних компонентів зводиться до поетапного перетворення матриці вихідних даних X :

Х- матриця вихідних даних;

Z- матриця стандартизованих значень ознак,

R- матриця парних кореляцій:

Діагональна матриця власних (характеристичних) чисел,

j знаходять рішення характеристичного рівняння

Е-одинична матриця,

 j – показник дисперсії кожної головної компоненти ,

за умови стандартизації вихідних даних, тоді = m

U– матриця власних векторів, які знаходять із рівняння:

Реально це означає рішення mсистем лінійних рівнянь для кожного

Тобто. кожному власному числу відповідає система рівнянь.

Потім знаходять V- матрицю нормованих власних векторів.

Матрицю факторного відображення А обчислюють за такою формулою:

Потім знаходимо значення головних компонент за однією з еквівалентних формул:

Сукупність із чотирьох промислових підприємств оцінена за трьома характерними ознаками:

    середньорічне вироблення однієї працівника х 1 ;

    рівень рентабельності х 2;

Рівень фондовіддачі х 3.

Результат представлений у стандартизованій матриці Z:

По матриці Zотримано матрицю парних кореляцій R:

    Знайдемо визначник матриці парних кореляцій (наприклад методом Фаддєєва):

    Побудуємо характеристичне рівняння:

    Вирішуючи це рівняння знайдемо:

Таким чином, вихідні елементарні ознаки х 1 , х 2 , х 3 можуть бути узагальнені значеннями трьох головних компонент, причому:

F 1 пояснює приблизно всій варіації,

F 2 - , а F 3 -

Усі три основні компоненти пояснюють варіації повністю на 100%.

Вирішуючи цю систему знаходимо:

Аналогічно будуються системи для  2 та  3 . Для  2 рішення системи:

Матриця власних векторів Uнабуває вигляду:

    Кожен елемент матриці розділимо на суму квадратів елементів j-го

стовпця, отримаємо нормовану матрицю V.

Зазначимо, що має виконуватись рівність = E.

    Матрицю факторного відображення отримаємо з матричного співвідношення

=

За змістом кожен елемент матриці Апредставляє окремі коефіцієнти матриці кореляції між вихідною ознакою x j та головними компонентами F r. Тому всі елементи.

З рівності випливає умова r- Число компонент.

Повний внесок кожного фактора в сумарну дисперсію ознак дорівнює:

Модель факторного аналізу набуде вигляду:

Знайдемо значення основних компонентів (матрицю F) за формулою

Центр розподілу значень основних компонент перебуває у точці (0,0,0).

Далі аналітичні висновки за результатами розрахунків йдуть вже після ухвалення рішення про кількість значущих ознак і основних компонентів визначення назв головним компонентам. Завдання розпізнавання головних компонентів, визначення для них назв вирішують суб'єктивно на основі вагових коефіцієнтів з матриці відображення. А.

Розглянемо питання формулювання назв основних компонент.

Позначимо w 1 – безліч незначних вагових коефіцієнтів, в яке включаються близькі до нуля елементи,

w 2 - безліч значущих вагових коефіцієнтів,

w 3 – підмножина значних вагових коефіцієнтів, які у формуванні назви головної компоненти.

w 2 - w 3 – підмножина вагових коефіцієнтів, що у формуванні назви.

Обчислюємо коефіцієнт інформативності кожного головного чинника

Набір зрозумілих ознак вважаємо задовільним, якщо значення коефіцієнтів інформативності лежать у межах 0,75-0,95.

a 11 =0,776 a 12 =-0,130 a 13 =0,308

a 12 =0,904 a 22 =-0,210 a 23 =-0,420

а 31 =0,616 а 32 =0,902 а 33 =0,236

Для j=1 w 1 = ,w 2 ={a 11 ,a 21 ,a 31 },

.

Для j=2 w 1 ={a 12 ,a 22 }, w 2 ={ а 32 },

Для j=3 w 1 ={а 33 }, w 2 ={a 13 ,a 33 },

Значеннями ознак x 1 , x 2 , x 3 визначається склад головного компонента на 100%. при цьому найбільший внесок ознаки x 2, сенс якого-рентабельність. коректною для назви ознаки F 1 буде ефективність виробництва.

F 2 визначається компонентом x 3 (фондовіддача), назвемо її ефективність використання основних виробничих засобів.

F 3 визначається компонентами x 1 ,x 2 –в аналізі може розглядатися т.к. вона пояснює лише 10% загальної варіації.

Література

    Попов А.А.

Excel: Практичний посібник, ДЕС КОМ.-М.-2000.

    Дияконов В.П., Абраменкова І.В. Mathcad7 в математиці, фізиці та в Internet. Вид-во «Номідж», М.-1998, розділ 2.13. Виконання регресії.

    Л.А. Сошникова, В.М. Томашевич та інших. Багатомірний статистичний аналіз економіки під ред. В.М. Томашевича.- М. -Наука, 1980.

    Колемаєв В.А., О.В. Староверів, В.Б. Турундаєвський Теорія ймовірностей та математична статистика. -М. - Вища школа-1991.

    До Іберла. Факторний аналіз.-М. Статистика.-1980.

Порівняння двох середніх нормальних генеральних сукупностей, дисперсії яких відомі

Нехай генеральні сукупності X і Y розподілені нормально, причому їх дисперсії відомі (наприклад, з попереднього досвіду або знайдені теоретично). За незалежними вибірками обсягів n і m, витягнутими з цих сукупностей, знайдено середні вибіркові x в і y в.

Потрібно за вибірковим середнім при заданому рівні значущості перевірити нульову гіпотезу, яка полягає в тому, що генеральні середні (математичні очікування) аналізованих сукупностей рівні між собою, тобто Н0: М(X) = М(Y).

Враховуючи, що середні вибіркові є незміщеними оцінками генеральних середніх, тобто М(x в) = М(X) і М(y в) = М(Y), нульову гіпотезу можна записати так: Н 0: М(x в ) = М(y в).

Таким чином, потрібно перевірити, що математичні очікування середніх вибіркових рівні між собою. Таке завдання ставиться, тому що, як правило, середні вибіркові є різними. Виникає питання: значимо чи незначно розрізняються середні вибіркові?

Якщо виявиться, що нульова гіпотеза справедлива, тобто генеральні середні однакові, то відмінність вибіркових середніх є незначною і пояснюється випадковими причинами і, зокрема, випадковим відбором об'єктів вибірки.

Якщо нульова гіпотеза буде відкинута, т. е. генеральні середні неоднакові, то відмінність вибіркових середніх значимо і може бути пояснено випадковими причинами. А пояснюється лише тим, що самі генеральні середні (математичні очікування) різні.

Як перевірку нульової гіпотези приймемо випадкову величину.

Критерій Z – нормована нормальна випадкова величина. Дійсно, величина Z розподілена нормально, оскільки є лінійною комбінацією нормально розподілених величин X та Y; самі ці величини розподілені нормально як середні вибіркові, знайдені за вибірками, витягнутим з генеральних сукупностей; Z – нормована величина, оскільки М(Z) = 0, за справедливості нульової гіпотези D(Z) = 1, оскільки вибірки незалежні.

Критична область будується залежно від виду конкуруючої гіпотези.

Перший випадок. Нульова гіпотеза Н 0: М (X) = М (Y). Конкуруюча гіпотеза Н1: М(X) ¹М(Y).

У цьому випадку будують двосторонню критичну область виходячи з вимоги, щоб ймовірність попадання критерію в цю область, припущення справедливості нульової гіпотези, дорівнювала прийнятому рівню значимості .

Найбільша потужність критерію (імовірність попадання критерію в критичну область при справедливості конкуруючої гіпотези) досягається тоді, коли «ліва» та «права» критичні точки обрані так, що ймовірність попадання критерію в кожний інтервал критичної області дорівнює:

P(Z< zлев.кр)=a¤2,

P(Z > zправ.кр)=a2. (1)

Оскільки Z – нормована нормальна величина, а розподіл такої величини симетрично щодо нуля, критичні точки симетричні щодо нуля.

Отже, якщо позначити праву межу двосторонньої критичної області через zкр, то ліва межа -zкр.

Отже, достатньо знайти правий кордон, щоб знайти саму двосторонню критичну область Z< -zкр, Z >zкр та область прийняття нульової гіпотези (-zкр, zкр).

Покажемо, як знайти zкр – правий кордон двосторонньої критичної області, використовуючи функцію Лапласа Ф(Z). Відомо, що функція Лапласа визначає ймовірність попадання нормованої нормальної випадкової величини, наприклад, Z, в інтервалі (0; z):

Р(0< Z

Так як розподіл Z симетрично щодо нуля, то ймовірність потрапляння Z в інтервал (0; ¥) дорівнює 1/2. Отже, якщо розбити цей інтервал точкою zкр на інтервал (0, zкр) і (zкр, ¥), то теорема складання Р(0< Z < zкр)+Р(Z >zкр) = 1/2.

З огляду на (1) і (2) отримаємо Ф(zкр)+a/2=1/2. Отже, Ф(zкр) = (1-a)/2.

Звідси укладаємо: щоб знайти праву межу двосторонньої критичної області (zкр), досить визначити значення аргументу функції Лапласа, якому відповідає значення функції, рівне (1-a)/2.

Тоді двостороння критична область визначається нерівностями Z< – zкр, Z >zкр, або рівносильною нерівністю ½Z½ > zкр, а область прийняття нульової гіпотези нерівністю – zкр< Z < zкр или равносильным неравенством çZ ç< zкр.

Позначимо значення критерію, обчислене за даними спостережень через zнабл і сформулюємо правило перевірки нульової гіпотези.

Правило.

1. Обчислити значення критерію, що спостерігається

2. За таблицею функції Лапласа визначити критичну точку рівності Ф(zкр)=(1-a)/2.

3. Якщо ç zнабл ç< zкр – нет оснований отвергнуть нулевую гипотезу.

Якщо ç zнабл ç> zкр – нульову гіпотезу відкидають.

Другий випадок. Нульова гіпотеза Н0: M(X) = M(Y). Конкуруюча гіпотеза Н1: M(X)>M(Y).

Насправді такий випадок має місце, якщо професійні міркування дозволяють припустити, що генеральна середня однієї сукупності більше генеральної середньої інший. Наприклад, якщо запроваджено удосконалення технологічного процесу, то природно припустити, що його призведе до збільшення випуску продукції.

У цьому випадку будують правосторонню критичну область виходячи з вимоги, щоб ймовірність попадання критерію в цю область, припущення справедливості нульової гіпотези, дорівнювала прийнятому рівню значимості:

P(Z> zкр)=a. (3)

Покажемо, як знайти критичну точку за допомогою функції Лапласа. Скористаємося співвідношенням

P(0 zкр) = 1/2.

З огляду на (2) і (3) маємо Ф(zкр)+a=1/2. Отже, Ф(zкр)=(1-2a)/2.

Звідси укладаємо, щоб знайти межу правосторонньої критичної області (zкр), досить визначити значення функції Лапласа, рівне (1-2a)/2. Тоді правостороння критична область визначається нерівністю Z > zкр, а сфера прийняття нульової гіпотези – нерівністю Z< zкр.

Правило.

1. Обчислити значення критерію zнабл.

2. По таблиці функції Лапласа визначити критичну точку з рівності Ф(zкр)=(1-2a)/2.

3. Якщо Z набл< z кр – нет оснований отвергнуть нулевую гипотезу. Если Z набл >z кр - нульову гіпотезу відкидаємо.

Третій випадок.Нульова гіпотеза Н0: M(X) = M(Y). Конкуруюча гіпотеза Н1: M(X)

У цьому випадку будують лівосторонню критичну область виходячи з вимоги, ймовірність попадання критерію в цю область, в перед-

положенні справедливості нульової гіпотези, дорівнювала прийнятому рівню значимості P(Z< z’кр)=a, т.е. z’кр= – zкр. Таким образом, для того чтобы найти точку z’кр, достаточно сначала найти “вспомогательную точку” zкр а затем взять найденное значение со знаком минус. Тогда левосторонняя критическая область определяется неравенством Z < -zкр, а область принятия нулевой гипотезы – неравенством Z >-zкр.

Правило.

1. Обчислити Zнабл.

2. За таблицею функції Лапласа знайти “допоміжну точку” zкр за рівністю Ф(zкр)=(1-2a)/2, а потім покласти z'кр = -zкр.

3. Якщо Zнабл > -zкр, - немає підстав відкидати нульову гіпотезу.

Якщо Zнабл< -zкр, – нулевую гипотезу отвергают.

Є сукупністю статистичних процедур, спрямованих на виділення із заданої безлічі змінних підмножин змінних, тісно пов'язаних (корелюючих) між собою. Змінні, що входять в одне підмножина і корелює між собою, але значною мірою незалежні від змінних з інших підмножин, утворюють фактори. Мета факторного аналізу - ідентифікувати фактори, що явно не спостерігаються, за допомогою безлічі спостережуваних змінних. Додатковим способом перевірки числа виділених факторів є обчислення кореляційної матриці, яка близька до вихідної, якщо фактори виділені правильно. Ця матриця називається відтвореноїкореляційною матрицею. Щоб побачити, як ця матриця відхиляється від вихідної кореляційної матриці (з якої починався аналіз), можна обчислити різницю між ними. Залишкова матриця може вказати на "незгоду", тобто на те, що коефіцієнти кореляції, що розглядаються, не можуть бути отримані з достатньою точністю на основі наявних факторів. У методах основних компонентів і факторного аналізу немає такого зовнішнього критерію, що дозволяє судити про правильність рішення. Друга проблема полягає в тому, що після виділення факторів виникає безліч варіантів обертання, що базуються на тих же вихідних змінних, але дають різні рішення (факторні структури визначаються дещо іншим чином). Остаточний вибір між можливими альтернативами всередині нескінченної множини математично рівнозначних рішень залежить від змістовного осмислення дослідниками результатів інтерпретації. А оскільки об'єктивного критерію для оцінки різних рішень немає, запропоновані обґрунтування вибору рішення можуть здаватися голослівними та непереконливими.


Слід зазначити, що чітких статистичних критеріїв повноти факторизації немає. Проте, низькі її значення, наприклад, менше 0,7, свідчать про бажаність скорочення кількості ознак або збільшення кількості факторів.

Коефіцієнт взаємозв'язку між деякою ознакою і загальним фактором, що виражає міру впливу фактора на ознаку, називається факторним навантаженням даної ознаки по даному загальному фактору.

Матриця, що складається з факторних навантажень і має число стовпців, що дорівнює кількості загальних факторів, і рядків, що дорівнює кількості вихідних ознак, називається факторною матрицею.

Основою обчислення факторної матриці є матриця парних коефіцієнтів кореляції вихідних ознак.

Кореляційна матриця фіксує рівень взаємозв'язку між кожною парою ознак. Аналогічно факторна матриця фіксує ступінь лінійного зв'язку кожної ознаки з кожним загальним фактором.

Величина факторного навантаження не перевищує за модулем одиниці, а знак її говорить про позитивний або негативний зв'язок ознаки з фактором.

Чим більша абсолютна величина факторного навантаження ознаки за деяким фактором, тим більшою мірою цей фактор визначає цю ознаку.

Значення факторного навантаження за деяким фактором, близьке до нуля, говорить про те, що цей фактор практично на цю ознаку не впливає.

Факторна модель дозволяє обчислювати вклади факторів у загальну дисперсію всіх ознак. Підсумовуючи квадрати факторних навантажень для кожного фактора за всіма ознаками, отримуємо його внесок у загальну дисперсію системи ознак: чим вища частка цього вкладу, тим більш значущим є суттєвим даний фактор.

При цьому можна виявити і оптимальну кількість загальних факторів, які досить добре описують систему вихідних ознак.

Значення (захід прояву) фактора в окремого об'єкта називається факторною вагою об'єкта по даному фактору. Факторні ваги дозволяють ранжувати, упорядкувати об'єкти за кожним фактором.

Чим більший факторний вага деякого об'єкта, то більше в ньому проявляється той бік явища чи та закономірність, яка відбивається даним фактором.

Факторні ваги можуть бути як позитивними, і негативними.

У силу того, що фактори є стандартизованими величинами із середнім значенням, рівним нулю, факторні ваги, близькі до нуля, говорять про середній ступінь прояву фактора, позитивні – про те, що цей ступінь вищий за середній, негативні – про те. що вона нижче середньої.

Практично, якщо кількість вже знайдених головних компонентів (або факторів) не більша, ніж m/2, пояснювана ними дисперсія щонайменше 70%, а наступна компонента дає внесок у сумарну дисперсію трохи більше 5%, факторна модель вважається досить хорошої.

Якщо Ви хочете знайти значення факторів і зберегти їх у вигляді додаткових змінних, задійте вимикач Scores... (Значення) Факторне значення, як правило, лежить в межах -3 до +3.

Факторний аналіз - потужніший і складніший апарат, ніж метод головних

компонент, тому він застосовується у тому випадку, якщо результати

компонентного аналізу недостатньо влаштовують. Але оскільки ці два методи

вирішують однакові завдання, необхідно порівняти результати компонентного та


факторних аналізів, тобто матриці навантажень, а також рівняння регресії на

основні компоненти та загальні фактори, прокоментувати подібність та відмінності

результатів.

Максимально можлива кількість факторів mпри заданій кількості ознак рвизначається нерівністю

(р+m)<(р-m)2,

На завершення всієї процедури факторного аналізу за допомогою математичних перетворень виражають фактори fj через вихідні ознаки, тобто одержують явно параметри лінійної діагностичної моделі.

Методи головних компонентів і факторного аналізу є сукупність статистичних процедур, вкладених у виділення із заданого безлічі змінних підмножин змінних, тісно пов'язаних (корелюючих) між собою. Змінні, що входять в одне підмножина та корелюють між собою, але значною мірою незалежні від змінних з інших підмножин, утворюють фактори 1 . Мета факторного аналізу - ідентифікувати фактори, що явно не спостерігаються, за допомогою безлічі спостережуваних змінних.

Загальний вираз для j-го фактора може бути записано так:

де Fj (jзмінюється від 1 до k) - це загальні фактори, Ui- характерний, Aij- константи, які використовуються в лінійній комбінації kфакторів. Характерні фактори можуть не корелювати один з одним та із загальними факторами.

Процедури факторно-аналітичної обробки, що застосовуються до отриманих даних, різні, але структура (алгоритм) аналізу складається з тих самих основних етапів: 1. Підготовка вихідної матриці даних. 2. Обчислення матриці взаємозв'язків ознак. 3. Факторизація(при цьому необхідно вказати кількість факторів, що виділяються в ході факторного рішення, та метод обчислення). На цьому етапі (як і на наступному) можна оцінити, наскільки добре отримане факторне рішення зближує вихідні дані. 4. Обертання - перетворення факторів, що полегшує їх інтерпретацію. 5. Підрахунок факторних значеньза кожним фактором для кожного спостереження. 6. Інтерпретація даних.

винахід факторного аналізу був пов'язаний саме з необхідністю одночасного аналізу великої кількості коефіцієнтів кореляції різних шкал між собою. Одна з проблем, пов'язаних з методами головних компонентів і факторного аналізу полягає в тому, що критеріїв, які б перевірити правильність знайденого рішення, не існує. Наприклад, при регресійному аналізі можна зіставити показники залежним змінним, отримані емпіричним шляхом, з показниками, обчисленими теоретично на основі запропонованої моделі, і використовувати кореляцію між ними як критерій правильності рішення за схемою кореляційного аналізу для двох наборів змінних. У дискримінантному аналізі правильність рішення полягає в тому, наскільки точно передбачено належність піддослідних до тих чи іншим класам (якщо порівнювати з реальною приналежністю, що у життя). На жаль, в методах головних компонентів і факторного аналізу не існує такого зовнішнього критерію, що дозволяє судити про правильність рішення, Друга проблема полягає в тому, що після виділення факторів виникає безліч варіантів обертання, що базуються на тих же вихідних змінних, але дають різні рішення ( факторні структури визначаються дещо іншим чином). Остаточний вибір між можливими альтернативами всередині нескінченної множини математично рівнозначних рішень залежить від змістовного осмислення дослідниками результатів інтерпретації. А оскільки об'єктивного критерію для оцінки різних рішень немає, запропоновані обґрунтування вибору рішення можуть здаватися голослівними та непереконливими.

Третя проблема полягає в тому, що факторний аналіз досить часто застосовують з метою врятувати погано продумане дослідження, коли стає зрозумілим, що жодна статистична процедура не дає бажаного результату. Потужність методів головних компонентів і факторного аналізу дозволяє з хаотичної інформації побудувати впорядковану концепцію (що створює їм сумнівну репутацію).

Друга група термінів відноситься до матриць, які будуються та інтерпретуються як частина рішення. Поворотфакторів - це процес пошуку найлегше інтерпретованого рішення для даної кількості факторів. Існують два основні класи поворотів: ортогональнийі косокутний. У першому випадку всі фактори апріорно вибираються ортогональними (не корелюючими один з одним) і будується матриця факторних навантажень, Що являє собою матрицю взаємозв'язків між змінними, що спостерігаються, і факторами. Величина навантажень відображає ступінь зв'язку кожної змінної, що спостерігається, і кожним фактором і інтерпретується як коефіцієнт кореляції між спостережуваною змінною і фактором (латентною змінною), а тому змінюється в межах від -1 до 1. Рішення, отримане після ортогонального повороту, інтерпретується на основі аналізу матриці факторних навантажень шляхом виявлення того, з яким із факторів максимально пов'язана та чи інша змінна, що спостерігається. Таким чином, кожен фактор виявляється заданим групою первинних змінних, що мають за ним найбільші факторні навантаження.

Якщо виконується косокутне обертання (тобто апріорно допускається можливість кореляції факторів між собою), то будується ще кілька додаткових матриць. Матриця факторної кореляціїмістить кореляцію між факторами. Матриця факторних навантажень, згадана вище, розщеплюється на дві: структурну матрицю взаємозв'язківміж факторами та змінними та матрицю факторного відображення, що виражає лінійні взаємозв'язки між кожною змінною, що спостерігається, і кожним фактором (без урахування впливу накладання одних факторів на інші, що виражається кореляцією факторів між собою). Після косокутного обертання інтерпретація факторів відбувається на основі угруповання первинних змінних (подібно до того, як було описано вище), але вже з використанням в першу чергу матриці факторного відображення.

Нарешті, для обох поворотів обчислюється матриця коефіцієнтів факторних значень, що використовується у спеціальних рівняннях регресійного типу для обчислення факторних значень (факторних балів, показників за факторами) для кожного спостереження на основі значень для них первинних змінних.

Порівнюючи методи основних компонентів і факторного аналізу, відзначимо таке. У ході виконання аналізу за методом основних компонентів будується модель для найкращого пояснення (максимального відтворення) повної дисперсії експериментальних даних, отриманих по всіх змінних. В результаті виділяються "компоненти". При факторном аналізі передбачається, кожна змінна пояснюється (детермінується) деякою кількістю гіпотетичних загальних чинників (що впливають попри всі змінні) і характерними чинниками (кожною змінною своїми). І обчислювальні процедури виконуються таким чином, щоб звільнитися як від дисперсії, отриманої в результаті помилки вимірювання, так і від дисперсії, що пояснюється специфічними факторами, і аналізувати тільки дисперсії, що пояснюються загальними гіпотетично існуючими факторами. В результаті виходять об'єкти, які називають факторами. Однак, як уже згадувалося, з змістовно-психологічної точки зору ця різниця в математичних моделях суттєвого значення не має, тому надалі, якщо не дається особливих пояснень, про який саме випадок йдеться, ми будемо використовувати термін «фактор» як щодо компонентів, і щодо факторам.

Розміри вибірки та пропущені дані. Чим більша вибірка, тим більша достовірність показників взаємозв'язку. Тому дуже важливо мати досить велику вибірку. Необхідний розмір вибірки також залежить від ступеня взаємозв'язку показників у популяції загалом та кількості факторів: при сильній та достовірній взаємозв'язку та невеликій кількості чітко окреслених факторів буде достатньо і не дуже великої вибірки.

Так, вибірка, розмір якої 50 піддослідних, оцінюється як дуже погана, 100 – погана, 200 – середня, 300 – хороша, 500 – дуже хороша і 1000 – чудова ( Comrey, Lee, 1992). Виходячи з цих міркувань, як загальний принцип можна порекомендувати дослідити вибірки не менше 300 піддослідних. Для рішення, що базується на достатній кількості маркерних змінних з високими факторними навантаженнями (>0.80), достатньо вибірки близько 150 піддослідних ( Guadagnoli, Velicer, 1988). нормальність для кожної змінної окремо перевіряється за асиметрії(наскільки крива розподілу, що досліджується, зсунута вправо або вліво в порівнянні з теоретично нормальною кривою) і ексцесу(Ступінь витягнутості вгору або прогнутості вниз «дзвони» наявного розподілу, візуально представленого в частотній діаграмі, в порівнянні з «дзвоном» графіка щільності, характерним для нормального розподілу). Якщо змінна має суттєві асиметрію та ексцес, то її можна перетворити, ввівши нову змінну (як однозначну функцію від аналізованої) таким чином, щоб ця нова змінна була розподілена нормально (докладніше про це див. Tabachnik, Fidell, 1996, гол. 4).

Власні вектори та відповідні власні числа
для аналізованого навчального прикладу

Власний вектор 1

Власний вектор 2

Власне значення 1

Власне значення 2

Оскільки кореляційна матриця діагоналізується, то для отримання результатів факторного аналізу до неї можна застосовувати матричну алгебру власних векторів та власних величин (див. Додаток 1). Якщо матриця діагоналізується, то вся суттєва інформація про факторну структуру міститься у її діагональній формі. У факторному аналізі власні числа відповідають дисперсії, яка пояснюється факторами. Фактор з найбільшою власною величиною пояснює найбільшу дисперсію і т. д., доки не доходить до факторів з невеликими або негативними власними величинами, які зазвичай не враховуються при аналізі. Матриця факторних навантажень є матрицею взаємозв'язків (інтерпретованих як коефіцієнти кореляцій) між факторами та змінними. Перший стовпець - це кореляції між першим фактором та кожною змінною по черзі: вартість путівки (-.400), комфортабельність комплексу (.251), Температура повітря (.932), Температура води(956). Другий стовпець - це кореляції між другим фактором та кожною змінною: вартість путівки (.900), комфортабельність комплексу(-.947), температура повітря (..348), Температура води(286). Фактор інтерпретується на основі сильно пов'язаних з ним (тобто мають за ним високі навантаження) змінних. Так, перший фактор головним чином «кліматичний» ( температура повітря та води), тоді як другий «економічний» ( вартість путівки та комфортабельність комплексу).

Інтерпретуючи ці фактори, слід звернути увагу на те, що змінні, що мають високі навантаження за першим фактором ( Температура повітряі Температура води), взаємопов'язані позитивно, тоді як змінні, що мають високі навантаження по другому фактору ( вартість путівкиі комфортабельність комплексу), взаємопов'язані негативно (від дешевого курорту не можна очікувати великої комфортабельності). Перший фактор називається уніполярним (усі змінні згруповані на одному полюсі), а другий - біполярним(Змінні розпалися на дві протилежні за змістом групи - два полюси). Змінні, мають факторні навантаження зі знаком «плюс», утворюють позитивний полюс, а зі знаком «мінус» - негативний. У цьому назви полюсів «позитивний» і «негативний» при інтерпретації чинника немає оцінного сенсу «поганий» і «хороший». Вибір знака відбувається під час обчислень випадково. Ортогональне обертання

Обертання зазвичай застосовується після виділення факторів для максимізації високих кореляцій та мінімізації низьких. Існують численні методи обертання, але найчастіше використовується поворот варімакс, Що являє собою процедуру максимізації дисперсій Цей поворот максимізує дисперсії факторних навантажень, роблячи високі навантаження вищі, а нижчі нижче кожного з чинників. Ця мета досягається за допомогою матриці перетворення Λ:

Матриця перетворення- це матриця синусів та косинусів кута Ψ, на який виконується поворот. (Звідси і назва перетворення - поворотВиконавши поворот і отримавши матрицю факторних навантажень після повороту, можна проаналізувати серію інших показників (див. табл. 4). Спільність змінної– це дисперсія, розрахована за допомогою факторних навантажень. Це квадратична множинна кореляція змінної, передбачена факторною моделлю. Спільність обчислюється як сума квадратів факторних навантажень (СКН) для змінної за всіма чинниками. У табл. 4 спільність для вартості путівкидорівнює (-.086)2+(.981)2 = .970, тобто 97% дисперсії вартості путівкипояснюється факторами 1 та 2.

Частка дисперсії фактора за всіма змінними - це СКН за фактором, поділена на кількість змінних (у разі ортогонального обертання) 7 . Для першого фактора частка дисперсії дорівнює:

[(-.086)2+(-.071)2+(.994)2+(.997)2]/4 = 1.994/4 = .50,

т. е. перший чинник пояснює 50% дисперсії змінних. Другий фактор пояснює 48% дисперсії змінних і (через ортогональність обертання) два фактори в сумі пояснюють 98% дисперсії змінних.

Зв'язок між факторними навантаженнями, спільностями, СКН,
дисперсією та підступом ортогональних факторів після повороту

Товариства ( h2)

Вартість путівки

∑a2=.970

Рівень комфорту

∑a2=.960

Температура повітря

∑a2=.989

Температура води

∑a2=.996

∑a2=1.994

∑a2=1.919

Частка дисперсії

Частка коваріації

Частка дисперсії рішення, яка пояснюється фактором, - частка підступи- це СКН для фактора, поділена на суму спільностей (суму СКН за змінними). Перший фактор пояснює 51% дисперсії рішення (1994/3915); другий – 49% (1.919/3.915); два чинники разом пояснюють усю коваріацію.

Eigenval – відбивають величину дисперсії відповідної кількості чинників. Як вправу рекомендуємо виписати всі ці формули для отримання розрахункових значень змінних. Наприклад, для першого респондента:

1.23 = -.086(1.12) + .981(-1.16)

1.05 = -.072(1.12) - .978(-1.16)

1.08 = .994(1.12) + .027(-1.16)

1.16 = .997(1.12) - .040(-1.16)

Або в формі алгебри:

Z вартості путівки = a 11F 1 + a 12F 2

Z комфортабельності комплексу = a 2l F 1 + a 22F 2

Z температури повітря = a 31F 1 + a 32F 2

Z температури води = a 41F 1 + a 42F 2

Що більше навантаження, то з більшою впевненістю вважатимуться, що змінна визначає чинник. Комрі та Лі ( Comrey, Lee, 1992) припускають, що навантаження, що перевищують 0.71 (пояснює 50% дисперсії), - чудові, 0% дисперсії) - дуже хороші, 0%) - хороші, 0%) - задовільні та 0.32 (пояснює 10% дисперсії) - слабкі.

Припустимо, що ви проводите (до певної міри "дурне") дослідження, в якому вимірюєте зростання ста людей у ​​дюймах та сантиметрах. Таким чином, у вас є дві змінні. Якщо далі ви захочете дослідити, наприклад, вплив різних харчових добавок на ріст, чи продовжуватимете ви використовувати обидвізмінні? Ймовірно, ні, тому що зростання є однією характеристикою людини незалежно від того, в яких одиницях він вимірюється.

Залежність між змінними можна знайти за допомогою діаграми розсіювання. Отримана шляхом припасування лінія регресії дає графічне уявлення залежності. Якщо визначити нову змінну на основі лінії регресії, зображеної на цій діаграмі, то така змінна буде включати найбільш суттєві риси обох змінних. Отже, фактично, ви скоротили кількість змінних та замінили дві однієї. Відзначимо, що новий фактор (змінна) насправді є лінійною комбінацією двох вихідних змінних.

Підтримайте проект - поділіться посиланням, дякую!
Читайте також
Як встановити безкоштовний антивірус аваст Як встановити безкоштовний антивірус аваст Як очистити комп'ютер від вірусів самостійно Як очистити комп'ютер від вірусів самостійно Як повністю очистити комп'ютер від вірусів Як повністю очистити комп'ютер від вірусів