Канонічна кореляція

У статистиці, каноні́чно-кореляці́йний ана́ліз (ККА, англ. canonical-correlation analysis, CCA) це спосіб виведення інформації зі взаємно-коваріаційних матриць[en]. Якщо ми маємо два вектори випадкових змінних, X = (X1, ..., Xn) та Y = (Y1, ..., Ym), та між цими змінними існують кореляції, то канонічно-кореляційний аналіз знайде такі лінійні комбінації Xi та Yj, які мають максимальну кореляцію між собою.[1] Т. Р. Кнапп зазначає, що «практично всі загальноприйняті параметричні критерії[en] значущості можна розглядати як окремі випадки канонічно-кореляційного аналізу, що є загальною процедурою для дослідження взаємозв'язків між двома наборами змінних.»[2] Вперше цей метод було представлено Гарольдом Готелінґом 1936 року.[3]

Визначення

Для двох заданих стовпчикових векторів випадкових змінних зі скінченними другими моментами та можна визначити взаємну коваріацію як матрицю , чий -тий елемент є коваріацією . На практиці ми б оцінювали коваріаційну матрицю на основі вибіркових даних з та (тобто, з пари матриць даних).

Канонічно-кореляційний аналіз шукає таких векторів та , що випадкові змінні та максимізують кореляцію . Випадкові змінні та є першою парою канонічних змінних (англ. first pair of canonical variables). Потім шукають векторів, які максимізують ту саму кореляцію, з обмеженням, що вони не корелюють з першою парою канонічних змінних; це дає другу пару канонічних змінних (англ. second pair of canonical variables). Цю процедуру може бути продовжено аж до разів.

Обчислення

Виведення

Нехай , а . Параметром для максимізації є

Першим кроком є визначення заміни базису та визначення

І відтак ми маємо

Згідно нерівності Коші — Буняковського, ми маємо

Рівність є тоді, коли вектори та є колінеарними. Крім того, максимум кореляції досягається тоді, коли є власним вектором матриці з максимальним власним значенням (див. відношення Релея). Подальші пари знаходять, використовуючи власні значення зменшуваної величини. Ортогональність гарантовано симетричністю кореляційних матриць.

Розв'язок

Отже, розв'язанням є:

  • є власним вектором
  • є пропорційним до

Аналогічно,

  • є власним вектором
  • є пропорційним до

Обертаючи зміну координат, отримуємо, що

  • є власним вектором
  • є власним вектором
  • є пропорційним до
  • є пропорційним до

Канонічні змінні визначаються як

Реалізація

ККА може бути обчислювано із застосуванням сингулярного розкладу кореляційної матриці.[4] Він доступний як функція в[5]

Перевірка гіпотез

Кожен рядок може бути перевірено на значущість за допомогою наступного методу. Оскільки кореляції впорядковуються, то якщо сказати, що рядок є нульовим, з цього випливатиме, що всі наступні кореляції також є нульовими. Якщо ми маємо в вибірці незалежних спостережень, а є оцінкою кореляції для , то для -того рядка статистичним критерієм є

що для великих асимптотично має розподіл хі-квадрат з ступенями вільності.[6] Оскільки всі кореляції від до є логічно нульовими (і оцінюваними таким чином), то добуток членів після цієї точки не має значення.

Практичні застосування

Типовим застосуванням для канонічної кореляції в експериментальному контексті є брати два набори змінних, і дивитися, що є спільного між цими двома наборами. Наприклад, у психологічному тестуванні можна взяти два добре усталені багатовимірні особистісні тести[en], такі як мінесотський багатопрофільний особистісний опитувальник (MMPI-2) та NEO[en]. Дивлячись, як співвідносяться коефіцієнти MMPI-2 та NEO, можна отримати розуміння, які виміри були спільними для цих двох наборів, і скільки було спільної мінливості. Наприклад, можна було би з'ясувати, що виміри екстравертності та невротизму відповідальні за значну величину спільної мінливості цих двох наборів.

Канонічно-кореляційний аналіз також можна використовувати для вироблення рівняння моделі, яка пов'язує два набори змінних, наприклад, набір вимірів продуктивності та набір пояснювальних змінних, або набір виходів та набір входів. На таку модель може бути накладено обмеження, щоби забезпечити відображення нею теоретичних вимог або інтуїтивно очевидних умов. Цей тип моделі відомий як модель з максимальною кореляцією (англ. maximum correlation model).[7]

Унаочнюють результати канонічної кореляції зазвичай за допомогою стовпчикових діаграм коефіцієнтів двох наборів змінних для пар канонічних варіат[en], що показують значущу кореляцію. Деякі автори вважають, що їх найкраще унаочнювати через геліографіки (англ. heliographs), круговий формат із променями як стовпчики, де кожна з половин представляє по набору змінних.[8]

Приклади

Нехай з нульовим математичним сподіванням, тобто, . Якщо , тобто та є повністю корельованими, то, наприклад, та , і відтак першою (і єдиною в цьому прикладі) парою канонічних змінних є та . Якщо , тобто та є повністю антикорельованими, то, наприклад, та , і відтак першою (і єдиною в цьому прикладі) парою канонічних змінних є та . Зауважмо, що в обох випадках , що показує, що канонічно-кореляційний аналіз трактує корельовані та антикорельовані змінні аналогічно.

Зв'язок із головними кутами

Виходячи з того, що та мають нульові математичні сподівання, тобто , їхні коваріаційні матриці та можна розглядати як матриці Грама у внутрішньому добутку для елементів та відповідно. В цій інтерпретації випадкові змінні, елементи з та з , розглядають як елементи векторного простору з внутрішнім добутком, заданим коваріацією , див. Зв'язок коваріації з внутрішніми добутками.

Тоді визначення канонічних змінних та є рівнозначним визначенню кореневих векторів[en] для пари підпросторів, породжуваних елементами та по відношенню до цього внутрішньому добутку. Канонічні кореляції дорівнюють косинусові головних кутів[en].

Див. також

Посилання

  • Discriminant Correlation Analysis (DCA) [Архівовано 11 червня 2018 у Wayback Machine.][9] (MATLAB)
  • Hardoon, D. R.; Szedmak, S.; Shawe-Taylor, J. (2004). Canonical Correlation Analysis: An Overview with Application to Learning Methods. Neural Computation. 16 (12): 2639—2664. doi:10.1162/0899766042321814. PMID 15516276. (англ.)
  • A note on the ordinal canonical-correlation analysis of two sets of ranking scores [Архівовано 18 вересня 2020 у Wayback Machine.] (також пропонує програму мовою FORTRAN) — в J. of Quantitative Economics 7(2), 2009, pp. 173–199 (англ.)
  • Representation-Constrained Canonical Correlation Analysis: A Hybridization of Canonical Correlation and Principal Component Analyses (також пропонує програму мовою FORTRAN) — в J. of Applied Economic Sciences 4(1), 2009, pp. 115–124

Примітки

  1. Härdle, Wolfgang; Simar, Léopold (2007). Canonical Correlation Analysis. Applied Multivariate Statistical Analysis. с. 321—330. doi:10.1007/978-3-540-72244-1_14. ISBN 978-3-540-72243-4. (англ.)
  2. Knapp, T. R. (1978). Canonical correlation analysis: A general parametric significance-testing system. Psychological Bulletin. 85 (2): 410—416. doi:10.1037/0033-2909.85.2.410. (англ.)
  3. Hotelling, H. (1936). Relations Between Two Sets of Variates. Biometrika. 28 (3–4): 321—377. doi:10.1093/biomet/28.3-4.321. JSTOR 2333955. (англ.)
  4. Hsu, D.; Kakade, S. M.; Zhang, T. (2012). A spectral algorithm for learning Hidden Markov Models (PDF). Journal of Computer and System Sciences. 78 (5): 1460. arXiv:0811.4413. doi:10.1016/j.jcss.2011.12.025. Архів оригіналу (PDF) за 1 жовтня 2020. Процитовано 11 серпня 2017. (англ.)
  5. Huang, S. Y.; Lee, M. H.; Hsiao, C. K. (2009). Nonlinear measures of association with kernel canonical correlation analysis and applications (PDF). Journal of Statistical Planning and Inference. 139 (7): 2162. doi:10.1016/j.jspi.2008.10.011. Архів оригіналу (PDF) за 13 березня 2017. Процитовано 11 серпня 2017. (англ.)
  6. Kanti V. Mardia[en], J. T. Kent and J. M. Bibby (1979). Multivariate Analysis. Academic Press[en]. (англ.)
  7. Tofallis, C. (1999). Model Building with Multiple Dependent Variables and Constraints. Journal of the Royal Statistical Society: Series D (The Statistician). 48 (3): 371—378. arXiv:1109.0725. doi:10.1111/1467-9884.00195. (англ.)
  8. Degani, A.; Shafto, M.; Olson, L. (2006). Canonical Correlation Analysis: Use of Composite Heliographs for Representing Multiple Patterns. Diagrammatic Representation and Inference (PDF). Lecture Notes in Computer Science. Т. 4045. с. 93. doi:10.1007/11783183_11. ISBN 978-3-540-35623-3. Архів оригіналу (PDF) за 8 серпня 2017. Процитовано 11 серпня 2017. (англ.)
  9. M. Haghighat, M. Abdel-Mottaleb, & W. Alhalabi (2016). Discriminant Correlation Analysis: Real-Time Feature Level Fusion for Multimodal Biometric Recognition. IEEE Transactions on Information Forensics and Security, 11(9), 1984-1996.