Ме́тод головни́х компоне́нтів (МГК, англ.principal component analysis, PCA) — метод факторного аналізу в статистиці, який використовує ортогональне перетворення множини спостережень з можливо пов'язаними змінними (сутностями, кожна з яких набуває різних числових значень) у множину змінних без лінійної кореляції, які називаються головними компонентами.
Обчислення головних компонент може бути зведене до обчислення сингулярного розкладу матриці даних або до обчислення власних векторів і власних чиселковаріаційної матриці початкових даних. Іноді метод головних компонент називають перетворенням Кархунена — Лоева[1] або перетворенням Хотеллінга (англ.Hotelling transform).
Серед інших подібних методів, що дозволяють узагальнювати значення елементарних ознак, МГК виділяється простою логічною конструкцією, і, разом з тим, на його прикладі стають зрозумілими загальна ідея й цілі чисельних методів факторного аналізу.
Метод головних компонент дає можливість за m — числом початкових ознак виділити r головних компонент, або узагальнених ознак. Простір головних компонент ортогональний. Математична модель методу головних компонент базується на логічному припущенні, що значення множини взаємозалежних ознак породжують деякий загальний результат.
Розв'язування задачі методом головних компонент зводиться до поетапного перетворення матриці початкових даних X.
Формальна постановка задачі
Задача аналізу головних компонент має щонайменше чотири базових версії:
знайти підпростори меншої розмірності, в ортогональній проєкції на які середньоквадратична відстань між точками максимальна;
для даної багатовимірної випадкової величини побудувати таке ортогональне перетворення координат, внаслідок якого кореляції між окремими координатами перетворяться в нуль.
Перші три версії оперують скінченними множинами даних. Вони еквівалентні і не використовують жодної гіпотези про статистичне породження даних. Четверта версія оперує випадковими величинами. Скінченні множини з'являються тут як вибірки з даного розподілу, а розв'язання трьох перших завдань — як наближення до розкладу за теоремою Кархунена — Лоева («істинного перетворення Кархунена — Лоева»). При цьому виникає додаткове і не цілком тривіальне питання про точність цього наближення.
Апроксимація даних лінійними многовидами
Метод головних компонент починався з задачі найкращої апроксимації скінченної множини точок прямими і площинами (Пірсон, 1901). Дано скінченну множину векторівдля кожного серед всіх -вимірних лінійних многовидів у знайти таке , що сума квадратів відхилень від мінімальна:
,
де — евклідова відстань від точки до лінійного многовиду. Кожен -вимірний лінійний многовид в може бути заданий як множина лінійних комбінацій , де параметри пробігають дійсну пряму , а — ортонормований набір векторів
,
де евклідова норма, — евклідів скалярний добуток, або в координатній формі:
.
Розв'язок задачі апроксимації для дається набором вкладених лінійних многовидів , . Ці лінійні многовиди визначаються ортонормованим набором векторів (векторами головних компонент) та вектором . Вектор шукається як розв'язок задачі мінімізації для :
Фреше в 1948 році звернув увагу, що варіаційне визначення середнього (як точки, що мінімізує суму квадратів відстаней до точок даних) дуже зручно для побудови статистики в довільному метричному просторі, і побудував узагальнення класичної статистики для загальних просторів (узагальнений метод найменших квадратів).
Вектори головних компонент можуть бути знайдені як розв'язки однотипних задач оптимізації:
Централізуються дані (відніманням середнього): . Тепер ;
Відшукується перша головна компонента як розв'язок задачі:
.
якщо розв'язок не єдиний, то вибирається один з них.
З даних віднімається проєкція на першу головну компоненту:
;
Відшукується друга головна компонента як розв'язок задачі:
.
Якщо розв'язок не єдиний, то вибирається один з них.
Далі процес триває, тобто на кроці віднімається проєкція на -у головну компоненту (до цього моменту проєкції на попередні головні компоненти вже відняті):
;
і на кроці визначається -а головна компонента як розв'язок задачі:
(якщо розв'язок не єдиний, то вибирається один з них).
На кожному підготовчому кроці віднімається проєкція на попередню головну компоненту. Знайдені вектори ортонормовані просто внаслідок розв'язування описаної задачі оптимізації, однак, щоб не дати похибкам обчислення порушити взаємну ортогональність векторів головних компонент, можна включати в умови задачі оптимізації.
Неєдиність у визначенні крім тривіальної довільності у виборі знака ( і розв'язують ту саму задачу) може бути більш істотною і походити, наприклад, з умов симетрії даних. Остання головна компонента — одиничний вектор, ортогональний всім попереднім .
Пошук ортогональних проєкцій з найбільшим розсіянням
Вибіркова дисперсія даних уздовж першої координати максимальна (цю координату називають першою головною компонентою);
Вибіркова дисперсія даних уздовж другої координати максимальна за умови ортогональності першій координаті (друга головна компонента);
…
Вибіркова дисперсія даних уздовж значень -ї координати максимальна за умови ортогональності першим координатами;
…
Вибіркова дисперсія даних уздовж напрямку, заданого нормованим вектором , це
(оскільки дані центровані, вибіркова дисперсія тут збігається із середнім квадратом ухилення від нуля).
Розв'язок задачі про найкращу апроксимацію дає ту ж множину головних компонент , що й пошук ортогональних проєкцій з найбільшим розсіянням, з дуже простої причини: і перший доданок не залежить від .
Пошук ортогональних проєкцій з найбільшою середньоквадратичною відстанню між точками
Ще одне еквівалентне формулювання випливає з очевидної тотожності, правильної для будь-яких векторів :
У лівій частині цієї тотожності стоїть середньоквадратична відстань між точками, а в квадратних дужках праворуч — вибіркова дисперсія. Таким чином, у методі головних компонент шукаються підпростори, в проєкції на які середньоквадратична відстань між точками максимальна (або, що те ж саме, її спотворення внаслідок проєкції мінімальне)[3]. Таке переформулювання дозволяє будувати узагальнення зі зважуванням різних парних відстаней (а не тільки точок).
Анулювання кореляцій між координатами
Для заданої -вимірної випадкової величини знайти такий ортонормований базис, , в якому коефіцієнт коваріації між різними координатами дорівнює нулю. Після перетворення до цього базису
Всі задачі про головні компоненти приводять до задачі діагоналізації коваріаційної матриці або вибіркової коваріаційної матриці. Емпірична або вибіркова коваріаційна матриця, це
Вектори головних компонент для задач про найкращу апроксимацію і про пошук ортогональних проєкцій з найбільшим розсіянням — це ортонормований набір власних векторів емпіричної коваріаційної матриці , розташованих у порядку спадання власних значень Ці вектори слугують оцінкою для власних векторів коваріаційної матриці . У базисі власних векторів коваріаційної матриці вона, природно, діагональна, і в цьому базисі коефіцієнт коваріації між різними координатами дорівнює нулю.
Якщо спектр коваріаційної матриці вироджений, то вибирають довільний ортонормований базис власних векторів. Він існує завжди, а власні числа коваріаційної матриці завжди дійсні і невід'ємні.
Сингулярний розклад матриці даних
Ідея сингулярного розкладу
Математичний зміст методу головних компонент — це спектральне розкладання коваріаційної матриці , тобто подання простору даних у вигляді суми взаємно ортогональних власних підпросторів , а самої матриці — у вигляді лінійної комбінації ортогональних проєкторів на ці підпростори з коефіцієнтами . Якщо — матриця, складена з векторів-рядків (розмірності ) центрованих даних, то і задача про спектральний розклад коваріаційної матриці перетворюється на задачу про сингулярний розклад матриці даних .
Число називається сингулярним числом матриці тоді і тільки тоді, коли існують правий і лівий сингулярні вектори: такі -вимірний вектор-рядок і -вимірний вектор-стовпець (обидва одиничної довжини), що виконуються дві рівності:
Нехай — ранг матриці даних. Сингулярний розклад матриці даних — це її подання у вигляді
де — сингулярне число, — відповідний правий сингулярний вектор-стовпець, а — відповідний лівий сингулярний вектор-рядок (). Праві сингулярні вектори-стовпці , що беруть участь у цьому розкладі, є векторами головних компонент і власними векторами емпіричної коваріаційної матриці
, що відповідають додатним власним числам .
Хоча формально завдання сингулярного розкладу матриці даних і спектрального розкладу коваріаційної матриці збігаються, алгоритми обчислення сингулярного розкладу безпосередньо, без обчислення коваріаційної матриці і її спектра, більш ефективні і стійкі[4].
Основна процедура — пошук найкращого наближення довільної матриці матрицею виду (де — -вимірний вектор, а — -вимірний вектор) методом найменших квадратів:
Розв'язок цієї задачі дається послідовними ітераціями за явними формулами. При фіксованому векторі значення , що надають мінімум формі однозначно і явно визначаються з рівностей :
Аналогічно, при фіксованому векторі визначаються значення :
Як початкове наближення вектора береться випадковий вектор одиничної довжини, обчислюємо вектор , далі для цього вектора обчислюємо вектор і т. д. Кожен крок зменшує значення . Як критерій зупинки використовується малість відносного зменшення значення функціоналу , що мінімізується, за крок ітерації () або малість самого значення .
Внаслідок цього для матриці отримується найкраще наближення матрицею виду (тут верхнім індексом позначено номер наближення). Далі, з матриці віднімається отримана матриця , і для отриманої матриці ухилень знову шукається найкраще наближення цього ж виду і т. д., поки, наприклад, норма не стане достатньо малою. В результаті отримали ітераційну процедуру розкладання матриці у вигляді суми матриць рангу 1, тобто . Приймаємо і нормуємо вектори : В результаті отримано апроксимацію сингулярних чисел і сингулярних векторів (правих — і лівих — ).
До переваг цього алгоритму відноситься його виняткова простота і можливість майже без змін перенести його на дані з прогалинами[6], а також зважені дані.
Існують різні модифікації базового алгоритму, що поліпшують точність і стійкість. Наприклад, вектори головних компонент при різних повинні бути ортогональні «за побудовою», однак за великого числа ітерацій (велика розмірність, багато компонент) малі відхилення від ортогональності накопичуються і може знадобитися спеціальна корекція на кожному кроці, що забезпечує його ортогональність раніше знайденим головним компонентам.
Для квадратних симетричних додатно визначених матриць описаний алгоритм перетворюється на метод прямих ітерацій для пошуку власних векторів (див. статтю Власні вектори та власні числа).
Сингулярне розкладання тензорів і тензорний метод головних компонент
Часто вектор даних має додаткову структуру прямокутної таблиці (наприклад, плоске зображення) або навіть багатовимірної таблиці — тобто тензора: , . У цьому випадку також ефективно застосовувати сингулярне розкладання. Визначення, основні формули та алгоритми переносяться практично без змін: замість матриці даних маємо -індексну величину , де перший індекс -номер точки (тензора) даних.
Основна процедура — пошук найкращого наближення тензора тензором виду (де — -вимірний вектор ( — кількість точок даних), — вектор розмірності при ) методом найменших квадратів:
Розв'язок цієї задачі отримується послідовними ітераціями за явними формулами. Якщо задано всі вектори-співмножники крім одного , то він визначається явно з достатніх умов мінімуму.
Як початкове наближення векторів () беруться випадкові вектори одиничної довжини, обчислимо вектор далі для цього вектора і даних векторів обчислюється вектор і так далі (циклічно перебираючи індекси). Кожен крок зменшує значення . Алгоритм, очевидно, збігається. Як критерій зупинки використовується малість відносного зменшення значення функціоналу , що мінімізується, за цикл або малість самого значення . Далі, від тензора віднімається отримане наближення і для залишку знову шукається найкраще наближення цього ж вигляду і т. д., поки, наприклад, норма чергового залишку не стане достатньо малою.
Це багатокомпонентне сингулярне розкладання (тензорний метод головних компонент) успішно застосовується при обробці зображень, відеосигналів, і, ширше, будь-яких даних, що мають табличну або тензорну структуру.
Матриця перетворення до головних компонентів
Матриця перетворення даних до головних компонент складається з векторів головних компонент, розташованих у порядку спадання власних значень:
Велика частина варіації даних буде зосереджена в перших координатах, що дозволяє перейти до простору меншої розмірності.
Залишкова дисперсія
Нехай дані центровані, . При заміні векторів даних їх проєкцією на перші головних компонент вноситься середній квадрат помилки в розрахунку на один вектор даних:
де — власні значення емпіричної коваріаційної матриці , розташовані в порядку спадання, з урахуванням кратності.
Ця величина називається залишковою дисперсією. Величина
називається поясненою дисперсією. Їх сума дорівнює вибірковій дисперсії. Відповідний квадрат відносної помилки — це відношення залишкової дисперсії до вибіркової дисперсії (тобто частка непоясненої дисперсії):
За відносною помилкою оцінюється придатність методу головних компонент з проєціюванням на перші компонент.
Зауваження: в більшості обчислювальних алгоритмів власні числа з відповідними власними векторами головними компонентами обчислюються в порядку «від великих — до менших». Для обчислення достатньо обчислити перші власних чисел і слід емпіричної коваріаційної матриці , (суму діагональних елементів , тобто дисперсій за осями). Тоді
Відбір головних компонент за правилом Кайзера
Цільовий підхід до оцінки числа головних компонент з необхідною часткою поясненої дисперсії формально застосовується завжди, однак неявно він припускає, що немає поділу на «сигнал» і «шум», і будь-яка наперед задана точність має сенс. Тому часто більш продуктивна інша евристика, яка ґрунтується на гіпотезі про наявність «сигналу» (порівняно мала розмірність, відносно велика амплітуда) і «шуму» (велика розмірність, відносно мала амплітуда). З цієї точки зору метод головних компонент працює як фільтр: сигнал міститься, в основному, в проєкції на перші головні компоненти, а в інших компонентах пропорція шуму значно вища.
Питання: як оцінити число необхідних головних компонент, якщо відношення «сигнал/шум» заздалегідь не відоме?
Найпростіший і найстаріший метод відбору головних компонент дає правило Кайзера (англ.Kaiser's rule): значущі ті головні компоненти, для яких
тобто перевищує середнє значення (середню вибіркову дисперсію координат вектора даних). Правило Кайзера добре працює в простих випадках, коли є декілька головних компонент з , які значно перевищують середнє значення, а інші власні числа, менші за нього. У більш складних випадках воно може давати занадто багато значущих головних компонент. Якщо дані нормовані на одиничну вибіркову дисперсію за осями, то правило Кайзера набуває особливо простого вигляду: значущі тільки ті головні компоненти, для яких .
Оцінка числа головних компонент за правилом зламаної тростини
Одним з найбільш популярних евристичних підходів до оцінки числа необхідних головних компонент є правило зламаної тростини (англ.Broken stick model)[7]. Набір нормованих на одиничну суму власних чисел (, ) порівнюється з розподілом довжин уламків тростини одиничної довжини, зламаної в -й випадково вибраній точці (точки зламу вибираються незалежно і рівномірно розподілені вздовж тростини). Нехай () — довжини отриманих шматків тростини, занумеровані в порядку зменшення довжини. Нескладно знайти математичне сподівання:
За правилом зламаної тростини -й власний вектор (у порядку зменшення власних чисел ) зберігається в списку головних компонент, якщо
На рисунку наведено приклад для 5-вимірного випадку:
За правилом зламаної тростини в цьому прикладі слід залишати 2 головні компоненти:
За оцінками користувачів, правило зламаної тростини має тенденцію занижувати кількість значущих головних компонент.
Нормування
Нормування після зведення до головних компонент
Після проєціювання на перші головних компонент з зручно провести нормування на одиничну (вибіркову) дисперсію за осями. Дисперсія вздовж -ї головної компоненти дорівнює
), тому для нормування треба поділити відповідну координату на . Це перетворення не є ортогональним і не зберігає скалярного добутку. Коваріаційна матриця проєкції даних після нормування стає одиничною, проєкції на будь-які два ортогональні напрямки стають незалежними величинами, а будь-який ортонормований базис стає базисом головних компонент (нагадаємо, що нормування змінює відношення ортогональності векторів). Відображення простору початкових даних на перші головних компонент разом з нормуванням задається матрицею
.
Саме це перетворення найчастіше називається перетворенням Кархунена — Лоева. Тут — вектори-стовпці, а верхній індекс означає транспонування.
Нормування до обчислення головних компонент
Попередження: не слід плутати нормування, що проводиться після перетворення до головних компонент, з нормуванням і «знерозмірюванням» при передобробці даних, що проводиться до обчислення головних компонент. Попереднє нормування потрібне для обґрунтованого вибору метрики, в якій буде обчислюватися найкраща апроксимація даних, або будуть шукатися напрямки найбільшого розкиду (що еквівалентно). Наприклад, якщо дані являють собою просторові вектори з «метрів, літрів і кілограмів», то при використанні стандартної евклідової відстані різниця на 1 метр за першою координатою робитиме такий самий внесок, що й різниця на 1 літр за другою, або на 1 кг за третьою. Зазвичай системи одиниць, в яких подані початкові дані, недостатньо точно відображають наші уявлення про природні масштаби за осями, і проводиться «знерозмірювання»: кожна координата ділиться на певний масштаб, який визначається даними, цілями їх обробки і процесами вимірювання і збору даних.
Є три істотно різних стандартних підходи до такого нормування: на одиничну дисперсію за осями (масштаби за осями дорівнюють середнім квадратичним ухиленням — після цього перетворення коваріаційна матриця збігається з матрицею коефіцієнтів кореляції), на рівну точність вимірювання (масштаб за віссю пропорційний точності вимірювання даної величини) і на рівні вимоги в задачі (масштаб за віссю визначається необхідною точністю прогнозу даної величини або допустимим її спотворенням — рівнем толерантності). На вибір передобробки впливають змістовна постановка задачі, а також умови збору даних (наприклад, якщо колекція даних принципово не завершена і дані будуть ще надходити, то нераціонально вибирати нормування строго на одиничну дисперсію, навіть якщо це відповідає змісту завдання, оскільки це передбачає ренормалізацію всіх даних після отримання нової порції; розумніше вибрати певний масштаб, що грубо оцінює стандартне відхилення, і далі його не змінювати).
Попереднє нормування на одиничну дисперсію за осями руйнується поворотом системи координат, якщо осі не є головними компонентами, і нормування при передобробці даних не замінює нормування після зведення до головних компонент.
Механічна аналогія і метод головних компонент для зважених даних
Якщо зіставити кожному вектору даних одиничну масу, то емпірична коваріаційна матриця збіжиться з тензором інерції цієї системи точкових мас (поділеним на повну масу ), а задача про головні компоненти — із задачею зведення тензора інерції до головних осей. Можна використовувати додаткову свободу у виборі значень мас для врахування важливості точок даних або надійності їхніх значень (важливим даними або даними з більш надійних джерел приписуються великі маси). Якщо вектору даних надається маса , то замість емпіричної коваріаційної матриці отримаємо
Всі подальші операції зі зведення до головних компонент виконуються так само, як і в основній версії методу: шукається ортонормований власний базис , впорядковується за спаданням власних значень, оцінюється середньозважена помилка апроксимації даних першими компонентами (за сумами власних чисел ), проводиться нормування і так далі.
Більш загальний спосіб зважування дає максимізація зваженої суми попарних відстаней[8] між проєкціями. Для кожних двох точок даних, вводиться вага ; і . Замість емпіричної коваріаційної матриці використовується
При симетрична матриця додатно визначена, оскільки додатна квадратична форма:
Далі шукаємо ортонормований власний базис , впорядковуємо його за спаданням власних значень, оцінюємо середню помилку апроксимації даних першими компонентами і т. д. — так само, як і в основному алгоритмі.
Цей спосіб застосовується за наявності класів: для з різних класів вага вага вибирається більшою, ніж для точок одного класу. Як наслідок, у проєкції на зважені головні компоненти різні класи «розсуваються» на більшу відстань.
Інше застосування — зниження впливу великих ухилень, так званих викидів (en.:outlier), які можуть спотворювати картину через використання середньоквадратичної відстані: якщо вибрати , то вплив великих ухилень буде зменшено. Таким чином, описана модифікація методу головних компонент є більш робастною, ніж класична.
Спеціальна термінологія
В статистиці при використанні методу головних компонент використовують кілька спеціальних термінів.
Матриця даних — ; кожен рядок — вектор передоброблених даних (центрованих і правильно нормованих), число рядків — (кількість векторів даних), число стовпців — (розмірність простору даних);
Матриця навантажень (англ.loadings) — ; кожен стовпець — вектор головних компонент, число рядків — (розмірність простору даних), число стовпців — (кількість векторів головних компонент, вибраних для проєціювання);
Матриця рахунків (англ.scores) — ; кожен рядок — проєкція вектора даних на головних компонент; число рядків — (кількість векторів даних), число стовпців — (кількість векторів головних компонент, вибраних для проєціювання);
Матриця -рахунків (англ.-scores) — ; кожен рядок — проєкція вектора даних на головних компонент, нормована на одиничну вибіркову дисперсію; число рядків — (кількість векторів даних), число стовпців — (кількість векторів головних компонент, вибраних для проєктування);
Матриця помилок (або залишків) (англ.errors або residuals) — .
Основна формула: .
Межі застосування та обмеження ефективності методу
Метод головних компонент застосовний завжди. Розповсюджене твердження про те, що він застосовний тільки до нормально розподілених даних (або для розподілів близьких до нормальних) хибне: у початковому формулюванні Пірсона ставиться задача про наближення скінченної множини даних та відсутня навіть гіпотеза про їх статистичне породження, не кажучи вже про розподіл.
Однак метод не завжди ефективно знижує розмірність за заданих обмежень на точність . Прямі і площини не завжди забезпечують гарну апроксимацію. Наприклад, дані можуть з хорошою точністю дотримуватися якоїсь кривої, а ця крива може бути складно розташована у просторі даних. У цьому випадку метод головних компонент для прийнятної точності зажадає декількох компонент (замість однієї), або взагалі не дасть зниження розмірності за прийнятної точності. Для роботи з такими «кривими» головними компонентами винайдено метод головних многовидів[9] і різні версії нелінійного методу головних компонент[10][11]. Найбільше неприємностей можуть спричинити дані складної топології. Для їх апроксимації також винайдено різні методи, наприклад самоорганізаційні карти Кохонена, нейронний газ[12] або топологічні граматики[13]. Якщо дані статистично породжені з розподілом, що дуже відрізняється від нормального, то для апроксимації розподілу корисно перейти від головних компонент до незалежних компонент[14], які вже не ортогональні у початковому скалярному добутку. Нарешті, для ізотропного розподілу (навіть нормального) замість еліпсоїда розсіювання отримуємо кулю, і зменшити розмірність методами апроксимації неможливо.
Приклади використання
Візуалізація даних
Візуалізація даних — подання в наочній формі даних експерименту або результатів теоретичного дослідження.
Першим вибором у візуалізації множини даних є ортогональне проєціювання на площину перших двох головних компонент (або 3-вимірний простір перших трьох головних компонент). Площина проєціювання є, по суті, плоским двовимірним «екраном», розташованим таким чином, щоб забезпечити «картинку» даних з найменшими спотвореннями. Така проєкція буде оптимальною (серед усіх ортогональних проєкцій на різні двовимірні екрани) в трьох аспектах:
Мінімальна сума квадратів відстаней від точок даних до проєкцій на площину перших головних компонент, тобто екран розташований максимально близько по відношенню до хмари точок.
Мінімальна сума спотворень квадратів відстаней між усіма парами точок з хмари даних після проєціювання точок на площину.
Мінімальна сума спотворень квадратів відстаней між усіма точками даних і їх «центром тяжіння».
Візуалізація даних є одним з найбільш широко використовуваних застосувань методу головних компонент та його нелінійних узагальнень[3].
Стиснення зображень і відео
Для зменшення просторової надмірності пікселів під час кодування зображень і відео використовується лінійне перетворення блоків пікселів. Подальші квантування отриманих коефіцієнтів і кодування без втрат дозволяють отримати значні коефіцієнти стиснення. Використання перетворення PCA як лінійне перетворення є для деяких типів даних оптимальним з точки зору розміру отриманих даних за однакового спотворення[15]. На даний момент цей метод активно не використовується, в основному через велику обчислювальну складність. Також стиснення даних можна досягти відкидаючи останні коефіцієнти перетворення.
Придушення шуму на фотографіях
Основна суть методу[16] — при видаленні шуму з блоку пікселів подати окіл цього блоку у вигляді набору точок у багатовимірному просторі, застосувати до нього PCA і залишити тільки перші компоненти перетворення. При цьому передбачається, що в перших компонентах міститься основна корисна інформація, решта ж компонент містять непотрібний шум. Застосувавши зворотне перетворення після редукції базису головних компонент, отримаємо зображення без шуму.
Індексація відео
Основна ідея — подати за допомогою PCA кожен кадр відео кількома значеннями, які в подальшому будуть використовуватися при побудові бази даних та запитів до неї. Настільки істотна редукція даних дозволяє значно збільшити швидкість роботи і стійкість до ряду спотворень у відео.
Біоінформатика
Метод головних компонент інтенсивно використовується в біоінформатиці для скорочення розмірності опису, виділення значущої інформації, візуалізації даних тощо. Один з поширених варіантів використання — аналіз відповідностей[17][18][19]. На ілюстраціях (рис. А, Б) генетичний текст[20] поданий як множина точок у 64-вимірному просторі частот триплетів. Кожна точка відповідає фрагменту ДНК у ковзному вікні завдовжки 300 нуклеотидів (ДНК-блукання). Цей фрагмент розбивається на триплети, що не перекриваються, починаючи з першої позиції. Відносні частоти цих триплетів у фрагменті і складають 64-вимірний вектор. На рис. А наведено проєкцію на перші 2 головні компоненти для геному бактеріїStreptomyces coelicolor[en]. На рис. Б наведено проєкцію на перші 3 головні компоненти. Відтінками червоного і коричневого виділено фрагменти кодувальних послідовностей у прямому ланцюгу ДНК, а відтінками зеленого виділено фрагменти кодувальних послідовностей у зворотному ланцюгу ДНК. Чорним позначено фрагменти, що належать некодувальній частині. Аналіз методом головних компонент більшості відомих бактеріальних геномів представлений на спеціалізованому сайті[21].
Хемометрика
Метод головних компонент — один з основних методів в хемометриці. Дозволяє розділити матрицю вихідних даних X на дві частини: «змістовну» і «шум».
Психодіагностика
Психодіагностика є однією з найбільш розроблених галузей застосування методу головних компонент[22]. Стратегія використання ґрунтується на гіпотезі про автоінформативність експериментальних даних, яка передбачає, що діагностичну модель можна створити шляхом апроксимації геометричної структури множини об'єктів у просторі початкових ознак. Хорошу лінійну діагностичну модель вдається побудувати, коли значна частина початкових ознак є внутрішньо збалансованою. Якщо ця внутрішня узгодженість відображає шуканий психологічний конструкт, то параметри лінійної діагностичної моделі (ваги ознак) дає метод головних компонент.
Економетрика
Метод головних компонент — один з ключових інструментів економетрики, він застосовується для наочного подання даних, забезпечення лаконізму моделей, спрощення підрахунку та інтерпретації, стиснення обсягів збереженої інформації. Метод забезпечує максимальну інформативність та мінімальне спотворення геометричної структури початкових даних.
Соціологія
В соціології метод необхідний для вирішення перших двох основних завдань[23]:
аналіз даних (опис результатів опитувань або інших досліджень, представлених у вигляді масивів числових даних);
опис соціальних явищ (побудова моделей явищ, у тому числі і математичних моделей).
Політологія
У політології метод головних компонент був основним інструментом проєкту «Політичний атлас сучасності»[24] для лінійного і нелінійного аналізу рейтингів 192 країн світу з п'яти спеціально розроблених інтегральних індексів (рівня життя, міжнародного впливу, загроз, державності і демократії). Для картографії результатів цього аналізу розроблено спеціальну геоінформаційну систему, що об'єднує географічний простір з простором ознак. Також створено карти даних політичного атласу, що використовують як підкладку двовимірні головні многовиди у 5-вимірному просторі країн. Відмінність карти даних від географічної карти полягає в тому, що на географічній карті поруч виявляються об'єкти, які мають подібні географічні координати, в той час як на карті даних поруч виявляються об'єкти (країни) зі схожими ознаками (індексами).
Скорочення розмірності динамічних моделей
Прокляття розмірності ускладнює моделювання складних систем. Скорочення розмірності моделі — необхідна умова успіху моделювання. Для досягнення цієї мети створена розгалужена математична технологія. Метод головних компонент також використовується в цих завданнях (часто під назвою істинне або власне ортогональне розкладання — англ.proper orthogonal decomposition (POD)). Наприклад, під час опису динаміки турбулентності динамічні змінні — поле швидкостей — належать нескінченновимірному простору (або, якщо подавати поле його значеннями на досить дрібній сітці, — скінченновимірного простору великої розмірності). Можна набрати велику колекцію миттєвих значень полів і застосувати до цієї множини багатовимірних «векторів даних» метод головних компонент. Ці головні компоненти називаються також емпіричними власними векторами. У деяких випадках (структурна турбулентність) метод дає значне скорочення розмірності[25] Інші галузі застосування цієї техніки скорочення динамічних моделей надзвичайно різноманітні — від теоретичних основ хімічної технології до океанології і кліматології.
Сенсорна оцінка харчових продуктів
Своє застосування метод головних компонент знайшов при проведенні сенсорної (органолептичної) оцінки властивостей харчових продуктів[26]. Метод головних компонент дозволяє проводити класифікацію харчових продуктів у тих випадках, коли для характеристики їхніх властивостей використовується одночасно велика кількість дескрипторів, наприклад при оцінці властивостей вина,[27] мармеладу,[28] екструдованих харчових продуктів,[29] сиру[30] та інших.
↑Фактично, метод є емпіричною реалізацією теореми Кархунена, згідно з якою будь-який випадковий процес може бути поданий у вигляді нескінченного рядуортогональних функцій. У російськомовній науковій літературі поширене також написання «перетворення Карунена — Лоева», що відповідає англійському прочитанню фінського прізвища
↑Abdi H., Williams L.J. (2010). Principal component analysis. Wiley Interdisciplinary Reviews: Computational Statistics,. 2: 433—459.
↑Koren Y., Carmel L., Robust linear dimensionality reduction, IEEE Transactions on Visualisation and Computer Graphics, 10 (4) (2004), 459—470. А також на сайті PCA [Архівовано 16 березня 2019 у Wayback Machine.]
↑З цієї роботи почалося вивчення головних багатовидів. Дисертація T. Хасти: Hastie T., Principal Curves and Surfaces[недоступне посилання], Ph.D Dissertation, Stanford Linear Accelerator Center, Stanford University, Stanford, California, US, November 1984. А також на сайті PCA [Архівовано 6 березня 2019 у Wayback Machine.]
↑Hyvdrinen A, Karhunen J., and Oja E., Independent Component Analysis, A Volume in the Wiley Series on and Adaptive Learning Systems for Signal Processing, Communications, and Control. — John Wiley & Sons, Inc., 2001. — XVI+481 pp. ISBN 0-471-40540-X
↑Rao, K., Yip P. (eds.), The Transform and Data Compression Handbook, CRC Press, Baton Rouge, 2001.
↑Гуц А. К., Фролова Ю. В., Математичні методи в соціології, Серія: Синергетика: від минулого до майбутнього. — Видавництво «УРСС», 2007. — 216 с.
↑Політичний атлас сучасності: Досвід багатовимірного статистичного аналізу політичних систем сучасних держав. — М: Изд-во «МДІМВ-Університет», 2007. — 272 с.
↑Berkooz G, Holmes Ph., and. Lumley J. L, The proper orthogonal decomposition in the analysis of turbulent flows, [Архівовано 16 липня 2019 у Wayback Machine.] Annu. Rev. Fluid Mech. 25 (1993), 539—575. Перша публікація для аналізу турбулентності — Lumley, J. L., The structure of inhomogeneous turbulence. In Atmospheric Turbulence and Wave Propagation, ed. A. M. Yaglom, V. I. Tatarski, pp. 166—178. Moscow: Nauka, 1967. (Атмосферна турбулентність і поширення радіохвиль. Праці Міжнародного колоквіуму. Москва, 15-22 червня 1965 р. Під ред. А. М. Яглома і в. І. Татарського. М.: Наука, 1967, 374 с. з іл. і карт. (АН СРСР. Междувед. геофиз. ком. Ін-т фізики атмосфери). Цікаво, що автори цих робіт зводять історію свого підходу до робіт Косамбі (1943), Лоева[ru] (1945), Кархунена[en] (1946), Пугачова[ru]]] (1953) та Обухова[ru] (1954), не звернувши увагу на роботи Пірсона і 40 років попередньої історії методу.
Pearson K., On lines and planes of closest fit to systems of points in space, Philosophical Magazine, (1901) 2, 559—572; а также на сайте PCA.
Sylvester J.J., On the reduction of a bilinear quantic of the nth order to the form of a sum of n products by a double orthogonal substitution, Messenger of Mathematics, 19 (1889), 42—46; а также на сайте PCA.
Frećhet M. Les élements aléatoires de nature quelconque dans un espace distancié. Ann. Inst. H. Poincaré, 10 (1948), 215—310.
Основні керівництва
Айвазян С. А., Бухштабер В. М., Енюков И. С., Мешалкин Л. Д. Прикладная статистика. Классификация и снижение размерности.— М.: Финансы и статистика, 1989.— 607 с.
Java-аплет «Метод головних компонент і самоорганізаційні карти» (E. M. Mirkes, Principal Component Analysis and Self-Organizing Maps: applet. University of Leicester, 2011). Вільно поширювана програма з моделями методу головних компонент, самоорганізаційних карт (SOM) і зростаючих самоорганіаційних карт (Growing Self-Organized Maps, GSOM). Дано опис алгоритмів (англ.), наведено керівництва і деякі публікації. Використовується для виконання невеликих студентських дослідницьких робіт з порівняння різних алгоритмів апроксимації даних.
Artikel ini sebatang kara, artinya tidak ada artikel lain yang memiliki pranala balik ke halaman ini.Bantulah menambah pranala ke artikel ini dari artikel yang berhubungan atau coba peralatan pencari pranala.Tag ini diberikan pada Oktober 2022. Atom Boyz adalah sebuah acara survival Taiwan tahun 2022. Acara tersebut adalah acara musim kedua dari program survival wanita Dancing Diamond 52 (DD52). Meski merupakan musim kedua untuk Dancing Diamond 52, acara ini lebih memiliki vibes seperti PRODU...
Pokémon: Lucario and the Mystery of MewSutradaraKunihiko Yuyama D. C. DouglasProduserJim MaloneDitulis olehHideki SonodaPemeranVeronica Taylor Ikue Ohtani Rachael Lillis Eric Stuart Amy Birnbaum Maddie Blaustein Sean Schemmel Rebecca Soler Bella HudsonDistributorToho (Japan) VIZ Media (U.S., DVD only) Magna Pacific (Australia)Tanggal rilis 17 Juli 2005 (2005-07-17) Durasi100 min.NegaraJapanAmerika SerikatKanadaBahasaEnglish JapanesePrekuelDestiny DeoxysSekuelPokémon Ranger and the Temp...
SwitchoverGenre Roman Laga BerdasarkanSwitchoveroleh Mikeindialima2SutradaraAngling SagaranPemeran Adhisty Zara Emir Mahira Fadly Faisal Fatih Unru Alika Jantinia Negara asalIndonesiaBahasa asliBahasa IndonesiaJmlh. musim1Jmlh. episode8ProduksiProduser eksekutif Monika Rudijono Anthony Buncio Aron Levitz Dexter Ong Produser Wicky V. Olindo Micko Mentari SinematografiIndra SuryadiPenyuntingPanca Arka ArdhiarjaPengaturan kameraMulti-kameraDurasi42—50 menitRumah produksi Screenplay Films Watt...
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus. Cet article doit être actualisé (27 août 2019). Des passages de cet article ne sont plus d’actualité ou annoncent des événements désormais passés. Améliorez-le ou discutez-en. Vous pouvez également préciser les sections à actualiser en utilisant {{section à actualiser}}.Cet article, à l'exception de son introduction, a été rédigé selon des données de 2007 et de 2010. Ses propos ne tiennent pa...
سيمون تريمبولي معلومات شخصية الميلاد 19 أبريل 2002 (العمر 21 سنة)لافانيا الطول 1.76 م (5 قدم 9 1⁄2 بوصة) مركز اللعب وسط الجنسية إيطاليا معلومات النادي النادي الحالي سامبدوريا الرقم 70 مسيرة الشباب سنوات فريق 2010–2021 سامبدوريا المسيرة الاحترافية1 سنوات فريق م. (هـ.) ...
This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: My Daddy Can Whip Your Daddy – news · newspapers · books · scholar · JSTOR (January 2021) (Learn how and when to remove this template message) 1997 EP by DiscipleMy Daddy Can Whip Your DaddyEP by DiscipleReleasedOctober 27, 1997StudioLakeside StudiosGe...
Pour les articles homonymes, voir Andréossy. François AndréossyFrançois d’AndréossyBiographieNaissance 10 juin 1633ParisDécès 3 juin 1688 (à 54 ans)CastelnaudaryActivités Ingénieur, cartographemodifier - modifier le code - modifier Wikidata François Andréossy, né à Paris le 1er juin 1633 et mort à Castelnaudary le 3 juin 1688, est un ingénieur, géomètre et cartographe français, dont la famille est originaire de Lucques en Italie. Origine En 1660, il voyage en Italie...
American molecular biologist and academic For other people named William McGinnis, see William McGinnis (disambiguation). This biography of a living person needs additional citations for verification. Please help by adding reliable sources. Contentious material about living persons that is unsourced or poorly sourced must be removed immediately from the article and its talk page, especially if potentially libelous.Find sources: William McGinnis – news · newspapers ...
Fictional character on the American TV series Dynasty Soap opera character Alexis ColbyDynasty characterJoan Collins as Alexis ColbyPortrayed byJoan CollinsDuration1981–1989, 1991First appearance The Testimony (1981, non-speaking, face unseen) Enter Alexis (1981) Last appearance Dynasty: The Reunion (1991) Created byRichard and Esther ShapiroSpin-offappearancesDynasty: The Reunion (1991)In-universe informationOther namesAlexis Morell Carrington Colby Dexter RowanOccupati...
William A. WellmanSutradara drama William A. Wellman. Gambar bertanda tangan 1937LahirWilliam Augustus Wellman(1896-02-29)29 Februari 1896Brookline, Massachusetts, ASMeninggal9 Desember 1975(1975-12-09) (umur 79)Los Angeles, California, ASPekerjaanSutradara, PemeranTahun aktif1919–1958Suami/istriHelene Chadwick(1918–1923, bercerai)Margery Chapin(1925–1926, bercerai)Marjorie Crawford(1931–1933, bercerai)Dorothy Coonan (1934–1975, kematiannya) William Augustus Wellman (29 F...
Monument Rock WildernessIUCN category Ib (wilderness area)The landscape of the Monument Rock WildernessLocationBaker / Grant counties, Oregon, United StatesNearest cityUnity, OregonCoordinates44°18′35″N 118°18′00″W / 44.30972°N 118.30000°W / 44.30972; -118.30000Area19,650 acres (7,950 ha)Established1984Governing bodyUnited States Forest Service The Monument Rock Wilderness Area is a wilderness area within the Malheur and Wallowa–Whitman nat...
Open letter written by Martin Luther King, Jr Recreation of Martin Luther King Jr.'s cell in Birmingham Jail at the National Civil Rights Museum The Letter from Birmingham Jail, also known as the Letter from Birmingham City Jail and The Negro Is Your Brother, is an open letter written on April 16, 1963, by Martin Luther King Jr. It says that people have a moral responsibility to break unjust laws and to take direct action rather than waiting potentially forever for justice to come through the...
Ethnic group in Cameroon This article may require copy editing for grammar, style, cohesion, tone, or spelling. You can assist by editing it. (February 2024) (Learn how and when to remove this message) Ethnic group TikarTotal population170,000Regions with significant populationsThe Adamawa Region of CameroonLanguagesTikarFrenchEnglishReligion65% Christianity25% Traditional central African religions10% IslamRelated ethnic groupsBafut • Bamum • Kom • Nso The Tikar (also Tikari, Tika, Tika...
French dramatist (1831–1908) Victorien SardouSardou in 1880BornVictorien Léandre Sardou(1831-09-05)5 September 1831Paris, FranceDied8 November 1908(1908-11-08) (aged 77)Paris, FranceOccupationPlaywrightPeriod19th-centuryGenreWell-made playSignature Victorien Sardou (/sɑːrˈduː/ sar-DOO, French: [viktɔʁjɛ̃ saʁdu]; 5 September 1831 – 8 November 1908) was a French dramatist.[1] He is best remembered today for his development, along with Eugène Scri...
منتخب النرويج لكرة السلة التصنيف 84 ▲ 4 (16 سبتمبر 2019)[1] انضم للاتحاد الدولي 1968 البلد النرويج بطولة المنطقة2 المشاركة 2 الميداليات فضية: (1996، 2018) المشاركات الدولية أول مباراة سويسرا 91–64 النرويج (لوكسمبورغ (مدينة)، لوكسمبورغ; 4 أبريل 1979) أكبر فوز سان مارينو 48–88 �...
American politician Gregory S. LucasMember of the Pennsylvania House of Representativesfrom the 5th districtIn office2013 – January 6, 2015Preceded byJohn R. EvansSucceeded byBarry Jozwiak Personal detailsBorn (1960-09-15) September 15, 1960 (age 63)Edinboro, Pennsylvania, U.S.Political partyRepublicanSpouseRose E. LucasResidence(s)Edinboro, Pennsylvania, U.S.Alma materCalifornia University of PennsylvaniaOccupationTeacher Gregory S. Lucas (born September 15, 1960)...
Annual race in Romania held since 2008 Bucharest MarathonTekla Getu, winner of the 2011 marathon, running in the rain past a costumed person wearing sandalsDateOctoberLocationBucharest, RomaniaEvent typeRoadDistanceMarathonPrimary sponsorRaiffeisen BankEstablished2008 (16 years ago) (2008)Course recordsMen's: 2:10:51 (2019) Hosea KipkemboiWomen's: 2:32:20 (2011) Marina KovalevaOfficial siteBucharest MarathonParticipants426 finishers (2021)914 (2019) The Bucharest Marathon is an ...
Bateau-Lavoir ngày nay Bateau-Lavoir là một tòa nhà nằm ở khu phố Montmartre, thuộc Quận 18 thành phố Paris. Ngôi nhà này được biết đến nhờ trong thế kỷ 20, rất nhiều họa sĩ và nhà văn nổi tiếng đã tụ họp về đây. Nằm ở số 13 quảng trường Émile-Goudeau - trước kia là quảng trường Ravignan - nguồn gốc của tòa nhà Bateau-Lavoir không được chắc chắn. Vào năm 1867, một người thợ cơ khí mua...
French actress Clotilde MolletMollet in 2009BornParis, FranceOccupationActressYears active1980–present Clotilde Mollet is a French actress.[1] Theatre Year Title Author Director Notes 1980 Deburau Sacha Guitry Jacques Rosny Théâtre Édouard VII 1983 Œil pour œil Jacques Audiard & Louis-Charles Sirjacq Louis-Charles Sirjacq Théâtre Gérard Philipe Cervantes intermèdes Miguel de Cervantes Jean Jourdheuil & Jean-François Peyret Festival d'Avignon 1984 Exquise Banqu...