Moc testu (moc statystyczna) to prawdopodobieństwo uniknięcia błędu drugiego rodzaju – przyjęcia hipotezy zerowej, gdy w rzeczywistości jest ona fałszywa. Im większe jest to prawdopodobieństwo, tym lepszy jest dany test jako narzędzie do różnicowania między hipotezą prawdziwą i fałszywą. Moc można wyrazić jako dopełnienie prawdopodobieństwa popełnienia błędu drugiego rodzaju (β), czyli 1-β. Pojęcie to wywodzi się z podejścia częstościowego w metodologii weryfikacji hipotez statystycznych[1].
Moc zależy bezpośrednio i przede wszystkim od poniższych czynników:
Testy różnią się ponadto mocą pomiędzy sobą, w zależności od tego na ile są stratne informacyjne, oraz w jakim stopniu leżący u ich podłoża model statystyczny jest w konkretnej sytuacji dostosowany do problemu badawczego i charakteru danych[1][2].
Wysoka moc statystyczna w projektowanych badaniach zwiększa precyzję i wiarygodność oszacowań. Realizowanie badań o niskiej mocy może być marnotrawstwem zasobów, ponieważ już na wstępie nie mają szans uzyskać konkluzywnych rezultatów. Niska moc w połączeniu z efektem szuflady zaburza proporcje pomiędzy błędami I i II rodzaju oraz prawidłowymi rozpoznaniami w publikacjach, i zniekształca naukowy obraz rzeczywistości. Statystyk Jacob Cohen zalecił badaczom i wydawcom publikacji naukowych dążenie do przyjęcia konwencjonalnego poziomu mocy co najmniej 0,8 – analogicznie do używania konwencjonalnego poziomu istotności α=0,05[1][3][4][5].
Zastrzeżenia interpretacyjne
Moc odnosi się zawsze do konkretnego testu. Nawet jeśli ogólna próba w badaniu liczy znacznie więcej uczestników, pojedynczy test ma tylko taką moc, na jaką pozwala wielkość konkretnego efektu i liczebność określonych porównywanych podgrup. W przypadku testów interakcji, których wielkość jest dodatkowo ograniczona przez efekty główne, Gelman uznaje za realistyczną możliwość aż 16-krotnie niższej mocy w porównaniu do testu ogólnego[6].
Moc statystyczna jest w praktyce zmienną losową, która jest funkcją wielu nieznanych parametrów populacji i próby. Można ją oszacować, stosując odpowiednie założenia dotyczące tych zmiennych lub ich szacunki, lecz jak podkreślają m.in. Wagenmakers i in., jest to zawsze tylko zawodne oszacowanie jej wartości oczekiwanej lub rozkładu[7][8]. Interpretacja oszacowań mocy zależy zatem od wiarygodności założeń badaczy, przede wszystkim dotyczących wielkości efektu w populacji i trafności modelu. Gelman i Carlin zaproponowali, aby rozważanie mocy zastąpić dokładniejszymi pytaniami, dotyczącymi tego, na jaką precyzję i wiarygodność oszacowań pozwala badanie o danym charakterze. Ci i inni autorzy zademonstrowali przy pomocy symulacji, że niska moc zwiększa ryzyko, że wyniki „istotne statystycznie” będą miały skrajnie błędne wartości[5][9].
Określenie wielkości efektu w analizie mocy
Historycznie popularnym sposobem przyjęcia wielkości efektu używanego do oszacowania mocy było odwołanie się do istniejących badań. Lakens sugeruje, by zamiast tego naukowcy wyznaczali po prostu najmniejszy poziom efektu, jaki uznaliby za interesujący[10][11][12]. Hoenig i Heisey przestrzegają szczególnie przed wyznaczaniem mocy testu na podstawie obserwowanej w próbie wielkości efektu, zaznaczając, że tworzy to błędne koło i prowadzi do niewiarygodnych wniosków[13].
Metody zwiększania mocy badań
Zabiegi jakie umożliwiają naukowcom zwiększenie mocy statystycznej badań to np. [1]:
zwiększenie próby badawczej – szczególnie przez określenie z wyprzedzeniem oczekiwanej wielkości efektu, np. na podstawie badań innych autorów, lub własnych badań pilotażowych, i wykonanie analizy mocy a priori w celu ustalenia wielkości próby zapewniającej testom pożądany poziom oczekiwanej mocy[14]; rekomenduje się przy tym, aby traktować oszacowania pochodzące z małych pilotaży konserwatywnie, i jedynie orientacyjnie[15] – względnie najwiarygodniejsze przybliżenia wielkości efektu zapewniają metaanalizy[16],
wykorzystanie testów lub struktur badania, które mają z natury wyższą moc statystyczną, takich jak metody bayesowskie, testy parametryczne, prerejestrowane testy hipotez jednostronnych, oraz badania w schemacie wewnątrzgrupowym (pomiary powtarzane; Rouder i Haaf określili jednak, że generalnie lepiej zwiększać liczbę uczestników niż powtórzeń)[16][19].
Narzędzia do obliczania
Większość pakietów statystycznych, takich jak SPSS lub darmowe i otwarte oprogramowanieR posiada funkcje obliczania mocy. Przykładowym, najczęściej spotykanym narzędziem służącym specjalnie do tego celu jest darmowy program G*Power[20]. Programy te pozwalają na obliczanie mocy przed badaniem (a priori), w celu określenia wielkości próby potrzebnej do osiągnięcia pożądanego poziomu mocy, jak również po badaniu (post hoc), np. na potrzeby kontroli jakości.
Przeglądy mocy statystycznej dziedzin nauki
Statystycy regularnie publikują rezultaty badań przeglądowych dla różnych dziedzin nauki, z których wynika że przeciętna moc badań jest dużo niższa niż rekomendowany poziom 0,8. Przykładowo, w przeglądzie dla neuronauki z 2013 r. obejmującym 49 meta-analiz i 730 osobnych badań, mediana mocy dla obserwowanych efektów wyniosła zaledwie 21%[21]. W przeglądzie badań psychologicznych z 1990 r., moc wyniosła 17% dla małych, i 57% dla średnich efektów[22] – a takie wielkości efektu najczęściej spotyka się w tej dziedzinie[23][24]. Analiza z 2006 r. obejmująca publikacje informatyczne wykazała moc 11% dla małych, i 36% dla średnich efektów[25]. Meta-przegląd 8 tysięcy badań psychologicznych z 2018 określił medianę ich mocy na poziomie 36%; tylko 8% badań osiągnęło rekomendowaną moc 0,8[26].
Konsekwencje niskiej mocy badań
Nawet jeśli badacz projektuje badanie o mocy na rekomendowanym poziomie 0,8, powinien spodziewać się, że badając rzeczywiście występujące zjawisko, spotka się z nieudanymi replikacjami. Przykładowo, przy tej mocy, prawdopodobieństwo przyjęcia hipotezy alternatywnej za każdym razem w trzech replikacjach wynosi bowiem tylko 0,8³ ≈ 51,2%. W sytuacji w której moc badań jest bliższa poziomu α=0,05 niż 0,8, należy się spodziewać, że znaczna część wyników istotnych statystycznie jest fałszywa, natomiast nieznana część wyników nieistotnych to odrzucone pochopnie prawidłowe hipotezy. Oznacza to zniekształcenie obrazu rzeczywistości, jaki sugeruje treść opublikowanych badań, zwłaszcza w połączeniu z „efektem szuflady”.
Testy o niskiej mocy przeszacowują ponadto obserwowaną wielkość efektu prawdziwych zjawisk, ponieważ istotność statystyczną jest częściej osiągana w próbach, w których z naturalnej wariancji zjawisko występuje z większą siłą[27]. Istotność osiągają częściej nawet oszacowania o przeciwnym znaku niż realny efekt[5].
W świetle m.in. powyższych problemów, Ioannidis zadeklarował w publikacji z 2005 r., że większość publikacji naukowych może być błędna[28]. W ostatnich latach statystycy, wydawcy czasopism naukowych oraz towarzystwa zawodowe, takie jak Amerykańskie Towarzystwo Psychologiczne, rekomendują, a w niektórych wypadkach nawet wymagają od badaczy dokumentowania decyzji dotyczących wielkości próby, ze względu na systematyczny problem z niewystarczającą mocą badań[29]. Zaleca się też używanie przedziałów ufności, raportowanie wielkości efektów, prerejestrację planów badawczych, przeprowadzanie replikacji naukowych, stosowanie technik metaanalitycznych, oraz innych metod zwiększających jakość nauki[30][31][32].
↑ abcdCohen, Jacob, 1923-1998., Statistical power analysis for the behavioral sciences, L. Erlbaum Associates, 1988, ISBN 0-8058-0283-5, OCLC17877467.1 stycznia Brak numerów stron w książce
↑ abcAndrewA.GelmanAndrewA., JohnJ.CarlinJohnJ., Beyond Power Calculations: Assessing Type S (Sign) and Type M (Magnitude) Errors, „Perspectives on Psychological Science”, 9 (6), 2014, s. 641–651, DOI: 10.1177/1745691614551642, ISSN1745-6916 [dostęp 2019-03-31](ang.).
↑Eric-JanE.J.WagenmakersEric-JanE.J. i inni, A power fallacy, „Behavior Research Methods”, 47 (4), 2015, s. 913–917, DOI: 10.3758/s13428-014-0517-4, ISSN1554-3528 [dostęp 2019-03-31](ang.).
↑DaniëlD.LakensDaniëlD., Equivalence Tests: A Practical Primer for t Tests, Correlations, and Meta-Analyses, „Social Psychological and Personality Science”, 8 (4), 2017, s. 355–362, DOI: 10.1177/1948550617697177, ISSN1948-5506, PMID: 28736600, PMCID: PMC5502906 [dostęp 2019-03-31](ang.).
↑John MJ.M.HoenigJohn MJ.M., Dennis MD.M.HeiseyDennis MD.M., The Abuse of Power: The Pervasive Fallacy of Power Calculations for Data Analysis, „The American Statistician”, 55 (1), 2001, s. 19–24, DOI: 10.1198/000313001300339897, ISSN0003-1305 [dostęp 2019-03-31](ang.).
↑ abDaniëlD.LakensDaniëlD., Calculating and reporting effect sizes to facilitate cumulative science: a practical primer for t-tests and ANOVAs, „Frontiers in Psychology”, 4, 2013, DOI: 10.3389/fpsyg.2013.00863, ISSN1664-1078, PMID: 24324449, PMCID: PMC3840331 [dostęp 2017-01-31].
↑David M.D.M.Erceg-HurnDavid M.D.M., Vikki M.V.M.MirosevichVikki M.V.M., Modern robust statistical methods: an easy way to maximize the accuracy and power of your research, „The American Psychologist”, 63 (7), 2008, s. 591–601, DOI: 10.1037/0003-066X.63.7.591, ISSN0003-066X, PMID: 18855490 [dostęp 2017-02-01].
↑Jeffrey N.J.N.RouderJeffrey N.J.N., Julia M.J.M.HaafJulia M.J.M., Power, Dominance, and Constraint: A Note on the Appeal of Different Design Traditions, „Advances in Methods and Practices in Psychological Science”, 1 (1), 2018, s. 19–26, DOI: 10.1177/2515245917745058, ISSN2515-2459 [dostęp 2019-03-31](ang.).
↑FranzF.FaulFranzF. i inni, Statistical power analyses using G*Power 3.1: Tests for correlation and regression analyses, „Behavior Research Methods”, 41 (4), 2009, s. 1149–1160, DOI: 10.3758/BRM.41.4.1149, ISSN1554-3528 [dostęp 2019-03-31](ang.).
↑J.S.J.S.RossiJ.S.J.S., Statistical power of psychological research: what have we gained in 20 years?, „Journal of Consulting and Clinical Psychology”, 5, 1990, s. 646–656, ISSN0022-006X, PMID: 2254513 [dostęp 2017-01-06].
↑Frank A.F.A.BoscoFrank A.F.A. i inni, Correlational effect size benchmarks, „The Journal of Applied Psychology”, 2, 2015, s. 431–449, DOI: 10.1037/a0038047, ISSN1939-1854, PMID: 25314367 [dostęp 2017-01-06].
↑D.D.LakensD.D., E.R.K.E.R.K.EversE.R.K.E.R.K., Sailing From the Seas of Chaos Into the Corridor of Stability: Practical Recommendations to Increase the Informational Value of Studies, „Perspectives on Psychological Science”, 3, 2014, s. 278–292, DOI: 10.1177/1745691614528520 [dostęp 2017-01-06](ang.).
↑Open ScienceO.S.CollaborationOpen ScienceO.S., An Open, Large-Scale, Collaborative Effort to Estimate the Reproducibility of Psychological Science, „Perspectives on Psychological Science”, 6, 2012, s. 657–660, DOI: 10.1177/1745691612462588 [dostęp 2017-01-06](ang.).
↑DanielD.LakensDanielD., Calculating and reporting effect sizes to facilitate cumulative science: a practical primer for t-tests and ANOVAs, „Cognition”, 4, 2013, s. 863, DOI: 10.3389/fpsyg.2013.00863, PMID: 24324449, PMCID: PMC3840331 [dostęp 2017-01-06].1 stycznia