La statistica è una scienza relativamente giovane il cui contenuto non è ancora visibile in modo corretto perché spesso viene confusa con le statistiche: dati, tabelle, grafici, indici, medie. In effetti, essa è presente in tutte le scienze e rappresenta uno strumento essenziale per la scoperta di leggi e relazioni tra fenomeni. Intervenendo in tutte le situazioni nelle quali occorre assumere decisioni in condizioni di incertezza, la statistica si configura come un momento importante della ricerca scientifica, della pianificazione economica e dell'azione politica.
L'evoluzione storica della statistica nasconde due anime che si ritrovano sia nella didattica e nella ricerca sia nel pensare comune dei non specialisti e, quindi, nel linguaggio dei mass-media.
Etimologia
L'etimologia della parola "statistica" deriva dal vocabolo italiano "stato" e fa riferimento, nella quasi totalità dei linguaggi europei, alla constatazione per cui le prime informazioni su fenomeni reali sono state raccolte ed organizzate ad opera degli organismi statali che ne erano anche i principali utilizzatori. Esistono altre versioni circa la derivazione etimologica di "Statistica", come quella che fa riferimento a status, per indicare che tale scienza esamina la situazione contingente della realtà oppure al latino statera (=bilancia), al tedesco Stadt (=città). Anche se convincenti sul piano logico-concettuale, queste derivazioni non trovano riscontri storici obiettivi se paragonati all'uso crescente del termine "Statistica" inteso come raccolta di informazioni organizzate e gestite dallo "Stato". La prima apparizione del vocabolo "statistica" in questa accezione sembra essere quella dell'italiano Girolamo Ghilini che, tra il 1666 e il 1668, dà alle stampe il Ristretto della civile, politica, statistica e militare scienza[1].
Statistica come raccolta di dati
La prima anima della statistica è connaturata all'homo sapiens che prende coscienza del mondo e dei suoi simili e che, nella lotta alla sopravvivenza, elabora comportamenti ottimali per nutrirsi, difendersi e riprodursi. Tali strategie alternano sconfitte e successi ma, grazie ad approssimazioni successive, permettono il diffondersi di convinzioni, usi e costumi e, alla fine, di conoscenza, scienza e cultura. Quando tali convinzioni si codificano nella vita del clan, della tribù, di un popolo o di una nazione, nascono le regole di comportamento e, quindi, la legge. Questa esigenza conoscitiva cresce con lo sviluppo delle relazioni tra popoli.
Con la nascita dei grandi Stati europei, si attribuisce all'analisi statistica dei fenomeni collettivi un interesse pubblico che spinge progressivamente le nazioni occidentali a dotarsi di Istituti "centrali" di Statistica, deputati per legge alla raccolta, organizzazione e diffusione di dati sulla popolazione, sulle abitazioni, sulle risorse economiche e su tutti gli aspetti rilevanti della vita collettiva di una nazione, di una Comunità di stati (Unione europea) o dell'intero pianeta (Nazioni Unite).
Oggi, gli organismi pubblici che istituzionalmente raccolgono e diffondono informazioni statistiche sono innumerevoli ed agiscono secondo una gerarchia di competenze che individua nell'Ente locale la sede prioritaria di raccolta del dato elementare, mentre la verifica, l'aggregazione e la pubblicazione sono di competenza dell'Ente centrale (per l'Italia è l'ISTAT).
La seconda anima della Statistica nasce da una constatazione differente che solo da pochi secoli ha trovato una formalizzazione compiuta. Di fronte alla realtà che muta, vi sono risultati che meritano più fiducia di altri perché si ripetono con maggiore regolarità. Ciò viene percepito soprattutto in rapporto al clima e all'alternanza delle stagioni ma riguarda anche i raccolti agricoli, le malattie, le vicende umane, ecc. In tali contesti, la mente umana registra regolarità senza certezze, convinzioni non sicurissime, ripetizioni di eventi non sempre garantiti da un esito univoco. Da un lato ciò genera paura e impone cautele contro i rischi (la mutualità prima e le assicurazioni poi), dall'altro sollecita il gioco e la scommessa (inventando artificialmente l'aleatorietà nel risultato tramite semplici strumenti: palline, dadi, carte).
Pur essendo ben presente nella storia e nella cultura sin dai primordi della civiltà, la probabilità diventa un concetto importante e ben formalizzato solo a partire dal secolo XVIII anche se, già in precedenza e grazie soprattutto a Galileo, Pascal e Fermat, si può intravedere il sorgere di un nuovo modo di applicare la matematica ai giochi, cioè quella nuova disciplina che sarà poi denominata Calcolo delle probabilità. Si dovrà però aspettare ancora altri duecento anni perché diventi palese la connessione tra le osservazioni incerte e la possibilità di prevederle, controllarle e simularle. Così, all'inizio del Novecento, nasce e si diffonde una impostazione verso lo studio della realtà che trova nell'inferenza il suo nucleo centrale e negli schemi probabilistici degli strumenti utili ed essenziali per assumere decisioni coerenti.
La saldatura tra queste due anime della statistica avviene con molto ritardo e solo quando, di fronte alla natura sempre più sperimentale della conoscenza, ci si pone il problema della validità delle ipotesi.
Il metodo statistico diviene nei fatti la metodologia della ricerca scientifica e la prassi nelle analisi dei risultati di laboratorio ancor prima di essere riconosciuto come strumento di indagine autonomo.
Oggi, anche in conseguenza dei veloci mutamenti tecnologici ed informatici, si assiste ad un costante tentativo di utilizzare la statistica a sostegno di tesi predefinite, cioè come uno strumento di convincimento ideologico.
Cronologia
1400-1499
1500-1599
- 1539: Girolamo Cardano dimostra l'errata argomentazione di Pacioli nel problema dei punti
- 1564: Girolamo Cardano scrive Liber de ludo aleae, una guida pratica per giocatori d'azzardo, contenente alcune considerazioni teoriche fondamentali. Tale libro venne pubblicato postumo nel 1663.
1600-1699
1700-1799
1800-1899
1900-1919
1920-1949
- 1925
- 1926
- George Udny Yule affronta in Why Do We Get Some Nonsense Correlations Between Time Series? A Study in Sampling and the Nature of Time Series il problema della correlazione spuria.
- 1933
- 1935
- Ronald Fisher introduce in The Design of Experiments la regola che gli esperimenti devono essere programmati (disegnati) prima di essere effettuati, affinché i test statistici possano avere una loro validità. In questo ambito introdusse i concetti di ipotesi nulla (H0) e ipotesi sperimentale (H1). Afferma (e si tratta di una grande novità in ambito del metodo scientifico) che nessuna ricerca sperimentale poteva dimostrare l'ipotesi sperimentale, ma solo "accettare" o "respingere" l'ipotesi nulla, anche se effettuare tanti esperimenti in cui si rigettava l'ipotesi nulla aumentava la credibilità che l'ipotesi sperimentale fosse vera.
- 12 settembre: Harold Hotelling tratta a Ann Arbor davanti alla American Mathematical Society e l'istituto per statistica matematica il tema "Relations between two sets of variates" (pubblicato nel 1936 in Biometrika), fondando così il metodo multivariato noto come analisi della correlazione canonica. Lo stesso anno pubblica "The most predictable criterion", che pone anch'esso le fondamenta per questo metodo.
- Alexander Craig Aitken con On Least Squares and Linear Combinations of Observations introduce la notazione matriciale per il modello di regressione lineare e lo stimatore per i minimi quadrati generalizzati nel caso di matrice delle covarianze degli errori non standard
- 1936
- George Gallup ottiene grande notorietà prevedendo correttamente il risultato delle elezioni presidenziali intervistando soltanto 50 000 persone, mentre l'allora molto quotato Literary Digest sbagliò clamorosamente la previsione pur avendo intervistato molte più persone.
- 1938
- 1939
- 1942
- 1948
- Viene pubblicato l'esito di una ricerca sull'uso della streptomicina per la cura della tubercolosi che ha fatto uso del primo esperimento clinico randomizzato, progettato da Austin Bradford Hill.
- 1949
- George Kingsley Zipf (1902-1950), linguista e filologo statunitense, dopo aver studiato per diverse lingue la frequenza con la quale compaiono le parole, propone in "Human Behaviour and the Principle of Least-Effort" una relazione oggi nota come legge di Zipf.
Dal 1950
Note
Bibliografia
- La lettera di Pascal, di Keith Devlin, ed.ital. 2008 (titolo originale: The Unfinished game, 2008)
- Le origini del moderno pensiero statistico (1820-1900), di Thedore M. Porter, ed.ital.1993 (titolo originale: The Rise of Statistical Thinking. 1820-1900, 1986)
- Il trionfo dei numeri. Come i calcoli hanno plasmato la vita moderna, di Bernahrd I. Cohen, ed.ital.2007 (titolo originale: The triumph of numbers. How they shaped modern life, 2005)
- Histoire de la statistique, di Jean-Jacques Droesbeke e Philippe Tassi, 1990
- The Golden Age of Statistical Graphics, di Michael Friendly, Statistical Science, 2008, Vol. 23, No. 4, 502–535 - pdf
Voci correlate
Altri progetti