Col termine probabilismo si definisce una concezione filosofica che ammette l'influenza del caso nei fenomenimateriali. Il probabilismo assume storicamente tre diverse caratteristiche:
Quest'ultimo si precisa poi in due ambiti specifici della fisica:
3a) quello della materia elementare subatomica di cui si occupa la meccanica quantistica;
3b) quello della materia macromolecolare in termini di complessità.
Probabilismo gnoseologico
La più antica forma concettuale di probabilismo gnoseologico è quella presente nello scetticismo della Nuova Accademia e specialmente in Carneade.
La dottrina probabilistica di Carneade poggia su tre assunti:
rispetto all'oggetto la rappresentazione mentale "è" vera o falsa, rispetto al soggetto conoscente essa "appare" vera o falsa.
Il numero e la complessità delle connessioni di una rappresentazione costituiscono il criterio di misura della sua attendibilità in quanto "persuasiva e non-contraddittoria".
Si ha rafforzamento della "persuasività - noncontraddittoria" allorché il risultato cognitivo è stato ottenuto in modo analitico-metodico, ovvero attraverso un metodo di indagine corretto e razionale.
In termini diacronici di raggiungimento della "probabilità" cognitiva, Carneade ritiene che quando si deve decidere in tempi brevi ci si può accontentare di una probabilità di tipo 1), ma che se si dispone di tempo si deve cercare di realizzare al meglio un'indagine del tipo 3). Il vertice della certezza probabilistica secondo Carneade si estrinseca perciò in un'analisi che raggiunge tre risultati principali: 1) essere persuasiva; 2) non venire contraddetta da altri; 3) essere "esauriente" rispetto ad ogni possibile ulteriore analisi.[1]
Con tale termine si designa anche la dottrina - cui facevano frequentemente appello i Gesuiti nel sec. XVII - secondo cui, nei casi in cui l'applicazione di una regola morale sia dubbia, per non peccare basterebbe attenersi ad una opinione probabile, intendendosi per opinione probabile quella sostenuta da qualche teologo.
All'inizio del XVII secolo alcuni teologi dell'ordine dei Gesuiti, come A. Escobar y Mendoza ed E. Bauny proponevano una morale di tipo individuale e istintivo, tale che, in caso di dubbio morale, si affidi alla coscienza e non alla dottrina come più attendibile circa la probabile giustezza dell'azione. Dopo la condanna ripetuta del Santo Uffizio (dal 1665 al 1678) di tale tesi anche Blaise Pascal[2] l'attaccava duramente nelle sue Lettere provinciali.
Anche David Hume può esser fatto rientrare in questa categoria, poiché, infirmato il concetto di causa, egli negava l'esistenza di criteri generali di verità, ma ammetteva un criterio sufficiente a dirigere la condotta morale. La sua azione polemica era diretta contro il determinismo causalistico, tipico del meccanicismo materialistico.
Il padre domenicano Bartolomé De Medina nel 1577 si fece promotore di una "teoria morale della probabilità". In essa si sosteneva che nelle scelte morali, quando un caso è dubbio, non resta che affidarsi a un probabilismo secondo il quale, valutati i pro e i contro, si deve seguire tra le varie ipotesi di giustezza etica, quella che, "probabilisticamente", appare la migliore.
Probabilismo ontico
Attualmente per probabilismo si intende ciò che concerne la sfera del "fisico", ovvero della materia nel suo essere soggetto alle leggi della fisica, quando è non-deterministico. Nella filosofia contemporanea il probabilismo ontico è l'indirizzo gnoseologico-scientifico per il quale il carattere di probabilità viene riconosciuto ad un certo numero di settori del conoscere, soggetti a indeterminismo. Sistemi indeterministici sono in primo luogo tutti quelli biologici, ma anche molti tipi di sistemi fisici lo sono, sia di tipo semplice che complesso.
Tali sistemi vanno soggetti ad approcci conoscitivi che devono abbandonare l'idea delle possibilità di "definire" i loro caratteri dinamici, ma solo di accertarne l'evoluzione "probabile". Ciò avviene perché le variabili in gioco o sono instabili o sono in numero così elevato da rendere impossibile districarne la complessità, ovvero gli intrichi causali che determinano una Non-linearità delle cause coinvolte nel sistema.
Sistemi semplici elementari
Il primo a intravedere il carattere probabilistico della realtà fisica del molto piccolo era stato Ludwig Boltzmann (1844-1906), il quale aveva già capito che il mondo dell'elementarità fisica non poteva rientrare nelle leggi della fisica del macroscopico, soggetto alla meccanica classica.[3]
All'inizio del Novecento Henri Poincaré affermava in La science et l'hipothèse:
«Il fine della scienza non concerne le cose in sé, come pensano i dogmatici ingenui, ma le relazioni tra le cose, poiché al di fuori di questi rapporti non si può conoscere la realtà»
In riferimento ai sistemi fisici semplici il probabilismo concerne specialmente gli oggetti del mondo subatomico, le Particelle elementari, indagati dalla Meccanica quantistica ed alcuni aspetti fenomenici nella cosmogonia del Modello Standard.
Il probabilismo del mondo quantistico, già sostenuto implicitamente da Niels Bohr sin dal 1920, si rafforzava nel 1927 allorché Werner Heisenberg con il Principio di indeterminazione stabiliva l'indeterminismo del mondo quantistico e quindi il probabilismo ontico che lo concerneva.
Nel 1953 Louis de Broglie, che era un determinista con forti accenti religiosi, tentava di rimescolare le carte proponendo per il probabilismo l'espressione sostitutiva di "determinismo debole-imperfetto".
Max Born già nel 1927 in Natural Philosophy Of Cause And Chance (Oxford: Clarendon Press, 1927), affermava:
«Quando una teoria scientifica è saldamente stabilita e confermata, essa muta di carattere, ed entra a far parte del sostrato metafisico della sua epoca: la dottrina si trasforma così in un dogma. La verità è invece che nessuna dottrina scientifica possiede un valore che vada oltre quello probabilistico, ed essa è sempre suscettibile di venir modificata alla luce di nuove esperienze.»
(Filosofia naturale della causalità e del caso, Torino, Boringhieri 1962, p.65)
Nel 1967 Richard Feynman in The Character of Physical Law (1964 Messenger Lectures; 1967 MIT Press) definiva i termini del probabilismo ontico sostenendo:
«Non è la nostra ignoranza degli ingranaggi e delle complicazioni interne che fa apparire nella natura la probabilità, la quale sembra invece essere una caratteristica intrinseca di essa. Qualcuno ha espresso quest’idea così: ”La natura stessa non sa da che parte andrà l’elettrone.” Una volta un filosofo ha detto: “È necessario per l’esistenza stessa della scienza che le stesse condizioni producano sempre gli stessi risultati”. Bèh, non è vero. Anche quando le condizioni rimangono eguali, non si può predire dietro a quale foro si vedrà l’elettrone. Eppure la scienza, nonostante tutto, continua ad andare avanti, anche se le stesse condizioni non producono sempre gli stessi risultati. Certo, il fatto di non poter predire esattamente quello che succederà ci rende un po’ infelici. […] Quello che è necessario “per l’esistenza stessa della scienza” e quelle che sono le caratteristiche della natura non devono essere determinate da pretenziose condizioni aprioristiche, ma dal materiale con cui lavoriamo, cioè dalla natura. Noi guardiamo, vediamo, troviamo, e non possiamo decidere in precedenza quello che deve essere. Le possibilità più plausibili spesso risultano non essere vere.»
(La legge fisica, Torino, Bollati Boringhieri 1993, pp.165-166.)
Poche pagine più avanti Feynman precisava che il probabilismo non è solo nell'essere della materia subatomica in quanto tale, ma anche nell'approccio scientifico ad essa:
«In genere, per cercare una nuova legge usiamo il seguente procedimento. Anzitutto tiriamo a indovinare la forma della legge e poi calcoliamo le conseguenze della nostra supposizione per vedere quello che ne deriverebbe se la legge che abbiamo cercato di indovinare fosse giusta. Poi confrontiamo il risultato del calcolo con la natura per mezzo di esperimenti, paragonandolo direttamente con l’osservazione e vediamo se funziona. Se non concorda con l’esperimento, allora la nostra legge è sbagliata, e in questa semplice affermazione sta la chiave della scienza.»
(‘’Idem’’, pag.171)
Murray Gell-Mann, lo scopritore dei quark nel 1964 (Premio Nobel 1969), in The Quark and the Jaguar sul fondamentale probabilismo della materia elementare dichiara:
«L’universo è «quantomeccanico»; ciò significa che, quand’anche conoscessimo il suo stato iniziale e le leggi fondamentali della materia, potremmo calcolare solo una serie di probabilità per le sue possibili storie..»
(Il quark e il giaguaro, Torino, Bollati Boringhieri 1996, p.44)
Il probabilismo è totale nella regione delle particelle elementari (o sub-nucleare) e Gell-Mann, considerando i successivi dimezzamenti della radioattività del più comune isotopo del plutonio (il Pu 239), parlando di “totalità di direzioni di uscita dal nucleo ugualmente probabili”, precisa ancora in termini probabilistici:
«Mentre il momento dalla disintegrazione radioattiva non può essere previsto con precisione, le direzioni in cui si muoveranno le particelle prodotte dal decadimento del nucleo sono totalmente imprevedibili. Supponiamo che il nucleo del Pu 239 sia in quiete e che decada in due frammenti dotati di carica elettrica, uno molto maggiore dell’altra, in movimento di direzioni opposte. Tutte le direzioni sono allora ugualmente probabili per il moto di uno dei due frammenti, diciamo quello più piccolo. È impossibile dire in quale direzione esso si muoverà.»
Per quanto riguarda i sistemi fisici complessi, come quelli studiati da Ilja Prigogine (Premio Nobel 1977), si tratta di situazioni fisiche che possono evolvere in stati di non-equilibrio da lui chiamati Strutture dissipative, tali da determinare delle biforcazioni evolutive verso equilibri nuovi e differenti più o meno probabili.
Prigogine può perciò esser considerato il maggior esponente del probabilismo della complessità, avendo speso la maggior parte della sua vita ad occuparsi dei sistemi complessi e indirettamente del probabilismo ontico. Infatti, in situazioni di disequilibrio, allorché le possibilità evolutive entrano in un processo di successive biforcazioni, queste sono tutte governate unicamente da probabilità del tipo ‘'aut/aut'’. Alla fine del processo, quando il sistema si assesta in un nuovo equilibrio, l'unica domanda che lo scienziato può farsi in termini gnoseologici è la seguente: «Era da ritenersi probabile o improbabile che finisse così?».
Prigogine scrive (con Isabelle Stengers) in La Nouvelle Alliance (1979):
«I processi di autoorganizzazione in condizioni di lontananza dall’equilibrio corrispondono a un delicato gioco tra caso e necessità. Ci aspettiamo che, in prossimità di una biforcazione, gli elementi casuali giochino un ruolo importante, mentre tra due biforcazioni siano gli aspetti deterministici a diventare dominanti.»
Prigogine in Les Lois du Cas si sofferma ancora sulla miscela probabilistica caso/necessità, notando:
«Comunque le considerazioni statistiche della meccanica quantistica si applicano solo a livello macroscopico. Ecco uno dei punti interessanti dello studio sui punti di biforcazione che ho appena menzionato. Questi dimostrano che persino a livello macroscopico la nostra predizione del futuro mescola insieme determinismo e probabilità. Nel punto della biforcazione la predizione ha carattere probabilistico, mentre tra punti di biforcazione possiamo parlare di leggi deterministiche.»
In La fine des certitudes (éd. Odile Jacob, Paris 1996) Prigogine precisa il suo probabilismo:
«La nozione di probabilità, introdotta empiricamente da Boltzmann, fu un atto di coraggio estremamente fecondo. A più di un secolo di distanza cominciamo a capire in che modo essa emerga attraverso l’instabilità: questa distrugge il livello individuale e quello statistico, e di conseguenza le probabilità vengono ad assumere un significato intrinseco, irriducibile a un’interpretazione in termini di ignoranza o di approssimazione»
Dal momento che l'entropia è uno degli aspetti più rilevanti della complessità, e indirettamente del probabilismo, il fisico Lee Smolin così ne parla in The Life of the Cosmos (Oxford University Press 1997):
«È a causa di questo semplice fatto che ci sono molte più configurazioni di atomi in disordine di quante ce ne siano di organizzate in modo interessante. Una collezione di atomi, ciascuno dei quali si muove in modo casuale, assumerà uno stato disordinato con molta più probabilità di una configurazione organizzata, per il semplice motivo che di stati disordinati ce n’è un sacco di più. È per questo che lo stato disordinato è lo stato di equilibrio, perché una volta che tale stato venga raggiunto, è molto improbabile che il sistema possa per conto suo ritornare ad una configurazione più ordinata. L’essenza della legge di crescita dell’entropia è tutta qui»