Meccanica statistica

Frontespizio di Elementary principles in statistical mechanics di J. Willard Gibbs, 1902

La meccanica statistica è la branca della fisica che utilizza la statistica e la teoria della probabilità per lo studio del comportamento meccanico e termodinamico di sistemi composti da un gran numero di particelle. Da tale approccio deriva anche la termodinamica statistica. Storicamente, in seguito all'introduzione nella disciplina dei concetti della meccanica quantistica, viene usato anche il termine meccanica statistica quantistica.

Da un punto di vista classico lo studio di un sistema con particelle non interagenti richiede la soluzione di equazioni differenziali che descrivono il moto di ogni particella. Quando il loro numero è molto grande, dell'ordine della costante di Avogadro, la meccanica statistica, fornendo un modello per collegare le proprietà delle particelle, siano singoli atomi o molecole, alle proprietà macroscopiche del sistema, permette di caratterizzarlo attraverso grandezze come la temperatura, l'energia libera, la pressione o il volume.

Il postulato dell'equiprobabilità a priori

Il postulato dell'equiprobabilità a priori è un postulato fondamentale della meccanica statistica, ed afferma che dato un sistema isolato in equilibrio, ogni microstato ha eguale probabilità di manifestarsi.

Questo postulato è una premessa fondamentale in meccanica statistica – stabilisce infatti che un sistema isolato in equilibrio non ha nessuna preferenza per nessuno dei suoi microstati possibili. Dati microstati associati ad una particolare energia, la probabilità di trovare il sistema in un particolare microstato è dunque

Questo postulato è necessario perché permette di concludere che per un sistema in equilibrio lo stato termodinamico che può risultare dal maggior numero di microstati è anche il macrostato più probabile del sistema.

Il postulato è giustificato in parte, per i sistemi classici, dal teorema di Liouville, il quale mostra che se la distribuzione di punti accessibili al sistema nello spazio delle fasi è uniforme in un certo tempo allora rimarrà tale anche in tempi successivi. Una simile giustificazione per un sistema discreto è fornita dal meccanismo di bilancio dettagliato.

Nel contesto della teoria dell'informazione questo permette la definizione della funzione informazione:

Quando tutti i sono uguali, è minima, e ciò riflette il fatto che abbiamo minime informazioni riguardo al sistema. Quando la nostra informazione è massima, ad esempio quando è uguale ad e gli altri a zero, ovvero sappiamo in quale stato si trova il sistema, la funzione è massima. La "funzione informazione" è l'equivalente della funzione entropica ridotta in termodinamica.

Insiemi statistici

Lo stesso argomento in dettaglio: Insieme statistico.

Un insieme statistico è un insieme che rappresenta tutte le possibili configurazioni di un sistema e la loro probabilità di verificarsi. Ad ogni insieme statistico è associata una funzione di partizione dalla quale si possono dedurre le proprietà termodinamiche del sistema.

Vi sono, in generale, tre tipi di insieme statistico:

Insieme microcanonico Insieme canonico Insieme gran canonico
Variabili costanti , , o , , o , , o
Funzioni macroscopiche
Numero di microstati

Funzione di partizione canonica

Funzione di partizione gran canonica
Funzioni microscopiche

Insieme microcanonico

Lo stesso argomento in dettaglio: Insieme microcanonico.

L'insieme microcanonico descrive un sistema isolato, caratterizzato dall'avere energia, volume e numero di particelle costante, e quindi dal non scambiare materia o energia con il resto dell'universo. L'entropia di un tale sistema può solo aumentare, e lo stato di massima entropia del sistema corrisponde allo stato di equilibrio termodinamico per il sistema.

Poiché un sistema isolato mantiene costante l'energia, l'energia totale del sistema non fluttua. Pertanto il sistema può accedere solamente a quei microstati che corrispondono al valore dato E dell'energia: l'energia interna è quindi strettamente uguale alla sua energia.

Chiamiamo il numero di microstati corrispondenti a questo valore dell'energia del sistema. Lo stato macroscopico di massima entropia per il sistema è quello per il quale tutti i microstati sono ugualmente probabili, e la loro probabilità è . L'equazione di Boltzmann grazie alla quale è possibile calcolare il valore dell'entropia in un sistema isolato è la seguente:

dove è l'entropia del sistema e la costante di Boltzmann.

Insieme canonico

Lo stesso argomento in dettaglio: Insieme canonico.

L'insieme canonico descrive un sistema in equilibrio termico con il resto dell'universo, caratterizzato dall'avere numero di particelle, volume e temperatura costante, e quindi dal poter scambiare solamente energia in forma di calore.
La probabilità che un sistema macroscopico in equilibrio termico col proprio ambiente a temperatura sia in un dato microstato con energia è data dalla distribuzione di Boltzmann:

dove

,

La temperatura deriva dal fatto che il sistema è in equilibrio termico con il proprio ambiente. Le probabilità dei vari microstati devono aggiungersi ad 1, ed i fattore di normalizzazione nel denominatore è la funzione di partizione canonica:

dove è l'energia dell'-esimo microstato del sistema. La funzione di partizione è una misura del numero di stati accessibili al sistema a una data temperatura. L'articolo insieme canonico contiene una derivazione del fattore di Boltzmann e la forma della funzione di partizione dai primi principi. In definitiva, la probabilità del microstato è:

Connessione termodinamica

La funzione di partizione può essere usata per trovare il valore previsto medio di una proprietà microscopica del sistema, la quale può poi essere collegata a variabili macroscopiche. Per esempio, il valore previsto dell'energia è interpretato come la definizione microscopica della variabile termodinamica energia interna , e può essere ottenuto prendendo la derivata della funzione di partizione con riguardo alla temperatura. Infatti,

implica, insieme all'interpretazione di come , la seguente definizione microscopica di energia interna:

L'entropia può essere calcolata con

e questo implica che

è l'energia libera del sistema, o in altre parole:

.

Avere una descrizione microscopica per i potenziali di base termodinamici, l'energia interna , l'entropia e l'energia libera , è sufficiente per dedurre espressioni per altre quantità termodinamiche. La strategia di base è la seguente: può esserci una quantità intensiva o estensiva che entra esplicitamente nell'espressione per l'energia microscopica , per esempio il campo magnetico o il volume. Allora, le variabili termodinamiche coniugate sono derivate dell'energia interna. La magnetizzazione macroscopica è infatti la derivata di con riguardo al campo magnetico, e la pressione è la derivata di rispetto al volume.

Il valore medio, che corrisponde al valore macroscopico, di una proprietà che dipende dallo stato energetico del sistema è pari a:

dove è il valore medio della proprietà . Questa equazione può essere applicata all'energia interna, :

.

In seguito, queste equazioni possono essere combinate con relazioni termodinamiche note tra e per giungere ad esprimere la pressione in termini solo di temperatura, volume e funzione di partizione. Relazioni simili in termini di funzione di partizione possono essere dedotte per altre proprietà termodinamiche mostrate nella seguente tabella.

Energia libera di Helmholtz:
Energia interna:
Pressione:
Entropia:
Energia libera di Gibbs:
Entalpia:
Capacità termica a volume costante:
Capacità termica a pressione costante:
Potenziale chimico:

Contributi energetici

È spesso utile considerare che l'energia di una data molecola è distribuita fra diversi tipi di energie. Il principale è l'energia di traslazione, che si riferisce a quella porzione di energia associata al moto del centro di massa della molecola. Vi è inoltre l'energia di configurazione, che si riferisce a quella porzione di energia associata con le varie forze attrattive e repulsive fra le molecole di un sistema. Le altre energie in gioco riguardano i gradi di libertà interni alla molecola, come l'energia rotazionale, vibrazionale, elettrica e nucleare. Se si suppone che ogni contributo energetico sia indipendente dagli altri l'energia totale può essere espressa come la somma di ciascuna componente:

Dove le lettere , , , , , e corrispondono rispettivamente ai tipi: traslazionale, configurazionale, nucleare, elettrica, rotazionale e vibrazionale. La relazione di quest'ultima equazione può essere sostituita nella prima equazione ottenendo:

Se è corretto supporre che tutti questi tipi d'energia siano indipendenti l'uno dall'altro, in modo che anche tutti questi fattori siano completamente indipendenti, allora:

Pertanto per ogni tipo può essere definita una funzione di partizione. Semplici espressioni sono state dedotte collegando ciascuno dei vari tipi a varie proprietà molecolari misurabili, come le frequenze rotazionali o vibrazionali caratteristiche.

Espressioni per le varie funzione di partizione molecolari sono mostrate nella seguente tabella.

Nucleare
Elettrica
Vibrazionale
Rotazionale (lineare)
Rotazionale (non-lineare)
Traslazionale
Configurazionale (gas ideale)

Queste equazioni possono essere combinate con quelle nella prima tabella per determinare il contributo di un particolare tipo d'energia ad una proprietà termodinamica. Per esempio è in questo modo che si può determinare la "pressione rotazionale". La pressione totale può essere trovata sommando i contributi alla pressione di tutti i singoli tipi:

Insieme gran canonico

Lo stesso argomento in dettaglio: Insieme gran canonico.

L'insieme gran canonico descrive un sistema aperto, caratterizzato dall'avere temperatura, volume e potenziale chimico fissati, e quindi dal poter scambiare materia ed energia con il resto dell'universo. In un tale sistema il numero di particelle non è conservato, e diventa necessario introdurre i potenziali chimici , con , e rimpiazzare la funzione di partizione canonica con la funzione di partizione per l'insieme gran canonico:

dove è il numero totale di particelle nel volume , e l'indice varia a ogni microstato del sistema, essendo il numero di particelle nello stato ed l'energia dello stato . è l'insieme di tutti i possibili numeri di occupazione per ciascuno dei microstati come .

Nel caso di un gas ideale quantistico occorre usare il "conteggio corretto di Boltzmann" e dividere il fattore Boltzmann per .

Il numero di occupazione medio risulta essere:

che per le particelle di Boltzmann implica:

Statistiche di Bose-Einstein e Fermi-Dirac

Lo stesso argomento in dettaglio: Statistica di Bose-Einstein e Statistica di Fermi-Dirac.

In un sistema composto da bosoni non interagenti non vi è un limite al numero di occupazione di uno stato, pertanto la funzione di granpartizione è:

In un sistema composto di fermioni non interagenti, invece, per il principio di esclusione di Pauli il numero di occupazione può essere o , pertanto:

Il numero di occupazione più probabile per i bosoni è quindi:

mentre per i fermioni:

che sono i risultati trovati dalla statistica di Bose-Einstein e dalla statistica di Fermi-Dirac rispettivamente.

Grandezze termodinamiche

A partire dalla funzione di partizione per l'insieme gran canonico il numero medio delle particelle del sistema è:

e l'energia interna media:

Si hanno inoltre le seguenti grandezze termodinamiche:

Energia libera di Gibbs:
Energia interna:
Numero di particelle:
Entropia:
Energia libera di Helmholtz:

Equivalenza delle descrizioni al limite termodinamico

Tutte le descrizioni precedenti differiscono nel modo in cui permettono al sistema dato di fluttuare fra le sue configurazioni.

Nell'insieme micro canonico, il sistema non scambia energia col resto dell'universo, e non è di conseguenza soggetto a fluttuazioni di energia, mentre nell'insieme canonico, il sistema è libero di scambiare energia col resto dell'universo in forma di calore.

Al limite termodinamico (quando il numero di particelle prese in esame tende a infinito, cioè ), che è il limite dei grandi sistemi, le fluttuazioni diventano trascurabili, così che tutte queste descrizioni convergano in una sola. In altre parole, il comportamento macroscopico di un sistema non dipende dal particolare insieme usato per la descrizione.

Fatte questa considerazioni, il miglior insieme da scegliere per il calcolo delle proprietà di un sistema microscopico è quel sistema che permette di ricavare più facilmente il risultato.

Cammini casuali

Lo studio delle lunghe catene di polimeri è diventato una fonte di problemi nell'ambito della meccanica statistica fin dagli anni cinquanta. Una delle ragioni per le quali gli scienziati erano interessati a questi studi è che le equazioni che governano il comportamento di una catena di polimeri sono indipendenti dalla chimica delle catene. Inoltre, le equazioni che governano questo comportamento si rivelano essere (cammini diffusivi) casuali nello spazio. Infatti, l'equazione di Schrödinger è anch'essa una equazione di diffusione se si considera un tempo immaginario, .

Cammini casuali nel tempo

Il primo esempio di cammino casuale è un cammino nello spazio, in base al quale una particella si muove di moto casuale dovuto a forze esterne nel mezzo che la circonda. Un esempio tipico potrebbe essere un granello di polline in una bacinella piena d'acqua. Se si potesse in qualche modo evidenziarne il percorso, questo sarebbe definito un cammino casuale.

Si consideri un problema "giocattolo", un treno che si muove lungo un tracciato monodimensionale nella direzione delle . Supponiamo anche che il treno si muova avanti o indietro di una distanza fissata , a seconda che lanciando una moneta esca testa o croce. Partiamo considerando le statistiche dei passi che il treno giocattolo percorre:

dovuto all'equiprobabilità a priori, e

conosciuta come la funzione correlazione.
Il delta è la delta di Kronecker, che vale se gli indici e sono differenti, e vale se , così che la funzione correlazione dà un valore di . Questo ha senso, perché se allora noi stiamo considerando lo stesso passo. Piuttosto semplicemente può allora essere mostrato che lo spostamento medio del treno dall'asse è ;

Come detto , quindi la somma di è sempre . Può essere anche calcolata, usando lo stesso metodo dimostrato sopra, la radice della media aritmetica dei quadrati del problema, il cui valore risulta

Dall'equazione di diffusione si può vedere che la distanza percorsa da una particella che si diffonde in un mezzo è proporzionale alla radice del tempo nel quale il sistema si è diffuso, dove la costante di proporzionalità è la radice della costante di diffusione. La relazione di sopra, sebbene esteticamente differente, rivela un significato fisico simile, dove è semplicemente il numero di passi percorsi, che è approssimativamente connesso con il tempo, e è la lunghezza caratteristica del passo. Di conseguenza possiamo considerare la diffusione come un processo di cammino casuale.

Cammini casuali nello spazio

I cammini casuali nello spazio possono essere pensati come istantanee del tragitto percorso da un camminatore casuale nel tempo. Un esempio di questo è la configurazione spaziale delle lunghe catene di polimeri.

Ci sono due tipi di cammini casuali nello spazio: cammini "autoevitanti" , dove le connessioni della catena di polimeri interagiscono e non si sovrappongono nello spazio, e cammini "puramente casuali", dove le connessioni della catena di polimeri non interagiscono e sono libere di sovrapporsi. Il primo tipo è più applicabile ai sistemi fisici, ma la sua soluzione sono più difficili da trovare da principi primi.

Considerando una catena di polimeri liberamente collegata, senza interazioni, il vettore testa-coda è

dove è il vettore posizione delli-esima connessione nella catena. Come risultato del teorema del limite centrale, se allora ci si aspetta una distribuzione Gaussiana per il vettore testa-coda. Possiamo anche fare affermazioni delle statistiche delle connessioni stesse:

dall'isotropia dello spazio

se tutte le connessioni nella catena sono indipendenti l'una dall'altra.
Usando le statistiche della singola connessione, si trova facilmente che

e

.

Da notare che quest'ultimo risultato è lo stesso trovato per i cammini casuali nel tempo.
Presupponendo, come stabilito, che la distribuzione dei vettori testa-coda per un numero molto grande di identiche catene di polimeri è gaussiana, la distribuzione delle probabilità ha la seguente forma

Richiamando il principio dell'equiprobabilità a priori, il numero di microstati, , corrispondenti a qualche valore fisico è direttamente proporzionale alla distribuzione delle probabilità a quel valore fisico:

dove è una costante di proporzionalità. Data la nostra funzione di distribuzione, c'è una massimo in corrispondenza di . Fisicamente questo significa che ci sono più microstati aventi un vettore testa-coda di 0 di qualsiasi altro microstato. Ora considerando

dove è l'energia libera di Helmholtz, è semplice dimostrare che

che è analoga alla legge di Hooke per una molla. Questo risultato è noto infatti come risultato della molla entropica ed equivale a dire che distendendo una catena di polimeri si sta facendo un lavoro sul sistema per toglierlo dal suo stato (preferito) di equilibrio. Un esempio di questo è un comune elastico, composto di lunghe catene di polimeri (gomma).

Quello che è particolarmente sorprendente di questo risultato, è che il lavoro fatto per distendere la catena di polimeri può essere collegato interamente alla variazione di entropia del sistema come risultato dell'allungamento.

Bibliografia

Voci correlate

Altri progetti

Collegamenti esterni

Controllo di autoritàThesaurus BNCF 21433 · LCCN (ENsh85127571 · GND (DE4056999-8 · BNE (ESXX524922 (data) · BNF (FRcb11958255n (data) · J9U (ENHE987007531887605171 · NDL (ENJA00573177