giovedì 5 ottobre 2017

Clausius e Carnot: cicli, principî e motori!

Come è noto esistono due formulazioni principali (ed equivalenti) del Secondo principio della termodinamica (vedi Wikipedia):

I) Clausius (1822-1888): non è possibile che il calore fluisca spontaneamente da temperature più basse a temperature più alte.
Nota: è possibile che il calore fluisca da un corpo caldo ad uno freddo (come nel frigorifero) ma non può accadere spontaneamente.

II) Kelvin (1824-1907): non è possibile realizzare una macchina termica ciclica che trasformi il calore integralmente in lavoro.
Nota: il calore può trasformarsi integralmente in lavoro (ad esempio in una trasformazione isoterma) ma mai in una trasformazione ciclica.

Ricordiamo che con macchina termica si intende un apparato che converte calore in lavoro in modo ciclico e cioè che ritorna al punto di partenza dopo aver prodotto una certa quantità di lavoro (vedi Wikipedia).

Inoltre esiste una terza importante formulazione equivalente del secondo principio della termodinamica che abbiamo già descritto nel post "Entropia: una grandezza anomala!" che afferma:
III) Clausius: in un sistema isolato e per una trasformazione irreversibile l'entropia tende sempre ad aumentare.

In particolare ricordiamo che l'entropia S è una funzione che dipende dallo stato termodinamico in cui si trova il sistema; se ad esempio un sistema passa dallo stato A a quello B avremo per la sua variazione di entropia ∆S:
∆S=SB-SA=ABdS
dove l'entropia infinitesima è per definizione dS=δQrev/T e dove Qrev è la quantità di calore assorbito o ceduto in maniera reversibile e isoterma dal sistema a temperatura T.
Nota: per chiarimenti sulla definizione di entropia vedi il post "Entropia: una grandezza anomala!".

Poiché S è una funzione di stato possiamo prendere, come seconda variabile, la temperatura T del sistema per descrivere una qualsiasi trasformazione reversibile di un gas ideale sul piano cartesiano T-S (diagramma entropico di Gibbs) invece che sul noto piano di Clapeyron p-V.
Nota: poiché l'equazione dei gas ideali è PV=nRT fissato il numero di moli n possiamo descrivere il sistema con due sole variabili.

Si noti subito che su questo diagramma una trasformazione isoterma (cioè T=costante) è descritta da una linea orizzontale, mentre una adiabatica (con Q=0) è rappresentata da una linea verticale (essendo S=costante).

Se ad esempio consideriamo un ciclo formato da due trasformazioni isoterme e due adiabatiche (alternate in sequenza) avremo un motore termico che trasforma calore in lavoro, meglio noto come ciclo di Carnot, descritto nel piano entropico T-S da una linea rettangolare:


È immediato calcolare il calore assorbito o ceduto reversibilmente nelle due trasformazioni isoterme (posto T2>T1 e S2>S1); avremo rispettivamente (ricordando che δQrev=TdS):
Qf=S1S2TdS=T2(S2-S1)   e   -Qc=S2S1TdS=T1(S1-S2)
dove per definizione Qf è il calore fornito al sistema mentre -Qc è quello ceduto all'ambiente dal sistema.

Poiché la variazione di energia interna ∆U è nulla alla fine del ciclo (essendo U una funzione di stato), il lavoro -L svolto dalla macchina sull'ambiente durante la trasformazione ciclica è -L=Q (essendo per il Primo principio della termodinamica ∆U=L+Q):
-L=Qf-Qc=T2(S2-S1)+T1(S1-S2)=(T2-T1)(S2-S1)
essendo per definizione -L il lavoro fatto dal sistema e Q=Qf-Qc il calore totale fornito al sistema.
Nota: si osservi che l'area del rettangolo (T2-T1)(S2-S1) rappresenta proprio il calore scambiato durante la trasformazione.

Ricordiamo che il rendimento di una macchina termica reversibile (o meglio l'efficienza di conversione calore/lavoro) è in generale così definito:
ηrev=-L/Qf=(Qf-Qc)/Qf=1-Qc/Qf
quindi se inseriamo i valori di -QC e QF prima ricavati si ha:
1-Qc/Qf=1+T1(S1-S2)/T2(S2-S1)=1-T1/T2
da cui segue un risultato fondamentale del ciclo reversibile di Carnot:
Qf/T2-Qc/T1=0.

Al fine di generalizzare questo risultato per qualsiasi ciclo termodinamico, dividiamo in due cicli di Carnot quello precedente, come mostrato in figura:


È evidente che nella zona di sovrapposizione delle adiabatiche in (S1+S2)/2 i contributi di lavoro si elidono e quindi il processo è equivalente a quello visto sopra di una macchina di Carnot che lavora tra le temperature T1 e T2.

Se perciò consideriamo un qualsiasi ciclo termodinamico, la curva del diagramma T-S potrà essere approssimata quanto si vuole da un insieme infinito di cicli di Carnot (rappresentati da rettangolini di larghezza infinitesima dS), compresi tra le rispettive temperature dell'estremità superiore Tmax e inferiore Tmin come mostrato in figura:


Perciò, come visto sopra, per ogni rettangolo di larghezza infinitesima dS e altezza compresa tra Tmax e Tmin possiamo scrivere per gli incrementi infinitesimi di calore:
δQf/Tmax-δQc/Tmin=0 
e sommando su tutti gli infiniti rettangoli:
cicloδQrev/T=0
relazione valida per qualsiasi ciclo termodinamico reversibile.
Nota: lo stesso risultato si può ottenere su un diagramma p-V dove però i cicli di Carnot non sono rappresentati da un semplice rettangolo.

Per estendere infine questo risultato notevole anche ai cicli irreversibili, enunciamo un risultato* ottenuto da Carnot** (vedi Wikipedia):
IV) Carnot (1796-1832): il rendimento di una macchina termica irreversibile che lavora tra due temperature, è sempre minore del rendimento ηrev di una macchina equivalente ma reversibile:  ηirr<ηrev.
Nota: si dimostra che il rendimento di tutte le macchine reversibili è uguale.

Quindi essendo ηrev=1-Qc/Qf a parità di condizioni il calore ceduto -Qc in un ciclo irreversibile, sarà maggiore (in valore assoluto) del caso reversibile (poiché così risulta ηirr<ηrev).
Ma ciò significa che per ogni rettangolo infinitesimo del diagramma prima definito si ha:
δQf/Tmax-δQc/Tmin<0 
e perciò per un qualsiasi ciclo irreversibile:
cicloδQirr/T<0.
che è la famosa diseguaglianza di Clausius***.
Nota: per approfondire questa relazione vedi il post "Entropia: una grandezza anomala!".

(*) Anche questo IV enunciato può essere considerato una formulazione equivalente del secondo principio della termodinamica.
(**) Questo risultato è stato ottenuto da Carnot nel 1824 cioè prima (per motivi anagrafici) che Clausius e Kelvin enunciassero il secondo principio (da cui però viene solitamente derivato questo teorema!).
(***) Si può derivare la diseguaglianza di Clausius partendo in modo indifferente da uno qualsiasi degli enunciati I-IV sopra esposti (di cui si può dimostrare l'equivalenza).

lunedì 12 giugno 2017

Coriolis e le coordinate Polari!

La definizione di coordinate polari è semplice (vedi Wikipedia):
“In matematica, il sistema di coordinate polari è un sistema di coordinate bidimensionale nel quale ogni punto del piano è identificato da un angolo θ e da una distanza r da un punto fisso O detto polo" che può anche coincidere con il centro di un sistema cartesiano (vedi figura).

Inoltre è importante osservare che "un sistema di coordinate polari (r,θ) è in corrispondenza biunivoca con un sistema di coordinate cartesiane (X,Y), ossia ad un vettore di coordinate cartesiane ne corrisponde uno e uno solo in coordinate polari"; la corrispondenza tra le coordinate dei due sistemi nel primo quadrante (cioè per x>0 e y≥0), è la seguente:
x=rcosθ   e   y=rsinθ
dove r=(x2+y2)1/2 e θ=arctan(y/x) (essendo y/x=tanθ).
Nota: per gli altri valori di x e y si deve correggere la definizione di θ con il termine  (vedi Wikipedia).

Se le coordinate cartesiane sono ideali per descrivere i moti traslazionali quelle polari si adattano meglio ai moti rotazionali dato che esprimono il moto di un punto nella componente lungo r (cioè l'allontanamento o l'avvicinamento dall'origine) e nella componente tangente a θ (che invece rappresenta la rotazione attorno all'origine).

Consideriamo ad esempio un sistema cartesiano (X,Y) e facciamo coincidere il punto di origine O con il polo di un sistema di coordinate polari (r,θ) come descritto in figura:


Per il momento consideriamo il sistema polare in quiete (cioè la velocità di rotazione angolare è w=0) quindi entrambi i vettori di posizione* P(t)=Pw(t) indicano il punto P in moto rispetto ai due sistemi in quiete (cartesiano e polare rispettivamente); vogliamo ora esprimere le relazioni della velocità e della accelerazione in coordinate polari.

Innanzitutto in coordinate polari possiamo definire il vettore di posizione P(t) come:
P(t)=r(t)er(t)
dove er indica il versore radiale (cioè un vettore unitario con origine in O e direzione lungo r come mostrato in figura); questa relazione è chiamata legge oraria del moto.

Se quindi vogliamo trovare la velocità v(t) basta derivare P(t) rispetto al tempo e si ottiene:
v(t)=dP(t)/dt=r'er+re'r=r'er+rθ'eθ
poiché si può facilmente mostrare** che e'r=θ'eθ dove eθ indica il versore tangente a θ (e quindi perpendicolare a er)*** diretto in verso antiorario.

Si osservi come la velocità v(t) del punto P sia composta in ogni istante da una componente radiale vr=r'er e una angolare vθ=rθ'eθ ad essa perpendicolare (abbiamo omesso per semplicità la variabile t).

Inoltre l'accelerazione a(t) si ottiene a sua volta per derivazione di v(t):
a(t)=dv(t)/dt=r''er+r'e'r+r'eθ+rθ''eθ+rθ'e'θ 
ed essendo e'θ=-θ'er segue raccogliendo i termini
a(t)=(r''-rθ'2)er+(rθ''+2r'θ')eθ.

Anche in questo caso l'accelerazione è composta da una componente radiale ar=(r''-rθ'2)er (dove compare l'accelerazione centripeta -rθ'2er diretta verso l'interno) e una angolare aθ=(rθ''+2r'θ')eθ (dove il termine 2r'θ'eθ è chiamato accelerazione di Coriolis, nel caso particolare in cui w=0).

Supponiamo adesso che il sistema di coordinate polari (r,θ) ruoti intorno all'asse Z con velocità angolare w(t) (sempre in riferimento alla figura precedente); indicheremo quindi con (r,θ) il sistema in rotazione (si noti che r è invariato nei due riferimenti).

In questo caso per derivare il moto di Pw(t)=r(t)er(t) rispetto al sistema polare in rotazione (r,θ), oltre alla velocità angolare θ' di Pw(t) dovremo considerare anche la velocità di rotazione angolare w del sistema di riferimento; basterà quindi fare la seguente sostituzione nelle equazioni di v(t) e a(t) prima ricavate, per ottenere la velocità vw(t) e l'accelerazione aw(t) rispetto al sistema in rotazione:
θ'=>(θ'+w)
essendo θ'=θ' quando w=0.
Nota: la somma dei due vettori θ' e w definisce un terzo vettore posto anch'esso lungo l'asse Z di modulo (θ'+w).

Sostituendo perciò a θ' il valore di (θ'+w) e indicando con er e eθ i versori del sistema in rotazione, si ottengono direttamente le seguenti relazioni.
Per la velocità:
v(t)=r'er+r(θ'+w)eθ=vw+wreθ
dove vw=dPw/dt=r'er+rθ'eθ è la velocità rispetto al riferimento rotante (essendo Pw=rer), mentre il termine wreθ è chiaramente dovuto alla rotazione angolare w del sistema in moto.
Nota: possiamo anche scrivere, sotto forma di prodotto vettoriale: wreθ=wxPw poiché il vettore wreθ è perpendicolare sia a w che a Pw.

E quindi anche per l'accelerazione avremo per sostituzione:
a(t)=[r''-r(θ'+w)2]er+[r(θ'+w)'+2r'(θ'+w)]eθ
e sviluppando i vari termini nelle parentesi si ha
a(t)=aw+2w(r'eθ-rθ'er)-rw2er+rw'eθ
dove aw=dvw/dt=(r''-rθ'2)er+(rθ''+2r'θ')eθ è l'accelerazione rispetto al riferimento rotante (essendo vw=r'er+rθ'eθ) mentre risulta rw'eθ=0 se la rotazione w del sistema è costante.
Nota: poiché vw=r'er+rθ'eθ è la velocità rispetto al riferimento rotante, allora (r'eθ-rθ'er) rappresenta un vettore perpendicolare a vw perciò: 2w(r'eθ-rθ'er)=2wxvw che infatti è un vettore perpendicolare a w e vw.

Se ora vogliamo determinare quali sono le forze a cui è sottoposta una massa m rispetto ad un riferimento in rotazione con velocità costante w avremo secondo la legge di Newton, applicata ad un sistema non inerziale:
Fw=>maw=ma-2mw(r'eθ-rθ'er)+mrw2er
dove il secondo termine rappresenta la cosiddetta forza di Coriolis (il segno meno indica la direzione contraria a w) mentre il terzo è la forza centrifuga (con segno più perché diretta verso l'esterno); entrambe queste forze sono dette apparenti perché dovute esclusivamente alla rotazione w del sistema di riferimento (vedi il post "Una forza del tutto... apparente!").
(Qui puoi vedere un video del MIT che mostra bene l'effetto Coriolis)

(*) Per la definizione del vettore di posizione vedi il post "Cos'è il Vettore di Posizione?".
(**) Consideriamo la variazione infinitesima er=er(t+t)-er(t)=ereθ (risulta ereθ poiché er unisce le punte dei due vettori differenza ed è diretto come eθ; vedi la nota***) da cui e'r=limer/∆t=lim(∆er/∆t)eθ=θ'eθ.
E in modo equivalente si ricava che e'θ=limeθ/∆t=lim(-∆eθ/∆t)er=-θ'er (il segno meno indica il verso opposto al versore er).
(***) In generale per un versore u si ha uu=1 (prodotto scalare) e quindi derivando d(uu)/dt=u'u+uu'=2u'u=0 ciò implica che u' è perpendicolare a u (e ciò vale anche per er e eθ).

mercoledì 5 agosto 2015

Onde, armoniche e... Fourier!

Abbiamo già trattato la definizione formale della funzione periodica di un'onda nel post "Ma cos'è una 'Onda?'" (a cui rimandiamo); qui vogliamo invece approfondire un aspetto importante dei moti oscillatori che riguarda le cosiddette frequenze armoniche:
"Nello studio dei fenomeni oscillatori, le frequenze armoniche sono le frequenze il cui valore è multiplo intero della frequenza base (frequenza fondamentale) di un'onda" (vedi Wikipedia).

Questa semplice e formale definizione riguarda un aspetto fondamentale delle funzioni periodiche che trae origine dall'analisi di Fourier: "una branca di ricerca che prende il suo stimolo dalle ricerche di Jean Baptiste Joseph Fourier, che nei primi anni dell'ottocento, riuscì a dimostrare che una qualunque funzione periodica poteva essere vista come una somma di infinite 'opportune' funzioni sinusoidali (seno e coseno)" (vedi Wikipedia).

Infatti sotto opportune ipotesi esiste una serie convergente (detta appunto di Fourier), grazie alla quale possiamo esprimere una funzione periodica f(t) (con periodo ) nel modo seguente:
f(t)=(1/2)a0+a1cos(wt)+...+ancos(nwt)+b1sin(wt)+...+bnsin(nwt)
dove an e bn sono opportuni coefficienti (con n=0, 1, 2, ...), w=2π/T è la pulsazione dell'onda base e i termini n/T definiscono le frequenze armoniche prima introdotte (per n=1 si ha la frequenza fondamentale 1/T).
Nota: una funzione f(t) è periodica (di periodo T) se risulta f(t)=f(t+T) ed è sempre possibile associarle una nuova funzione g(t)=f(tT/2π) di periodo .

Senza dare una dimostrazione della serie di Fourier (per questo vedi il post su Vialattea.net), diciamo solo che la relazione è vera se f(t) è continua nell'intervallo [-π, π] e se valgono le condizioni di Dirichlet (non molto restrittive); mentre i coefficienti an e bn sono così definiti*:
an=(1/π)∫πf(t)cos(nwt)dt   e   bn=(1/π)∫πf(t)sin(nwt)dt.
Nota: per vedere come vengono calcolati i coefficienti si veda ad esempio lo sviluppo in serie della funzione a dente di sega (vedi Wikipedia).

Per chiarire il significato fisico alla serie di Fourier, supponiamo che le onde armoniche in essa contenute siano onde di tipo acustico e quindi che la nostra funzione f(t) rappresenti un particolare suono, come ad esempio quello emesso da uno strumento musicale.

Questo suono sarà costituito dalla nota di frequenza fondamentale 1/T sommata a quelle di tutte le armoniche di frequenza n/T che però sono di minore intensità (come indicato dalla serie di Fourier); ad esempio, se la frequenza base è quella della nota la corista (cioè quella del diapason fissata per definizione a 440Hz), le varie armoniche sovrapposte ad essa definiscono il timbro della nota, che caratterizza lo strumento da cui è stata emessa.
Nota: fatta eccezione per il diapason (a mono frequenza) ogni strumento musicale emette, oltre a quella fondamentale, le sue proprie armoniche.

Sorprendentemente il nostro cervello riconosce le varie armoniche contenute in un qualsiasi suono f(t) come se effettuasse l'analisi di Fourier dell'onda, che viene percepita dal nostro orecchio interno**; in questo modo possiamo riconoscere non solo la nota fondamentale di un dato suono ma anche le sue armoniche che definiscono il timbro della nota emessa.

È sulla base di questa particolare capacità di analisi del nostro cervello e del suo gradimento per la consonanza tra due o più note (cioè per la coincidenza degli armonici e l'assenza di battimenti) che è stata costruita la scala naturale delle sette note musicali; una volta scelta una nota di riferimento (che chiameremo do) le altre note sono le armoniche di quella base: il sol ad esempio è la terza armonica del do, il mi la quinta, il re la nona e così via formando la scala di do maggiore (per trasposizioni di ottava)***.
Nota: per un approfondimento su questi argomenti vedi ad esempio l'articolo di Andrea Frova "Interazioni Forti: Musica e Scienza".

(*) Per ottenere i coefficienti an e bn basta moltiplicare f(t) (di cui supponiamo esista la serie sopra definita) per cos(nwt) oppure per sin(nwt) e quindi integrarla tra π e ; una volta integrati i prodotti dei vari seni e coseni, i termini si annullano tutti, tranne quello al quadrato relativo al coefficiente ennesimo considerato (la cui integrazione è pari a π).
(**) È la membrana basilare, contenuta nell'orecchio interno, che si mette a vibrare in funzione delle varie frequenze armoniche che costituiscono il suono percepito; queste vibrazioni (spazialmente separate in relazione alla frequenza) vengono trasmesse al cervello attraverso distinti segnali elettrici, corrispondenti alle varie zone della membrana.
(*** ) Se la nota do ha frequenza 1 allora la seconda armonica avrà frequenza 2 (è il do dell'ottava superiore) mentre la terza armonica avrà frequenza 3 che (per ricondurla alla prima ottava) dobbiamo dividere per 2 ottenendo la frequenza 3/2 che chiameremo sol etc.; si ottiene così tutta la scala naturale.
(Si ricordi che raddoppiando la frequenza si ottiene sempre la stessa nota, di un'ottava più alta.)

giovedì 10 luglio 2014

Il calcolo degli stati di energia: dN=g(E)dE

In questo post approfondiremo quanto abbiamo già accennato nel post "L'Entropia secondo Boltzmann" a proposito della relazione tra energia cinetica E, quantità di moto p di una particella libera e il fattore di probabilità g(E) di ogni livello E del sistema di particelle considerato.

Ricordiamo infatti che vale la relazione E=p2/2m=(px2+py2+pz2)/2m ma ciò significa che ad un dato livello di energia E (che è uno scalare) possono corrispondere diverse orientazioni di (che è un vettore) e che quindi è diversa la probabilità che le particelle occupino un dato stato di energia.
Nota: consideriamo particelle libere e puntiformi (come quelle di un gas ideale) perciò la loro energia sarà solo quella cinetica (trascuriamo cioè quella potenziale e di rotazione).

Ora in accordo con la nostra ipotesi statistica delle distribuzioni possibili di un sistema di particelle (vedi il post "L'Entropia secondo Boltzmann"), si avrà che i vari livelli di energia hanno una diversa probabilità di essere occupati in relazione al numero di stati possibili N (da non confondere col numero di particelle) che corrispondono ad una fissata energia E.

Ci proponiamo perciò di trovare, considerando una variazione continua di energia (cioè per grandi volumi come vedremo), il numero elementare dN di stati compresi nell'intervallo infintesimo dE; vogliamo cioè ricavare il cosiddetto fattore di degenerazione dei livelli g(E)=dN/dE.

Si osservi innanzitutto che se fissiamo la quantità di moto p allora tutte le possibili orientazioni del vettore p (posto in un punto qualsiasi dello spazio) definiscono un guscio sferico di area 4πp2 e quindi gli stati con momento compreso tra p e p+dp saranno compresi nello strato sferico 4πp2dp.
Nota: stiamo in effetti considerando lo spazio delle fasi dove alle coordinate spaziali sono associate le coordinate dei momenti.

Se perciò consideriamo tutto lo spazio contenuto nel volume V (dove sono confinate le particelle) possiamo scrivere che il numero elementare di stati dN con momento compreso tra p e p+dp è complessivamente (moltiplichiamo cioè 4πp2dp per V):
dN=CV4πp2dp
dove abbiamo introdotto il termine C che è una costante dimensionale da definire.

Poiché vogliamo esprimere dN in funzione di dE, grazie alla relazione differenziale dp=(1/2)(2m)1/2E-1/2dE (essendo p=(2mE)1/2) possiamo sostituire i valori di dp e p2 nell'equazione precedente:
dN=CV(2m)3/2E1/2dE
e quindi in definitiva si ottiene
g(E)=dN/dE=2πCV(2m)3/2E1/2.
Nota: se vogliamo trattare g(E) come una funzione di probabilità dobbiamo normalizzare a 1 l'integrale di dN=g(E)dE introducendo la costante di normalizzazione 1/N (vedi Wikipedia).

Resta perciò da determinare la costante C che tuttavia può essere ottenuta solo attraverso considerazioni di tipo quantistico, in particolare facendo riferimento al caso tipico di una buca di potenziale (vedi Wikipedia).

Infatti in questo modello teorico si ottiene che i possibili livelli discreti di energia E di una particella, contenuta in un volume cubico di lato a, sono dati dalla relazione:
E=(h2/8ma2)k2
dove k2=n12+n22+n32 (n1, n2 e n3 sono interi positivi) e h è la costante di Planck.
È chiaro che i livelli di energia dipendono dal parametro k (essendo h2/8ma2 una quantità costante), cioè da quali e quanti valori può assumere questo parametro discreto nell'intervallo considerato.
Nota: si osservi che per grandi volumi (cioè per a elevati) i livelli discreti E formano in pratica uno spettro continuo di energia.

Ebbene poiché k può essere visto come un punto nello spazio di coordinate n1, n2 e n3, allora tutti gli stati N di energia compresa tra 0 ed E (supponiamo uno spettro continuo) saranno compresi nel volume di una sfera di raggio k moltiplicato per il fattore 1/8 (poiché dobbiamo considerare solo gli interi positivi):
N=(1/8)(4/3)πk3.
Nota: se disegnamo una sfera centrata nell'origine degli assi cartesiani e consideriamo solo lo spicchio compreso tra gli assi positivi, il volume si riduce a 1/8 della sfera.

A questo punto dalla relazione precedente di E possiamo ricavare k3 (basta elevare k2=(8ma2/h2)E alla 3/2) ottenendo:
k3=(8ma2/h2)3/2E3/2=(8m)3/2(a3/h3)E3/2
da cui segue* (ricordando che V=a3):
N=(8/6)(πV/h3)(2m)3/2E3/2.

Se consideriamo un volume molto grande come dicevamo (questa è in effetti una delle ipotesi statistiche per i sistemi termodinamici, vedi Wikipedia) possiamo derivare rispetto a E (essendo N(E) in pratica una funzione continua), ottenendo perciò:
g(E)=dN/dE=(2πV/h3)(2m)3/2E1/2.
Se infine confrontiamo questa relazione con quella analoga trovata prima classicamente, si ricava subito il valore della costante C=1/h3.
Nota: ciò significa che, nel caso classico, per calcolare il numero esatto degli stati dobbiamo dividere lo spazio delle fasi in cellette di dimensione h3.

Per concludere possiamo calcolare la funzione di partizione Z già introdotta nel post "La Legge statistica di Distribuzione" che, ricordiamo, è stata così definita: Z=∑igie-Ei/kBT.
Passando al continuo il simbolo di sommatoria può essere sostituito con quello di integrale (tra zero ed infinito) ottenendo**:
Z=e-E/kBTg(E)dE=(V/h3)(2πmkBT)3/2
dove V è il volume che contiene il gas, m la massa delle singole particelle, kB la costante di Boltzmann, T la temperatura assoluta e h la costante di Planck
Nota: questo risultato è valido per un gas ideale dove sono soddisfatte le ipotesi statistiche, come descritto nel post "L'Entropia secondo Boltzmann".

(*) Forse è utile ricordare che 83/2=(83)1/2=(2343)1/2=23/2(43)1/2=23/28.
(**) Sostituendo nell'integrale di Z il valore di g(E) prima ottenuto si ha:
 Z=e-E/kBTg(E)dE=(2πV/h3)(2m)3/2e-E/kBTE1/2dE=(V/h3)(2πmkBT)3/2
essendo ∫e-E/kBTE1/2dE=(1/2)(π)1/2(kBT)3/2.

mercoledì 11 giugno 2014

Entropia statistica e termodinamica

Nei due post "Entropia: una grandezza anomala!" e "L'Entropia secondo Boltzmann" (a cui rimandiamo) sono stati introdotti due diversi modelli fisici per definire il concetto di entropia; rispettivamente uno di tipo termodinamico (dove dS=δQ/T) e l'altro di tipo statistico (con S=kBlnP).

Vogliamo ora mostrare come queste due descrizioni siano tra loro profondamente collegate e che in effetti abbiamo derivato, a partire da due modelli teorici diversi, lo stesso tipo di grandezza fisica: l'entropia di un sistema di particelle.

Riscriviamo quindi il risultato ottenuto per l'entropia statistica (vedi il post "La Legge statistica di Distribuzione"):
S=kBlnP=kBNlnN-kBiniln(ni/gi)
rimarcando che tale relazione è sempre valida, anche fuori dall'equilibrio; mentre P è la probabilità di una data distribuzione delle particelle nei vari livelli di energia.

Nello stesso post abbiamo anche derivato la legge di distribuzione delle particelle del sistema sui vari livelli di energia in condizioni di massima probabilità, cioè per ipotesi nello stato di equilibrio termodinamico:
ni=(N/Z)gie-Ei/kBT
oppure utilizzando le proprietà dei logaritmi:
ln(ni/gi)=-ln(Z/N)-Ei/kBT.
Nota: ricordiamo che per ipotesi il sistema passa la maggior parte del tempo nello stato che può realizzarsi nel maggior numero di modi, cioè quello di massima probabilità o di massima entropia.

Considereremo perciò una trasformazione reversibile, dove possiamo supporre che il sistema passi da una distribuzione all'altra in modo che si realizzi sempre lo stato di massima probabilità e valga quindi la legge di distribuzione ni sopra riportata (poiché il sistema attraversa solo stati di equilibrio).
Nota: ricordiamo che quando una trasformazione è reversibile il sistema passa per definizione solo attraverso stati di equilibrio termodinamico.


Sostituiamo quindi il valore di ln(ni/gi) nell'equazione di S ottenendo (in condizioni di equilibrio o di massima entropia): 
S=kBNlnN+kBln(Z/N)∑ini+(1/T)∑iniEi
da cui, ricordando le due condizioni N=∑ini e E=∑iniEi (dove N sono le particelle mentre E è l'energia totale del sistema) segue infine:
S=kBN(lnN+ln(Z/N))+E/T=kBNlnZ+E/T.
Tale relazione esprime l'entropia S(N,Z,E,T) in funzione dei parametri caratteristici del sistema (cioè il numero di particelle N, la funzione di partizione Z, l'energia totale E e la temperatura assoluta T).
Nota: ricordiamo che Z dipende dalla struttura microscopica del sistema e vale Z=∑igie-Ei/kBT (vedi il post "La Legge statistica di Distribuzione").

Poiché stiamo trattando una trasformazione reversibile possiamo supporre* che S sia una funzione differenziabile (dato l'elevato numero di particelle supponiamo che ni vari con continuità) così possiamo calcolare il dS=(∂S/∂Z)dZ+(∂S/∂E)dE+(∂S/∂T)dT (fissando il numero N di particelle e utilizzando le regole di derivazione):
dS=d(kBNlnZ+E/T)=kB(N/Z)dZ+(1/T)dE-(1/T2)EdT.
Nota: stiamo considerando un sistema chiuso che può scambiare solo energia con l'ambiente ma non massa, quindi N è costante.

A questo punto vogliamo derivare una relazione che leghi il primo termine del terzo membro dell'equazione precedente (cioè kB(N/Z)dZ) all'energia E e alla temperatura T (come risulta per gli altri due termini).

Poichè sappiamo che Z(Ei,T)=∑igie-Ei/kBT dove gi è costante per ogni dato livello Ei (vedi il post "La Legge statistica di Distribuzione"), calcoliamo il differenziale dZ=i(∂Z/∂Ei)dEi+(∂Z/∂T)dT:
dZ=-(1/kBT)∑igie-Ei/kBTdEi+(1/kBT2)∑igiEie-Ei/kBTdT.
Perciò il termine kB(N/Z)dZ contenuto nel dS prima ricavato diventa:
kB(N/Z)dZ=-(1/T)∑i(N/Z)gie-Ei/kBTdEi+(1/T2)∑i(N/Z)giEie-Ei/kBTdT
ed infine ricordando che ni=(N/Z)gie-Ei/kBT si ha:
 kB(N/Z)dZ=-(1/T)∑inidEi+(1/T2)∑iniEidT.

Facciamo ora qualche considerazione per attribuire un significato fisico al primo termine inidEi che compare al secondo membro della precedente equazione; mentre per il secondo termine sappiamo che E=∑iniEi è l'energia del sistema.

Come abbiamo mostrato nel post "Il Principo di Conservazione... termodinamico!", per il primo principio della termodinamica possiamo scrivere, per una trasformazione reversibile (e quindi differenziabile):
dE=δL+δQ
dove dE indica una variazione infinitesimale dell'energia interna dovuta al lavoro elementare δL (fatto sul sistema) e al calore δQ (fornito al sistema).
Nota: ricordiamo che l'energia interna E è una funzione di stato quindi dE è un differenziale esatto.

Inoltre, poiché nel nostro modello statistico vale la relazione E=∑iniEi, possiamo calcolare il differenziale dE=i(∂E/∂Ei)dEi+i(∂E/∂ni)dni (supponiamo che E(ni,Ei) sia una funzione differenziabile, essendo le particelle dell'ordine del Numero di Avogadro e i livelli di energia praticamente continui):
dE=∑inidEi+∑iEidni.
Nota: questa relazione statistica vale anche in condizioni di non equilibrio, come la definizione di entropia statistica (vedi il post "L'Entropia secondo Boltzmann").

Essendo evidente l'analogia tra le due precedenti relazioni (quella termodinamica e quella statistica rispettivamente), supporremo che valga l'equivalenza tra i singoli termini al secondo membro delle due equazioni**; poniamo quindi:
δL=∑inidEi   e   δQ=∑iEidni.
Ciò significa che per ipotesi il termine inidEi indica la variazione di energia dei livelli, dovuta al lavoro elementare δL fatto sul sistema durante una trasformazione; mentre iEidni indica la variazione dni delle particelle sui livelli dovuta al calore elementare δQ fornito al sistema.

Possiamo perciò riprendere l'equazione precedente che definisce il termine kB(N/Z)dZ (vedi sopra); quindi sostituendo i valori rispettivamente di δL=∑inidEi e di E=∑iniEi otteniamo:
kB(N/Z)dZ=-(1/T)δL+(1/T2)EdT. 

Questo risultato ci permette di ottenere il valore del dS che avevamo lasciato in sospeso (nel quale è presente il termine kB(N/Z)dZ appena ricavato) e quindi si ha (essendo dE=δL+δQ):
dS=-(1/T)δL+(1/T)dE=(1/T)δQ 
ricordando che tale relazione è valida, per come è stata ricavata, solo per una trasformazione reversibile. 
Nota: per quanto detto sopra il calore δQ deve essere scambiato in maniera reversibile (vedi anche il post "Entropia: una grandezza anomala!").

Abbiamo perciò ottenuto, a partire dalla definizione di entropia statistica S=kBlnP, la relativa relazione termodinamica dS=δQ/T; le due definizioni sono quindi da considerarsi dal punto di vista fisico del tutto equivalenti (ovviamente nei limiti dei due modelli e delle ipotesi avanzate)***.

(*) Una trasformazione reversibile e quindi quasi-statica "considera variazioni di tempo infinitesime, istantanee, e consente di applicare il calcolo infinitesimale e i differenziali alle equazioni termodinamiche, senza variarne il significato fisico" (vedi Wikipedia); estendiamo questa considerazione al modello statistico.
(**) Possiamo però dare qualche motivazione: se ad esempio δL è dovuto ad una variazione di volume del sistema, è corretto aspettarsi una corrispondente variazione dEi di energia dei livelli (perché cambia la struttura del sistema); mentre una variazione di calore δQ può certamente provocare una corrispondente variazione dni delle particelle sui livelli, cioè un salto delle particelle da un livello all'altro.
(Il caso quantistico di una buca di potenziale è esplicativo poiché i livelli di energia dipendono dalle dimensioni fisiche della buca, vedi Wikipedia).
(***) Si ricordi infatti che l'entropia statistica vale solo quando sono soddisfatte le ipotesi statistiche, come descritto nel post "L'Entropia secondo Boltzmann"; ciò è sicuramente vero nel caso di un gas ideale.

mercoledì 4 giugno 2014

La Legge statistica di Distribuzione

Come abbiamo mostrato nel post "L'Entropia secondo Boltzman" un sistema termodinamico può essere descritto statisticamente attraverso la distribuzione delle particelle ni poste nei rispettivi livelli di energia Ei; abbiamo quindi ottenuto che la probabilità P di una data distribuzione n1, n2, n3, ... è pari a
P=N!(g1n1g2n2g3n3...)/(n1!n2!n3!...)
dove i valori di gi definiscono le probabilità intrinseche di riempimento dei vari livelli di energia.

Ricordiamo che il sistema è per ipotesi isolato (non scambia né energia né massa con l'ambiente) e che sono date le due seguenti condizioni o vincoli fisici:
N=n1+n2+n3+...
E=n1E1+n2E2+n3E3+...
dove N è il numero totale di particelle, E l'energia del sistema e n1, n2, n3, ... sono rispettivamente il numero di particelle di energia E1, E2, E3, ....

Dato che, per ipotesi, la probabilità di una distribuzione è massima quando il sistema si trova in uno stato di equilibrio, vogliamo calcolare per quale distribuzione delle particelle la probabilità P è massima.

Poiché il massimo di P corrisponde con quello di lnP e poiché è più facile valutare lnP diamo la sua espressione esplicita (secondo le proprietà dei logaritmi):
lnP=lnN!+n1lng1+n2lng2+n3lng3+...-lnn1!-lnn2!-lnn3!-...
o in modo più conciso:
lnP=lnN!+∑inilngi-ilnni!

A questo punto è utile introdurre la nota formula di Stirling valida per grandi numeri (poiché il numero di particelle di un sistema è solitamente molto grande, dell'ordine del Numero di Avogadro): lnN!≈NlnN-N.
Possiamo perciò scrivere con buona approssimazione:
lnP=NlnN-N+∑inilngi-∑inilnni+∑ini
da cui segue secondo le proprietà dei logaritmi (ed essendo N=∑ini):
lnP=NlnN-iniln(ni/gi).

Ora poiché vogliamo trovare per quali valori di n1, n2, n3, ..., si ottiene il massimo di lnP, supponiamo di poter trattare la probabilità P(n1,n2,n3,...come una funzione differenziabile (dato l'elevato numero di particelle supponiamo che ni vari con continuità); basterà quindi porre dlnP(ni)=0 (per trovare il punto di massimo).

Possiamo perciò scrivere, rammentando le regole di derivazione (ed essendo NlnN costante):
dlnP(ni)=-diniln(ni/gi)=-∑idniln(ni/gi)-inidln(ni/gi)=-∑idniln(ni/gi)
poiché risulta:
inidln(ni/gi)=inidlnni-∑inidlngi=∑idni=0 
essendo dlnni=(1/ni)dni, dlngi=0 e dN=∑idni=0 con gi ed N costanti.
Nota: ricordiamo che in generale il differenziale di una funzione F(ni) a più variabili è: dF(ni)=(∂F/∂n1)dn1+(∂F/∂n2)dn2+(∂F/∂n3)dn3+... .

Ora al fine di soddisfare i vincoli delle condizioni fisiche del sistema (cioè N=ini e E=iniEi) dobbiamo porre oltre alla condizione dlnP(ni)=-∑iln(ni/gi)dni=0 anche dN=∑idni=0 e dE=∑iEidni=0 e perciò deve risultare (seguendo il metodo dei moltiplicatori di Lagrange introduciamo due costanti generiche A e B)*:
i(ln(ni/gi)+A+BEi)dni=0
dove le costanti A e B sono da determinare in base alle due condizioni di conservazione di N ed E.

Si ottiene perciò la distribuzione di probabilià massima (o di equilibrio termodinamico) quando ln(ni/gi)+A+BEi=0 da cui segue subito (risultando ln(ni/gi)=-(A+BEi)):
ni=gie-(A+BEi)
dove il fattore di probabilità gi pesa sul riempimento dei singoli livelli di energia.
Nota: per la definizione della funzione continua di probabilità g(E) vedi il post "Il calcolo degli stati di energia: dN=g(E)dE".

A questo punto dalla condizione N=ini si può ricavare il valore della costante A; infatti possiamo scrivere (utilizzando l'equazione appena ricavata per ni):
N=∑ini=∑igie-(A+BEi)=e-Aigie-BEi
da cui si ottiene, posto Z=∑igie-BEi:
e-A=N/Z 
perciò A si riconduce al calcolo della cosiddetta funzione di partizione Z.
Nota: Z dipende dalla struttura microscopica del sistema** ed è quindi diversa per un gas ideale, un gas reale, un liquido oppure un solido.

Mentre dalla seconda condizione E=iniEi otteniamo (essendo ni=(N/Z)gie-BEi):
E=iniEi=(N/Z)igiEie-BEi.
Si osservi ora che, introducendo qualche derivata, possiamo riscrivere il valore di E nel modo seguente:
E=-(N/Z)d(∑igie-BEi)/dB=-(N/Z)dZ/dB=-NdlnZ/dB
da cui, ricordando che il valore medio di energia <E> di ogni singola molecola è definito come E/N, avremo:
<E>=E/N=-dlnZ/dB
perciò l'energia media delle particelle dipende in qualche modo dal parametro incognito B.

Poiché sappiamo (vedi il post "L'Equipartizione dell'Energia") che l'energia media è proporzionale alla temperatura assoluta (cioè <E>~kBT) e che B deve avere come unità di misura il reciproco di una energia (affinché l'equazione adimensionale di ni sia consistente), allora fissiamo in modo non del tutto arbitrario (ma da verificare sperimentalmente): B=1/kBT.
Nota: per una deduzione formale del valore di B vedi, ad esempio, il confronto tra un particolare modello fisico (una colonna piena di gas) e quello statistico relativo (vedi Wikipedia).

In definitiva, sostituendo i valori di A e B appena ricavati, si ottiene la seguente relazione per ni:
ni=(N/Z)gie-Ei/kBT
che è quindi funzione dei parametri caratteristici del sistema (cioè il numero di particelle N, la funzione di partizione Z, la probabilità intrinseca gi, l'energia dei rispettivi livelli Ei e la temperatura assoluta T).
Nota: si ricordi che questa relazione è vera, per come è stata derivata, per una distribuzione di massima probabilità e quindi, per ipotesi, in condizioni di equilibrio termodinamico.

Nel post "Entropia statistica e termodinamica" vedremo come sia possibile, grazie ai calcoli fin qui svolti, collegare la definizione statistica di entropia S=kBlnP (vedi il post "L'Entropia secondo Boltzmann") direttamente a quella termodinamica dS=δQ/T (vedi il post "Entropia: una grandezza anomala!") in modo da attribuirgli un preciso significato fisico.

(*) Tenendo conto dei vincoli fisici (N=ini e E=iniEi) possiamo scrivere l'equivalenza:
lnP(ni)=lnP(ni)+A(N-∑ini)+B(E-∑iEini)
dove A e B sono due costanti generiche; se ora calcoliamo il differenziale:
dlnP(ni)=-∑iln(ni/gi)dni-A∑idni-B∑iEidni
si ha dlnP(ni)=0 (punto di massimo) se poniamo i(ln(ni/gi)+A+BEi)dni=0.
(**) Ad esempio nel caso di un gas ideale risulta Z=V(2πmkBT)3/2/h3 dove V è il volume che contiene il gas, m la massa delle singole particelle, kB la costante di Boltzmann, T la temperatura assoluta e h la costante di Planck (vedi il post "Il calcolo degli stati di energia: dN=g(E)dE").

mercoledì 28 maggio 2014

L'Entropia secondo Boltzmann

URiprendiamo da Wikipedia alcuni concetti fondamentali che ci permetteranno di definire statisticamente il concetto termodinamico di entropia (già introdotto nel post "Entropia: una grandezza anomala!"):

- Sistema termodinamico: "Un sistema termodinamico è una porzione di spazio materiale, separata dal resto dell'universo termodinamico (ovvero dall'ambiente esterno) mediante una superficie di controllo (o confine) reale o immaginaria, rigida o deformabile".

- Stato termodinamico: "Uno stato termodinamico di un sistema termodinamico è l'insieme dei valori assunti dai parametri macroscopici che lo caratterizzano, come la pressione, il volume, l'entropia, la temperatura e così via".

- Equilibrio termodinamico: "Si dice che un sistema è in equilibrio termodinamico se le sue variabili (o parametri o coordinate) termodinamiche, (ad esempio pressione, volume e temperatura nel caso di un fluido omogeneo), sono ben definite e non variano nel tempo".
Nota: per poter definire lo stato di un sistema termodinamico è quindi necessario che sia in condizioni di equilibrio.

Deve essere inoltre chiaro che per trasformazione termodinamica "si intende un processo tramite il quale un sistema termodinamico passa da uno stato di equilibrio termodinamico ad un altro" (vedi Wikipedia).
Nota: la termodinamica studia cioè le trasformazioni quasi-statiche che passano attraverso infiniti stati di equilibrio (come ad esempio quelle reversibili).

Altra osservazione fondamentale per trattare statisticamente un sistema termodinamico e che rappresenta "uno dei cardini del pensiero di Boltzmann è che le quantità misurabili nel mondo macroscopico (cioè, le quantità termodinamiche come temperatura e pressione) si possano ottenere con operazioni di media su quantità microscopiche" (vedi Wikipedia).

È proprio grazie a questa ultima ipotesi, come vedremo, che possiamo collegare le grandezze termodinamiche di un sitema classico alla dinamica microscopica delle particelle che lo compongono; tuttavia solo se il numero N di particelle del sistema è abbastanza grande si possono applicare considerazioni statistiche*.
Nota: in generale per N che tende ad infinito avremo (per mantenere la densità costante) che anche il volume V tende a infinito (limite termodinamico).

Questo assunto si basa su alcune ipotesi fondamentali (per i dettagli vedi Wikipedia):

- Ipotesi stocastica: "Il sistema obbedisce all'ipotesi del caos molecolare. Questo implica che la distribuzione di velocità in una qualsiasi direzione sia gaussiana: cioè, le particelle non hanno una direzione preferenziale di moto. Se questo è vero nel caso di un gas perfetto, non è sempre vero per tutti i sistemi".

- Ipotesi di sitema infinito: "Nella realtà, nessun sistema è infinito, ma ha una dimensione finita: tuttavia, perché la deduzione abbia senso, occorre che lo spazio ∆x che una particella può percorrere in un tempo ∆t sia sufficientemente piccolo rispetto alla dimensione globale del sistema L" (ciò è vero per temperature non troppo elevate).

- Ipotesi di sistema markoviano: "Un'ipotesi sottintesa nella trattazione termodinamica è che le proprietà degli urti fra le particelle non dipendano dalla storia pregressa delle particelle (cioè da come si è arrivati all'urto) ma solo dalle condizioni istantanee al momento dell'urto".

Consideriamo quindi per semplicità un gas ideale (composto da particelle identiche ma distinguibili), per il quale valgono le ipotesi enunciate sopra oltre a quelle specifiche della Teoria cinetica dei gas che abbiamo già trattato nel post "L'Equipartizione dell'Energia" (a cui rimandiamo).

Se il sistema è isolato (cioè non scambia né energia né massa con l'ambiente) saranno vere le due seguenti condizioni:
N=n1+n2+n3+...
E=n1E1+n2E2+n3E3+...
dove N è il numero totale di particelle, E l'energia del sistema e n1, n2, n3, ... sono rispettivamente il numero di particelle di energia E1, E2, E3, ....

Possiamo ragionevolmente assumere che ad una data energia E del sistema (macrostato) possano corrispondere diverse configurazioni (microstati) di particelle n1, n2, n3, ... poste nei rispettivi livelli di energia; si possono perciò avere, per uno dato stato termodinamico, diverse distribuzioni delle particelle del sistema, una delle quali sarà la più favorita statisticamente, cioè la più probabile.
Nota: si assume che in condizioni di equilibrio e in assenza di perturbazioni il sistema mantiene la sua configurazione statistica (a meno di piccole fluttuazioni).

Si pone quindi il problema di come contare tutte le possibili configurazioni e stabilire quale sia la più probabile (cioè quale dei microstati possibili del sistema si possa realizzare nel maggior numero di modi).
Nota: le seguenti assunzioni fanno riferimento alla fisica classica e non a quella quantistica delle particelle (che sono indistinguibili) e dei loro stati.

Assumiamo quindi che tutti gli stati di energia E1, E2, E3, ... abbiano la stessa probabilità di essere occupati (cioè senza nessuna preferenza tra i livelli) e consideriamo una ben definita distribuzione descritta, come abbiamo detto, dal numero di particelle n1, n2, n3, ... poste nei rispettivi livelli di energia.

Possiamo presumere che se permutiamo tra loro le N particelle, lo stato del sistema complessivo non cambi: il numero di modi possibili per ottenere la stessa identica distribuzione è perciò pari a N! essendo N!=1x2x3x...x(N-1)xN il numero di tutte le permutazioni possibili (vedi Wikipedia).
Nota: abbiamo implicitamente assunto che le particelle, sebbene identiche, siano tra loro distinguibili e quindi permutabili (l'indistinguibilità porta invece alle statistiche quantistiche).

Ma dobbiamo anche considerare che se permutiamo tra loro le n1 particelle del livello E1 non otteniamo una nuova configurazione (supponiamo cioè che lo stato di E1 sia indipendente da come le particelle vengono ordinate); ciò significa che dovremo dividere per n1! il risultato prima ottenuto:
N!/n1!
essendo n1!=1x2x3x...x(n1-1)xn1 il numero delle permutazioni possibili su E1.

Poiché ciò vale coerentemente per tutti i livelli di energia E1, E2, E3, ... si ottiene infine il numero complessivo di tutti i modi possibili di riempimento dei livelli con le rispettive particelle:
N!/(n1!n2!n3!...).

Tuttavia la situazione che abbiamo rappresentato non è completa poiché dobbiamo considerare che i livelli di energia hanno una diversa probabilità di essere occupati (ad esempio per la loro compatibilità con i momenti delle particelle, vedi la nota seguente) e quindi dobbiamo assegnare un valore di probabilità gi ad ogni livello di energia Ei (dove i=1, 2, 3, ...) con la condizione che g1+g2+g3+...=1.
Nota: è noto che la relazione tra energia e momento di una particella è E=p2/2m=(px2+py2+pz2)/2m quindi ad un dato livello di energia E possono corrispondere diverse orientazioni di p.

Ciò significa che la probabilità di trovare 2 particelle nel livello E1 sarà pari a g12 (poiché le probabilità vanno moltiplicate tra loro) e quindi per tutte le n1 particelle avremo la probabilità g1n1 che occupino quello stato; in generale dovremo perciò tener conto del fattore gini nel calcolo delle probabilità.
Nota: per la definizione della funzione continua di probabilità g(E) vedi il post "Il calcolo degli stati di energia: dN=g(E)dE".

Se quindi consideriamo tutti i livelli di energia del sistema otterremo infine che la probabilità della particolare distribuzione n1, n2, n3, ... è pari a
P=N!(g1n1g2n2g3n3...)/(n1!n2!n3!...).
Nota: si può verificare che la somma delle probabilità Pi di tutte le possibili configurazioni è correttamente pari a 1 risultando: ∑Pi=(g1+g2+g3+...)N=1 (vedi Wikipedia).

È a questo punto che Boltzmann (nel 1877) fa la seguente fondamentale ipotesi che lega l'entropia S (già definita termodinamicamente nel post "Entropia: una grandezza anomala!") alla probabilità P di una data distribuzione di particelle**:
S=kBlnP
dove kB è la costante di Boltzmann (ln indica il logaritmo naturale); il termine kBlnP rappresenta quindi l'entropia statistica del sistema.

Si noti che questa definizione di entropia è generale e vale per qualsiasi distribuzione del sistema, anche quando ci troviamo fuori dall'equilibrio*** ed è evidente che il termine kBlnP è indipendente dal percorso seguito dal sistema ma solo dallo stato in cui esso si trova (cioè dalla sua particolare configurazione): l'entropia S è, come nel caso termodinamico, una funzione di stato.
Nota: in particolare se P=1 (cioè se si ha una sola possibile distribuzione delle particelle) risulta S=0  e l'entropia è nulla (vedi il Terzo principio della termodinamica).

Se ora supponiamo che il sistema isolato passi, in modo regolare nel tempo, da tutte le configurazione previste per quel sistema a parità di energia (ipotesi ergodica), allora la distribuzione che si realizza nel maggior numero di modi (cioè quella più probabile) è quella in cui il sistema passa in media la maggior parte del tempo (a parte piccole fluttuazioni).

Proseguendo con questa ipotesi è anche ragionevole supporre che se ci troviamo lontano dall'equilibrio (bassa entropia) il sistema evolverà verso l'equilibrio (massima entropia) poiché tenderà naturalmente a quello stato di massima probabilità compatibile con le sue caratteristiche fisiche.

Rimandiamo infine al post "La Legge statistica di Distribuzione" per il calcolo della distribuzione delle particelle ni nei vari livelli di energia Ei quando il sistema si trova all'equilibrio, cioè quando per ipotesi la probabilità dello stato è massima.

(*) Solitamente abbiamo a che fare con sistemi fisici composti da un grande numero di particelle, dell'ordine del Numero di Avogadro.
(**) Supponiamo che esista una relazione tra S e P cioè S=f(P) allora se consideriamo un sistema composto da due parti (dove S1 e S2 sono le rispettive entropie mentre P1 e P2 le probabilità dei due stati) ed essendo S=S1+S2 (le entropie si sommano) e P=P1P2 (le probabilità si moltiplicano) avremo S(P1P2)=S(P1)+S(P2); ora come è noto l'unica funzione che soddisfa questa relazione è proprio quella logaritmica.
(***) Al contrario le variabili termodinamiche come temperatura, pressione o volume sono ben definite solo all'equilibrio dove non variano nel tempo.