mercoledì 5 agosto 2015

Onde, armoniche e... Fourier!

Abbiamo già trattato la definizione formale della funzione periodica di un'onda nel post "Ma cos'è una 'Onda?'" (a cui rimandiamo); qui vogliamo invece approfondire un aspetto importante dei moti oscillatori che riguarda le cosiddette frequenze armoniche:
"Nello studio dei fenomeni oscillatori, le frequenze armoniche sono le frequenze il cui valore è multiplo intero della frequenza base (frequenza fondamentale) di un'onda" (vedi Wikipedia).

Questa semplice e formale definizione riguarda un aspetto fondamentale delle funzioni periodiche che trae origine dall'analisi di Fourier: "una branca di ricerca che prende il suo stimolo dalle ricerche di Jean Baptiste Joseph Fourier, che nei primi anni dell'ottocento, riuscì a dimostrare che una qualunque funzione periodica poteva essere vista come una somma di infinite 'opportune' funzioni sinusoidali (seno e coseno)" (vedi Wikipedia).

Infatti sotto opportune ipotesi esiste una serie convergente (detta appunto di Fourier), grazie alla quale possiamo esprimere una funzione periodica f(t) (con periodo ) nel modo seguente:
f(t)=(1/2)a0+a1cos(wt)+...+ancos(nwt)+b1sin(wt)+...+bnsin(nwt)
dove an e bn sono opportuni coefficienti (con n=0, 1, 2, ...) e i termini nwt definiscono le frequenze armoniche n/T prima introdotte, dove w=2π/T è la pulsazione dell'onda base (per n=1 si ha la frequenza fondamentale 1/T).
Nota: una funzione f(t) è periodica (di periodo T) se risulta f(t)=f(t+T); è sempre possibile associarle una nuova funzione g(t)=f(tT/2π) di periodo .

Senza dare una dimostrazione della serie di Fourier (per questo vedi il post su Vialattea.net), diciamo solo che la relazione è vera se f(t) è continua nell'intervallo [-π, π] e se valgono le condizioni di Dirichlet (non molto restrittive); mentre i coefficienti an e bn sono così definiti*:
an=(1/π)∫πf(t)cos(nwt)dt   e   bn=(1/π)∫πf(t)sin(nwt)dt.
Nota: per vedere come vengono calcolati i coefficienti si veda ad esempio lo sviluppo in serie della funzione a dente di sega (vedi Wikipedia).

Per chiarire il significato fisico alla serie di Fourier, supponiamo che le onde armoniche in essa contenute siano onde di tipo acustico e quindi che la nostra funzione f(t) rappresenti un particolare suono, come ad esempio quello emesso da uno strumento musicale.

Questo suono sarà costituito dalla nota di frequenza fondamentale 1/T sommata a quelle di tutte le armoniche di frequenza n/T che sono di minore intensità (come indicato dalla serie di Fourier); ad esempio se la frequenza base è quella della nota la corista (cioè quella del diapason fissata per definizione a 440Hz), le varie armoniche sovrapposte ad essa definiscono il timbro della nota, che caratterizza lo strumento da cui è stata emessa.
Nota: fatta eccezione per il diapason (a mono frequenza) ogni strumento musicale emette, oltre a quella fondamentale, le sue proprie armoniche.

Sorprendentemente il nostro cervello riconosce le varie armoniche contenute in un qualsiasi suono f(t) come se effettuasse l'analisi di Fourier dell'onda che viene percepita dal nostro orecchio interno**; in questo modo possiamo riconoscere non solo la nota fondamentale di un dato suono ma anche le sue armoniche che definiscono il timbro della nota emessa.

È sulla base di questa particolare capacità di analisi del nostro cervello e del suo gradimento per la consonanza tra due o più note (cioè per la coincidenza degli armonici e l'assenza di battimenti) che è stata costruita la scala naturale delle sette note musicali; una volta scelta una nota di riferimento (che chiameremo do) le altre note sono le armoniche di quella base: il sol ad esempio è la terza armonica del do, il mi la quinta, il re la nona e così via formando la scala di do maggiore (per trasposizioni di ottava)***.
Nota: per un approfondimento su questi argomenti vedi l'articolo del fisico Andrea Frova "Interazioni Forti: Musica e Scienza".

(*) Per ottenere i coefficienti an e bn basta moltiplicare f(t) (di cui supponiamo esista la serie sopra definita) per cos(nwt) o per sin(nwt) e quindi integrarla tra π e ; una volta integrati i prodotti dei vari seni e coseni i termini si annullano tutti, tranne quello al quadrato relativo al coefficiente ennesimo considerato (la cui integrazione è pari a π).
(**) È la membrana basilare, contenuta nell'orecchio interno, che si mette a vibrare in funzione delle varie frequenze armoniche che costituiscono il suono percepito; queste vibrazioni (spazialmente separate in relazione alla frequenza) vengono trasmesse al cervello attraverso distinti segnali elettrici corrispondenti alle varie zone della membrana.
(*** ) Se la nota do ha frequenza 1 allora la seconda armonica avrà frequenza 2 (è il do dell'ottava superiore) mentre la terza armonica avrà frequenza 3 che (per ricondurla alla prima ottava) dobbiamo dividere per 2 ottenendo la frequenza 3/2 che chiameremo sol etc.; si ottiene così tutta la scala naturale.
(Si ricordi che raddoppiando la frequenza si ottiene sempre la stessa nota, di un'ottava più alta.)

giovedì 10 luglio 2014

Il calcolo degli stati di energia: dN=g(E)dE

In questo post approfondiremo quanto abbiamo già accennato nel post "L'Entropia secondo Boltzmann" a proposito della relazione tra energia cinetica E, quantità di moto p di una particella libera e il fattore di probabilità g(E) di ogni livello E del sistema di particelle considerato.

Ricordiamo infatti che tale relazione è come noto E=p2/2m=(px2+py2+pz2)/2m ma ciò significa che ad un dato livello di energia E (che è uno scalare) possono corrispondere diverse orientazioni di (che è un vettore) e che quindi è diversa la probabilità che le particelle occupino un dato stato di energia.
Nota: qui consideriamo particelle libere e puntiformi (come quelle di un gas ideale) perciò la loro energia sarà solo quella cinetica (trascuriamo cioè quella potenziale).

Ora, in accordo con la nostra ipotesi statistica delle distribuzioni possibili di un sistema di particelle (vedi il post "L'Entropia secondo Boltzmann"), si avrà che i vari livelli di energia hanno una diversa probabilità di essere occupati in relazione al numero di stati possibili N (da non confondere col numero di particelle) che corrispondono ad una fissata energia E.

Ci proponiamo perciò di trovare, considerando una variazione continua di energia (cioè per grandi volumi come vedremo), il numero elementare dN di stati compresi nell'intervallo infintesimo dE; vogliamo cioè ricavare il cosiddetto fattore di degenerazione dei livelli g(E)=dN/dE.

Si osservi innanzitutto che se fissiamo la quantità di moto p allora tutte le possibili orientazioni del vettore p (posto in un punto qualsiasi dello spazio) definiscono un guscio sferico di area 4πp2 e quindi tutti gli stati con momento compreso tra p e p+dp saranno compresi nello strato sferico 4πp2dp.
Nota: stiamo in effetti considerando lo spazio delle fasi dove alle coordinate spaziali sono associate le coordinate dei momenti.

Se perciò consideriamo tutto lo spazio contenuto nel volume V (dove sono confinate le particelle) possiamo scrivere che il numero elementare di stati dN con momento compreso tra p e p+dp è complessivamente (moltiplichiamo cioè 4πp2dp per V):
dN=CV4πp2dp
dove abbiamo introdotto il termine C che è una costante dimensionale da definire.

Poiché vogliamo esprimere dN in funzione di dE, grazie alla relazione differenziale dp=(1/2)(2m)1/2E-1/2dE (essendo p=(2mE)1/2) possiamo sostituire i valori di dp e p2 nell'equazione precedente:
dN=CV(2m)3/2E1/2dE
e quindi in definitiva si ottiene
g(E)=dN/dE=2πCV(2m)3/2E1/2.
Nota: se vogliamo trattare g(E) come una funzione di probabilità dobbiamo normalizzare a 1 l'integrale di dN=g(E)dE introducendo la costante di normalizzazione 1/N (vedi Wikipedia).

Resta perciò da determinare la costante C che tuttavia può essere ottenuta solo attraverso considerazioni di tipo quantistico, in particolare facendo riferimento al caso tipico di una buca di potenziale (vedi Wikipedia).

Infatti in questo modello teorico si ottiene che i possibili livelli discreti di energia E di una particella, contenuta in un volume cubico di lato a, sono dati dalla relazione:
E=(h2/8ma2)k2
dove k2=n12+n22+n32 (n1, n2 e n3 sono interi positivi) e h è la costante di Planck.
È chiaro che i livelli di energia dipendono dal parametro k (essendo h2/8ma2 una quantità costante), cioè da quali e quanti valori può assumere questo parametro discreto nell'intervallo considerato.
Nota: si osservi che per grandi volumi (cioè per a elevati) i livelli discreti E formano in pratica uno spettro continuo di energia.

Ebbene poiché k può essere visto come un punto nello spazio di coordinate n1, n2 e n3, allora tutti gli stati N di energia compresa tra 0 ed E (supponiamo uno spettro continuo) saranno compresi nel volume di una sfera di raggio k moltiplicato per il fattore 1/8 (poiché dobbiamo considerare solo gli interi positivi):
N=(1/8)(4/3)πk3.
Nota: se disegnamo una sfera centrata nell'origine degli assi cartesiani e consideriamo solo lo spicchio compreso tra gli assi positivi, il volume si riduce a 1/8 della sfera.

A questo punto dalla relazione precedente di E possiamo ricavare k3 (basta elevare k2=(8ma2/h2)E alla 3/2) ottenendo:
k3=(8ma2/h2)3/2E3/2=(8m)3/2(a3/h3)E3/2
da cui segue* (ricordando che V=a3):
N=(8/6)(πV/h3)(2m)3/2E3/2.

Se consideriamo un volume molto grande come dicevamo (questa è in effetti una delle ipotesi statistiche per i sistemi termodinamici - vedi Wikipedia) possiamo derivare rispetto a E (essendo N(E) in pratica una funzione continua), ottenendo perciò:
g(E)=dN/dE=(2πV/h3)(2m)3/2E1/2.
Se infine confrontiamo questa relazione con quella analoga trovata prima classicamente, si ricava subito il valore della costante C=1/h3.
Nota: ciò significa che, nel caso classico, per calcolare il numero esatto degli stati dobbiamo dividere lo spazio delle fasi in cellette di dimensione h3.

Per concludere possiamo calcolare la funzione di partizione Z già introdotta nel post "La Legge statistica di Distribuzione" che, ricordiamo, è stata così definita: Z=∑igie-Ei/kBT.
Passando al continuo il simbolo di sommatoria può essere sostituito con quello di integrale (tra zero ed infinito) ottenendo**:
Z=e-E/kBTg(E)dE=(V/h3)(2πmkBT)3/2
dove V è il volume che contiene il gas, m la massa delle singole particelle, kB la costante di Boltzmann, T la temperatura assoluta e h la costante di Planck
Nota: questo risultato è valido per un gas ideale dove sono soddisfatte le ipotesi statistiche, come descritto nel post "L'Entropia secondo Boltzmann".

(*) Forse è utile ricordare che 83/2=(83)1/2=(2343)1/2=23/2(43)1/2=23/28.
(**) Sostituendo nell'integrale di Z il valore di g(E) prima ottenuto si ha:
 Z=e-E/kBTg(E)dE=(2πV/h3)(2m)3/2e-E/kBTE1/2dE=(V/h3)(2πmkBT)3/2
essendo ∫e-E/kBTE1/2dE=(1/2)(π)1/2(kBT)3/2.

mercoledì 11 giugno 2014

Entropia statistica e termodinamica

Nei due precedenti post "Entropia: una grandezza anomala!" e "L'Entropia secondo Boltzmann" (a cui rimandiamo) sono stati introdotti due diversi modelli fisici per definire il concetto di entropia; rispettivamente uno di tipo termodinamico (dove dS=δQ/T) e l'altro di tipo statistico (con S=kBlnP).

Vogliamo ora mostrare come queste due descrizioni siano tra loro profondamente collegate e che in effetti abbiamo derivato, a partire da due modelli teorici diversi, lo stesso tipo di grandezza fisica: cioè quello di entropia di un sistema di particelle.

Riscriviamo quindi il risultato ottenuto per l'entropia statistica (vedi il post "La Legge statistica di Distribuzione"):
S=kBlnP=kBNlnN-kBiniln(ni/gi)
rimarcando che tale relazione è sempre valida, anche fuori dall'equilibrio.

Nello stesso post abbiamo anche derivato la legge di distribuzione delle particelle del sistema sui vari livelli di energia in condizioni di massima probabilità, cioè per ipotesi nello stato di equilibrio termodinamico:
ni=(N/Z)gie-Ei/kBT
che si può così esprimere utilizzando le proprietà dei logaritmi:
ln(ni/gi)=-ln(Z/N)-Ei/kBT.
Nota: si suppone che il sistema passi la maggior parte del tempo nello stato che può realizzarsi nel maggior numero di modi (cioè quello di massima probabilità).

Considereremo perciò una trasformazione reversibile, dove possiamo supporre che il sistema passi da una distribuzione all'altra in modo che si realizzi sempre lo stato di massima probabilità e valga quindi la legge di distribuzione ni sopra riportata (poiché il sistema attraversa solo stati di equilibrio).
Nota: ricordiamo che quando una trasformazione è reversibile il sistema passa per definizione solo attraverso stati di equilibrio termodinamico (senza fluttuazioni).


Sostituiamo quindi il valore di ln(ni/gi) nell'equazione di S ottenendo (in condizioni di equilibrio o di massima entropia): 
S=kBNlnN+kBln(Z/N)∑ini+(1/T)∑iniEi
da cui, ricordando le due condizioni N=∑ini e E=∑iniEi (dove N sono le particelle mentre E è l'energia totale del sistema) segue infine:
S=kBN(lnN+ln(Z/N))+E/T=kBNlnZ+E/T.
Tale relazione esprime l'entropia S(N,Z,E,T) in funzione dei parametri caratteristici del sistema (cioè il numero di particelle N, la funzione di partizione Z, l'energia totale E e la temperatura assoluta T).
Nota: ricordiamo che Z dipende dalla struttura microscopica del sistema e vale Z=∑igie-Ei/kBT (vedi il post "La Legge statistica di Distribuzione").

Poiché stiamo trattando una trasformazione reversibile possiamo supporre* che S sia una funzione differenziabile (dato l'elevato numero di particelle presumiamo che ni vari con continuità) e possiamo calcolare il suo dS=(∂S/∂Z)dZ+(∂S/∂E)dE+(∂S/∂T)dT (fissando il numero N di particelle e utilizzando le regole di derivazione):
dS=d(kBNlnZ+E/T)=kB(N/Z)dZ+(1/T)dE-(1/T2)EdT.
Nota: stiamo considerando un sistema chiuso che può scambiare solo energia con l'ambiente ma non massa, quindi N è costante.

A questo punto vorremmo derivare una relazione che leghi il primo termine del terzo membro dell'equazione precedente (cioè kB(N/Z)dZ) all'energia E e alla temperatura T (come accade per gli altri due termini).

Poichè sappiamo che Z(Ei,T)=∑igie-Ei/kBT dove gi è costante per ogni dato livello Ei (vedi il post "La Legge statistica di Distribuzione"), calcoliamo il suo differenziale dZ=i(∂Z/∂Ei)dEi+(∂Z/∂T)dT:
dZ=-(1/kBT)∑igie-Ei/kBTdEi+(1/kBT2)∑igiEie-Ei/kBTdT.
Perciò il termine kB(N/Z)dZ contenuto nel dS prima ricavato diventa:
kB(N/Z)dZ=-(1/T)∑i(N/Z)gie-Ei/kBTdEi+(1/T2)∑i(N/Z)giEie-Ei/kBTdT
ed infine ricordando che ni=(N/Z)gie-Ei/kBT si ha:
 kB(N/Z)dZ=-(1/T)∑inidEi+(1/T2)∑iniEidT.

Facciamo ora qualche considerazione per attribuire un significato fisico al primo termine inidEi che compare al secondo membro della precedente equazione (mentre per il secondo termine sappiamo che E=∑iniEi è l'energia del sistema).

Come abbiamo mostrato nel post "Il Principo di Conservazione... termodinamico!", per il primo principio della termodinamica possiamo scrivere, per una trasformazione reversibile (e quindi differenziabile):
dE=δL+δQ
dove dE indica una variazione infinitesimale dell'energia interna dovuta al lavoro elementare δL (fatto sul sistema) e al calore δQ (fornito al sistema).

Nota: ricordiamo che l'energia interna E è una funzione di stato quindi dE è un differenziale esatto.

Inoltre, poiché nel nostro modello statistico vale la relazione E=∑iniEi, possiamo calcolare il suo differenziale dE=i(∂E/∂Ei)dEi+i(∂E/∂ni)dni (supponiamo che E(ni,Ei) sia una funzione differenziabile, essendo le particelle dell'ordine del Numero di Avogadro e i livelli di energia praticamente continui):
dE=∑inidEi+∑iEidni.
Nota: questa relazione statistica vale anche in condizioni di non equilibrio, come la definizione di entropia statistica (vedi il post "L'Entropia secondo Boltzmann").

Essendo evidente l'analogia tra le due precedenti relazioni (quella termodinamica e quella statistica rispettivamente) supporremo** che valga l'equivalenza tra i singoli termini al secondo membro delle due equazioni; poniamo quindi:
δL=∑inidEi   e   δQ=∑iEidni.
Ciò significa che il termine inidEi indica la variazione di energia dei livelli dovuta al lavoro elementare δL fatto sul sistema durante una trasformazione; mentre iEidni indica la variazione dni delle particelle sui livelli dovuta al calore elementare δQ fornito al sistema.

Possiamo perciò riprendere l'equazione precedente che definisce il termine kB(N/Z)dZ (vedi sopra) e, sostituendo i valori rispettivamente di δL=∑inidEi e di E=∑iniEi otteniamo:
kB(N/Z)dZ=-(1/T)δL+(1/T2)EdT. 

Questo risultato ci permette infine di ottenere il valore del dS che avevamo lasciato in sospeso (nel quale è presente il termine kB(N/Z)dZ appena ricavato) e quindi si ha (essendo dE=δL+δQ):
dS=-(1/T)δL+(1/T)dE=(1/T)δQ 
ricordando che tale relazione è valida, per come è stata ricavata, solo per una trasformazione reversibile. 
Nota: per quanto detto sopra il calore δQ deve essere scambiato in maniera reversibile (vedi anche il post "Entropia: una grandezza anomala!").

Abbiamo perciò ottenuto, a partire dalla definizione di entropia statistica S=kBlnP, la relativa relazione termodinamica dS=δQ/T; le due definizioni sono quindi da considerarsi dal punto di vista fisico del tutto equivalenti (ovviamente nei limiti dei due modelli e delle ipotesi avanzate)***.

(*) Una trasformazione reversibile e quindi quasi-statica "considera variazioni di tempo infinitesime, istantanee, e consente di applicare il calcolo infinitesimale e i differenziali alle equazioni termodinamiche, senza variarne il significato fisico" (vedi Wikipedia); estendiamo questa considerazione al modello statistico.
(**) Possiamo però dare qualche motivazione: se ad esempio δL è dovuto ad una variazione di volume del sistema, è corretto aspettarsi una corrispondente variazione dEi di energia dei livelli (perché cambia la struttura del sistema); mentre una variazione di calore δQ può certamente provocare una corrispondente variazione dni delle particelle sui livelli, cioè un salto delle particelle da un livello all'altro.
(Il caso quantistico di una buca di potenziale è esplicativo poiché i livelli di energia dipendono dalle dimensioni fisiche della buca, vedi Wikipedia).
(***) Si ricordi infatti che l'entropia statistica vale solo quando sono soddisfatte le ipotesi statistiche, come descritto nel post "L'Entropia secondo Boltzmann"; ciò è sicuramente vero nel caso di un gas ideale.

mercoledì 4 giugno 2014

La Legge statistica di Distribuzione

Come abbiamo mostrato nel post "L'Entropia secondo Boltzman" un sistema termodinamico può essere descritto statisticamente attraverso la distribuzione delle particelle ni poste nei rispettivi livelli di energia Ei; abbiamo quindi ottenuto che la probabilità P di una data distribuzione n1, n2, n3, ... è pari a
P=N!(g1n1g2n2g3n3...)/(n1!n2!n3!...)
dove i valori di gi definiscono le probabilità intrinseche di riempimento dei vari livelli di energia.

Ricordiamo che il sistema è per ipotesi isolato (non scambia né energia né massa con l'ambiente) e che sono date le due seguenti condizioni o vincoli fisici:
N=n1+n2+n3+...
E=n1E1+n2E2+n3E3+...
dove N è il numero totale di particelle, E l'energia del sistema e n1, n2, n3, ... sono rispettivamente il numero di particelle di energia E1, E2, E3, ....

Dato che, per ipotesi, la probabilità di una distribuzione è massima quando il sistema si trova in uno stato di equilibrio, vogliamo calcolare per quale distribuzione delle particelle la probabilità P è massima.

Poiché è più facile valutare lnP (e poiché il massimo di P corrisponde a quello di lnP) diamo la sua espressione esplicita (secondo le proprietà dei logaritmi):
lnP=lnN!+n1lng1+n2lng2+n3lng3+...-lnn1!-lnn2!-lnn3!-...
o in modo più conciso:
lnP=lnN!+∑inilngi-ilnni!

A questo punto è utile introdurre la nota formula di Stirling valida per grandi numeri: lnN!≈NlnN-N (poiché il numero di particelle di un sistema è solitamente molto grande dell'ordine del Numero di Avogadro); possiamo perciò scrivere in buona approssimazione:
lnP=NlnN-N+∑inilngi-∑inilnni+∑ini
da cui segue secondo le proprietà dei logaritmi (ed essendo N=∑ini):
lnP=NlnN-iniln(ni/gi).

Ora poiché vogliamo trovare per quali valori di n1, n2, n3, ... si ottiene il massimo di lnP, supponendo di poter trattare la probabilità P(n1,n2,n3,...come una funzione differenziabile (dato l'elevato numero di particelle supponiamo che ni vari con continuità), basterà porre dlnP(ni)=0 (per trovare il punto di massimo).

Possiamo perciò scrivere, rammentando le regole di derivazione (ed essendo NlnN costante):
dlnP(ni)=-diniln(ni/gi)=-∑idniln(ni/gi)-inidln(ni/gi)=-∑idniln(ni/gi)
poiché risulta
inidln(ni/gi)=inidlnni-∑inidlngi=∑idni=0 
essendo dlnni=(1/ni)dni, dlngi=0 e dN=∑idni=0 con gi ed N costanti.
Nota: in generale il differenziale di una funzione F(ni) a più variabili è dF(ni)=(∂F/∂n1)dn1+(∂F/∂n2)dn2+(∂F/∂n3)dn3+... .

Ora al fine di soddisfare i vincoli delle condizioni fisiche del sistema (cioè N=ini e E=iniEi) dobbiamo porre oltre alla condizione dlnP(ni)=-∑iln(ni/gi)dni=0 anche dN=∑idni=0 e dE=∑iEidni=0 e perciò deve risultare (seguendo il metodo dei moltiplicatori di Lagrange introduciamo due costanti generiche A e B)*:
i(ln(ni/gi)+A+BEi)dni=0
dove le costanti A e B sono da determinare in base alle due condizioni di conservazione di N ed E.

Si ottiene perciò la distribuzione di probabilià massima (o di equilibrio statistico) quando ln(ni/gi)+A+BEi=0 da cui segue subito (risultando ln(ni/gi)=-(A+BEi)):
ni=gie-(A+BEi)
dove il fattore di probabilità gi pesa sul riempimento dei singoli livelli di energia.
Nota: per la definizione della funzione di probabilità g(E) vedi il post "Il calcolo degli stati di energia: dN=g(E)dE".

Dalla condizione N=ini si può ricavare il valore della costante A; infatti possiamo scrivere (utilizzando l'equazione appena ricavata per ni):
N=∑ini=∑igie-(A+BEi)=e-Aigie-BEi
da cui si ottiene, posto Z=∑igie-BEi:
e-A=N/Z 
perciò A si riconduce al calcolo della cosiddetta funzione di partizione Z.
Nota: in particolare Z dipende dalla struttura microscopica del sistema** ed è quindi diversa per un gas ideale, un gas reale, un liquido oppure un solido.

Mentre dalla seconda condizione E=iniEi otteniamo (essendo ni=(N/Z)gie-BEi):
E=iniEi=(N/Z)igiEie-BEi.
Si osservi ora che, introducendo qualche derivata, possiamo riscrivere il valore di E nel modo seguente:
E=-(N/Z)d(∑igie-BEi)/dB=-(N/Z)dZ/dB=-NdlnZ/dB
da cui, ricordando che il valore medio di energia <E> di ogni singola molecola è definito come E/N, avremo:
<E>=E/N=-dlnZ/dB.
Questa relazione evidenzia che l'energia media delle particelle dipende in qualche modo dal parametro incognito B.

Poiché sappiamo (vedi il post "L'Equipartizione dell'Energia") che l'energia media è proporzionale alla temperatura assoluta (cioè <E>~kBT) e che B deve avere come unità di misura il reciproco di una energia (affinché l'equazione adimensionale di ni sia consistente), allora fissiamo in modo non del tutto arbitrario (ma da verificare sperimentalmente): B=1/kBT.
Nota: per una deduzione formale del valore di B vedi, ad esempio, il confronto tra un particolare modello fisico (una colonna piena di gas) e quello statistico relativo, come illustrato da Wikipedia.

In definitiva, sostituendo i valori di A e B appena ricavati, si ottiene la seguente relazione per ni:
ni=(N/Z)gie-Ei/kBT
che è quindi funzione dei parametri caratteristici del sistema (cioè il numero di particelle N, la funzione di partizione Z, la probabilità intrinseca gi, l'energia dei rispettivi livelli Ei e la temperatura assoluta T).
Nota: si ricordi che questa relazione è vera, per come è stata derivata, per una distribuzione di massima probabilità e quindi, per ipotesi, in condizioni di equilibrio termodinamico.

Nel post "Entropia statistica e termodinamica" vedremo come sia possibile, grazie ai calcoli fin qui svolti, collegare la definizione statistica di entropia S=kBlnP (vedi il post "L'Entropia secondo Boltzmann") direttamente a quella termodinamica dS=δQ/T (vedi il post "Entropia: una grandezza anomala!") in modo da attribuirgli un preciso significato fisico.

(*) Se teniamo conto dei due vincoli fisici (N=ini e E=iniEi) possiamo scrivere più in generale:
lnP(ni)=lnP(ni)+A(N-∑ini)+B(E-∑iEini)
dove A e B sono due costanti generiche. Quindi se calcoliamo il differenziale:
dlnP(ni)=-∑iln(ni/gi)dni-A∑idni-B∑iEidni
si ha dlnP(ni)=0 (punto di massimo) se poniamo i(ln(ni/gi)+A+BEi)dni=0.
(**) Ad esempio nel caso di un gas ideale risulta Z=V(2πmkBT)3/2/h3 dove V è il volume che contiene il gas, m la massa delle singole particelle, kB la costante di Boltzmann, T la temperatura assoluta e h la costante di Planck (per la sua derivazione vedi il post "Il calcolo degli stati di energia: dN=g(E)dE").

mercoledì 28 maggio 2014

L'Entropia secondo Boltzmann

Riprendiamo da Wikipedia alcuni concetti fondamentali che ci permetteranno di definire statisticamente il concetto termodinamico di entropia (introdotto nel post "Entropia: una grandezza anomala!"):

- Sistema termodinamico: "Un sistema termodinamico è una porzione di spazio materiale, separata dal resto dell'universo termodinamico (ovvero dall'ambiente esterno) mediante una superficie di controllo (o confine) reale o immaginaria, rigida o deformabile".

- Stato termodinamico: "Uno stato termodinamico di un sistema termodinamico è l'insieme dei valori assunti dai parametri macroscopici che lo caratterizzano, come la pressione, il volume, l'entropia, la temperatura e così via".

- Equilibrio termodinamico: "Si dice che un sistema è in equilibrio termodinamico se le sue variabili (o parametri o coordinate) termodinamiche, (ad esempio pressione, volume e temperatura nel caso di un fluido omogeneo), sono ben definite e non variano nel tempo".
Nota: per poter definire lo stato di un sistema termodinamico è quindi necessario che sia in condizioni di equilibrio.

Deve essere inoltre chiaro che per trasformazione termodinamica "si intende un processo tramite il quale un sistema termodinamico passa da uno stato di equilibrio termodinamico ad un altro" (vedi Wikipedia).
Nota: la termodinamica studia cioè le trasformazioni quasi-statiche che passano attraverso infiniti stati di equilibrio (come ad esempio quelle reversibili).

Altra osservazione fondamentale per trattare statisticamente un sistema termodinamico e che rappresenta "uno dei cardini del pensiero di Boltzmann è che le quantità misurabili nel mondo macroscopico (cioè, le quantità termodinamiche come temperatura e pressione) si possano ottenere con operazioni di media su quantità microscopiche" (vedi Wikipedia).

È proprio grazie a questa ultima ipotesi, come vedremo, che possiamo collegare le grandezze termodinamiche di un sitema classico alla dinamica microscopica delle particelle che lo compongono; ma solo se il numero N di particelle del sistema è abbastanza grande perché si possano applicare considerazioni statistiche*.
Nota: per N che tende ad infinito avremo (per mantenere la densità costante) che anche il volume V deve tendere a infinito (limite termodinamico).

Questo assunto si basa però su alcune ipotesi fondamentali, in particolare (per i dettagli vedi Wikipedia):

- Ipotesi stocastica: "Il sistema obbedisce all'ipotesi del caos molecolare. Questo implica che la distribuzione di velocità in una qualsiasi direzione sia gaussiana: cioè, le particelle non hanno una direzione preferenziale di moto. Se questo è vero nel caso di un gas perfetto, non è sempre vero per tutti i sistemi".

- Ipotesi di sitema infinito: "Nella realtà, nessun sistema è infinito, ma ha una dimensione finita: tuttavia, perché la deduzione abbia senso, occorre che lo spazio ∆x che una particella può percorrere in un tempo ∆t sia sufficientemente piccolo rispetto alla dimensione globale del sistema L".

- Ipotesi di sistema markoviano: "Un'ipotesi sottintesa nella trattazione termodinamica è che le proprietà degli urti fra le particelle non dipendano dalla storia pregressa delle particelle (cioè da come si è arrivati all'urto) ma solo dalle condizioni istantanee al momento dell'urto".

Consideriamo quindi per semplicità un gas ideale (composto da particelle identiche ma distinguibili), per il quale valgono le ipotesi enunciate sopra oltre a quelle specifiche della Teoria cinetica dei gas che abbiamo già trattato nel post "L'Equipartizione dell'Energia" (a cui rimandiamo).

Se il sistema è isolato (cioè non scambia né energia né massa con l'ambiente) saranno vere le due seguenti condizioni:
N=n1+n2+n3+...
E=n1E1+n2E2+n3E3+...
dove N è il numero totale di particelle, E l'energia del sistema e n1, n2, n3, ... sono rispettivamente il numero di particelle di energia E1, E2, E3, ....

Possiamo ragionevolmente assumere che ad una data energia E del sistema (macrostato) possano corrispondere diverse configurazioni (microstati) di particelle n1, n2, n3, ... poste nei rispettivi livelli di energia; si possono perciò avere, per uno dato stato termodinamico, diverse distribuzioni delle particelle del sistema, una delle quali sarà la più favorita statisticamente, cioè la più probabile.
Nota: in condizioni di equilibrio e in assenza di perturbazioni il sistema mantiene la sua configurazione statistica (a meno di piccole fluttuazioni).

Si pone quindi il problema di come contare tutte le possibili configurazioni e stabilire quale sia la più probabile (cioè quale dei microstati possibili del sistema si possa realizzare nel maggior numero di modi).
Nota: le seguenti assunzioni fanno riferimento alla fisica classica e non a quella quantistica delle particelle e dei loro stati.

Assumiamo quindi che tutti gli stati di energia E1, E2, E3, ... abbiano la stessa probabilità di essere occupati (cioè senza nessuna preferenza tra i livelli) e consideriamo una ben definita distribuzione descritta, come abbiamo detto, dal numero di particelle n1, n2, n3, ... poste nei rispettivi livelli di energia.

Possiamo presumere che se permutiamo tra loro le N particelle, lo stato del sistema complessivo non cambia: il numero di modi possibili per ottenere la stessa identica distribuzione è perciò pari a N! essendo N!=1x2x3x...x(N-1)xN il numero delle permutazioni possibili (vedi Wikipedia).
Nota: abbiamo implicitamente assunto che le particelle, sebbene identiche, siano tra loro distinguibili e quindi permutabili (l'indistinguibilità porta invece alle statistiche quantistiche).

Ma dobbiamo anche considerare che se permutiamo tra loro le n1 particelle del livello E1 non otteniamo una nuova configurazione (supponiamo cioè che lo stato di E1 sia indipendente da come le particelle vengono ordinate); ciò significa che dovremo dividere per n1! il risultato prima ottenuto:
N!/n1!
essendo n1!=1x2x3x...x(n1-1)xn1 il numero delle permutazioni possibili su E1.

Poiché ciò vale coerentemente per tutti i livelli di energia E1, E2, E3, ... si ottiene infine il numero complessivo di tutti i modi possibili di riempimento dei livelli con le rispettive particelle:
N!/(n1!n2!n3!...).

Tuttavia la situazione che abbiamo rappresentato non è completa poiché dobbiamo considerare che i livelli di energia hanno una diversa probabilità di essere occupati (ad esempio per la loro compatibilità con i momenti delle particelle - vedi la nota seguente) e quindi dobbiamo assegnare un valore di probabilità gi ad ogni livello di energia (dove i=1, 2, 3, ...) con la condizione che g1+g2+g3+...=1.
Nota: è noto che la relazione tra energia e momento di una particella è E=p2/2m=(px2+py2+pz2)/2m quindi ad un dato livello di energia E possono corrispondere diverse orientazioni di p.

Ciò significa che la probabilità di trovare 2 particelle nel livello E1 sarà pari a g12 (poiché le probabilità vanno moltiplicate tra loro) e quindi per tutte le n1 particelle avremo la probabilità g1n1 che occupino quello stato; in generale dovremo perciò tener conto del fattore gini nel calcolo delle probabilità.
Nota: per la definizione della funzione continua di probabilità g(E) vedi il post "Il calcolo degli stati di energia: dN=g(E)dE".

Se quindi consideriamo tutti i livelli di energia del sistema otterremo infine che la probabilità della particolare distribuzione n1, n2, n3, ... è pari a
P=N!(g1n1g2n2g3n3...)/(n1!n2!n3!...).
Nota: si può verificare che la somma delle probabilità Pi di tutte le possibili configurazioni è correttamente pari a 1 risultando: ∑Pi=(g1+g2+g3+...)N=1 (vedi Wikipedia).

È a questo punto che Boltzmann (1877) fa la seguente fondamentale ipotesi che lega l'entropia S (già definita termodinamicamente nel post "Entropia: una grandezza anomala!") alla probabilità P di una data distribuzione di particelle**:
S=kBlnP
dove kB è la costante di Boltzmann (ln indica il logaritmo naturale); kBlnP rappresenta quindi l'entropia statistica del sistema.

Si noti che questa definizione di entropia è generale e vale per qualsiasi distribuzione del sistema, anche quando ci troviamo fuori dall'equilibrio*** ed è evidente che il termine kBlnP è indipendente dal percorso seguito dal sistema ma solo dallo stato in cui esso si trova (cioè dalla sua particolare configurazione): cioè l'entropia S è, come nel caso termodinamico, una funzione di stato.
Nota: in particolare se P=1 (cioè se si ha una sola possibile distribuzione delle particelle) risulta S=0 cioè l'entropia è nulla (vedi il Terzo principio della termodinamica).

Se ora supponiamo che il sistema isolato passi, in modo regolare nel tempo, da tutte le configurazione previste per quel sistema (ipotesi ergodica), allora la distribuzione che si realizza nel maggior numero di modi (cioè quella più probabile) è quella in cui il sistema passa la maggior parte del tempo (a parte piccole fluttuazioni).

Proseguendo con queste ipotesi è anche ragionevole supporre che se ci troviamo lontano dall'equilibrio (bassa entropia) il sistema evolverà verso l'equilibrio (massima entropia) poiché tenderà naturalmente a quello stato di massima probabilità compatibile con le sue caratteristiche fisiche.

Rimandiamo infine al post "La Legge statistica di Distribuzione" per il calcolo della distribuzione delle particelle ni nei vari livelli di energia quando il sistema si trova all'equilibrio, cioè quando per ipotesi la probabilità dello stato è massima.

(*) Solitamente abbiamo a che fare con sistemi composti da un grande numero di particelle, dell'ordine del Numero di Avogadro.
(**) Supponiamo che esista una relazione tra S e P cioè S=f(P) allora se consideriamo un sistema composto da due parti (dove S1 e S2 sono le rispettive entropie mentre P1 e P2 le probabilità dei due stati) ed essendo S=S1+S2 (le entropie si sommano) e P=P1P2 (le probabilità si moltiplicano) avremo S(P1P2)=S(P1)+S(P2); ora come è noto l'unica funzione che soddisfa questa relazione è proprio quella logaritmica.
(***) Al contrario le variabili termodinamiche come temperatura, pressione o volume sono ben definite solo all'equilibrio dove non variano nel tempo.

sabato 29 marzo 2014

Le 2 leggi di Kirchhoff

Prima di enunciarle è importante osservare che le Leggi di Kirchhoff sono di tipo empirico, infatti "furono formulate da Gustav Robert Kirchhoff nel 1845 a seguito di esperimenti empirici e precedono storicamente le ben più complesse e generali equazioni di Maxwell" (vedi Wikipedia).

Come abbiamo già anticipato nel post "Condensatore e Induttore: concentratori di energia!", le leggi di Kirchoff "si applicano ai circuiti elettronici a parametri concentrati, cioè circuiti che non irradiano, dove l'energia si può considerare concentrata nei componenti del circuito".
Nota: trascuriamo quindi perdite di energia dovute ad irradiazione, consideriamo cioè sistemi lentamente variabili nel tempo*.

Ricordiamo anche che "un circuito elettrico è detto a parametri concentrati (o a costanti concentrate) se è costituito da dispositivi abbastanza piccoli rispetto alla minima lunghezza d'onda di una qualsiasi grandezza elettrica misurata su di essi" (vedi Wikipedia).
Nota: sono perciò trascurabili eventuali interferenze di campi elettromagnetici generati dal circuito stesso.

Ciò che risulta notevole è che "sotto queste ipotesi le leggi di Kirchhoff sono un'approssimazione delle leggi dell'elettromagnetismo di Maxwell, che non implicano nessuna ipotesi sulla natura dei componenti del circuito".
Nota: in generale i componenti di un circuito vengono rappresentati da elementi ideali di tipo attivo (come i generatori di forze elettromotrici) o passivo (come resistori, condensatori o induttori).

Da quanto abbiamo anticipato risulta evidente che tali leggi, che ora enunceremo, si applicano a qualsiasi circuito elettrico e cioè "all'interconnessione di elementi elettrici in un percorso chiuso in modo che la corrente possa fluire con continuità" (vedi Wikipedia).

In questo contesto generale di connessioni elettriche tra piccoli dispositivi diamo due definizioni:
-> col termine nodo si definisce un punto di connessione tra gli elementi che costituiscono un circuito elettrico;
-> mentre una maglia è un percorso chiuso formato dagli elementi elettromagnetici di un circuito (che possono essere attivi o passivi).

Enunciamo quindi le due leggi di Kirchhoff:
I) La somma delle correnti entranti in un nodo è uguale alla somma delle correnti uscenti dallo stesso nodo;
II) La somma delle forze elettromotrici (generatori di tensione) contenute in una maglia è uguale alla somma delle forze contro-elettromotrici (cioè le cadute di tensione ai capi dei componenti) contenute nella stessa maglia.
Nota: parliamo di somme algebriche, quindi le forze contro-elettromotrici avranno segno opposto a quelle elettromotrici (per le correnti alternate si sommeranno invece i fasori).

Facciamo alcune osservazioni:
->  la prima legge esprime il principio di continuità della corrente e quindi della conservazione della carica: le cariche elettriche non possono crearsi o distruggersi lungo il circuito (in assenza di dispersioni);
Nota: quindi se iIi rappresenta la somma algebrica delle correnti entranti e uscenti in un nodo deve risultare iIi=0 affinché la carica elettrica si conservi.
-> la seconda legge afferma, data la conservazione dell'energia, che le cadute di tensione ai capi degli elementi** devono controbilanciare complessivamente quelle dei generatori: il lavoro per far compiere ad una carica un percorso chiuso deve essere uguale a zero.
Nota: il lavoro compiuto su una carica elettrica è per definizione L=qV quindi se iVi (somma algebrica delle tensioni) viene calcolata lungo una maglia chiusa deve risultare iVi=0 in modo che iLi=q∑iVi=0 (per ipotesi il campo è conservativo).

Inoltre si è implicitamente assunto che l'energia erogata dai generatori venga dissipata dai componenti (come i resistori) per effetto Joule oppure venga immagazzinata dagli stessi (come condensatori e induttori) sotto forma di energia elettrica o magnetica; trascuriamo perciò come già anticipato l'irraggiamento dei campi e.m. variabili.
Nota: per il funzionamento elettrico e magnetico di condensatori e induttori vedi il post "Condensatore e Induttore: concentratori di energia!".

Ma qual è l'utilità delle due leggi di Kirchhoff?
Ebbene tali leggi ci permettono, dato un qualsiasi circuito elettrico, di derivare un sistema di equazioni relative alle correnti e alle tensioni incognite in modo da poter determinare i loro valori: l'analisi di un circuito elettrico consiste proprio nel calcolo delle correnti che attraversano ogni singolo componente e delle relative tensioni misurate ai loro capi.

(*) Come abbiamo visto nel post "Un effetto Foto-elettrico!" l'energia dei fotoni che compongono una radiazione elettromagnetica è inversamente proporzionale al periodo T dell'onda (essendo E=h/T); perciò sistemi elettromagnetici lentamente variabili nel tempo sono a bassa emissione di energia.
(**) Secondo la Legge di Ohm la tensione V(t) ai capi di un resistore R è V(t)=RI(t) mentre le relazioni tra corrente I(t) e tensione V(t) ai capi di un condensatore C e un induttore L sono rispettivamente: I(t)=CdV(t)/dt e V(t)=LdI(t)/dt (vedi il post "Condensatore e Induttore: concentratori di energia!").

venerdì 28 febbraio 2014

Un problema di massa variabile

Nel post "L'equazione del Razzo!" (a cui rimandiamo) abbiamo derivato l'equazione dinamica che lega la variazione della quantità di moto totale dP/dt del centro di massa del sistema (razzo+combustibile), alla variazione della velocità del razzo dv/dt e a quella della sua massa dm/dt (dovuta all'espulsione del carburante):
dP/dt=mdv/dt-vedm/dt
dove ve è la velocità (supposta costante) di espulsione del carburante rispetto al razzo che a sua volta si muove di velocità v rispetto a un riferimento inerziale*.
Nota: si ricordi che la massa m del razzo comprende anche quella del suo combustibile interno (che poi viene espulso sotto forma di gas).

In questa rappresentazione la parte del sistema di cui studiamo il moto, è proprio quello a massa variabile del razzo, che perde massa espellendo il carburante; in particolare nel caso non agiscano forze esterne sul sistema (come ad esempio la forza di gravità) si ottiene Fext=dP/dt=0 (cioè la quantità di moto totale si conserva) e l'equazione precedente diventa:
mdv/dt=vedm/dt
da cui risulta evidente che l'accelerazione del razzo è dovuta alla variazione di massa dello stesso e alla velocità di espulsione del carburante.
Nota: nella trattazione classica (non relativistica) la massa totale del sistema massa+carburante si conserva.

Proseguendo con le nostre ipotesi, consideriamo ora un semplice sistema che varia la sua massa interna: ad esempio della sabbia che si accumula, attraverso un imbuto, su un nastro trasportatore (infinito) che si muove a velocità costante.
Nota: supponiamo che il motore del nastro mantenga costante il moto della sabbia man mano che questa viene depositata.

Consideriamo quindi la quantità di moto di tutti i granelli di sabbia di massa m1, m2 ... mN quando vengono depositati sul nastro; valutiamo per esempio la situazione ad un determinato istante di tempo, quando sul nastro si trovano N particelle di sabbia che si muovono tutte alla velocità v=costante del nastro (posto m=m1+m2+...+mN):
P=m1v+m2v+...+mNv=mv.
È chiaro che la quantità di moto varia nel tempo (poiché mentre si accumulano i granelli varia m) perciò passando con buona approssimazione al continuo possiamo scrivere (derivando P rispetto al tempo e ricordando che v=costante):
dP/dt=mdv/dt+vdm/dt=vdm/dt.
Nota: si suppone che la funzione m(t) che rappresenta l'accumulo della massa sul nastro sia una funzione continua rispetto al tempo e derivabile.

La variazione della quantità di moto dP/dt, dovuta all'accumulo della sabbia, implica che sul nastro trasportatore agisca una forza motrice esterna Fext=vdm/dt che mantiene costante la sua velocità (altrimenti con l'inerzia della sabbia il nastro tenderebbe a fermarsi).
Nota: non abbiamo incluso la massa costante M del nastro nella trattazione dato che, risultando (m+M)dv/dt=0 e vd(m+M)/dt=vdm/dt, sarebbe ininfluente.

Ora si ricordi che in generale (vedi il post "L'equazione del Razzo!") per un sistema di N particelle possiamo definire la quantità di moto totale:
P=m1v1+m2v2+...+mNvN=mvcm
dove m=m1+m2+...+mN è la massa totale mentre
vcm=drcm/dt
è la velocità del centro di massa del sistema definito come
rcm=(m1r1+m2r2+...+mNrN)/m.
Quindi per un sistema a massa variabile m(t) avremo in definitiva:
dP/dt=mdvcm/dt+vcmdm/dt
che rappresenta la seconda legge di Newton per un corpo (o un sistema di particelle) a massa variabile (detta anche prima equazione cardinale).

Perciò nel caso in cui risulti vcm=v=costante si ottiene di nuovo l'equazione prima ottenuta per la sabbia che si accumula sul nastro trasportatore (che è appunto un sistema a massa variabile):
dP/dt=vdm/dt.
Nota: poiché tutti i granelli si muovono a velocità v è ovvio che risulti vcm=v (infatti essendo P=m1v+m2v+...+mNv=mvcm segue v=vcm).

Ma torniamo al nostro nastro trasportatore: la forza esterna applicata al nastro per trasportare la sabbia (a velocità costante) sarà data come abbiamo visto dalla variazione della sua quantità di moto:
Fext=dP/dt=vdm/dt.
Da questa relazione possiamo ottenere la potenza fornita dalla forza esterna al nastro, che è così definita:
Pext=dL/dt=Fextds/dt=Fextv
essendo dL=Fextds il lavoro infinitesimo fatto dalla forza per un tratto ds e v=ds/dt. Quindi poichè Fext e v hanno stessa direzione e verso risulta per sostituzione (essendo Fext=vdm/dt):
Pext=dL/dt=v2dm/dt.

Si osservi però che il lavoro infinitesimo dL=v2dm fatto dalla forza esterna nel far girare il nastro, non si trasforma completamente nell'energia cinetica di un elemento di massa dm pari a dEc=(1/2)dmv2 ma esattamente la metà finisce in energia interna ∆Eint del sistema; infatti per la conservazione dell'energia risulta:
∆Eint=dL-dEc=(1/2)dL
che viene presumibilmente spesa dalle forze di attrito del nastro per mettere in moto i granelli di sabbia.**
Nota: solo quando m=costante tutto il lavoro L compiuto su un sistema meccanico si traduce in una variazione della sua energia cinetica risultando L=∆Ec (vedi il post "Il Teorema della 'Vis Viva'").

(*) Ricordiamo che vale la seguente relazione: ve=vc-v dove vc è la velocità del combustibile espulso dal razzo rispetto al sistema inerziale prescelto.
(**) Si osservi che "la spiegazione quantistica dell'attrito ne lega le cause all'interazione elettrostatica attrattiva tra le molecole delle superfici di contatto" (vedi Wikipedia); perciò il sistema considerato (sabbia+nastro) non è esclusivamente di tipo meccanico.