Notas de Aula — FIS0999 - Termodinˆamica e F´ ısica Estat´ ıstica Ezequiel C. Siqueira 2013 Notas de Aula — FIS0999 Termodinˆamicae F´ ısica Estat´ ıstica Ezequiel C. Siqueira Departamento de F´ ısica e Qu´ ımica Faculdade de Engenharia de Ilha Solteira UNIVERSIDADE ESTADUAL PAULISTA
165
Embed
Notas de Aula | FIS0999 Termodin^amica e F sica Estat stica€¦ · Na introdução, discutimos aspectos gerais da física estatística e sua aplicabilidade a sistemas de muitas partículas.
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Notas
deAula
—FIS0999
-Term
odinam
icaeFısica
Estatıstica
Ezeq
uiel
C.Siqueira
2013
Notas de Aula — FIS0999Termodinamica e FısicaEstatıstica
Ezequiel C. Siqueira
Departamento de Fısica e QuımicaFaculdade de Engenharia de Ilha Solteira
UNIV
ERSID
ADEESTADUALPAULISTA
Sumário
1 Introdução aos Métodos Estatísticos 5
1.1 O problema da caminhada aleatória e a distribuição binomial . . . . . . . . . . . . . . . . . . . . 7
1.1.1 O problema da caminhada aleatória unidimensional . . . . . . . . . . . . . . . . . . . . . 9
e, em princípio, precisaríamos determinar o valor da derivada de um fatorial. No entanto, podemos simplificar
a expressão acima no limite de n1 grande que estamos considerando. Com efeito, se n1 ≫ 1, então podemos
considerar lnn1! aproximadamente contínuo desde que a mudança de n1 por uma unidade causa uma mudança
muito pequena no logaritmo. Assim, podemos aproximar a derivada de lnn1 usando a definição de derivada, i.e.,
d lnn1!dn1
≈ ln(n1 +1)!− lnn1!1
= ln (n1 +1)!n1!
= ln(n1 +1)
e como n1 ≫ 1, então ln(n1 +1) ≈ lnn1 e obtemos a nossa derivada aproximada na forma:
d lnn1!dn1
≈ lnn1. (1.27)
1.3. DISTRIBUIÇÃO DE PROBABILIDADES PARA N GRANDE 23
Tomando a derivada de lnW usando a Eq. (1.27) e levando em conta que N é constante, temos:
d lnW (n1)dn1
= −d lnn1!dn1
− d ln(N −n1)!dn1
+ d[n1 lnp]dn1
+ d[(N −n1) lnq]dn1
d lnW (n1)dn1
= − lnn1 +ln(N −n1)+ lnp− lnq = ln[(N −n1)p
n1q
]e calculando esta derivada no seu valor máximo, i.e., fazendo n1 = n1, devemos ter a derivada acima igual a zero,
então temos:
d lnW (n1)dn1
∣∣∣∣n1=n1
= ln[(N − n1)p
n1q
]= 0
de onde obtemos:
(N − n1)pn1q
= 1 ∴ Np− n1p= n1q
e como p+ q = 1, obtemos ainda
n1 =Np.
Agora, precisamos determinar a segunda derivada de lnW , para isso basta diferenciar a primeira derivada mais
uma vez:
d2 lnW (n1)dn2
1= d
dn1ln[(N −n1)p
n1q
]= n1q
(N −n1)pd
dn1
[(N −n1)pn1q
]
d2 lnW (n1)dn2
1= n1q
(N −n1)p
[−pn1q− q(N −n1)pn2
1q2
]= − n1q
(N −n1)p
[pqN
n21q
2
]
d2 lnW (n1)dn2
1= − N
n1(N −n1)
e fazendo-se n1 = n1, vamos obter:
d2 lnW (n1)dn2
1
∣∣∣∣∣n1=n1
= − N
Np(N −Np)= − 1
Npq
logo,
B2 = − 1Npq
24 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
e vemos que apresenta um valor negativo como era esperado poisW deve apresentar um valor máximo em n1 = n1.
Resta ainda determinar o valor W que pode ser calculado requerendo que a soma sobre todos os valores de
W deve igual à unidade. Lembremos que a função distribuição nos fornece a probabilidade de que a partícula
tenha dado n1 passos. Assim, quando somamos sobre todos os valores de n1 estamos na verdade considerando a
probabilidade da partícula dar qualquer passo, o que deve ser igual a 1.
Como estamos considerando uma aproximação em que n1 se assemelha à uma variável contínua, então deve-
mos trocar a soma por uma integração. Assim, o que estamos dizendo efetivamente se reduz a
N∑n1=0
W (n1) ≈∫W (n1) dn1 =
∫ +∞
−∞W (η) dη = 1.
Aqui são importantes duas observações: (a) η = n1 − n1 e, portanto, pode assumir tanto valores positivos
quanto negativos; (b) estendemos os limites da integração em η para ±∞ o que equivale a dizer que N → ∞,
ou seja, estamos considerando uma aproximação dentro da qual o número de passos é tão grande que pode ser
considerado infinito. Desde que a distribuição se torna cada mais estreita e localizada em torno de seu valor
máximo n1, então W é essencialmente zero para valores de n1 com três ou quatro vezes o valor da dispersão.
Assim, os limites podem ser estendidos com um erro negligenciável.
Para obter o valor do coeficiente W basta substituir a distribuição dada pela Eq. (1.26) na integral acima, i.e.,∫ +∞
−∞W (η) dη = 1
W
∫ +∞
−∞e− 1
2 |B2|η2dη = 1
onde mantivemos W fora do sinal de integração porque este é constante. A integral tem solução conhecida:∫ +∞
−∞e− 1
2 |B2|η2dη =
√2π
|B2|
assim,
W
√2π
|B2|= 1 ∴ W =
√|B2|2π
.
Substituindo-se este resultado na Eq. (1.26) obtemos a seguinte distribuição normalizada:
W (n1) =
√|B2|2π
e− 12 |B2|(n1−n1)2
. (1.28)
A distribuição acima é chamada de distribuição Gaussiana. Para chegar nesta distribuição apenas tomamos o
limite contínuo da distribuição binomial. Da mesma forma que a distribuição binomial, a distribuição Gaussiana é
1.4. DISTRIBUIÇÕES DE PROBABILIDADE GAUSSIANAS 25
bastante geral e aparece em vários ramos da Física e outras áreas. Com efeito, esta distribuição aparece sempre que
trabalhamos com estatísticas de grandes números. Como já determinamos o valores deB2 e n1, vamos substituí-los
na Eq. (1.28):
W (n1) = 1[2πNpq]1/2 exp
[−(n1 −Np)2
2Npq
]. (1.29)
Se voltarmos aos resultados da distribuição binomial para a dispersão e o valor médio da distribuição binomial:
W (n1) = 1[2π(∆n1)2]1/2
exp[−(n1 − n1)2
2(∆n1)2
]. (1.30)
1.4 Distribuições de probabilidade Gaussianas
Podemos escrever a Eq. (1.29) em termos do deslocamento líquido m de modo que a distribuição de probabili-
dade forneça a probabilidade de um determinado deslocamento para um grande número N de passos. Para isso,
relembramos que n1 = (N +m)/2. Assim, temos que:
P (m) =W
(N +m
2
)= 1
[2πNpq]1/2 exp[−((N +m)/2−Np)2
2Npq
].
Para simplificar o numerador do argumento da exponencial, escrevemos:
N +m
2−Np= 1
2(N +m−2Np) = 1
2[N +m−N(p+1− q)]
= 12
[N +m−Np−N +Nq)] = 12
[m−N(p− q)]
e substituindo na distribuição, segue que:
P (m) = 1[2πNpq]1/2 exp
[− [m−N(p− q)]2
8Npq
].
Aqui será conveniente trabalhar com o deslocamento real x da partícula o qual está relacionado com o deslo-
camento líquido pela Eq. (1.1)
x=ml
lembrando que l é o comprimento de cada passo. Note que como os valores de m estão separados por ∆m= 2, x
varia em incrementos de 2l. Agora, se l é muito pequeno comparado ao menor comprimento físico de interesse,
os incrementos de 2l são muito pequenos e x também pode ser tomado como uma variável contínua no limite
de N grande. Além disso, neste mesmo limite P (m) não pode variar muito de um dado valor m para o seu
valor adjacente, ou seja, |P (m+ 2) −P (m)| ≪ P (m). Com isso, a distribuição de probabilidade P (m) pode ser
26 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
considerada como uma função contínua de x da mesma forma que fizemos com W (n1). Na Fig. 1.3 é mostrado
um esboço de um histograma para um valor grande de N . Este gráfico é similar ao que foi calculado na Fig. 1.2
para N = 20. A densidade de barras é muito alta e a curva que toca os pontos de cada barra pode ser considerada
uma função contínua.
Figura 1.3: A probabilidade P (m) do deslocamento líquido m quando o número de passos N é muito grande e o compri-
mento l de cada passo é muito pequeno.
Nestas circunstâncias consideramos x como uma variável contínua em uma escala macroscópica e queremos
determinar a probabilidade de encontrar a partícula após N passos no intervalo definido entre x e x+ dx. É
importante observar que dx é uma diferencial no sentido macroscópico, i.e., se L é a menor distância de relevância
macroscópica, então dx ≪ L. No entanto, temos ainda que o intervalo dx compreende muitos passos l, ou seja,
dx≫ l. Em resumo, dx é microscopicamente grande mas macroscopicamente pequeno.
Para obter a probabilidade para que a partícula esteja no intervalo entre x e x+dx, precisamos somar todas as
probabilidades P (m) que estão contidas no intervalo dx. Este valor é simplesmente igual a dx/2l que é o número
de pontos contidos no intervalo dx. Vemos então que a probabilidade é proporcional a dx e é usualmente escrita
na seguinte forma:
P(x) dx= P (m) dx2l
onde a quantidade P(x), que independe do tamanho do intervalo dx, é a chamada densidade de probabilidade.
Note que para calcular a probabilidade sempre devemos multiplicar P(x) pelo elemento de comprimento dx.
1.4. DISTRIBUIÇÕES DE PROBABILIDADE GAUSSIANAS 27
Substituindo P (m), vamos obter:
P(x) dx= 1[2πNpq]1/2 exp
[− [m−N(p− q)]2
8Npq
]dx
2l
e como x=ml, segue que:
P(x) dx= 1[2π4Npql2]1/2 exp
[− [x−N(p− q)l]2
8Npql2
]dx.
Aqui, definimos as seguintes quantidades:
σ = 2l√Npq (1.31)
µ= (p− q)Nl (1.32)
e substituindo-se estas definições na distribuição Gaussiana, obtemos ainda
P(x) dx= 1√2πσ
exp[− [x−µ]2
2σ2
]dx. (1.33)
A distribuição Gaussiana é completamente geral no sentido de que quaisquer considerações probabilísticas
sobre um número muito grande de experimentos preparados de maneira similar pode levar à expressão dada pela
Eq. (1.33). Da mesma forma que fizemos para a distribuição binomial, é possível determinar os momentos da
distribuição através da Eq. (1.33) da mesma forma que fizemos com a distribuição binomial. Neste caso, porém,
teremos que lidar com integrações em vez de somas sobre números discretos. Além disso, a aproximação que
permite fazer os limites de integração tenderem ao infinito pode ser realizada desde que P(x) ser torna muito
pequeno a medida que |x| se torna muito grande. A seguir, ilustramos em detalhes os cálculos dos momentos da
distribuição Gaussiana da mesma forma que foi realizado para o caso da distribuição binomial. Primeiramente,
consideramos a verificação da normalização da distribuição Gaussiana:∫ +∞
−∞P(x) dx= 1√
2πσ
∫ +∞
−∞exp
[− [x−µ]2
2σ2
]dx
e fazendo a troca de variável y = (x−µ)/√
2σ, podemos escrever ainda∫ +∞
−∞P(x) dx= 1√
π
∫ +∞
−∞e−y2
dy
e usando o resultado3
∫ +∞
−∞e−x2
dx=√π (1.34)
3O resultado que usamos [Eq. (1.34)] na verificação da condição de normalização é bastante conhecida. O cálculo desta integração é
realizado no apêndice A.2., pg. 606 do livro-texto do Reif. Recomendo fortemente o estudo do cálculo desta integral.
28 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
podemos escrever: ∫ +∞
−∞P(x) dx= 1√
2πσ
∫ +∞
−∞exp
[− y2
2σ2
]dy
vemos que
∫ +∞
−∞P(x) dx= 1√
π
√π = 1,
e a distribuição está normalizada.
O próximo passo é a determinação do valor médio do deslocamento, i.e., calcular x. Para isso, usamos a
definição da média:
x=∫ +∞
−∞xP(x) dx
e substituindo a distribuição, segue que:
x= 1√2πσ
∫ +∞
−∞xexp
[− [x−µ]2
2σ2
]dx
e fazendo-se a troca de variável y = x−µ, obtemos:
x= 1√2πσ
∫ +∞
−∞ye−y2/2σ2
dy+ µ√2πσ
∫ +∞
−∞e−y2/2σ2
dy
e vemos que a primeira integral é zero pois é uma integral de uma função ímpar4 em um intervalo simétrico
enquanto que a segunda integral é simplesmente a integral da distribuição multiplicada pela constante µ. Assim,
4Lembre-se que uma função ímpar é qualquer função que tenha a propriedade:
f(−x) = −f(x) (1.35)
e a integral de uma função ímpar em um intevalo simétrico do tipo [−a,a] é nula. Podemos mostrar isso facilmente. Considere a integral
abaixo: ∫ +a
−a
f(x) dx =∫ 0
−a
f(x) dx +∫ +a
0f(x) dx
e fazendo a troca de variável x = −x′ na primeira integração segue que:∫ +a
−a
f(x) dx = −∫ 0
a
f(−x′) dx′ +∫ +a
0f(x) dx
e invertendo os limites da primeira integral, cancelamos o sinal negativo, assim:∫ +a
−a
f(x) dx =∫ a
0f(−x) dx +
∫ +a
0f(x) dx =
∫ +a
0[f(−x) + f(x)] dx = 0
onde voltamos a chamar x′ de x pois isto não altera o valor da integração. Além disso, agrupamos as duas integrais em apenas uma de 0
até +a. Usando a definição de função ímpar [Eq. (1.35)], mostramos então que a última integral é nula.
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 29
como já provamos que a distribuição é normalizada, então a integral é igual a 1. Logo, escrevemos:
x= 0+µ×1 ∴ x= µ. (1.36)
Se você fizer um gráfico de P irá notar que a distribuição é simétrica em torno do ponto µ. Assim, o resultado
da média do valor de x ser igual a µ já era um resultado esperado.
A próxima quantidade é a dispersão. Já usando o valor da média como sendo igual a µ, podemos escrever:
(x−µ)2 = 1√2πσ
∫ +∞
−∞(x−µ)2 exp
[− [x−µ]2
2σ2
]dx
e trocando y = x−µ, podemos escrever ainda5
(x−µ)2 = 1√2πσ
∫ +∞
−∞y2e−y2/2σ2
dy = 1√2πσ
[√π
2(2σ2)3/2
]
logo,
(x−µ)2 = σ2 (1.37)
Como já conhecemos os valores de µ e σ [Eqs. (1.31) e (1.32)], podemos escrever a média e a dispersão na
forma:
x= 2l√Npq, (1.38)
(∆x)2 = (p− q)Nl. (1.39)
1.5 Discussão Geral do problema da caminhada aleatória
Até o momento consideramos o problema da caminhada aleatória como sendo realizado através de uma séries de
N passos de tamanhos fixos e iguais a l no caso unidimensional. Após isso, consideramos o limite de um número
muito grande de passos e obtivemos a distribuição Gaussiana. No entanto, a generalização dos resultados obtidos
para outras dimensões e ainda para o caso em que os passos têm tamanhos diferentes é bastante complicada. Por
esta razão, aqui nos voltamos para um formalismo mais geral apropriado para a aplicação nos sistemas futuros que
iremos estudar. Começamos considerando distribuições que são funções de mais de uma variável e então iremos
aplicar a generalização para o caso de um ensemble.
5Veja apêndice A.4. do livro do Reif para ver a solução da integral∫ +∞
−∞y2e−y2/2σ2
dy.
30 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
1.5.1 Distribuições de probabilidades envolvendo várias variáveis
A descrição estatística de uma situação envolvendo mais de uma variável requer a generalização dos argumentos
probabilísticos que desenvolvemos para o caso de uma variável. Por simplicidade, vamos considerar o caso de
duas variáveis u e v que podem assumir os seguintes valores:
ui, onde i= 1,2,3 · · · ,M
vj , onde j = 1,2,3 · · · ,N.
Seja P (ui,vj) a probabilidade de que a variável u assuma o valor ui e a variável v assuma o valor vj . A
probabilidade que u e v assumam qualquer valor dentre todos valores possíveis deve ser igual à unidade, i.e.,
fazendo-se a soma sobre i e j devemos obter o requerimento de normalização:
M∑i=1
N∑j=1
P (ui,vj) = 1. (1.40)
A probabilidade de u assumir o valor u1, independente do valor assumido por v, é a soma de todas as probabi-
lidades de todas as situações possíveis consistentes com todos os valores de u, i.e.,
Pu(ui) =N∑
j=1P (ui,vj) (1.41)
onde a soma é realizada sobre todos os valores de vj . Similarmente, a probabilidade da variável v assumir o valor
vj independentemente do valor assumido por u é obtida somando-se sobre todos os valores de u:
Pv(vj) =M∑
i=1P (ui,vj). (1.42)
Convém notar que :
M∑i=1
Pu(ui) =N∑
j=1Pv(vj) =
M∑i=1
N∑j=1
P (ui,vj) = 1,
que é a condição de normalização.
De todas as possibilidades relacionadas com as relações entre as variáveis u e v, consideraremos uma situação
particular em que os valores assumidos por uma variável não dependem dos valores da outra variável. Neste caso,
dizemos que as variáveis são estatisticamente independentes ou não-correlacionadas. Com isso, a distribuição
de probabilidades pode ser expressa de maneira muito simples em termos da probabilidade que u assuma um valor
ui para qualquer valor de v, que definimos como Pu(ui), e em termos da probabilidade de v assumir o valor vj
para qualquer valor de Pv(vj). Neste caso, podemos escrever:
P (ui,vj) = Pu(ui)Pv(vj) (1.43)
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 31
se u e v são estatisticamente independentes.
Da mesma forma que foi feito para o caso de uma variável, podemos calcular os valores médios a partir da
distribuição P (ui,vj). Para isso, consideremos uma função F (u,v) qualquer. O valor médio de F é definido
como:
F (u,v) =M∑
i=1
N∑j=1
P (ui,vj)F (ui,vj). (1.44)
Note que se f(u) é uma função apenas de u, segue pela Eq. (1.41) que
f(u) =M∑
i=1
N∑j=1
P (ui,vj)f(ui) =M∑
i=1
N∑j=1
P (ui,vj)
f(ui)
f(u) =M∑
i=1Pu(ui)f(ui).
No caso de duas funções de u e v denotadas por F e G, então temos os seguintes resultados gerais:
F +G=M∑
i=1
N∑j=1
P (ui,vj)(F (ui,vj)+G(ui,vj))
=M∑
i=1
N∑j=1
P (ui,vj)F (ui,vj)+M∑
i=1
N∑j=1
P (ui,vj)G(ui,vj)
= F + G
e observamos que a média da soma é igual a soma das médias.
Agora, considere duas funções f(u) e g(v). Se consideramos que as probabilidades de u e v são estatistica-
mente independentes, então podemos escrever:
f(u)g(v) =M∑
i=1
N∑j=1
P (ui,vj)f(ui)g(vj)
e como estamos considerando que não há correlação então vale a Eq. (1.43), i.e,
f(u)g(v) =M∑
i=1
N∑j=1
Pu(ui)Pv(vj)f(ui)g(vj) =[
M∑i=1
Pu(ui)f(ui)] N∑
j=1Pv(vj)g(vj)
ou seja,
f(u)g(v) = f(u) g(v) (1.45)
i.e., a média de um produto é igual ao produto das médias se u e v são estatisticamente independentes. A Eq.
(1.45) não é válida no caso em que a independência estatística não é verificada.
É claro que é possível generalizar os resultados obtidos acima para o caso de um número arbitrário de variáveis.
32 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
1.5.2 Comentários sobre distribuições de probabilidade contínuas
Consideremos primeiramente o caso em que temos apenas uma variável u que pode assumir qualquer valor no
intervalo a1 < u < a2. Conforme discutimos anteriormente, se propomos uma descrição probabilística para a
variável u, podemos focar em um intervalo infinitesimal entre u e u+du e perguntar pela probabilidade da variável
u assumir um valor dentro deste intervalo. Considerando um intervalo suficientemente pequeno, podemos escrever
esta probabilidade na forma P(u) du onde P(u) é a densidade de probabilidade, independente do tamanho do
intervalo considerado. No entanto, é possível reduzir o problema variáveis contínuas para um problema equivalente
de variáveis discretas.
Para isso, começamos dividindo o intervalo entre a1 e a2 em intervalos de tamanhos iguais a δu. Cada in-
tervalo pode ser rotulado por um índice i. O valor de u em cada intervalo é ui e P (ui) é a probabilidade de
encontrar a variável dentro deste intervalo δu. Esta subdivisão do intervalo nos permite trabalhar com um número
contável de valores da variável u. Isto permite utilizar todas as expressões desenvolvidas para o caso discreto que
demonstramos previamente.
O estabelecimento da conexão entre variáveis contínuas e discretas pode ser realizado considerando que o
intervalo du contém um grande número de intervalos δu. Assim, a probabilidade de encontrar u dentro do intervalo
δu é dada por
P (u) = P(u) δu (1.46)
Considerando que du ≫ δu, então podemos dizer que há du/δu valores possíveis de ui no intervalo du.
Considerando que a probabilidade dentro de cada intervalo δu é aproximadamente a mesma, i.e., P (ui) = P (u),
então a probabilidade de encontrar u no intervalo du, será:
P(u) du= P (u) duδu
(1.47)
onde trocamos a densidade de probabilidade pelo seu valor dado pela Eq. (1.46). A Eq. (1.47) oferece a conexão
entre a variável discreta e a contínua. De fato, P (u) é definida apenas em valores discretos determinados pela
quantidade de subdivisões δu contidas no intervalo total a1 < u < a2.
Notamos que os valores médios e outras quantidades, que são definidas em termos de somatórios no caso
de variáveis discretas, serão determinadas através de integrações quando a variável é contínua. A condição de
normalização, por exemplo, é definida por:
∑i
P (ui) = 1. (1.48)
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 33
Mas no caso da variável contínua, é possível primeiramente somar as probabilidades discretas definidas no
intervalo du, o que nos permite obter P(u)du e, em seguida, efetuar a integração sobre u sobre todo o intervalo6.
Desta forma a Eq. (1.48) se torna:
∫ a2
a1P(u) du= 1, (1.49)
que é a expressão da condição de normalização em termos da densidade de probabilidade. Similarmente, podemos
escrever os valores médios previamente definidos em termos de P(u). Com efeito, o valor médio de uma função
qualquer f(u) pode ser escrito na forma:
f(u) =∫ a2
a1P(u)f(u) du.
Vamos considerar agora o caso mais geral em que temos duas variáveis u e v, tal que a1 <u<a2 e b1 <v < b2.
Neste caso, podemos falar da probabilidade de P(u,v) du dv que as variáveis estejam no intervalo u e u+du e
v e v+ dv, respectivamente, onde P(u,v) é densidade de probabilidade independente do tamanho do elemento
du dv. Note que neste caso, os intervalos du e dv correspondem a uma área do espaço definido pelas variáveis u
e v. Este espaço é ilustrado na Fig. 1.4 onde observamos que os intervalos du e dv são subdivididos em intervalos
δu e δv ainda menores rotulados por índices i e j. Como resultado, podemos falar na probabilidade P (ui,vj) de
6Note que a soma dada pela Eq. (1.48) ocorre sobre todo o intervalo a1 < u < a2. No entanto, podemos escrever a soma acima na
forma:
∆u1/δu∑j=1
P (uj) +∆u2/δu∑
j=1
P (uj) + · · · +∆uN /δu∑
j=1
P (uj) = 1.
onde subdividimos o intervalo em N intervalos de largura ∆u e os rotulamos por ∆uj , com j = 1,2, · · · ,N . Se P (uj) é igual para todos
os subintervalos δuj , então podemos escrever as somas acima na forma:
P (u1)∆u1/δu∑
j=1
+ P (u2)∆u2/δu∑
j=1
+ · · · + P (uN )∆uN /δu∑
j=1
= 1.
ou ainda,
N∑k=1
P (uk)∆uk
δu= 1 ∴
N∑k=1
P(uk)∆uk = 1.
onde usamos a Eq. (1.48). Agora note que ∆ui = (a2 − a1)/N . Assim, quando N → ∞ ∆ui → du e a soma sobre os valores inteiros se
transforma em uma integral de a1 até a2. Assim, temos:
N∑k=1
P(uk)∆uk = 1 N→∞−−−−→∫ a2
a1
P(u) du = 1.
que o resultado final para o limite contínuo.
34 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
encontrar simultâneamente u= ui e v = vj . De maneira análoga, escrevemos esta probabilidade na forma:
P(u,v) du dv = P (u,v)duδu
dv
δv
onde o fator multiplicando P (u,v) é simplesmente o número de células infinitesimais de tamanho δuδv contidas
no intervalo delimitado por u e u+du e v e v+dv. A condição de normalização dada pela Eq. (1.40) é escrita na
Figura 1.4: Generalização do caso unidimensional. Aqui o espaço definido pelas variáveis u e v é particionado em unidades
de δu e δv.
forma: ∫ a2
a1
∫ b2
b1P(u,v) du dv = 1. (1.50)
O valor médio de uma função F (u,v) também pode ser definido usando a densidade de probabilidade de modo
que a Eq. (1.44) se torna:
F (u,v) =∫ a2
a1
∫ b2
b1F (u,v)P(u,v) du dv. (1.51)
Logicamente que todas as propriedades relacionadas com o cálculo de valores médios permanecem válidas
uma vez que as duas formulações são equivalentes.
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 35
Funções de Variáveis Aleatórias
Aqui consideramos um caso geral que será recorrente na análise de problemas físicos do ponto de vista estatístico.
Seja uma única variável u e suponha que φ(u) seja alguma função contínua de u. Se P(u) du é a probabilidade de
encontrar u no intervalo delimitado por u e u+du, qual é densidade de probabilidade W (φ) dφ correspondente
de encontrar φ no intervalo entre φ e φ+ dφ? Isto é feito somando-se todas as probabilidades para as quais u
assume valores em que φ fique dentro intervalo dφ; em símbolos:
W (φ) dφ=∫
dφP(u) du
onde a integral é realizada no intervalo de u e u+du. Assim, podemos escrever a integral acima na forma:
W (φ) dφ=∫ φ+dφ
φP(u)
∣∣∣∣dudφ∣∣∣∣ dφ (1.52)
onde o módulo é usado afim de garantir que o lado esquerdo da equação tenha apenas valores positivos. Agora,
desde que dφ é pequeno, a integral acima se reduz a
W (φ) dφ= P(u)∣∣∣∣dudφ
∣∣∣∣(φ+dφ−φ)
W (φ) dφ= P(u)∣∣∣∣dudφ
∣∣∣∣ dφ. (1.53)
Os passos tomados da Eq. (1.52) até a Eq. (1.53) consideram que φ é uma função unívoca de u, i.e., temos
um único valor de u para cada valor de φ. Nem sempre isto é válido, conforme ilustrado na Fig. 1.5 onde temos
dois valores diferentes de u para o mesmo valor de φ. Nestes casos temos que considerar todas as contribuições
no cálculo da probabilidade W (φ) dφ que entram no intervalo de interesse.
Quando temos uma função de várias variáveis, os argumentos usados aqui podem ser generalizados para estes
casos conforme estudaremos futuramente.
Exemplo
1. (Reif., pg. 31) Suponha que um vetor B bi-dimensional de comprimento constante B = |B| é equiprovável de
ser encontrado em qualquer direção especificada pelo ângulo θ entre o vetor e o eixo vertical y. A probabilidade
P(θ) dθ que este ângulo fique entre θ e θ+dθ é então dada pela razão entre o intervalo angular dθ pelo intervalo
total 2π subtendido pelo círculo, assim:
P(θ) dθ = dθ
2π.
36 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
Figura 1.5: Exemplo de uma função biunívoca. Neste caso temos dois intervalos de u em que se tem o mesmo valor da função
φ(u). Neste caso é necessário atenção no cálculo da distribuição de probabilidades aplicando a Eq. (1.53) em intervalos
separados onde a função apresenta caráter unívoco.
Se o vetor faz um ângulo θ com o eixo x, a componente x do campo magnético Bx pode ser escrita como:
Bx =B cosθ.
Qual é a probabilidade W (Bx) dBx de encontrar a componente Bx do vetor no intervalo entre Bx e Bx +
dBx?
Solução
Para resolver este problema, primeiro deve-se notar se a função Bx(θ) unívoca. Desde que para 0< θ < 2π e
−B <Bx <+B vemos que não é caso pois existem dois valores de θ que permitem o mesmo valor da componente
Bx. Assim, uma alternativa seria subdividir o intervalo de 0 a π e o outro de π a 2π. Desde que as probabilidades
se somam e sempre são positivas, os dois trechos de θ fornecem o mesmo valor. Assim, basta fazer o cálculo para
um dos trechos e multiplicar o resultado por 2. Nos trechos especificados, a função é unívoca e podemos aplicar a
Eq. (1.53), assim, escrevemos:
W (Bx) dBx = 2 ×P(θ)∣∣∣∣ dθdBx
∣∣∣∣dBx
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 37
onde o fator 2 vem do fato da função não ser unívoca de 0 a 2π. Precisamos determinar a derivada de θ(Bx). Para
isso, temos duas alternativas. Primeiramente, invertemos Bx(θ). Assim, temos:
θ(Bx) = arccos[Bx
B
]
e tomando a derivada, obtemos ainda:
dθ(Bx)dBx
= d
dBxarccos
[Bx
B
]= 1B
d
d(Bx/B)arccos
[Bx
B
]= − 1
B
1√1− B2
x
B2
= − 1√B2 −B2
x
e substituindo-se na distribuição de probabilidades, segue que:
W (Bx) dBx = 2 12π
1√B2 −B2
x
dBx = dBx
π√B2 −B2
x
.
Podemos também escrever a expressão genérica na seguinte forma:
W (Bx) dBx = 2×P(θ)
∣∣∣∣∣∣∣∣1dBx
dθ
∣∣∣∣∣∣∣∣dBx
e substituindo a expressão para Bx dada no enunciado, ficamos com:
W (Bx) dBx = 2×P(θ)∣∣∣∣ 1B sinθ
∣∣∣∣dBx
e como sinθ =√B2 −B2
x/B, segue que:
W (Bx) dBx = 2×P(θ) dBx√B2 −B2
x
que é o mesmo resultado que vamos obter acima a substituição do valor da densidade de probabilidade. Assim,
escrevemos a resposta final como:
W (Bx) dBx = dBx
π√B2 −B2
x
, −B ≤Bx ≤ +B
= 0, p/ B fora do intervalo.
Vemos então que a probabilidade é maxima quando B tem o valor máximo B = Bx e é zero quando Bx =
0. Além disso, note que a densidade de probabilidade apresenta um infinito quando Bx → B. Isto não é um
problema desde que P não é a probabilidade e sim sua densidade. Após a integração desta função devemos ter
uma probabilidade que deve ser finita.
38 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
1.5.3 Cálculo geral dos valores médios para a caminhada aleatória
Usando as considerações que fizemos nas últimas seções, vamos reconsiderar o problema da caminhada aleatória
no caso unidimensional. Seja si o deslocamento (positivo ou negativo) do i-ésimo passo. Então denotamos por
w(si) dsi a probabilidade do i-ésimo deslocamento estar no intervalo entre si e si +dsi.
É assumido que esta probabilidade é independente de quais deslocamentos ocorrem em outros passos. Por
simplicidade, consideramos ainda que a distribuição de probabilidade w é a mesma para todos os passos. No
entanto, é importante notar que a situação aqui é mais geral do que no caso inicial pois agora estamos considerando
que a magnitude de cada passo é variável, sendo determinada pela distribuição w(s).
O interesse neste problema é determinar o deslocamento x após um total deN passos. Isto equivale a perguntar
pela probabilidade P(x) dx do deslocamento estar situado entre x e x+dx. Podemos determinar também os va-
lores médios (momentos) de x. A seguir, mostramos como determinar estes valores médios sem um conhecimento
prévio da distribuição P(x).
O deslocamento x total é dado pela soma:
x= s1 +s2 +s3 + · · ·+sN =N∑
i=1si (1.54)
e tomando a média, obtemos:
x=N∑
i=1si. (1.55)
Agora note que o valor médio para um dado si é dado por:
si =∫wi(s)s ds
onde omitimos o índice i na variável de integração desde que é uma variável muda. Agora, desde que a distribuição
é a mesma para todos os passos, então, estamos querendo dizer quewi(s) =w(s), assim, segue que todos os valores
médios são os mesmos, i.e.,
si =∫w(s)s ds= s
assim, podemos escrever o deslocamento médio x, dado pela Eq. (1.55), na forma:
x=Ns. (1.56)
A dispersão é dada por:
(∆x)2 = (x− x)2. (1.57)
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 39
Usando as Eqs. (1.54) e (1.55), podemos escrever
x− x=∑
i
(si − si) ∴ ∆x=N∑
i=1∆si
e tomando o quadrado da equação acima, obtemos:
(∆x)2 =(
N∑i=1
∆si
) N∑j=1
∆sj
=∑
i
(∆si)2 +∑i,ji=j
(∆si)(∆sj)
e tomando a média, segue que:
(∆x)2 =∑
i
(∆si)2 +∑i,ji=j
(∆si)(∆sj)
Para resolver a soma para i = j, fazemos a hipótese de que os passos são estatisticamente independentes. Neste
caso, a média pode ser fatorada na forma de um produto, i.e.,
(∆si)(∆sj) = (∆si) (∆sj) = 0
desde que
∆si = si − s= 0.
Desde que os termos cruzados desaparecem na média, a dispersão se reduz a
(∆x)2 =N∑
i=1(∆si)2
e desde que a distribuição de passos é a mesma para todo i, então, a dispersão será independente do índice i da
mesma forma que fizemos no cálculo da média. Neste caso, escrevemos diretamente
(∆x)2 =N(∆s)2 (1.58)
onde (∆s)2 é a dispersão do deslocamento por passo dada por:
(∆si)2 = (∆s)2 ≡∫ds w(s)(∆s)2. (1.59)
Apesar da simplicidade, as Eqs. (1.56) e (1.58) são gerais e importantes. A dispersão, como já foi mencionado
anteriormente, é uma medida do quadrado da largura da distribuição do deslocamento líquido em torno do valor
médio x. O desvio é definido pela raíz quadrada da dispersão ∆∗x ≡ [(∆x)2]1/2. Os resultados obtidos acima,
permite tirar conclusões gerais sobre a soma de variáveis estatisticamente independentes. Se a média s = 0 e
o número de passos N aumenta, nota-se que a média cresce proporcionalmente a N . A largura da distribuição
40 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
também aumenta, porém proporcionalmente a N1/2. Desta forma, a largura relativa definida pela razão do desvio
pelo valor médio, i.e., ∆∗x/x, diminui com N−1/2; explicitamente, escrevemos:
∆∗x
x= ∆∗s
s
1√N.
A relação acima indica que o desvio percentual dos valores de x em torno da média x se torna cada vez mais
desprezível a medida que N se torna grande.
Exemplo
1. (Reif., Prob. 1.5, pg. 41) No jogo de roleta Russa (não recomendado pelo autor), alguém insere um único
cartucho no tambor de um revólver, deixando as outras cinco câmaras do tambor vazias. Alguém então gira o
tambor, aponta para a cabeça de alguém e puxa o gatilho.
(a) Qual é a probabilidade de estar vivo após puxar o gatilho N vezes?
(b) Qual é a probabilidade de sobreviver (N − 1) vezes e então levar o tiro na N -ésima vez que alguém puxa o
gatilho?
(c) Qual é o número médio de vezes que um jogador tem a oportunidade de puxar o gatilho neste jogo macabro?
Solução
Seja então a probabilidade p da pessoa permanecer viva e q a probabilidade da pessoa ser morta. Desde que
temos apenas uma bala em um tambor que comporta seis balas, então, temos que:
p= 56
e q = 1−p= 16.
Note que podemos estabelecer um paralelo com o problema da caminhada aleatória considerando que o número
de passos para a direita é igual ao número de vezes que a pessoa permanece viva. Com estas informações estamos
aptos a resolver os itens solicitados no problema.
(a)
Neste caso, temos o produto de N termos correspondendo à probabilidade p de sobreviver:
pN =(5
6
)N
(b)
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 41
Neste caso temos um produto de N − 1 fatores p, para a probabilidade de N − 1 vezes sem levar o tiro, pela
probabilidade de levar o tiro, i.e.,
pN−1q =(5
6
)N−1 16.
(c)
Consideramos que o jogador puxa o gatilho n vezes e então é morto na última vez. Neste caso, teríamos a
seguinte distribuição:
P (N) = pN−1q
onde p= 5/6 e q = 1/6.
O número médio N de vezes é dado por:
N =∞∑
N=1NpNq = ∂
∂p
( ∞∑N=1
pN
)q
mas como p < 1 e q não depende de q, pois consideremos as probabilidades p e q estatisticamente independentes,
então podemos escrever:
∞∑N=1
pN = p
1−p
e substituindo este resultado, segue que:
N =∞∑
N=1NpNq = ∂
∂p
(p
1−p
)q
e como devemos ter p+ q = 1, podemos escrever ainda
N = q
(1−p)2
e substituindo-se os valores, obtemos:
N =
16(
1− 56
)2 = 366
∴ N = 6.
2. (Reif., Prob. 1.19, pg. 45) Uma bateria de força eletromotriz (f.e.m) total V está conectada a um resistorR;
como resultado, uma quantidade de potência P = V 2/R é dissipada no resistor. A bateria consiste de N células
individuais conectadas em série de modo que V é dada pela soma da f.e.m’s de todas as células. A bateria, no
entanto, é velha de modo que nem todas as células estão em perfeito estado. Portanto, o que podemos dizer é que
existe uma probabilidade p que a fem de qualquer célula individual tenha seu valor normal v; e uma probabilidade
42 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
q = 1 −p que a fem de qualquer célula individual seja zero porque a célula foi curto-circuitada internamente. As
células individuais são estatisticamente independentes uma da outra. Sob estas condições, calcule a potência
média P dissipada no resistor, expressando o resultado em termos de N , v e p.
Solução
Notamos que a força eletromotriz total que pode ser fornecida pela bateria é V , de modo que este valor
será V = Nv no caso em que todas as células estivessem em perfeito estado. No entanto, como este não é o
caso, precisamos determinar o valor real fornecido pela bateria. Notamos também que a potência média pode ser
determinada tomando a média do quadrado do potencial, i.e.,
P = V 2
R
e nos resta determinar a média do quadrado do potencial. Para isso, precisamos da distribuição de probabilidades.
Para isso, notamos que este problema é completamente análogo ao problema da caminhada aleatória. Os possíveis
valores de V são aqueles envolvendo todas as combinações diferentes de células em perfeito estado e células
danificadas. Isso se deve ao fato das células estarem conectadas em série de modo que o potencial total é dado pela
soma dos potenciais oriundos das células boas. Assim, como temos o mesmo problema da caminhada aleatória,
podemos usar a distribuição binomial para obter o valor médio de V . Para isso, notamos que o potencial V é dado
por
V = vn1
tal que V = Nv quando n1 = N , ou seja, quando todas as células estão em perfeito estado. Note que n1 é no de
células boas. Tomando o quadrado e fazendo a média, segue que:
V 2 = v2n21.
O valor de n21 já foi determinado para a distribuição binomial. Na página 19, obtivemos o seguinte resultado:
n21 = n2
1 +Npq
como também já mostramos que n1 =Np, segue que:
n21 = (Np)2 +Npq =N2p2
[1+ (1−p)
Np
]E , portanto, o valor médio de V 2 será:
V 2 = v2N2p2[1+ (1−p)
Np
]
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 43
e a potência média é dada por:
P = v2
RN2p2
[1+ (1−p)
Np
]que é o resultado procurado. Note que quando todas as células estão em perfeito estado, p= 1 e então a potência
fica reduzida a
P ′ = v2
RN2 = V 2
R
que seria o potência máxima total obtido pela bateria em perfeito estado.
3. (Reif., Prob. 1.9, pg. 41) A probabilidade W (n) que um evento caracterizado por uma probabilidade p
ocorrendo n vezes em N tentativas foi mostrado ser dada pela distribuição binomial
W (n) = N !n!(N −n)!
pn(1−p)N−n. (1.60)
Considere uma situação onde a probabilidade p é pequena (p≪ 1) e onde alguém está no caso n≪N . (Note
que se N é grande, W (n) se torna muito pequeno se n → N porque o fator pn é fortemente reduzido quando
p ≪ 1. Então, W (n) é realmente somente apreciável quando n ≪ N .) Várias aproximações podem ser feitas
para reduzir a Eq. (1.60) para uma forma mais simples.
(a) Usando o resultado ln(1−p) ≈ −p, mostre que (1−p)N−n ≈ e−Np
(b) Mostre que N !/(N −n)! ≈Nn
(c) Mostre então que a Eq. (1.60) se reduz
W (n) = λn
n!e−λ (1.61)
onde λ=Np é o número médio de eventos. A distribuição é chamada distribuição de Poisson.
Solução
(a)
Devemos mostrar que (1−p)N−n ≈ e−Np dado que ln(1−p) ≈ −p. Seja a variável auxiliar
x= (1−p)N−n
44 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
e tomando o logaritmo em ambos os membros, segue que:
lnx= ln[(1−p)N−n
]= (N −n) ln(1−p) ≈ (N −n)(−p)
de onde obtemos:
x≈ e−(N−n)p
e como estamos considerando que N ≫ n, então temos ainda
x≈ e−Np
e substituindo o valor de x que definimos acima chegamos à igualdade procurada:
(1−p)N−n ≈ e−Np.
(b)
Temos que
N !(N −n)!
= N(N −1)(N −2) · · · [N −n+1](N −n)!(N −n)!
=N(N −1)(N −2) · · · [N −n+1]
= (N −0)(N −1)(N −2) · · · [N −n+1]
e notamos que temos n termos e como N ≫ n e como n> n−1>n−2> · · ·3> 2> 1, então podemos escrever:
N !(N −n)!
≈N.N.N.N.N.N.N.N · · ·N︸ ︷︷ ︸n termos
=Nn.
(c)
Agora resta substituir as expressões dos itens anteriores na Eq. (1.60). Para isso, temos que:
W (n) = N !n!(N −n)!
pn(1−p)N−n = 1n!
N !(N −n)!
pn(1−p)N−n
W (n) ≈ 1n!Nnpne−Np
W (n) = λn
n!e−λ
1.5. DISCUSSÃO GERAL DO PROBLEMA DA CAMINHADA ALEATÓRIA 45
que é a distribuição de Poisson. Note que usamos λ=Np.
3. (Reif., Prob. 1.11, pg. 42) Assuma que os erros tipográficos cometidos em uma máquina de escrever
ocorrem de maneira completamente aleatória. Suponha que um livro de 600 páginas contém 600 erros. Use a
distribuição de Poisson para calcular a probabilidade
(a) que uma página não contenha erros
(b) que uma página contenha ao menos três erros
Solução
A distribuição de probabilidade é dada pela distribuição de Poisson, assim temos que
W (n) = 1n
n!e−λ
Temos um erro por página, assim p= 1/600 e λ=Np= 600/600 = 1. Logo,
W (n) = 1n
n!e−1 = e−1
n!
(a)
A probabilidade de não haver erros é obtida fazendo-se n= 0 na distribuição, assim, obtemos:
W (0) = 10!e−1 = 0,37.
(b)
Aqui a probabilidade é dada pela soma sobre todos os n’s partindo de 3. No entanto, é mais fácil subtrair de 1
as possibilidades de se obter n= 0,1 e 2. Assim, escrevemos:
p= 1 −2∑
n=0
e−1
n!= 0,08.
na seção 1.5.3
46 CAPÍTULO 1. INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS
Capítulo 2
Descrição Estatística de um Sistema de
Partículas
Após o estudo dos conceitos básicos de probabilidade, podemos prosseguir e aplicar estes conceitos na descrição
física de um sistema de muitas partículas. Neste sentido, temos como objetivo combinar a teoria de probabilidade
com os conceitos de Mecânica. Para fazer progresso na formulação estatística de um sistema de muitas partículas,
considere um experimento simples em que alguém lança dez dados de dentro de um copo em uma mesa. Para
analisar este experimento simples, precisamos especificar o estado do sistema, i.e., precisamos definir algo que
permita descrever com precisão o resultado do experimento. Neste caso, o resultado é especificado dizendo quais
são as faces dos 10 dados que ficaram para cima. Agora, note que se pudéssemos determinar todas as condições
iniciais em que os dados são lançados, ou seja, dizer as posições e velocidades dos dados no momento do lan-
çamento e como o copo foi manipulado poderíamos, usando as leis da Mecânica Clássica, determinar qual é o
resultado do experimento. No entanto, como não temos estas informações, precisamos lançar mão da teoria de
probabilidades. Com isso, queremos dizer que não consideramos apenas um experimento em que alguém lança
os 10 dados, mas pensamos em uma coleção de experimentos preparados de maneira idêntica, chamado ensemble
estatístico, e perguntamos pela probabilidade de ocorrência de um resultado particular, i.e., qual é fração dos expe-
rimentos caracterizada por um resultado particular. Portanto, o segundo ingrediente para a descrição de um sistema
de muitas partículas é o chamado ensemble estatístico. Isto também nos dá uma idéia de como as probabilidades
podem ser medidas experimentalmente: basta repetir um experimento nas mesmas condições e determinar a fração
de experimentos que retornam um resultado particular.
Para trabalhar com um sistema de muitas partículas e aplicar os conceitos de probabilidade, precisamos de
um postulado sobre as probabilidades. No caso do experimento que estamos considerando, se consideramos que
47
48 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
os dados têm densidade de massa uniforme e as faces iguais, não existe nada nas leis da Mecânica que nos leve
a pensar que uma determinada face caia virada para cima com probabilidade maior do que qualquer outra face.
Então podemos postular que a priori1 todas as faces têm a mesma probabilidade de caírem viradas para cima. O
postulado é razoável e não apresenta nenhum conflito com as leis da Mecânica. Este é o chamado postulado de
iguais probabilidades a priori. É importante notar que, como qualquer postulado, é necessário que seja verificado
experimentalmente através da aplicação do mesmo na descrição teórica dos experimentos e os resultados previstos
comparados com os obtidos experimentalmente. Finalmente, de posse da descrição de estados no ensemble e do
postulado de iguais probabilidades, podemos fazer o cálculo de probabilidades a partir da teoria desenvolvida no
capítulo anterior.
2.1 Formulação Estatística do Problema Mecânico
A seguir, discutimos como os conceitos mencionados na introdução prévia são aplicados na descrição de problemas
de Mecânica.
2.1.1 Especificação dos Estados do Sistema
Para qualquer sistema de partículas, não importa o quão complicado, a sua descrição é realizada através de uma
função de onda ψ(q1, q2 · · · , qf ) a qual é uma função de f coordenadas (incluindo spin). O número f é chamado de
número de graus de liberdade do sistema. Um estado do sistema é definido através dos f números quânticos. A
descrição é completa uma vez que conhecemos ψ(q1, q2 · · · , qf ) em um dado instante pois a função de onda pode
ser determinada em outros instantes de tempo através da equação de Schrödinger.
Descrição Clássica
Eventualmente, podemos estudar uma situação usando uma descrição clássica. Considere, por exemplo, uma
partícula clássica em movimento unidimensional. Podemos dar uma descrição completa do movimento através do
conhecimento de sua coordenada q e momento p. As leis de Newton permitem determinar p e q em um momento
posterior. Geometricamente, podemos representar os valores possíveis de p e q através do chamado espaço de fase
que nada mais é do que um espaço definido pelos eixos p e q, conforme ilustrado na Fig. 2.1. A descrição é feita
especificando um ponto no espaço de fase. À medida que a partícula se movimenta, esta descreve uma trajetória
neste espaço. Para permitir uma descrição em termos de estados, subdividimos o espaço de fase em células de
1do latim, significa “em princípio".
2.1. FORMULAÇÃO ESTATÍSTICA DO PROBLEMA MECÂNICO 49
Figura 2.1: Diagrama mostrando o espaço de fase para uma partícula em um movimento unidimensional. Ao lado direito
temos o particionamento do espaço de fase em células de dimensões δpδq = h0 de modo que a descrição clássica implica
em determinar a probabilidade de encontrar a partícula com momento entre p e p+ δp e q e q+ δq.
volume2 dado por
δp δq = h0.
Com este particionamento, o estado é então especificado dizendo que suas coordenadas estão em algum inter-
valo entre q e q+dq e p e p+dp. Aqui, novamente, consideramos que as diferenciais dp e dq são muito maiores
do que as divisões δp e δq. A especificação se torna mais precisa a medida que os elementos de volume se tornam
cada vez menores3.
É claro que este princípio pode ser generalizado para o caso de um número N arbitrário de partículas com
f graus de liberdade. Tal sistema pode ser descrito por f coordenadas q1, q2, · · ·qf e f correspondentes momen-
tos p1,p2, · · · ,pf , i.e., por um total de 2f parâmetros. O número das f coordenadas independentes necessárias
para descrever o sistema é chamado de número de graus de liberdade. No caso de N partículas, temos então
3N graus de liberdade, desde que temos três coordenadas para cada partícula. Assim, o conjunto de números
q1, q2, · · ·qf ,p1,p2, · · ·pf pode ser novamente considerado como um ponto no “espaço de fase" de 2f dimensões
no qual cada eixo cartesiano é rotulado por uma de suas coordenadas ou momentos. Novamente, consideramos
que o espaço de fase 2f -dimensional pode ser subdividido pequenas células de volume δq1 · · ·δqfδp1 · · ·δpf = hf0 .
Com isso, o estado do sistema pode ser especificado fornecendo a probabilidade das coordenadas estarem dentro
de um determinado elemento do volume deste espaço.
Assim, o estado microscópico pode ser especificado enumerando-se os possíveis estados quânticos descritos
2no caso de um espaço de fase 2D o volume do espaço de fase é uma área.3De acordo com a Mecânica Quântica, existe um limite para o tamanho da célula dado pelo constante de Planck. Este limite vem do
princípio da incerteza de Heisenberg que diz que δpδq ≥ h.
50 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
pela função de onda ψ. Por exemplo, no caso de um elétron no átomo de hidrogênio, descrito pela função de
onda ψ(r,θ,φ), seus estados possíveis são rotulados pelo conjunto de números quânticos n, l,ml e ms. No caso
de uma descrição clássica, podemos rotular todas as células do espaço de fase por um índice (r = 0,1,2, · · ·) e
especificando-se a célula particular r. Desta forma, vemos que ambas as descrições são equivalentes de maneira
que os estados quânticos são análogos às células do espaço de fase clássico.
2.1.2 Ensemble Estatístico
Como mostramos no exemplo dos 10 dados lançados de dentro de um copo, poderíamos prever os resultados se
fosse possível conhecer todos os detalhes do movimento dos dados. No entanto, como isto não é possível, tudo o
que pode ser feito é uma análise probabilística resultante da falta de conhecimento sobre o sistema. No caso da
descrição de um sistema de muitas partículas, temos um problema de natureza completamente determinística, no
sentido de que a especificação da função de onda do sistema em um determinado instante de tempo nos habilita
determinar a função de tempo em todos os tempos (a mesma situação se verifica no caso da descrição clássica
onde se especifica as coordenadas p e q em um dado instante de tempo). No entanto, de maneira análoga ao
exemplo do experimento dos dados, nunca temos informação completa sobre o sistema de muitas partículas e,
assim, não é possível fazer uma descrição completamente precisa do mesmo. Como resultado, partimos para
uma descrição probabilística, onde não consideramos apenas um único sistema, mas um ensemble de sistemas
submetidos às mesmas condições externas. Os sistemas neste ensemble, em geral, estarão em diferentes estados
quânticos sendo caracterizados por diferentes variáveis macroscópicas. Neste caso, perguntamos pela fração de
sistemas caracterizados por um estado específico.
Com isso, nosso objetivo é determinar a probabilidade de encontrar um dado estado quântico no ensemble
usando-se alguns postulados básicos da teoria de probabilidades. Tudo o que podemos dizer é que o sistema
pode estar em algum conjunto de estados compatíveis com as informações que dispomos sobre o mesmo. A este
conjunto de estados, damos o nome de “estados acessíveis ao sistema". Com isso, percebemos que o ensemble
representativo contém somente estados consistentes com o conhecimento disponível sobre o sistema, assim, os
sistemas que compõem o ensemble devem estar distribuídos sobre os vários estados acessíveis.
Para esclarecer a noção de estados acessíveis, na tabela 2.1 são representados todos os estados possíveis para
um sistema composto pot três partículas de spin 1/2 submetidos a um campo magnético externo H. Neste caso, os
possíveis momentos magnéticos são denotados por ±µ. As energias magnéticas por partícula são ±µH e, portanto,
temos dois estados possíveis caracterizados por estes valores de energia. No caso de um sistema de três partículas
com spin 1/2 temos 23 = 8 estados possíveis do sistema. Rotulamos estes estados por um índice r = 1,2, · · · ,8,
2.1. FORMULAÇÃO ESTATÍSTICA DO PROBLEMA MECÂNICO 51
mostrados na primeira coluna. Na segunda coluna, são apresentados os possíveis estados das três partículas onde
os sinais + e − denotam os estados com momento magnético paralelo e anti-paralelo ao campo aplicado H . Na
última coluna, são especificados os valores de energia para os 8 estados possíveis para este sistema. Assim, se
temos o conhecimento de sua energia total, podemos especificar os possíveis estados correspondentes a este valor
de energia (que são os estados acessíveis). Por exemplo, se dizemos que a energia total do sistema é +µH , então
sabemos que os estados acessíveis ao sistema são os estados para r = 5,6,7. Note, porém, que não sabemos ao
certo em qual destes estados o sistema se encontra. Tudo o que podemos dizer é que o sistema pode ser encontrado
em qualquer um dos três estados acessíveis, rotulados por 5, 6 e 7.
Índice do estado r Números Quânticos m1, m2 e m3 Momento Magnético Total Energia Total
1 +++ 3µ −3µH
2 ++− µ −µH
3 +−+ µ −µH
4 −++ µ −µH
5 +−− −µ µH
6 −+− −µ µH
7 −−+ −µ µH
8 −−− −3µ 3µH
Tabela 2.1: Tabela mostrando os possíveis estados quânticos de um sistema de três partículas de spin 1/2 submetidas a um
campo magnético externo. Note que cada partícula pode ser encontrada em dois estados rotulados por + e −.
2.1.3 Postulados Básicos da Física Estatística
Com o objetivo de progredir na descrição estatística de processos físicos, precisamos recorrer a um postulado
fundamental sobre o cálculo das probabilidades de encontrar o sistema em algum de seus estados acessíveis. Para
isso, faremos duas suposições sobre as condições do sistema sob consideração: supomos que o sistema é isolado e
encontra-se em equilíbrio. A seguir, vamos definir o que significam estas condições.
Um sistema é dito isolado se este não pode trocar energia com suas vizinhanças. Neste caso, a Mecânica
nos diz que a energia do sistema é conservada. Com isso, estamos aptos a caracterizar o sistema por seu valor
de energia e os estados acessíveis ao sistema são aqueles que correspondem a este valor fixo de energia. Neste
52 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
caso, como em geral temos muitos estados acessíveis para um dado valor de energia, como podemos determinar
as probabilidades de encontrar o sistema em qualquer um destes valores de energia? Neste ponto é que entra a
necessidade de supor que o sistema encontra-se em equilíbrio. O estado de equilíbrio é definido como aquele em
que as probabilidades de encontrar o sistema em qualquer estado não variam no tempo. Como conseqüência, as
variáveis macroscópicas como pressão, temperatura, volume, magnetização, etc., são também independentes do
tempo.
Quando o sistema está isolado e em equilíbrio, temos que o sistema está distribuído em um conjunto de estados
acessíveis consistentes com um dado valor de energia total. Desde que todos os estados são consistentes com o
valor de energia prescrito, não há nada nas leis da Mecânica que permitam afirmar que alguns dos estados acessíveis
são mais prováveis do que outros. Por esta razão, fazemos o seguinte postulado:
Um sistema isolado e em equilíbrio é equiprovável de ser encontrado em qualquer
um de seus estados acessíveis.
O postulado acima, da mesma forma que no experimento do 10 dados citado no início do capítulo, deve ser
verificado experimentalmente. É importante notar que se alguém considera um ensemble de sistemas isolados
em equilíbrio, distribuídos uniformemente sobre seus estados acessíveis em um dado instante de tempo, eles irão
permanecer distribuídos desta forma em qualquer instante de tempo posterior. Este fato é uma conseqüência do
chamado Teorema de Liouville. Uma prova deste teorema é dada no apêndice A-13 do Reif.
No caso do exemplo ilustrado na Tabela 2.1, se especificamos que a energia do sistema é por exemplo igual a
+µH então o sistema estará uniformemente distribuído entre os estados
(++−), (+−+), (−++) (2.1)
de modo que é equiprovável do sistema ser encontrado em qualquer um dos três estados acima. Note que a
especificação da probabilidade é dada em termos do estado como um todo, i.e., de existirem dois spin apontando
na mesma direção do campo e o terceiro apontando na direção contrária. No entanto, não podemos dizer qual dos
três spins é o que está alinhado no sentido anti-paralelo ao campo.
2.1.4 Alcance do estado do equilíbrio
Considere agora que o sistema de interesse está isolado, porém, não se encontra em uma situação em que é equi-
provável de ser encontrado em qualquer um de seus estados acessíveis. Neste caso, o postulado fundamental não
garante que esta situação pode ser um estado de equilíbrio. Como resultado, as probabilidades e as correspon-
dentes variáveis macroscópicas irão evoluir no tempo até que se atinja a situação de equilíbrio caracterizada pelo
postulado fundamental.
2.1. FORMULAÇÃO ESTATÍSTICA DO PROBLEMA MECÂNICO 53
Para entender a razão do sistema evoluir no tempo até que se atinja o estado de equilíbrio, é necessário discutir
a natureza dos estados acessíveis que temos definido. Estes estados não são os estados quânticos exatos de um
sistema perfeitamente isolado e com todas as interações levadas em consideração. Com efeito, é impossível obter
tal descrição porque não temos a informação completa sobre o sistema de muitas partículas e nem temos o interesse
em tal descrição dentro de uma aproximação probabilística. Neste caso, consideramos apenas estados quânticos
aproximados, baseados em algum modelo que leve em consideração o conhecimento disponível que temos sobre
o sistema. Desta forma, quando o sistema é conhecido de estar em algum estado específico, o sistema não irá
permanecer neste estado indefinidamente mas irá evoluir com o tempo ocupando outros estados acessíveis. Isto
ocorre devido às pequenas interações residuais entre as partículas não levadas em conta no modelo aproximado.
Suponha que um sistema está distribuído em um subconjunto de estados acessíveis em um certo tempo t. Desde
que não existem restrições sobre o sistema que o proíbe de ocupar os demais estados acessíveis, i.e., estes esta-
dos são compatíveis com a conservação da energia e demais restrições impostas ao sistema, então em um tempo
posterior o sistema irá fazer transições para estes estados devido às interações residuais entre as partículas que
compõem o sistema. Como não existe nada que torne um estado acessível preferencial, como o passar do tempo
o sistema continuará fazendo transições entre estes diversos estados. Assim, a questão a ser respondida é: qual a
probabilidade de encontrar o sistema em quaisquer destes estados após um tempo muito longo? Para responder
esta pergunta, consideramos um ensemble de sistemas identicamente preparados em um subconjunto particular
de seus estados acessíveis. Os sistemas no ensemble irão sofrer várias transições entre seus diversos estados de
maneira que após um tempo longo, o sistema pode ser encontrado em qualquer de seus estados acessíveis. Esta
situação é análoga ao problema de determinar a probabilidade de encontrar uma determinada carta em um maço
de baralho. Quando as cartas são embaralhadas por um tempo suficientemente longo, a probabilidade de encontrar
qualquer carta em cima da pilha é a mesma para todas as cartas e independente das posições iniciais das cartas. De
modo similar, no caso do ensemble de sistemas, esperamos que após um tempo suficientemente longo estes sis-
temas estejam distribuídos uniformemente sobre seus estados acessíveis e a probabilidade de encontrar o sistema
em qualquer estado não dependa das condições iniciais. De fato, no equilíbrio o sistemas estão completamente
randomizados de maneira que o sistema é equiprovável de ser encontrado em qualquer um de seus estados aces-
síveis. Estas considerações têm sido verificadas experimentalmente e também demonstradas formalmente através
da aplicação das leis da mecânica e considerações inerentes do problema de física estatística. Estas hipóteses são
conseqüência do chamado “Teorema H". Este teorema também está provado no livro do Reif, apêndice A-12.
Até o momento não fizemos nenhum comentário acerca do tempo que o sistema leva para atingir o estado do
equilíbrio. Desde que este processo depende das interações residuais não levadas em conta na descrição estatística,
o alcance do estado de equilíbrio varia de sistema para sistema. Este tempo, chamado tempo de relaxação, pode
54 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
variar desde microsegundos até centenas de anos. Tudo depende da natureza das interações entre as partículas e
das taxas de transição entre os estados acessíveis. As taxas de transição são em geral muito difíceis de calcular. No
entanto, o problema da descrição dos sistemas após o sistema ter atingido o equilíbrio podem ser bastante simples
desde que podemos usar o postulado de iguais probabilidades a priori.
Para ilustrar estas considerações vamos voltar ao nosso sistema de spins da Tabela 2.1. Considere que o sistema
tem energia +µH de modo que os estados acessíveis são dados pela Eq. (2.1). Agora suponha que o sistema seja
preparado no estado + + − de modo que a probabilidade é 100% de encontrar o sistema neste estado no tempo
inicial. Com o passar do tempo, as interações entre as partículas irá fazer com que o sistema transicione para os
estados +−+ e −++. Esta interação tem origem no momento magnético das partículas que produz um pequeno
campo magnético de intensidade Hm ≪H na posição da partícula vizinha. Com isso, a interação com este campo
pode induzir as transições entre os três estados acessíveis ao sistema. Para tempos longos em comparação com o
tempo de relaxação do sistema, o sistema se encontra em equilíbrio e é equiprovável de ser encontrado em qualquer
uma das três configurações.
2.1.5 Cálculos de Probabilidade
Seguindo o roteiro mencionado no início do capítulo, partimos para a descrição do cálculo de probabilidades para
sistemas físicos. Isso pode ser facilmente realizado quando consideramos sistemas isolados em equilíbrio. Para
exemplificar, considere um sistema cuja energia total é conhecida e está no intervalo delimitado por E e E+dE.
Para fazer alguma previsão estatística, consideramos um ensemble de sistemas cujas energias estão no mesmo
intervalo dE. Denotamos por Ω(E) o número total de estados do sistema neste intervalo de energia. Agora
considere um parâmetro qualquer y que pode assumir diversos valores denotados por yk. Este parâmetro pode
ser por exemplo, o momento magnético, pressão, volume, etc. Assim, considere que dentro do número total de
estados Ω(E) existe um certo número de estados Ω(E,yk) para os quais o parâmetro y assume o valor yk. O
postulado então nos assegura que dentre os diversos estados Ω(E), o sistema é equiprovável de ser encontrado em
qualquer um deles pois todos estão contidos no intervalo de energia especificado. Por esta razão, a probabilidade
Pk de encontrar o sistema neste intervalo de energia de maneira que o parâmetro y assuma o valor k é dado
simplesmente por:
P (yk) = Ω(E,yk)Ω(E)
. (2.2)
O valor médio do parâmetro y pode ser calculado na forma:
y =∑
k
ykP (yk)
2.1. FORMULAÇÃO ESTATÍSTICA DO PROBLEMA MECÂNICO 55
e substituindo-se o valor da probabilidade dada pela Eq. (2.2), obtemos:
y =
∑k
ykΩ(E,yk)
Ω(E)(2.3)
que é a média sobre os sistemas no ensemble. A soma em k é feita sobre todos os estados acessíveis para os quais
Ω(E,yk) assume o valor yk.
Para exemplificar, vamos considerar o sistema da tabela 2.1. Digamos que a energia do sistema é µH e
perguntamos pela probabilidade de encontrar o primeira partícula com spin up. Neste caso, os estados acessíveis
são dados pela Eq. (2.1). Assim, temos dois estados em que a primeira partícula tem spin up então podemos
escrever:
Ω(−µH,+) = 2 e Ω(−µH) = 3 (no total de estados acessíveis para E = µH).
Assim a probabilidade é dada por:
P+ = Ω(−µH,+)Ω(−µH)
= 23.
e, de maneira análoga a probabilidade de encontrar a primeira partícula com spin down é dada por:
P− = Ω(−µH,−)Ω(−µH)
= 13.
O valor médio do momento magnético da primeira partícula pode ser calculado via Eq. (2.3):
µ=
∑k
µkΩ(E,yk)
Ω(E)= µ
23
−µ13
µ= µ
3.
2.1.6 O comportamento da densidade de estados
Em geral, o número de estados cresce muito com o número de partículas. Por exemplo, para um sistema de partícu-
las de spin 1/2, quando temos 3 partículas existem 8 estados possíveis. Para 4 partículas são 16 estados possíveis;
para 10 partículas temos 1024 estados e assim por diante. Vemos então que para um sistema macroscópico (um
bloco de cobre, uma piscina, etc.) o número de estados é gigantesco e o trabalho de contar estados fica muito
complicado. Desta forma, usamos a mesma estratégia que aplicamos no capítulo anterior, dividindo a escala de
energia em intervalos de tamanho δE cujo tamanho é muito maior do que o espaçamento entre os níveis de energia
56 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
mas macroscopicamente é muito pequeno para tratá-lo como uma diferencial. Neste caso, iremos determinar o
número de estados Ω(E) cujos valores de energia estão situados entre E e E+ δE.
Com isso, vemos que o número de estados depende da magnitude do intervalo δE o que não é desejável. No
entanto, desde que consideramos um intervalo macroscopicamente pequeno, então o número de estados deve ser
proporcional ao intervalo, assim, escrevemos:
Ω(E) = ω(E) δE (2.4)
onde ω(E) é independente do tamanho do intervalo δE 4. A função ω(E) é chamada de densidade de estados
e mede o número de estados por unidade de energia. Desde que todo cálculo estatístico envolve a contagem de
estados, é importante estudar como a densidade de estados depende da energia de um sistema macroscópico.
Para isso, vamos considerar um sistema macroscópico com f graus de liberdade. Neste caso, f números
quânticos são requeridos para especificar cada um de seus possíveis estados. Vamos definir E como a energia
medida em relação ao seu menor valor possível (no caso quântico em relação à energia do estado fundamental)
e vamos denotar por Φ(E) o número total de possíveis estados do sistema caracterizados por valores de energia
menores do que E. Obviamente, Φ(E) aumenta com o aumento de E. A seguir, vamos determinar o quão rápido
se dá este aumento.
Para fazer esta estimativa, começamos considerando um grau de liberdade f em particular. Seja Φ1(ϵ) o nú-
mero total de estados possíveis que podem ser assumidos pelo número quântico associado a este grau de liberdade,
quando este contribui com uma energia ϵ ou menor. Aqui novamente percebemos que Φ1(ϵ) deve aumentar com ϵ
(note que quando ϵ tem o seu valor mais baixo Φ1(ϵ) deve ser igual a 1). Se ϵ não é muito pequeno, podemos dizer
que Φ1 é da ordem de ϵ/∆ϵ onde ∆ϵ é o espaçamento médio entre os níveis quantizados de energia associados
com um típico grau de liberdade do sistema. Assim, podemos estimar que Φ1(ϵ) pode ser escrito na forma
Φ1(ϵ) ∝ ϵα (α≈ 1) (2.5)
onde estamos considerando que Φ1(ϵ) deve ser quase proporcional a ϵ desde que não temos informações detalhadas
para afirmar que Φ1(ϵ) varia linearmente com ϵ. Vamos considerar novamente o sistema completo com f graus de
liberdade e, portanto, descrito por s1,s2, · · ·sf números quânticos. Neste caso, a energia ϵ por grau de liberdade
é da ordem de:
ϵ≈E
f(2.6)
4De fato, o que estamos considerando é que δE seja pequeno o suficiente para que seja possível expandir o número de estados em série
de Taylor e os termos de ordem O(δE2) e superiores possam ser desprezados.
2.1. FORMULAÇÃO ESTATÍSTICA DO PROBLEMA MECÂNICO 57
e, correspondendo a este valor de energia existem Φ1(ϵ) estados possíveis para cada grau de liberdade. Assim,
temos Φ1(ϵ) estados possíveis para o no quântico s1, Φ1(ϵ) estados possíveis para s2, etc. Então podemos estimar
o número de estados para o sistema completo como sendo da ordem
Φ(E) ≈ [Φ1(ϵ)]f , onde ϵ= E
f. (2.7)
A Eq. (2.7) nos fornece o número total de estados do sistema contidos no intervalo de energia E medidos a
partir de seu estado fundamental. Assim, o número de estados contido no intervalo de energia entre E e E+ δE,
será:
Ω(E) = Φ(E+ δE)−Φ(E) ≈ ∂Φ(E)∂E
δE (2.8)
e substituindo a Eq. (2.7) obtemos:
Ω(E) ≈ 1f
∂[Φ1(ϵ)]f
∂ϵδE
Ω(E) = Φf−11
∂Φ1∂ϵ
δE. (2.9)
Agora precisamos analisar a Eq. (2.9) lembrando que o número de graus de liberdade (f ) é extremamente
grande, sendo da ordem do número de Avogadro, i.e., ∼ 1024. Para estabelecer a ordem de grandeza de Ω(E),
vamos considerar o logaritmo da Eq. (2.9):
lnΩ(E) = (f −1) lnΦ1 +ln(∂Φ1∂ϵ
δE
). (2.10)
e precisamos verificar qual é a contribuição de cada termo na Eq. (2.10). Considere o primeiro termo. Este é
da ordem de f desde que f ≫ 1 e o argumento do logaritmo é da ordem de ϵ se estamos considerando valores
de energia muito maiores do que o estado fundamental. O segundo termo pode ser estimado lembrando que a
derivada é da ordem de α que por sua vez é aproximadamente 1. O intervalo δE ≈ fδϵ e assim, podemos estimar
o logaritmo como sendo da ordem de lnf . Portanto, temos uma soma de um termo proporcional a f e outro
proporcional a lnf . Como f ∼ 1024, então temos que lnf ≪ f e podemos escrever a Eq. (2.10) na forma:
lnΩ(E) ≈ f lnΦ1 (2.11)
ou seja,
lnΩ(E) ≈ O(f), E > 0 (2.12)
58 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
considerando que estamos longe da energia do estado fundamental do sistema. A Eq. (2.12) nos permite escrever
finalmente:
Ω(E) ≈ Φf1 ≈ Ef (2.13)
onde fizemos α = 1 por simplicidade . Isto é possível porque não vai afetar a estimativa de maneira significativa.
Vemos então que o número de estados acessíveis cresce rapidamente com o número de graus de liberdade do
sistema.
Gás ideal no limite clássico
Vamos aplicar as idéias desenvolvidas acima no problema de um gás ideal constituído por N moléculas idênticas
encerrado em um volume V . No caso mais geral, a energia do gás é dada por:
E =K+U +Eint (2.14)
onde K é a energia cinética total de translação das moléculas. Se o momento do centro de massa da i-ésima
molécula é pi, então a energia cinética pode ser escrita na forma:
K =K(p1,p2, · · · ,pN ) = 12m
N∑i=1
p2i . (2.15)
A quantidade U = U(r1,r2, · · · ,rN ) representa a energia potencial de interação mútua entre as moléculas do
gás. Esta energia depende da distância relativa entre as moléculas e, portanto, das coordenadas de seus centros de
massa denotadas por ri.
No caso em que as moléculas não são monoatômicas, os átomos de cada molécula podem também girar e
rotacionar em relação ao seu centro de massa. Sejam as coordenadas e momentos intramoleculares denotados
por Q1,Q2,Q3, · · · ,QM e P1,P2,P3, · · · ,PM . Agora, a energia interna Eint depende apenas destas coordenadas.
Notamos também que se as moléculas são monoatômicas então Eint = 0.
Um caso particularmente simples é aquele onde a energia de interação mútua entre as moléculas é desprezi-
velmente pequena. Então U ≈ 0 e as moléculas são ditas formar um “gás ideal". Esta situação é implementada
fisicamente no limite em que a concentração de moléculas N/V → 0 de modo que o gás está tão rarefeito que a
distância entre as moléculas é grande o suficiente para desprezar os efeitos de interação.
No caso de um gás ideal, qual seria o número de estados acessíveis Ω(E)? Por simplicidade, vamos considerar
a situação no limite clássico, i.e., quando a energia do gás é alta o suficiente para que os números quânticos que
descrevem os estados sejam grandes. Neste caso, a descrição clássica é razoável e podemos representar os estados
2.1. FORMULAÇÃO ESTATÍSTICA DO PROBLEMA MECÂNICO 59
do gás no espaço de fase. O número de estados é então proporcional ao volume compreendido pelas superfícies E
e E+ δE no espaço de fase. Este volume define o valor de Ω(E) e pode ser escrito na forma
Ω(E) ≈∫ E+δE
E· · ·∫d3r1 · · ·
∫d3rN
∫d3p1 · · ·
∫d3pN
∫dQ1 · · ·
∫dQN
∫dP1 · · ·
∫dPN (2.16)
onde usamos a notação abreviada
d3ri = dxi dyi dzi
d3pi = dpix dpiy dpiz.
A Eq. (2.16) permite determinar o número de estados para energias entre E e E+ δE. Note que constitui em
uma soma sobre todas as coordenadas e momentos para os quais o valor de energia total está dentro do intervalo
considerado. Desde que a energia potencial é nula para um gás ideal, então a energia total é independente das
coordenadas do centro de massa. Lembrando que a energia de interação é a única contribuição que depende
da distância entre as moléculas. Assim, podemos efetuar as integrais em ri imediatamente. Considerando que∫d3ri = V , então como temos N integrais, podemos escrever a Eq. (2.16) na forma:
Ω(E) ≈ V Nχ(E) (2.17)
onde definimos:
χ(E) =∫ E+δE
E· · ·∫d3p1 · · ·
∫d3pN
∫dQ1 · · ·
∫dQN
∫dP1 · · ·
∫dPN . (2.18)
que é independente do volume V desde que tanto a energia cinéticaK quanto a energia internaEint não dependem
do volume do container. A Eq. (2.17) varia com V N e, com isso, verificamos que se o volume do container é
duplicado, o número de estados acessíveis aumenta por um fator de 2N . Isto é esperado desde que o número
de estados acessíveis para cada partícula é duplicada; para N partículas temos então que o número de estados
acessíveis aumenta por 2×2×2×·· ·2 = 2N .
Vamos considerar agora um caso particularmente simples em que as moléculas são monoatômicas de modo
que Eint = 0 e, deste modo, não existem as coordenadas internas Qi e Pi. Assim, a contribuição para a energia
vem apenas da energia cinética. Desde que temos N átomos que podem se deslocar em três dimensões, a energia
é dada por:
E = 12m
N∑i=1
3∑α=1
p2iα (2.19)
onde a soma em α representa as três componentes do momento, i.e., p2 = p2x + p2
y + p2z onde x,y,z são repre-
sentados pelos números 1, 2 e 3. A soma contém portanto 3N = f termos quadrados. Vemos então que quando
60 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
E é uma constante, a Eq. (2.19) então descreve uma esfera de raio R(E) = (2mE)1/2 no espaço f -dimensional
das componentes do momento. Portanto, o número estados acessíveis Ω(E) é determinado pelo volume situado
entre as duas esferas de raios R(E+ δE) e R(E). Agora, o volume de uma esfera em um espaço f -dimensional
é proporcional a Rf , desde que é essencialmente obtida multiplicando f dimensões lineares. O número total de
estados Φ(E) em esfera de raio E é proporcional ao raio Rf , i.e.,
Φ(E) ∝Rf = (2mE)f/2 ∝ Ef/2
O número de estados acessíveis pode então ser determinado usando a Eq. (2.8)
Ω(E) ∝ ∂Φ(E)∂E
∝ Ef/2−1 ≈ E3N/2
onde desprezamos a unidade desde que N ≫ 1 e trocamos f = 3N . Combinando este resultado com a Eq. (2.17),
podemos escrever Ω(E) na forma final
Ω(E) =BV NE3N/2 (2.20)
onde a constante B é independente do volume V do container e da energia E do gás.
2.2 Interação entre Sistemas Macroscópicos
2.2.1 Interação Térmica
Conforme discutimos, a descrição de sistemas compostos por muitas partículas é realizada através da especificação
de variáveis macroscópicas independentes (x1,x2, · · · ,xN ) que caracterizam o estado do sistema. Estes parâmetros
macroscópicos podem ser volume, pressão, campo magnético, campo elétrico, etc. Os níveis de energia do sistema
certamente irão depender dos valores destes parâmetros, assim se Er é um nível qualquer de energia do sistema,
podemos escrever
Er = Er(x1,x2, · · · ,xN ). (2.21)
O estado macroscópico ou macroestado do sistema é definido fornecendo-se os valores das variáveis ma-
croscópicas do sistema. No caso de um sistema isolado, além das variáveis macroscópicas, temos que especificar
também o valor da sua energia total desde que está fixa. Assim, o ensemble representativo deste sistema é composto
por uma coleção de sistema similarmente preparados com estes valores de parâmetros; no entanto, cada sistema
2.2. INTERAÇÃO ENTRE SISTEMAS MACROSCÓPICOS 61
do ensemble pode estar em qualquer um de seus estados acessíveis que também chamamos de microestados (i.e.,
estados quânticos).
Vamos considerar dois sistemas interagentes denotados por A e A′. Estes sistemas podem, portanto, trocar
energia entre eles de maneira que a soma das energias (energia total) permanece constante. Assim, o sistema total
composto por ambos tem sua energia constante no tempo, o que equivale a dizer que A e A′ formam um sistema
maiorA(0) =A+A′ que está isolado. Em uma descrição macroscópica, podemos distinguir duas maneiras em que
estes sistemas podem interagir entre si. Eles podem trocar energia com variação dos parâmetros externos, onde
então seus níveis de energia podem mudar de posição; ou trocar energia com as demais variáveis macroscópicas
fixas no tempo. Neste último caso, os níveis de energia permanecem inalterados mudando-se apenas a população
partículas nos respectivos níveis de energia.
O segundo caso em que os níveis de energia deA eA′ ficam fixos é chamada de interação puramente térmica.
No caso de uma descrição estatística desta interação, estaremos interessados nos estados acessíveis dos sistemas
A e A′. Sendo assim, pensamos em um ensemble de sistemas A(0) de maneira que a energia total (soma das
energias) trocada entre A e A′ seja igual para todos os membros do ensemble mas que a energia dos sistemas
A e A′ individualmente mudam de um sistema para o outro do ensemble. Com isso, podemos caracterizar esta
interação em termos da energia média do ∆E do sistema A. Equivalentemente , a energia média do sistema A′
é representada por ∆E′. Esta energia média é chamada de calor e o representamos pela letra Q. Note que Q
pode ser tanto negativo quanto positivo dependendo da variação de ∆E. Assim, quando Q > 0 dizemos que o
sistema A recebeu calor (no caso presente do sistema A′) e quando Q < 0 dizemos que o sistema A cedeu calor
(no caso presente para o sistema A′). Desde que as trocas de energia devem ser tais que a energia total do sistema
combinado permanece constante, então escrevemos:
∆E+∆E′ = 0 (2.22)
ou, usando a definição de calor, podemos escrever:
Q+Q′ = 0 ou Q= −Q′. (2.23)
As Eqs. (2.22) e (2.23) representam a conservação da energia simplesmente dizendo que o calor cedido pelo
sistema A é igual ao calor recebido pelo sistema A′ e vice-versa.
Desde que os parâmetros externos permanecem fixos no processo, então os níveis de energia estão fixos. Desta
forma, a mudança da energia dos sistemas ocorre devido à mudança na distribuição dos sistemas no ensemble
sobre os estados acessíveis do sistema.
62 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
2.2.2 Interação Mecânica
Quando um sistema não pode interagir termicamente, então dizemos que o sistema está termicamente isolado.
Neste sentido, as mudanças de energia deste sistema não podem ocorrer via transferência de calor. Para implemen-
tar este tipo de sistema experimentalmente, podemos colocá-los suficientemente separados ou envolvê-los com
um “isolante térmico". No último caso, isolantes térmicos são materiais com baixa condutividade térmica. Os
sistemas isolados térmicamente são também chamados de sistemas adiabáticos. Quando os sistemas A e A′ estão
termicamente isolados um do outro, cada sistema pode estar em equilíbrio individualmente sendo caracterizado
por um conjunto de variáveis macroscópicas. Naturalmente, estas variáveis serão diferentes para A e A′ no caso
geral. No entanto, é ainda possível que os dois sistemas interajam trocando energia através de outras formas. Neste
caso, temos o segundo tipo de interação que chamamos de interação puramente mecânica.
No caso da interação puramente mecânica, os sistemas trocam energia através da realização de um “trabalho
macroscópico" sobre o outro. Da mesma forma que no caso da interação térmica, consideramos um ensemble de
sistemas de modo que a energia trocada entre os sistemas A e A′ é uma energia média sobre um ensemble de
sistemas similarmente preparados. Assim, se denotamos a variação da energia média de A como ∆xE, então o
“trabalho macroscópico" realizado sobre o sistema é dado por:
W = ∆xE. (2.24)
O trabalho realizado pelo sistema é o negativo do trabalho dado pela Eq. (2.24), e portanto, definido por:
W = −W = −∆xE. (2.25)
Sempre que nos referimos ao trabalho de maneira geral, nos referimos ao trabalho feito pelo sistema, i.e., o
trabalhoW dado pela Eq. (2.25). A conservação da energia ainda se aplica neste caso, e assim, desde que a energia
do sistema combinado é fixa (pois A(0) está isolado) então podemos escrever
W +W ′ = 0 ou W = −W ′. (2.26)
Como já mencionado, a interação mecânica altera os níveis de energia dos sistemas porque consiste na al-
teração de parâmetros externos. Além disso, as alterações nos níveis de energia Er podem ser diferentes para
diferentes valores de r. Isto ocorre mesmo quando os níveis de energia tinham iguais valores antes da interação.
Além disso, também podem ocorrer transições entre os diferentes níveis juntamente com a alterações de seus valo-
res. Portanto, vemos que no caso da interação mecânica, a situação pode ser bastante complicada mesmo quando
os sistemas atingem o equilíbrio após os efeitos da interação.
2.2. INTERAÇÃO ENTRE SISTEMAS MACROSCÓPICOS 63
Embora pareça extremamente complicado, o trabalho realizado por um sistema pode ser medido experimental-
mente. Como um exemplo, considere como nosso sistema A um gás confinado em um reservatório adiabático cuja
parede superior pode ter sua posição alterada pela ação de um pistão, conforme ilustrado na Fig. 2.2. O sistema
A′, portanto, é o conjunto do pistão e do peso composto pelo recipiente com as bolinhas de chumbo. Considere
que este recipiente tenha um peso w. Quando o pistão é liberado de sua posição inicial, este desloca-se para baixo
aplicando um trabalho dado por W ′ = w∆s, onde ∆s = sf − si é o deslocamento vertical do pistão. Usando a
Eq. (2.26) notamos que o trabalho realizado pelo sistema A é igual a −w∆s contra o movimento do pistão. Desde
que tanto a força peso w quanto o deslocamento do pistão ∆s podem ser acessados experimentalmente, então a
energia trocada neste processo pode ser medida.
Figura 2.2: Um sistema simples onde um gás ideal está encerrado em uma câmara que cujo tamanho pode ser controlado
por um pistão via realização de um trabalho W .
2.2.3 Interação Geral
No caso mais geral possível, os parâmetros externos não são fixos nem o sistema está termicamente isolado.
Neste caso, a transferência de energia ocorre através dos dois processos, térmico e mecânico. Assim, a variação
de energia média ∆E apresenta as duas contribuições. Seja ∆xE = W a contribuição devido à mudança dos
parâmetros externos, i.e., devido a um trabalho realizado sobre o sistema. Então a mudança total na energia média
do sistema pode ser escrita na forma:
∆E = ∆xE+Q= W +Q (2.27)
64 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
onde a quantidade Q é o calor fornecido ao sistema através da interação térmica com algum outro sistema. A Eq.
(2.27) nos permite definir o calor em termos do trabalho e da variação da energia do sistema, assim, escrevemos:
Q≡ ∆E−W = ∆E+W (2.28)
onde usamos W = −W , onde W é o trabalho realizado pelo sistema. A Eq. (2.28) é a definição do calor recebido
pelo sistema. Note que esta relação se reduz ao caso da interação puramente térmica quando fazemos o trabalho
W igual a zero. A Eq. (2.28) nos permite separar as duas contribuições para a variação da energia do sistema em
mecânica e térmica. Notamos também que tanto o calor como o trabalho tem dimensões de energia, ou seja, são
medidos em Joules no sistema internacional de unidades.
Quando consideramos mudanças infinitesimais na energia, então a Eq. (2.27) pode ser escrita na forma dife-
rencial
dQ= dE+dW (2.29)
onde denotamos pordW a quantidade infinitesimal de trabalho realizado pelo sistema edQ a quantidade infinitesi-
mal de calor trocado; dE é a variação correspondente da energia do sistema.
É importante lembrar que tanto o trabalho como o calor não são variáveis de estado, assim, não faz sentido em
falar de trabalho e calor antes e depois do processo ou a diferença entre estes. Estas são quantidades referentes ao
próprio processo termodinâmico.
2.3 Processos Quasi-Estáticos
Nas seções anteriores definimos dois tipos de processos que podem alterar o estado de um sistema. Estes processos
são completamente gerais pois não fizemos nenhuma particularização sobre como estes processos são realizados.
Um caso especial e muito importante, é quando o sistemaA interage com algum outro sistema de maneira tão lenta
que o sistema A permanece arbitrariamente próximo do estado de equilíbrio em todos os estágios do processo. Tal
processo é chamado de quasi-estático para o sistema A. Uma questão natural que surge é qual o tempo que o
processo deve levar para ser considerado como quasi-estático. A resposta está no tempo τ (tempo de relaxação)
do sistema, que é o tempo que o sistema gasta para entrar em equilíbrio se é repentinamente perturbado. Para ser
lento o bastante, o tempo que o processo leva para ir de um estado inicial a um estado final deve ser muito maior
que o tempo de relaxação. Por exemplo, se o gás do container da Fig. 2.2 tem um tempo τ = 10−3s, então se o
volume do gás é reduzido à metade em 0,1s então podemos considerar o processo como sendo quasi-estático.
2.3. PROCESSOS QUASI-ESTÁTICOS 65
Se os parâmetros externos do sistema são denotados pelos valores x1,x2, · · · ,xn, então a energia do sistema
em um estado quântico definido r tem o valor
Er = Er(x1,x2, · · · ,xn). (2.30)
Quando os parâmetros externos são alterados, a energia deste estado r muda de acordo com a relação funcional
dada pela Eq. (2.30). Em particular, quando os parâmetros são mudados de forma infinitesimal, i.e., de modo que
xα → xα +dxα para cada α, então a Eq. (2.30) nos permite computar a mudança na energia:
dEr =n∑
α=1
∂Er
∂xαdxα. (2.31)
O trabalho dW feito pelo sistema quando ele permanece neste estado particular r é então definido da seguinte
forma:
dWr ≡ −dEr =∑
α
Xα,r dxα (2.32)
onde introduzimos a definição:
Xα,r = −∂Er
∂xα. (2.33)
A Eq. (2.33) é chamada de “força generalizada" (conjugada ao parâmetro externo xα) no estado r. Quando xα
denota uma distância, então Xα denota simplesmente uma força ordinária.
Vamos considerar agora um ensemble de sistemas com o objetivo de fazer uma descrição estatística. Quando
os parâmetros externos do sistema são alterados de maneira quasi-estática, então as forças generalizadas Xα,r têm
valores médios bem definidos. Estes valores médios podem ser determinados através da média sobre o ensemble
de sistemas correspondendo à situação de equilíbrio, consistentes com os valores dos parâmetros externos naquele
instante. Assim, tomando a média sobre todos os estados acessíveis r, podemos escrever
dW =n∑
α=1Xα,r dxα (2.34)
onde
Xα,r = −∂Er
∂xα(2.35)
é a força média generalizada conjugada à variável xα. Aqui as quantidades médias são determinadas com a
distribuição de equilíbrio dos sistemas no ensemble correspondendo aos valores fixos dos parâmetros α. O trabalho
macroscópico W resultante de uma mudança quasi-estática finita pode ser obtida por meio de uma integração.
66 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
2.3.1 Trabalho quasi-estático realizado pela pressão
Vamos considerar agora um exemplo importante de processo quasi-estático, onde uma pressão realiza um trabalho
de maneira que o único parâmetro externo é o volume do sistema V . Então o trabalho feito para mudar o volume
de V para V + dV pode ser calculado através do uso de mecânica elementar através do produto da força pelo
deslocamento. Suponha que o sistema é um conjunto de um pistão comprimindo um gás contido em um cilindro
(sistema mostrado na Fig. 2.2). Se o sistema está no estado r, então denote a pressão sobre a áreaA do pistão como
sendo pr. A força exercida pelo sistema sobre o pistão é simplesmente prA. O volume do sistema é especificado
por V = As, onde s é a posição inicial do pistão. Se o pistão é deslocado lentamente por uma distância ds de
modo que o sistema permanece em equilíbrio no estado r, o sistema realiza um trabalho dado por:
dWr = (prA) ds= pr dV (2.36)
e desde que dEr = −dWr, então segue que:
pr = −∂Er
∂V(2.37)
e vemos então que a pressão é a força generalizada conjugada à variável volume.
Se o volume do sistema é alterado de maneira quasi-estática, o sistema permanece em equilíbrio térmico de
maneira que a pressão apresenta um valor médio bem definido p. O trabalho macroscópico é então dado pela
média da Eq. (2.36):
dW = p dV. (2.38)
Agora suponha que o trabalho é realizado de maneira quasi-estática de modo que o volume varia desde um
valor inicial Vi até um valor final Vf . Neste caso, a pressão média p tem uma dependência com o volume descrita
por alguma função p = p(V ). Assim, o trabalho total do estado inicial i até o estado final f é obtido através da
integração da Eq. (2.38):
Wif =∫ f
ip(V ) dV. (2.39)
Geometricamente, a integral dada pela Eq. (2.39) representa a área sob a curva p(V ) em um diagrama p-V .
2.4 Diferenciais Exatas e Inexatas
A Eq. (2.29) relaciona três diferenciais dE,dW edQ. Temos utilizado umd com um traço porque as diferenciais do
trabalho e do calor têm propriedades diferentes em comparação com a diferencial da energia. Vamos analisar estas
2.4. DIFERENCIAIS EXATAS E INEXATAS 67
diferenciais em maiores detalhes. Para isso, vamos considerar o problema puramente matemático onde temos uma
função F (x,y) que depende de duas variáveis x e y. Assim, o valor de F é determinado uma vez que as variáveis
x e y são especificadas. Vamos considerar uma variação infinitesimal de x e y de modo que a variação de F (x,y)
possa ser escrita da seguinte forma:
dF = F (x+dx,y+dy)−F (x,y) (2.40)
o que também pode ser expresso na forma:
dF =A(x,y)dx+B(x,y)dy
onde identificamos A e B com as derivadas parciais:
A(x,y) = ∂F
∂x, B(x,y) = ∂F
∂y.
A Eq. (2.40) implica que F (x,y) é simplesmente uma diferencial, i.e., a diferença de valores de F entre dois
pontos adjacentes. A diferencial dF é chamada de diferencial exata para distinguí-la de outros tipos de diferenciais
que serão discutidas logo mais. Primeiro, notamos que para ir de um ponto inicial dado pelas coordenadas (xi,yi)
até um ponto final (xf ,yf ), a mudança na função F (x,y) pode ser determinada por meio de uma integração:
∆F = Ff −Fi =∫ f
idF =
∫ f
i[A(x,y)dx+B(x,y)dy]
Vemos então que a diferença no lado esquerdo da equação depende apenas da diferença entre dois pontos Ff
e Fi e, portanto, a integração do lado direito não pode depender do caminho tomado para ir do ponto i ao ponto f .
Este tipo de característica só ocorre com função cuja diferencial é exata, ou seja, que pode ser colocado na forma
da Eq. (2.40).
Vamos considerar agora um outro par de funções A′(x,y) e B′(x,y) tal que
A′(x,y)dx+B′(x,y)dy ≡ dG
onde o segundo membro é apenas uma maneira abreviada de escrever o primeiro membro. Apesar de dG ser
certamente uma quantidade infinitesimal, não é uma quantidade que pode ser considerada como uma diferencial
exata, i.e., em geral não é possível encontrar uma função G = G(x,y) tal que dG = G(x+dx,y+dy) −G(x,y)
igual à Eq. (2.40). De maneira equivalente, podemos dizer que em geral não é verdade que se alguém soma
(integra) quantidades infinitesimais dG indo de um ponto inicial i até um ponto final f ao longo de um certo
caminho, a integral resultante ∫ f
idG=
∫ f
i[A′(x,y)dx+B′(x,y)dy]
será independente do caminho escolhido. Neste caso chamamosdG de diferencial “inexata".
68 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
Exemplo
1. Considere a quantidade infinitesimal
dG= α dx+βx
ydy
onde α e β são constantes. Seja i o ponto inicial (1,1) e f o ponto (2,2). Considerando que estes pontos são as
diagonais de um quadrado, calcule a integral de dG ao longos dos caminhos:
(a) C1: (1,1) → (2,1) → (2,2)
(b) C2: (1,1) → (1,2) → (2,2)
Solução
(a)
Vamos considerar o primeiro caminho. Neste caso, temos que:∫C1dG=
∫C1
[α dx+βx
ydy] =
∫ 2
1α dx+
∫ 2
1β
2ydy
∫C1dG= α+2β ln2.
(b)
No caso do caminho C2 temos ainda:∫C2dG=
∫C2
[α dx+βx
ydy] =
∫ 2
1β
1ydy+
∫ 2
1α dx
∫C2dG= α+β ln2.
Vemos então que as integrais são diferentes para os caminhos C1 e C2 o que implica que G é uma diferencial
inexata.
Agora, a quantidade infinitesimal
dF ≡ dG
x= α
xdx+ β
ydy
2.4. DIFERENCIAIS EXATAS E INEXATAS 69
é uma diferencial exata de uma função bem definida F (x,y) = α lnx+β lny. A integral de i até f é sempre igual
a
∫ f
idF =
∫ f
i
dG
x= (α+β) ln2
independente do caminho tomado do ponto i ao ponto f . Verifique isso!
Agora que ficou claro a diferença entre diferenciais exatas e inexatas, vamos voltar à discussão da descrição
estatística dos sistemas físicos. O macroestado é caracterizado através de quantidades macroscópicas como energia
média E, pressão p, volume V etc. Em geral, uma vez que temos especificado algumas das variáveis podemos
determinar outras quantidades macroscópicas. Por exemplo, uma vez que temos especificado E e p podemos obter
o volume do sistema. Assim, as diferenciais dp, dE são diferenças infinitesimais entre quantidades associadas a
estados físicos bem definidos. Desta forma, estas diferenciais são diferenciais ordinárias (i.e., diferenciais exatas).
Por exemplo, dE = Ef − Ei é simplesmente a diferença entre dois valores bem definidos de energia. Assim,
podemos escrever:
∆E = Ef − Ei =∫ f
idE
o que implica que a integral é uma soma sobre todos os incrementos de energia ganhos no processo que leva o
sistema do estado inicial até o final. Estes dependem apenas dos estados final e inicial e não do caminho tomado
do ponto i ao ponto f .
Por outro lado, considere o trabalho infinitesimal dW feito pelo sistema para ir de um macroestado i a um
macroestado final f . Em geral, dW =∑Xα dxα não é a diferença entre dois números correspondentes aos
macroestados final e inicial. Com efeito, esta é uma quantidade infinitesimal característica do processo indo do
ponto i ao ponto f . O trabalho é então, em geral, uma diferencial inexata. O trabalho total feito pelo sistema para
ir de um estado i ao estado f pode ser escrita como
Wif =∫ f
idW
onde a integral significa simplesmente uma soma de quantidades infinitesimais de trabalho dW feitos em cada
estágio do processo. Mas no geral, o valor da integral depende do processo particular tomado para ir de um
macroestado i ao macroestado f .
Desde que o trabalho depende do caminho tomado e energia média não depende, segue da Eq. (2.29) que o
calor Q também depende do caminho da mesma forma que o trabalho. Assim, a quantidade infinitesimal dQ é
meramente uma quantidade infinitesimal de calor trocado no processo e é uma diferencial inexata.
70 CAPÍTULO 2. DESCRIÇÃO ESTATÍSTICA DE UM SISTEMA DE PARTÍCULAS
Note que quando o sistema está termicamente isolado, i.e., de modo que Q= 0, a Eq. (2.29) implica que
∆E = −Wif
ou seja, o trabalho depende apenas da diferença entre os valores de energia final e inicial e é independente do
processo. Neste caso, o trabalho se torna uma diferencial exata. Assim, temos um resultado que é referido como a
1a lei da Termodinâmica:
Se um sistema termicamente isolado é trazido de um macroestado inicial a um
macroestado final, o trabalho realizado pelo sistema é independente do processo
realizado.
Reciprocamente, se as variáveis externas são mantidas fixas, então o trabalho realizado pelo sistema é zero.
Neste caso,dW = 0 e pela Eq. (2.29) nos permite escrever:
dE = dQ
e o calor se torna uma diferencial exata. A quantidade de calor absorvido pelo sistema independe do processo
usado sendo dependente apenas dos pontos inicial e final.
Exemplos
1. Considere um ensemble de osciladores harmônicos clássicos unidimensionais.
(a) Seja x o deslocamento de um oscilador em função do tempo t dado por x = Acos(ωt+φ). Assuma que
o ângulo de fase φ é equiprovável de assumir qualquer valor no intervalo 0 < φ < 2π. A probabilidade
W (φ) dφ que φ esteja entre φ e φ+dφ é então simplesmente dado por W (φ) dφ = dφ/2π. Para qualquer
tempo fixo t, encontre a probabilidade P (x) dx que x fique entre x e x+ dx somando-se W (φ) dφ sobre
todos os ângulos φ para os quais x fique dentro deste intervalo. Expresse P (x) em termos de A e x.
(b) Considere o espaço de fase clássico para um ensemble de osciladores harmônicos, de modo que a energia
fique em um pequeno intervalo entre E e E+ δE. Calcule P (x) dx tomando a razão daquele volume do
espaço de fase dentro deste intervalo de energia e no intervalo entre x e x+dx pelo volume total do espaço
de fase para valores de energia situados no intervalo entre E e E+ δE (Veja Fig. 2-3-1 do livro do Reif.).
Relacionando E com a amplitude A, mostre que o resultado é o mesmo obtido na parte (a) do problema.
Solução
2.4. DIFERENCIAIS EXATAS E INEXATAS 71
(a)
Para resolver o item (a), recorremos à Eq. (1.53), do capítulo 1 adaptada para o caso presente:
P (x) dx= 2W (φ)∣∣∣∣dφdx
∣∣∣∣ dxonde o fator 2 foi colocado para levar em consideração o fato do deslocamento x(t) ser uma função biunívoca da
fase. Assim, prescisamos determinar a derivada de φ em relação a x:∣∣∣∣dφdx∣∣∣∣= 1∣∣∣∣dxdφ