domingo, 30 de setembro de 2007

Entropia

A entropia (do grego εντροπία, entropía) é uma grandeza termodinâmica geralmente associada ao grau de desordem. Ela mede a parte da energia que não pode ser transformada em trabalho. É uma função de estado cujo valor cresce durante um processo natural em um sistema fechado.
Quando um sistema termodinâmico passa do estado 1 ao estado 2, a variação da sua entropia é igual à variação da quantidade de calor reversível dividido pela temperatura.
Esta grandeza permite definir a Segunda Lei da Termodinâmica. Assim, um processo tende a dar-se de forma espontânea em único sentido. Por esses motivos, a entropia também é chamada de flecha do tempo. A unidade de entropia no SI é designada por J/K'.
A entropia está relacionada com o número de configurações (ou arranjos) de mesma energia que um dado sistema pode assumir. A interpretação molecular da entropia sugere que, em uma situação puramente geométrica, quanto maior o número de configurações, maior a entropia. Por esta razão, a entropia é geralmente associada ao conceito subjetivo de desordem. No entanto, o conceito de configurações equiprováveis não se restringe à configurações geométricas, mas envolve também as diferentes possibilidades de configurações energéticas. Por isso, a noção de desordem, embora útil e muito comum, pode ser imprecisa e incompleta em muitos casos.
Em 1877, Ludwig Boltzmann visualizou um método probabilístico para medir a entropia de um determinado número de partículas de um gás ideal, na qual ele definiu entropia como proporcional ao logaritmo neperiano do número de microestados que um gás pode ocupar:
S = K . ln Ω
Onde S é a entropia, k é a constante de Boltzmann e Ω é o número de microestados possíveis para o sistema.



A 2ª Lei da Termodinâmica

Sem comentários: