Filosofia Da Mecânica Estatística

Índice:

Filosofia Da Mecânica Estatística
Filosofia Da Mecânica Estatística

Vídeo: Filosofia Da Mecânica Estatística

Vídeo: Filosofia Da Mecânica Estatística
Vídeo: O que é a MECÂNICA ESTATÍSTICA?? 2024, Março
Anonim

Navegação de entrada

  • Conteúdo da Entrada
  • Bibliografia
  • Ferramentas Acadêmicas
  • Pré-visualização do Friends PDF
  • Informações sobre autor e citação
  • De volta ao topo

Filosofia da Mecânica Estatística

Publicado pela primeira vez em 12 de abril de 2001; revisão substantiva sexta-feira, 24 de julho de 2015

A mecânica estatística foi a primeira teoria física fundamental na qual conceitos probabilísticos e explicação probabilística tiveram um papel fundamental. Para o filósofo, ele fornece um caso de teste crucial para comparar as idéias dos filósofos sobre o significado das asserções probabilísticas e o papel da probabilidade na explicação com o que realmente acontece quando a probabilidade entra em uma teoria física fundamental. O relato oferecido pela mecânica estatística da assimetria no tempo dos processos físicos também desempenha um papel importante na tentativa do filósofo de entender as supostas assimetrias da causalidade e do próprio tempo.

  • 1. Esboço Histórico
  • 2. Filósofos sobre Probabilidade e Explicação Estatística
  • 3. Teoria do Equilíbrio
  • 4. Teoria de não-equilíbrio
  • 5. Irreversibilidade
  • 6. A redução (?) Da termodinâmica à mecânica estatística
  • 7. A direção do tempo
  • 8. Dinâmica Quântica
  • 9. Mudança de fase
  • Bibliografia
  • Ferramentas Acadêmicas
  • Outros recursos da Internet
  • Entradas Relacionadas

1. Esboço Histórico

A partir do século XVII, percebeu-se que os sistemas materiais frequentemente podiam ser descritos por um pequeno número de parâmetros descritivos que se relacionavam entre si de maneiras simples e legais. Esses parâmetros se referiam às propriedades geométricas, dinâmicas e térmicas da matéria. Típica das leis era a lei do gás ideal que relacionava o produto da pressão e do volume de um gás com a temperatura do gás.

Logo se percebeu que um conceito fundamental era o de equilíbrio. Deixados a si mesmos, os sistemas alterariam os valores de seus parâmetros até atingirem um estado em que não foram observadas outras alterações, o estado de equilíbrio. Além disso, tornou-se aparente que essa abordagem espontânea do equilíbrio era um processo tempo-assimétrico. Temperaturas desiguais, por exemplo, mudaram até que as temperaturas fossem uniformes. Esse mesmo processo de “uniformização” se aplica a densidades.

Estudos profundos por S. Carnot sobre a capacidade de extrair trabalho mecânico de motores que funcionavam em virtude da diferença de temperatura entre caldeira e condensador levaram à introdução por R. Clausius de mais um parâmetro importante que descreve um sistema material, sua entropia. Como foi explicada a existência desse conjunto simples de parâmetros para descrever a matéria e as regularidades legais que os ligavam? O que foi responsável pela abordagem do equilíbrio e sua assimetria temporal? Que o conteúdo de calor de um corpo fosse uma forma de energia, conversível para e do trabalho mecânico, formou um princípio fundamental. A incapacidade de um sistema isolado de se mover espontaneamente para um estado mais ordenado, para diminuir sua entropia, constituía outro. Mas por que essas leis eram verdadeiras?

Uma abordagem, a de P. Duhem e E. Mach e os "energetistas", era insistir em que esses princípios eram leis fenomenológicas autônomas que não precisavam de mais fundamento em outros princípios físicos. Uma abordagem alternativa era alegar que a energia em um corpo armazenada como conteúdo de calor era uma energia de movimento de algum tipo de constituinte microscópico oculto do corpo e insistir que as leis mencionadas, os princípios termodinâmicos, precisassem ser contabilizados. fora da constituição do objeto macroscópico de suas partes e das leis dinâmicas fundamentais que governam o movimento dessas partes. Esta é a teoria cinética do calor.

Os primeiros trabalhos sobre teoria cinética de W. Herepath e J. Waterston foram virtualmente ignorados, mas o trabalho de A. Krönig fez da teoria cinética um tópico ativo da física. JC Maxwell fez um grande avanço derivando de alguns postulados simples de uma lei para a distribuição das velocidades das moléculas de um gás quando este estava em equilíbrio. Maxwell e L. Boltzmann foram além, e de maneiras diferentes, mas relacionadas, derivaram uma equação para a abordagem do equilíbrio de um gás. A distribuição de equilíbrio encontrada anteriormente por Maxwell poderia então ser mostrada como uma solução estacionária dessa equação.

Este trabalho inicial encontrou objeções vigorosas. H. Poincaré provou um teorema de recorrência para sistemas dinâmicos limitados que parecia contradizer a abordagem monotônica do equilíbrio exigida pela termodinâmica. O teorema de Poincaré mostrou que qualquer sistema delimitado adequadamente em que a energia fosse conservada, por um tempo infinito, retornaria um número infinito de vezes a estados arbitrariamente próximos ao estado dinâmico inicial em que o sistema foi iniciado. J. Loschmidt argumentou que a irreversibilidade da termodinâmica no tempo era incompatível com a simetria sob a inversão do tempo da dinâmica clássica assumida para governar o movimento dos constituintes moleculares do objeto.

Parcialmente motivado pela necessidade de lidar com essas objeções, as noções explicitamente probabilísticas começaram a ser introduzidas na teoria por Maxwell e Boltzmann. Ambos perceberam que os valores de equilíbrio para quantidades podiam ser calculados impondo uma distribuição de probabilidade sobre os estados dinâmicos microscópicos compatíveis com as restrições impostas ao sistema e identificando os valores macroscópicos observados com médias sobre quantidades definíveis a partir dos estados microscópicos usando essa distribuição de probabilidade. Mas qual era a justificativa física para esse procedimento?

Ambos também argumentaram que a evolução em direção ao equilíbrio exigida na teoria do não-equilíbrio também poderia ser entendida probabilisticamente. Maxwell, introduzindo a noção de um "demônio" capaz de manipular os estados microscópicos de um sistema, argumentou que a lei do aumento entrópico era apenas probabilisticamente válida. Boltzmann ofereceu uma versão probabilística de sua equação descrevendo a abordagem do equilíbrio. Sem um cuidado considerável, no entanto, o quadro boltzmanniano ainda pode parecer contrário às objeções de recorrência e reversibilidade interpretadas de maneira probabilística.

No final de sua vida, Boltzmann respondeu às objeções à teoria probabilística, oferecendo uma interpretação simétrica no tempo da teoria. Os sistemas eram probabilisticamente quase sempre próximos do equilíbrio. Mas flutuações transitórias para estados de não equilíbrio poderiam ser esperadas. Uma vez em um estado de não equilíbrio, era altamente provável que, tanto antes como antes desse estado, o sistema estivesse mais próximo do equilíbrio. Por que então vivíamos em um universo que não estava próximo do equilíbrio? Talvez o universo fosse vasto no espaço e no tempo e vivêssemos em uma “pequena” parte flutuante e sem equilíbrio. Nós só poderíamos nos encontrar em uma parte tão "improvável", pois somente nessa região poderiam existir seres sencientes. Por que encontramos a entropia aumentando em direção ao futuro e não em relação ao passado? Aqui a resposta foi que, assim como a direção local da gravidade definiu o que queríamos dizer com a direção descendente do espaço, a direção local no tempo em que a entropia estava aumentando fixa o que consideramos a direção futura do tempo.

Em um trabalho importante (listado na bibliografia), P. e T. Ehrenfest também ofereceram uma leitura da equação de Boltzmann da abordagem do equilíbrio que evitou objeções de recorrência. Aqui, a solução da equação foi tomada para descrever não "a evolução esmagadoramente provável" de um sistema, mas, em vez disso, a sequência de estados que seriam encontrados predominantemente dominantes em momentos diferentes em uma coleção de sistemas, todos iniciados no mesmo condição de equilíbrio. Mesmo que cada sistema individual retornasse aproximadamente às suas condições iniciais, essa "curva de concentração" ainda poderia mostrar alterações monotônicas em direção ao equilíbrio, a partir de uma condição inicial de não equilíbrio.

Muitas das questões filosóficas da mecânica estatística se concentram na noção de probabilidade, como aparece na teoria. Como essas probabilidades devem ser entendidas? O que justificou a escolha de uma distribuição de probabilidade em vez de outra? Como as probabilidades devem ser usadas para fazer previsões dentro da teoria? Como eles devem ser usados para fornecer explicações sobre os fenômenos observados? E como as próprias distribuições de probabilidade recebem uma conta explicativa? Ou seja, qual é a natureza do mundo físico responsável pelas probabilidades corretas de desempenhar o papel de sucesso que elas desempenham na teoria?

2. Filósofos sobre Probabilidade e Explicação Estatística

Os filósofos preocupados com a interpretação da probabilidade geralmente lidam com o seguinte problema: A probabilidade é caracterizada por várias regras formais, sendo a aditividade das probabilidades para conjuntos de possibilidades disjuntos a mais central delas. Mas de que deveríamos considerar a teoria formal uma teoria? Algumas interpretações são "objetivistas", considerando as probabilidades de serem, possivelmente, frequências de resultados ou limites idealizados de tais frequências ou talvez medidas de "disposições" ou "propensões" de resultados em situações de teste especificadas.

Outras interpretações são "subjetivistas", considerando as probabilidades como medidas de "graus de crença", talvez evidenciadas no comportamento em situações de risco pelas escolhas das loterias disponíveis em detrimento dos resultados. Ainda outra interpretação lê probabilidades como medidas de uma espécie de "vinculação lógica parcial" entre proposições.

Embora interpretações subjetivistas (ou melhor, lógicas) da probabilidade na mecânica estatística tenham sido apresentadas (por E. Jaynes, por exemplo), a maioria dos intérpretes da teoria optam por uma interpretação objetivista da probabilidade. Isso ainda deixa em aberto, no entanto, questões importantes sobre exatamente o que "objetivo" apresenta as probabilidades postuladas da teoria e como a natureza inventa para que tais probabilidades sejam evidenciadas em seu comportamento.

Os filósofos que lidam com a explicação estatística geralmente se concentram no uso diário da probabilidade na explicação, ou no uso de explicações probabilísticas em disciplinas como as ciências sociais. Às vezes, foi sugerido que explicar probabilisticamente um resultado é mostrar que é provável que ele tenha ocorrido, dados os fatos históricos do mundo. Em outros casos, sugere-se que explicar probabilisticamente um resultado é produzir fatos que aumentem a probabilidade desse resultado sobre o que teriam sido aqueles fatos sendo ignorados. Outros ainda sugerem que a explicação probabilística está mostrando que um evento foi o resultado causal de alguma característica do mundo caracterizada por uma disposição causal probabilística.

Os padrões explicativos da mecânica estatística de não-equilíbrio colocam a evolução das características macroscópicas da matéria em um padrão de probabilidades sobre possíveis evoluções microscópicas. Aqui, os tipos de explicação oferecidos se encaixam nos modelos filosóficos tradicionais. As principais questões em aberto dizem respeito aos motivos explicativos por trás das probabilidades postas. Na teoria do equilíbrio, como veremos, o padrão explicativo estatístico tem uma natureza bastante diferente.

3. Teoria do Equilíbrio

O método padrão para calcular as propriedades de um sistema energeticamente isolado em equilíbrio foi iniciado por Maxwell e Boltzmann e desenvolvido por J. Gibbs como o conjunto microcanônico. Aqui, uma distribuição de probabilidade é imposta sobre o conjunto de estados microscópicos compatíveis com as restrições externas impostas ao sistema. Usando esta distribuição de probabilidade, são calculados os valores médios das funções especificadas das condições microscópicas do gás (médias de fase). Estes são identificados com as condições macroscópicas. Mas surgem várias questões: por que essa distribuição de probabilidade? Por que valores médios para condições macroscópicas? Como as médias de fase estão relacionadas às características medidas do sistema macroscópico?

Boltzmann pensou nos valores médios adequados para se identificar com características macroscópicas como médias ao longo do tempo de quantidades calculáveis a partir de estados microscópicos. Ele queria identificar as médias de fase com essas médias de tempo. Ele percebeu que isso poderia ser feito se um sistema iniciado em qualquer estado microscópico acabasse passando por todos os possíveis estados microscópicos. Isso ficou conhecido como hipótese ergódica. Mas é comprovadamente falso em termos teóricos topológicos e de medida. Uma alegação mais fraca de que um sistema iniciado em qualquer estado se aproximaria arbitrariamente um do outro do estado microscópico também é falsa e, mesmo que verdadeira, não faria o trabalho necessário.

A disciplina matemática da teoria ergódica desenvolveu-se a partir dessas idéias iniciais. Quando uma média de fase pode ser identificada com uma média de tempo em tempo infinito? G. Birkhoff (com resultados anteriores de J. von Neumann) mostrou que isso seria assim para todos, exceto talvez um conjunto de medidas zero das trajetórias (na medida padrão usada para definir a função de probabilidade) se o conjunto de pontos de fase fosse metricamente indecomponível, isto é, se não puder ser dividido em mais de uma peça, de modo que cada peça tenha uma medida maior que zero e que um sistema iniciado em uma peça sempre evolua para um sistema nessa peça.

Mas um modelo realista de sistema já atendeu à condição de indecomposição métrica? O que é necessário para derivar a indecomposição métrica é instabilidade suficiente das trajetórias, de modo que as trajetórias não formem grupos de medidas diferentes de zero, que falham em vagar suficientemente por toda a região da fase. A existência de uma constante oculta de movimento violaria a indecomposição métrica. Depois de muito trabalho árduo, culminando no de Ya. No Sinai, foi mostrado que alguns modelos "realistas" de sistemas, como o modelo de um gás como "esferas duras em uma caixa", estavam em conformidade com a indecomposição métrica. Por outro lado, outro resultado da teoria dinâmica, o teorema de Kolmogorov-Arnold-Moser (KAM) mostra que modelos mais realistas (digamos, de moléculas interagindo por meio de potenciais "suaves") provavelmente não obedecem à ergodicidade em sentido estrito. Nesses casos, também é necessário um raciocínio mais sutil (contando com os muitos graus de liberdade em um sistema composto por um grande número de constituintes).

Se a ergodicidade é válida, o que pode ser mostrado? Pode-se mostrar que, para todos, exceto um conjunto de medidas zero de pontos iniciais, a média de tempo de uma quantidade de fase em tempo infinito será igual à sua média de fase. Pode-se mostrar que, para qualquer região mensurável, o tempo médio gasto pelo sistema nessa região será proporcional ao tamanho da região (conforme medido pela medida de probabilidade usada no conjunto microcanônico). Uma solução para outro problema também é avançada. Boltzmann sabia que a distribuição de probabilidade padrão era invariável com a evolução do tempo, dada a dinâmica dos sistemas. Mas como poderíamos saber que essa era a única medida invariável? Com a ergodicidade, podemos mostrar que a distribuição de probabilidade padrão é a única que é tão invariável,pelo menos se nos limitarmos a medidas de probabilidade que atribuam probabilidade zero a cada conjunto atribuído a zero pela medida padrão.

Temos, então, um tipo de "dedução transcendental" da probabilidade padrão atribuída aos estados microscópicos no caso de equilíbrio. O equilíbrio é um estado imutável no tempo. Portanto, exigimos que a medida de probabilidade pela qual as quantidades de equilíbrio sejam calculadas também seja estacionária no tempo. Se assumirmos que as medidas de probabilidade atribuindo probabilidade diferente de zero a conjuntos de estados atribuídos a zero pela medida usual podem ser ignoradas, podemos mostrar que a probabilidade padrão é a única probabilidade invariável no tempo sob a dinâmica que move os sistemas individuais de um estado microscópico para outro.

Como uma “lógica” completa para a mecânica estatística de equilíbrio padrão, no entanto, muito permanece questionável. Existe o problema de que a estrita ergodicidade não é verdadeira para sistemas realistas. Existem muitos problemas encontrados quando se tenta usar a lógica, como Boltzmann esperava identificar médias de fases com quantidades medidas, baseando-se no fato de que as medidas macroscópicas levam "longos tempos" em escala molecular. Existem problemas introduzidos pelo fato de que todos os resultados ergódicos matematicamente legítimos são qualificados por exceções para "conjuntos de medidas zero". O que é fisicamente legítimo ignorar um conjunto de trajetórias apenas porque tem a medida zero na medida padrão? Afinal, essa negligência leva a previsões catastroficamente erradas quando realmente existem constantes ocultas de movimento globais. Ao provar a medida padrão exclusivamente invariável, por que temos o direito de ignorar medidas de probabilidade que atribuem probabilidades diferentes de zero a conjuntos de condições atribuídas como probabilidade zero na medida padrão? Afinal, foi justamente o uso dessa medida padrão que estávamos tentando justificar em primeiro lugar.

De qualquer forma, a teoria do equilíbrio como disciplina autônoma é enganosa. Afinal, o que queremos é um tratamento de equilíbrio no contexto de não-equilíbrio. Gostaríamos de entender como e por que os sistemas evoluem de qualquer estado macroscópico inicialmente fixo, considerando o equilíbrio apenas o "ponto final" dessa evolução dinâmica. Portanto, é para o relato geral do não-equilíbrio que devemos recorrer se quisermos uma compreensão mais completa de como essa teoria probabilística está funcionando na física.

4. Teoria de não-equilíbrio

Boltzmann forneceu uma equação para a evolução da distribuição das velocidades das partículas de um estado inicial sem equilíbrio para gases diluídos, a equação de Boltzmann. Várias equações subseqüentes foram encontradas para outros tipos de sistemas, embora a generalização para, digamos, gases densos, tenha se mostrado intratável. Todas essas equações são chamadas de equações cinéticas.

Como eles podem ser justificados e explicados? Nas discussões sobre o problema da irreversibilidade que se seguiu ao trabalho de Boltzmann, a atenção foi concentrada em uma suposição fundamental que ele fez: a hipótese em relação aos números de colisão. Essa suposição tempo-assimétrica postulava que os movimentos das moléculas em um gás eram estatisticamente não correlacionados antes da colisão das moléculas. Na derivação de qualquer uma das outras equações cinéticas, um positivo semelhante deve ser feito. Alguns métodos gerais para derivar essas equações são a abordagem da equação principal e uma abordagem que se baseia na granulação grosseira do espaço de fase dos pontos que representam os micro-estados do sistema em células finitas e assumindo probabilidades fixas de transição de célula para célula (suposição de Markov). Mas essa suposição não foi derivada da dinâmica subjacente do sistema e, pelo que eles sabiam até agora, poderia ter sido inconsistente com essa dinâmica.

Foram feitas várias tentativas para fazer sem essa suposição e derivar a abordagem do equilíbrio da dinâmica subjacente do sistema. Como essa dinâmica é invariável sob a reversão do tempo e as equações cinéticas são assimétricas no tempo, a assimetria do tempo deve ser colocada na teoria explicativa em algum lugar.

Uma abordagem para derivar as equações cinéticas se baseia em trabalhos que generalizam a teoria ergódica. Baseando-se na instabilidade das trajetórias, tenta-se mostrar que uma região de pontos de fase representando os possíveis estados micro para um sistema preparado em uma condição de não-equilíbrio, se as restrições forem alteradas, eventualmente evoluirá para um conjunto de pontos de fase que está “grosseiramente” espalhado por toda a região do espaço de fase permitido pelas restrições alteradas. A região antiga não pode “finamente” cobrir a nova região por um teorema fundamental da dinâmica (teorema de Liouville). Mas, da maneira descrita pela primeira vez por Gibbs, pode cobrir a região em um sentido de granulação grossa. Para mostrar que uma coleção de pontos se espalhará dessa maneira (no limite de tempo infinito, pelo menos), tenta-se mostrar o sistema que possui uma propriedade apropriada de “aleatorização”. Por ordem de aumento da resistência, tais propriedades incluem mistura fraca, mistura, sendo um sistema K ou sendo um sistema Bernoulli. Existem também outras abordagens topológicas, em oposição à teórica da medida, para esse problema.

Como sempre, muitas advertências se aplicam. Pode-se realmente mostrar que o sistema possui um recurso tão aleatório (à luz do teorema do KAM, por exemplo)? Os resultados de prazos infinitos são relevantes para nossas explicações físicas? Se os resultados são de tempo finito, eles são relativizados no sentido de dizer que apenas se valem de algumas particionações grosseiras do sistema, e não daquelas de interesse experimental?

Mais importante ainda, a mistura e o seu estilo não podem ser a história toda. Todos os resultados dessa teoria são simétricos no tempo. Obter resultados assimétricos no tempo e obter resultados que se mantêm em tempos finitos e que mostram evolução da maneira descrita pela equação cinética nesses tempos finitos, exige uma suposição sobre como a probabilidade deve ser distribuída pela região dos pontos. permitido como representando o sistema no momento inicial.

Como deve ser essa suposição de probabilidade e como ela pode ser justificada? Essas perguntas foram feitas e parcialmente exploradas por N. Krylov. As tentativas de racionalizar essa suposição de probabilidade inicial variaram da sugestão de Krylov de que é o resultado de um princípio não-quântico de “incerteza”, fundado fisicamente nos modos pelos quais preparamos sistemas, até a sugestão de que é o resultado de um estocástico subjacente. natureza do mundo descrita como na abordagem Ghirardi-Rimini-Weber para entender a medição na mecânica quântica. O status e a explicação da suposição inicial de probabilidade continuam sendo o enigma central da mecânica estatística do não-equilíbrio.

Existem outras abordagens para entender a abordagem do equilíbrio em desacordo com as abordagens que dependem dos fenômenos de mistura. O. Lanford, por exemplo, mostrou que, para um gás diluído infinitamente idealizado, é possível mostrar, por intervalos de tempo muito pequenos, um comportamento extremamente provável do gás, de acordo com a equação de Boltzmann. Aqui a interpretação dessa equação pelos Ehrenfests, a interpretação adequada à abordagem de mistura, está sendo descartada em favor da idéia mais antiga da equação que descreve a evolução esmagadoramente provável de um sistema. Essa derivação tem a virtude de gerar rigorosamente a equação de Boltzmann, mas ao custo de aplicar apenas a um sistema severamente idealizado e depois apenas por um período muito curto (embora o resultado possa ser verdadeiro, se não comprovado, por escalas de tempo mais longas). Mais uma vez uma distribuição de probabilidade inicial ainda é necessária para a assimetria do tempo.

5. Irreversibilidade

Os princípios termodinâmicos exigem um mundo em que os processos físicos sejam assimétricos no tempo. A entropia de um sistema isolado pode aumentar espontaneamente no futuro, mas não no passado. Mas as leis dinâmicas que governam o movimento dos microconstituintes são, pelo menos nas visões padrão dessas leis, como sendo as leis usuais da dinâmica clássica ou quântica, a inversão do tempo é invariante. A introdução de elementos probabilísticos na teoria subjacente ainda não explica por si só onde a assimetria do tempo entra na conta explicativa. Mesmo se, seguindo Maxwell, considerarmos a Segunda Lei da Termodinâmica meramente probabilística em suas afirmações, ela permanecerá assimétrica no tempo.

Ao longo da história da disciplina, muitas vezes foram feitas sugestões no sentido de que alguma lei dinâmica profunda e subjacente introduz a assimetria temporal no movimento dos microconstituintes.

Uma abordagem é negar a assimetria temporal da dinâmica que governa os microconstituintes e procurar uma lei de substituição que seja ela mesma assimétrica no tempo. Uma versão moderna disso busca uma interpretação da mecânica quântica que procura explicar o notável "colapso do pacote de ondas" após a medição. Ghirardi, Rimini e Weber (GRW) postularam a existência de um processo puramente estocástico mais profundo do que o da evolução quântica usual. Esse processo de chance pura levará rapidamente sistemas macroscópicos a quase funções próprias de posição, deixando microssistemas isolados em estados de superposição. O processo estocástico é assimétrico no tempo (como é o colapso da função de onda após a medição). D. Albert sugeriu que esse processo de GRW, se real,também pode ser invocado para explicar a assimetria temporal da dinâmica dos sistemas que precisa ser considerada na termodinâmica. A assimetria temporal do colapso do GRW pode funcionar afetando diretamente a dinâmica do sistema, ou pode fazer seu trabalho aleatoriamente apropriadamente os estados iniciais de sistemas isolados. Ainda pouco foi feito para preencher os detalhes para ver se os processos GRW postulados poderiam, se reais, explicar as assimetrias termodinâmicas conhecidas. E, é claro, há muito ceticismo de que os processos de GRW sejam reais. Ainda pouco foi feito para preencher os detalhes para ver se os processos GRW postulados poderiam, se reais, explicar as assimetrias termodinâmicas conhecidas. E, é claro, há muito ceticismo de que os processos de GRW sejam reais. Ainda pouco foi feito para preencher os detalhes para ver se os processos GRW postulados poderiam, se reais, explicar as assimetrias termodinâmicas conhecidas. E, é claro, há muito ceticismo de que os processos de GRW sejam reais.

Outras propostas levam a mudança entrópica de um sistema a ser mediada por uma “interferência” realmente não eliminável no sistema de influências causais aleatórias de fora do sistema. É impossível, por exemplo, proteger o sistema genuinamente de influências gravitacionais sutis do exterior. A questão do papel da interferência externa no comportamento aparentemente espontâneo do que é idealizado como um sistema isolado tem sido muito discutida. Aqui, a existência de sistemas especiais (como os sistemas de eco de spin encontrados na ressonância magnética nuclear) desempenha um papel nos argumentos. Pois esses sistemas parecem exibir uma abordagem espontânea do equilíbrio quando isolados, mas podem ter seu comportamento entrópico aparente feito para "retroceder" com um impulso apropriado de fora do sistema. Isso parece mostrar aumento entrópico sem o tipo de interferência externa que destrói genuinamente a ordem inicial implícita no sistema. De qualquer forma, é difícil ver como a interferência externa faria o trabalho de introduzir assimetria de tempo, a menos que essa assimetria seja colocada “manualmente” na caracterização dessa interferência.

Foi Boltzmann quem primeiro propôs uma espécie de solução "cosmológica" para o problema. Como observado acima, ele sugeriu um universo em geral próximo do equilíbrio, com sub-regiões “pequenas” em flutuações para longe desse estado. Em tal sub-região, encontraríamos um mundo longe do equilíbrio. Introduzindo as premissas probabilísticas simétricas no tempo conhecidas, torna-se provável que em uma região seja encontrado estados de entropia mais baixa em uma direção do tempo e estados de entropia mais alta na outra. Em seguida, termine a solução introduzindo a outra sugestão de Boltzmann de que o que entendemos por direção futura do tempo é fixo como a direção do tempo em que a entropia está aumentando.

A cosmologia atual vê um universo bem diferente daquele postulado por Boltzmann. Tanto quanto podemos dizer, o universo como um todo está em um estado altamente desequilibrado, com aumento entrópico paralelo no futuro em todos os lugares. Mas a estrutura do cosmos como a conhecemos permite uma solução alternativa para o problema da origem da assimetria temporal na termodinâmica. O universo parece estar se expandindo espacialmente, com uma origem dezenas de bilhões de anos atrás em uma singularidade inicial, o Big Bang. A expansão, no entanto, por si só não fornece a assimetria de tempo necessária para a termodinâmica, pois um universo em expansão com entropia estática ou decrescente é permitido pela física. De fato, em alguns modelos cosmológicos em que o universo se contrai após a expansão, geralmente é, embora nem sempre,assumiu que, mesmo em contração, a entropia continua aumentando.

A fonte da assimetria entrópica é procurada, antes, no estado físico do mundo no Big Bang. A questão "logo após" o Big Bang geralmente é colocada em um estado de entropia máxima - em equilíbrio térmico. Mas isso não leva em conta a estrutura do “espaço em si” ou, se você desejar, a maneira pela qual a matéria é distribuída no espaço e sujeita à atração gravitacional universal de toda a matéria por todas as outras matérias. Um mundo em que a matéria é distribuída com uniformidade é de baixa entropia. Um estado de alta entropia é aquele em que encontramos um agrupamento de matéria em regiões densas com muito espaço vazio separando essas regiões. Esse desvio da expectativa usual - uniformidade espacial como estado de maior entropia - se deve ao fato de que a gravidade,ao contrário das forças que governam a interação de moléculas em um gás, por exemplo, é uma força puramente atraente.

Pode-se, então, postular um estado inicial de "entropia muito baixa" para o Big Bang, com a uniformidade espacial da matéria fornecendo um "panorama entrópico". À medida que o universo se expande, a matéria passa de um estado uniformemente distribuído com a temperatura também uniforme para um estado em que a matéria é altamente agrupada em estrelas quentes em um ambiente de espaço vazio e frio. Alguém então tem o universo como o conhecemos, com sua condição de desequilíbrio termicamente altamente. “Baixa entropia inicial”, então, será um estado no passado que (até onde sabemos) corresponderá a qualquer singularidade de qualquer tipo, muito menos uma de baixa entropia, no futuro. Se alguém condicionar esse estado inicial de baixa entropia, obterá, usando as probabilidades simétricas de tempo da mecânica estatística, uma previsão de um universo cuja entropia aumentou com o tempo.

Mas não é, é claro, a entropia de todo o universo com o qual a Segunda Lei se refere, mas a de “pequenos” sistemas temporariamente isolados energicamente de seus ambientes. Pode-se argumentar, de uma maneira que remonta a H. Reichenbach, que o aumento entrópico do universo como um todo levará, novamente usando as posturas probabilísticas simétricas de tempo usuais, a uma alta probabilidade de que um “sistema de ramificação” aleatório mostre entrópico paralelo ao do universo e paralelo ao de outros sistemas de filiais. A maioria dos argumentos na literatura de que isso será assim é falha, mas a inferência é razoável, no entanto. Também foi sugerido que, se alguém invocar alguma lei dinâmica estatística subjacente (como a lei GRW mencionada acima),não é necessário postular uma hipótese do sistema de ramificação além da baixa entropia inicial para derivar os resultados termodinâmicos.

A colocação de baixa entropia inicial para o Big Bang dá origem a seu próprio conjunto de perguntas "filosóficas": dadas as probabilidades padrão em que a alta entropia é esmagadoramente provável, como poderíamos explicar a baixa entropia radicalmente "inesperada" do estado inicial? De fato, podemos aplicar o raciocínio probabilístico apropriado para os sistemas do universo como o conhecemos em um estado inicial para o universo como um todo? As questões aqui são remanescentes dos antigos debates sobre o argumento teleológico para a existência de Deus.

6. A redução (?) Da termodinâmica à mecânica estatística

Não surpreende que a relação da teoria termodinâmica mais antiga com a nova mecânica estatística na qual ela é "fundamentada" seja de alguma complexidade.

A teoria mais antiga não tinha qualificações probabilísticas para suas leis. Mas, como Maxwell estava claramente ciente, não poderia ser "exatamente" verdadeiro se a nova teoria probabilística descrevesse corretamente o mundo. Pode-se manter a teoria termodinâmica em sua forma tradicional e explicar cuidadosamente a relação que seus princípios mantêm com as conclusões probabilísticas mais recentes, ou pode-se, como foi feito de maneiras profundamente interessantes, gerar uma nova "termodinâmica estatística" que importa para os mais antigos estrutura probabilística da teoria.

Conceitualmente, a relação da teoria mais antiga com a mais recente é bastante complexa. Os conceitos da teoria mais antiga (volume, pressão, temperatura, entropia) devem estar relacionados aos conceitos da teoria mais recente (constituição molecular, conceitos dinâmicos que governam o movimento dos constituintes moleculares, noções probabilísticas que caracterizam os estados de um sistema ou distribuição individual) de estados sobre um conjunto imaginado de sistemas sujeitos a algumas restrições comuns).

Um único termo da teoria termodinâmica, como "entropia", será associado a uma ampla variedade de conceitos definidos na descrição mais recente. Há, por exemplo, a entropia de Boltzmann, que é propriedade de um único sistema definido em termos da distribuição espacial e de momento de suas moléculas. Por outro lado, existem as entropia de Gibbs, definíveis a partir da distribuição de probabilidade em alguns conjuntos de sistemas gibbsianos. Adicionando ainda mais complicações, há, por exemplo, a entropia de grão fino de Gibbs, que é definida apenas pela probabilidade do conjunto e é muito útil na caracterização de estados de equilíbrio e de Gibbs.entropia de granulação grossa cuja definição requer alguma partição do espaço de fase em células finitas, bem como a distribuição de probabilidade original e que é um conceito útil para caracterizar a abordagem do equilíbrio a partir da perspectiva do conjunto. Além dessas noções de natureza teórica da medida, existem noções topológicas que também podem desempenhar o papel de um tipo de entropia.

Nada nessa complexidade impede que a mecânica estatística descreva o mundo de uma maneira que explique por que a termodinâmica funciona e funciona tão bem quanto funciona. Mas a complexidade da inter-relação entre as teorias deve tornar o filósofo cauteloso ao usar essa relação como um paradigma bem compreendido e simples de redução inter-teórica.

É de algum interesse filosófico que a relação da termodinâmica com a mecânica estatística mostre alguma semelhança com aspectos descobertos nas teorias funcionalistas da relação mente-corpo. Considere, por exemplo, o fato de que sistemas de constituições físicas muito diferentes (por exemplo, um gás composto de moléculas interagindo por meio de forças, por um lado, e por outro lado, radiação cujos componentes são comprimentos de onda de luz acoplados energicamente) podem compartilhar termodinâmica recursos. Eles podem, por exemplo, estar na mesma temperatura. Fisicamente, isso significa que os dois sistemas, se inicialmente em equilíbrio e depois acoplados energicamente, reterão suas condições originais de equilíbrio. O paralelo com a afirmação de que um estado mental definido funcionalmente (uma crença, por exemplo) pode ser instanciado em uma ampla variedade de dispositivos físicos é claro.

7. A direção do tempo

Observamos que foi Boltzmann quem primeiro sugeriu que nosso próprio conceito da direção futura do tempo fosse fixado pela direção no tempo em que a entropia estava aumentando em nossa parte do universo. Inúmeros autores acompanharam essa sugestão e a teoria “entrópica” da assimetria do tempo permanece um tópico muito debatido na filosofia do tempo.

Primeiro devemos perguntar o que a teoria realmente está reivindicando. Em uma versão sensata da teoria, não há alegação de que descobrimos a ordem temporal dos eventos verificando a entropia dos sistemas e considerando o evento posterior como aquele em que algum sistema tem sua entropia mais alta. A alegação é, antes, que são os fatos sobre a assimetria entrópica dos sistemas no tempo que "fundamentam" os fenômenos que geralmente pensamos como marcadores da natureza assimétrica do próprio tempo.

Quais são algumas características cuja assimetria temporal intuitiva pensamos como "constituindo" a natureza assimétrica do tempo? Existem assimetrias de conhecimento: temos lembranças e registros do passado, mas não do futuro. Existem assimetrias de determinação: pensamos na causalidade como indo do passado ao presente e ao futuro, e não ao contrário. Existem assimetrias de preocupação: podemos lamentar o passado, mas antecipamos ansiosamente o futuro. Existem alegadas assimetrias de “determinação” da realidade: às vezes se afirma que o passado e o presente têm realidade determinada, mas que o futuro, sendo um domínio de meras possibilidades, não tem esse ser determinado.

A teoria entrópica em sua formulação mais plausível é uma afirmação de que podemos explicar a origem de todas essas assimetrias intuitivas, referindo-se a fatos sobre a assimetria entrópica do mundo.

Isso pode ser melhor entendido observando a própria analogia usada por Boltzmann: o relato gravitacional de cima e para baixo. O que queremos dizer com a direção descendente em um local espacial? Todos os fenômenos pelos quais identificamos intuitivamente a direção descendente (como a direção na qual as rochas caem, por exemplo) recebem uma explicação em termos da direção espacial da força gravitacional local. Até a nossa consciência imediata de qual direção está descendo é explicável em termos do efeito da gravidade no fluido em nossos canais semi-circulares. Não é um choque para nós que "abaixo" para a Austrália esteja na direção oposta como "abaixo" para Chicago. Também não estamos consternados ao saber que no espaço sideral, longe de um grande objeto gravitacional como a Terra,não existe distinção de cima para baixo e nenhuma direção do espaço que seja a direção de baixo.

Da mesma forma, o teórico entrópico afirma que são as características entrópicas que explicam as assimetrias intuitivas observadas acima, que nas regiões do universo em que a assimetria entrópica foi contra-direcionada no tempo, as direções do tempo passado-futuro seriam opostas e que, em uma região do universo sem assimetria entrópica, nenhuma direção do tempo contaria como passado ou futuro.

O grande problema permanece ao tentar mostrar que a assimetria entrópica é explicitamente adequada para explicar todas as outras assimetrias da maneira que a assimetria gravitacional pode explicar a distinção de cima e para baixo. Apesar de muitas contribuições interessantes para a literatura sobre isso, o problema permanece por resolver.

8. Dinâmica Quântica

A maioria das investigações fundamentais sobre mecânica estatística pressupõe uma base dinâmica clássica para descrever a dinâmica dos componentes constituintes dos sistemas macroscópicos. Mas isso não pode estar correto, é claro, uma vez que essa dinâmica subjacente deve ser mecânica quântica. Gibbs foi cauteloso ao reivindicar um papel explicativo simples para sua versão de conjunto da mecânica estatística, por exemplo, uma vez que levou a notórias previsões falsas para características macroscópicas de sistemas como o calor específico. Mais tarde, percebeu-se que a falha aqui não estava na mecânica estatística de Gibbs, mas em assumir a dinâmica clássica no nível constituinte. Uma vez que os sistemas foram re-descritos com base na mecânica quântica correta, os erros preditivos desapareceram.

Naturalmente, mudar para uma base de mecânica quântica leva a grandes mudanças na mecânica estatística. É necessária uma nova noção de espaço de fase com probabilidades sobre ele, por exemplo. Isso significa, porém, que as explorações fundamentais que pressupõem a mecânica clássica são agora irrelevantes?

Já observamos que algumas propostas foram feitas que buscam fundamentar a natureza muito probabilística da mecânica estatística na natureza fundamentalmente probabilística da mecânica quântica no nível dinâmico, ou melhor, em alguma interpretação de como a probabilidade funciona nas raízes da mecânica quântica.

Mesmo sem ir tão longe, porém, a mudança para uma base dinâmica quântica exige apenas uma reflexão sobre questões sutis nos debates fundamentais. Desde os primeiros dias, o Teorema da Recorrência de Poincaré era um problema para a mecânica estatística. Com uma base dinâmica clássica, poderia-se responder que, embora o Teorema sustentasse para sistemas individuais a preocupação da teoria, ele não necessariamente sustentaria um conjunto de tais sistemas. Depois que alguém se move para uma base mecânica quântica, essa "saída" não está mais disponível. Em ambas as estruturas dinâmicas, no entanto, uma mudança para o limite termodinâmico de um número infinito de constituintes para um sistema pode eliminar a aplicabilidade do teorema como uma objeção à monotonicidade da mudança termodinâmica que é impossível de obter na mecânica estatística.

9. Mudança de fase

Uma das características macroscópicas mais impressionantes dos sistemas é a existência de várias fases (gás, líquido e sólido, por exemplo, ou diamagnético e ferromagnético para outro) e as transições entre essas fases como características termodinâmicas, como temperatura e pressão ou magnetização imposta, são variado. Os primeiros trabalhos sobre transições de fase focaram-se na maneira pela qual as quantidades mudavam de maneira não analítica de fase para fase, embora a mecânica estatística parecesse mostrar que esse comportamento não analítico era impossível, pelo menos para sistemas com um número finito de constituintes.. Aqui, o recurso costumava ir ao "limite termodinâmico" de um sistema infinito idealizado.

Mais recentemente, métodos foram desenvolvidos para lidar com algumas transições de fase que não apenas complementam os esquemas explicativos padrão da mecânica estatística tradicional, mas também fornecem informações sobre a variedade de formas que as explicações científicas podem assumir. O programa explicativo, o uso do chamado "grupo de renormalização", dá uma ideia de por que sistemas de naturezas físicas bastante diferentes podem mostrar semelhanças termodinâmicas em suas transições de fase para fase. Em alguns casos, a natureza da transição depende de alguns parâmetros abstratos e não dos detalhes físicos do sistema. O que importa são coisas como a dimensão do sistema,os graus de liberdade da dinâmica dos constituintes e os limites gerais das interações entre os constituintes, como o comportamento de curto e muito longo alcance das forças relevantes da interação.

O truque é examinar primeiro as interações dos constituintes mais próximos. Depois, move-se para um bloco de constituintes, no que se refere aos blocos semelhantes mais próximos. Às vezes, a nova interação bloco a bloco pode ser obtida por uma “escala” da interação constituinte individual original. Continua-se esse processo até o limite de um sistema infinito e procura um ponto limite para a interação continuamente redimensionada. A partir desse comportamento limitante, às vezes podem ser encontradas as surpreendentes características "universais" da mudança de fase, explicando a generalidade de transições de fase semelhantes em diversos sistemas físicos.

A estratégia explicativa aqui é bastante diferente da usual encontrada na mecânica estatística e mostra de maneira incisiva como as especificidades dos sistemas físicos que clamam por explicações científicas podem exigir a introdução de novas manobras metodológicas para que se obtenha um entendimento completo. Nisso, a introdução desses métodos de grupo de renormalização se assemelha à maneira pela qual a necessidade de uma descrição atomística do comportamento termodinâmico macroscópico exigia que os novos métodos da mecânica estatística fossem adicionados ao repertório mais antigo de explicações dinâmicas típicas.

Bibliografia

Um tratamento abrangente das questões sob uma perspectiva filosófica é Sklar 1993. De importante interesse histórico é Reichenbach 1956. Uma discussão acessível e atualizada das questões fundamentais é Albert 2000. A possível invocação de uma lei assimétrica do tempo através do GRW abordagem é discutida neste livro. Uma defesa animada da abordagem inicial de baixa entropia para a assimetria de tempo é Price 1996. Frigg 2008 analisa o trabalho filosófico adicional sobre as questões fundamentais. Traduções em inglês de muitos artigos fundamentais originais estão no Brush 1965. O Brush 1976 fornece um tratamento histórico do desenvolvimento da teoria. Dois trabalhos fundamentais que são essenciais são Gibbs 1960 e Ehrenfest e Ehrenfest 1959. Dois trabalhos que explicam claramente e detalham muitos dos aspectos técnicos da mecânica estatística fundamental são Emch e Liu 2002 e Toda, Kubo e Saito 1983. Esses dois trabalhos fornecem uma base completa na mecânica estatística quântica e como ela difere da mecânica estatística baseada na teoria clássica. Uma excelente introdução à teoria dos grupos de mudança de fase e renormalização é Batterman 2002.

  • Albert, D., 2000, Time and Chance, Cambridge, MA: Harvard University Press.
  • Batterman, R., 2002, O Diabo nos Detalhes, Oxford: Oxford University Press.
  • Brush, S. (ed.), 1965, Kinetic Theory, Oxford: Pergamon Press.
  • Brush, S., 1976, O tipo de movimento que chamamos de calor, Amsterdã: Holanda do Norte.
  • Ehrenfest, P. e T., 1959, Os Fundamentos Conceituais da Abordagem Estatística em Mecânica, Ithaca, NY: Cornell University Press.
  • Emch, G. e Chuang, L., 2002, A lógica da física termostatística, Berlim: Springer.
  • Frigg, R., 2008, “Um Guia de Campo para Trabalhos Recentes sobre os Fundamentos da Mecânica Estatística”, em D. Rickles (ed.), The Ashgate Companion to Contemporary Philosophy of Physics, Londres: Ashgate, pp. 99-196.
  • Gibbs, J., 1960, Princípios Elementares em Estatística Mecânica, Nova York: Dover.
  • Price, H., 1996, Time's Arrow e o Archimedean Point, Oxford: Oxford University Press.
  • Reichenbach, H., 1956, The Direction of Time, Berkeley: University of California Press.
  • Sklar, L., 1993, Física e Chance: Questões Filosóficas nos Fundamentos da Mecânica Estatística, Cambridge: Cambridge University Press.
  • Toda, M., Kubo, R. e Saito, N., 1983, Statistical Physics (Volumes I e II), Berlin: Springer.

Ferramentas Acadêmicas

ícone de homem de sep
ícone de homem de sep
Como citar esta entrada.
ícone de homem de sep
ícone de homem de sep
Visualize a versão em PDF desta entrada nos Amigos da Sociedade SEP.
ícone inpho
ícone inpho
Consulte este tópico de entrada no Internet Philosophy Ontology Project (InPhO).
ícone de papéis phil
ícone de papéis phil
Bibliografia aprimorada para esta entrada na PhilPapers, com links para o banco de dados.

Outros recursos da Internet

[Entre em contato com o autor com sugestões.]

Recomendado: