Acessibilidade / Reportar erro

Entendendo a entropia de von Neumann

Understanding von Neumann’s entropy

Resumos

Revisamos os postulados da mecânica quântica necessários para discutir a entropia de von Neumann, que é introduzida como uma generalização da entropia de Shannon e propomos um jogo simples que facilita o entendimento do seu significado físico.

mecânica quântica; operador densidade; entropia de von Neumann


We review the postulates of quantum mechanics that are needed to discuss von Neumann’s entropy. We introduce it as a generalization of Shannon’s entropy and propose a simple game that makes it easier to understand itd physical meaning.

quantum mechanics; density operator; von Neumann’s entropy


1.

Introdução

A entropia é uma função de estado de fundamental importância em física, em teoria da informação e em várias outras áreas da ciência esteadas nestas duas. A entropia é, em geral, primeiramente introduzida de maneira fenomenológica no contexto da termodinâmica [1[1] H.C. Van Ness, Understanding Themodynamics (Dover Publications, Nova York, 1983).]. Em mecânica estatística, a entropia é obtida usando teoria de probabilidades em conjunção com as leis dinâmicas que governam o movimento dos constituintes microscópicos do sistema [2[2] S.R.A. Salinas, Introdução à Física Estatística (Edusp, São Paulo, 2013).]. Investigações sobre a entropia geraram um longa e interessante história, deixando pelo caminho algumas controversas e questões em aberto. Para mais discussões sobre esses aspectos históricos, fundamentais e também sobre temas atuais de pesquisa relacionados ao assunto, indicamos ao leitor as seguintes referências bibliográficas [3[3] J. von Neumann and R. Tumulka Eur. Phys. J. 35, 201 (2010).15[5] E.T. Jaynes, Phys. Rev. 106, 620 (1957).]. Neste artigo focaremos nossa atenção na definição para a entropia fornecida no contexto do formalismo matemático da mecânica quântica (MQ). Na sequência apresentamos uma breve revisão sobre a MQ, com ênfase especial em aspectos necessários e motivacionais para a introdução da entropia de von Neumann como uma medida de falta de conhecimento, ou de incerteza, no contexto de preparações e testes. Por fim, introduzimos um jogo simples que ajuda na compreensão dessa função.

2.

Postulados da mecânica quântica

2.1

Postulados dos estados

Para descrever um certo sistema físico, começamos associando a ele um espaço de Hilbert, que, para nossas propostas nesse artigo, nada mais é do que o espaço vetorial formado por todas as listas com n números complexos, conhecido como ℂn, com uma função produto interno bem definida [16[16] D.J. Griffiths, Mecânica Quântica (Pearson Education, São Paulo, 2011)., 17[17] A.F.R. de Toledo Piza, Mecânica Quântica (Edusp, São Paulo, 2009).]. O próximo passo é associar cada estado, ou configuração, possível do sistema com um único vetor de ℂn. Aqui usaremos a notação de Dirac para estes vetores, ou seja, para z ∈ ℂn, denotaremos

(1) |zz=[z1zn],
ou seja, |z〉 é uma matriz coluna. É frequente também a utilização da adjunta (transposta conjugada) dessa matriz, que escreveremos como
(2)z||z=[z1*zn*],
que é uma matriz linha.

A função produto interno entre dois vetores quaisquer |z〉, |w〉 ∈ ℂn, comentada anteriormente, é denotada por 〈z|w〉 e é definida como o seguinte produto de matrizes

(3)z|w|z|w=[z1*zn*][w1wn]=i=1nzi*wi.

Note que se trocarmos a ordem das matrizes no produto interno da última equação não teremos mais um número complexo, mas sim uma matriz n×n

(4)|w|z=|wz|=[w1z1*w1zn*wnz1*wnzn*].
Este tipo de produto de matrizes, conhecido como produto externo, será utilizado na sequência para discutirmos a descrição de observáveis em MQ e também quando introduzirmos o operador (ou matriz) densidade para descrever o estado de um sistema.

2.2

Postulado das medidas

Este postulado nos fornece uma regra para calcular as probabilidades (as chances) de obtermos um certo valor de um observável quando montamos um experimento capaz de discernir entre seus possíveis valores. Do ponto de vista matemático, um observável é representado por um operador linear e hermitiano Ô, o que garante que este pode ser escrito na forma de uma decomposição espectral: O^=i=1noi|oioi|, com seus autovalores sendo números reais (oi ∈ ℝ) e seus autovetores, normalizados, correspondentes a autovalores diferentes sendo ortogonais (〈 oi|oj〉 = δij). Por simplicidade, consideramos somente espectros discretos e não degenerados [18[18] G.B. Arfken and H.J. Weber, Mathematical Methods for Physicists (Elsevier, California, 2005).].

Na MQ não há, em geral, como prever de antemão qual valor oi será obtido em uma medida (em um teste) do observável Ô [19[19] M. Bell, K. Gottfried and M. Veltman, John Bell on The Foundations of Quantum Mechanics (World Scientific, Singapura, 2001).]. O que podemos computar é a probabilidade condicional de obter oi quando o sistema foi preparado no estado |z〉. Para esse propósito usamos a regra de Born

(5)Pr(oi|z)|z|oi|2.

Vocês devem estar se perguntando: Mas como determinamos que o sistema está preparado no estado |z〉? Aqui entra o papel fundamental do conceito de preparações e testes, enfatizado por Asher Peres em seu livro sobre MQ [20[20] A. Peres, Quantum Theory: Concepts and Methods (Kluwer Academic Publishers, Nova York, 2002).]. Um padrão importante que percebemos observando o que ocorre em experimentos é que se fizermos medidas subsequentes, uma imediatamente depois da outra, obteremos sempre o mesmo valor para o observável. Então, quando dizemos que o estado no qual o sistema foi preparado é |z〉, queremos dizer que um certo observável foi medido e que se obteve o valor dele correspondente ao seu autovetor |z〉. Ou seja, o estado quântico de um sistema representa o conhecimento (a informação) que possuímos acerca de sua preparação. Usando essa informação, e a regra de Born, podemos fazer previsões sobre medidas (testes) de outros observáveis.

2.3

Princípio de superposição

Este princípio é uma consequência imediata da estrutura do espaço de estados usado na MQ. Note que o conjunto de autovetores de qualquer observável de um certo sistema físico forma uma base para ℂn, pois qualquer vetor desse espaço vetorial pode ser escrito como uma combinação linear (uma superposição) desses vetores, i.e.,

(6)|z=i=1nci|oi,
com ci = 〈 oi|z〉 ∈ ℂ. Para um número muito grande de medidas do observável Ô, as probabilidades fornecidas pela regra de Born, |〈z|oi〉|2, nos informam qual é a frequência relativa com que os autovalores correspondentes de Ô serão obtidos. Vemos assim que sempre que existir dois ou mais coeficientes não nulos na superposição, ou seja, sempre que o estado preparado não for um autovetor do observável, existirão também duas ou mais probabilidades não nulas. Isso implica que, no formalismo da MQ, há obrigatoriamente incerteza sobre qual será o resultado obtido em uma dada realização do experimento para medir o valor de Ô. Essa incerteza, que chamaremos de incerteza quântica, tem sua origem na existência de observáveis incompatíveis em MQ. Estes observáveis são representados por operadores que não comutam e que, portanto, não compartilham uma mesma base de autovetores [16[16] D.J. Griffiths, Mecânica Quântica (Pearson Education, São Paulo, 2011).]. E é isso que possibilita, através da medida de um observável Z^, a preparação de um estado |z〉 que não é autovetor de Ô.

2.4

Operador densidade

Consideremos a possibilidade de existência de incerteza em relação ao estado no qual o sistema foi preparado. Por exemplo, considere que alguém, ou algo, com acesso a várias cópias idênticas de um sistema físico prepare essas cópias em um conjunto qualquer de estados {|ψj}j=1m de ℂn com probabilidades respectivas {pj}j=1m. Claro, se nenhum sistema for perdido, j=1mpj=1. Estes estados não precisam ser autovetores de observáveis compatíveis. Nossa tarefa é encontrar o objeto matemático que pode ser usado para obter a expressão mais simples possível para a probabilidade de medir o valor oi de um observável Ô desse sistema. Sabemos que, para cada medida, o sistema foi preparado em um dos estados puros desse ensemble (desse conjunto) e que, por conseguinte, a regra de Born pode ser aplicada ao sub-ensemble preparado no estado |ψj〉. Ou seja, a probabilidade de medirmos oi no conjunto de sistemas preparados no estado |ψj〉é: Pr(oi|ψj) = |〈ψj|oi〉|2. Com isso, a probabilidade que queremos calcular, que é a chance de medida de oi considerando todo o ensemble, pode ser escrita como a média dessas probabilidades calculada usando as probabilidades de preparação pj [21[21] M.N. Magalhães e A.C.P. de Lima, Noções de Probabilidade e Estatística (Edusp, São Paulo, 1999)., 22[22] M.H. DeGroot, Probability and Statistics (Addison-Wesley, Massachusetts, 1975).]

(7)Pr(oi|{pj,ψj})=j=1mpjPr(oi|ψj)=jpjψj|oioi|ψj=oi|jpj|ψjψj|oi=oi|ρ^|oi,
onde definimos o operador densidade, que descreve completamente o estado do sistema, como a seguinte mistura estatística dos estados do ensemble
(8)ρ^=j=1mpj|ψiψj|.
Este processo de dedução de ρ̂ está ilustrado na Fig. 1. Uma representação esquemática do espaço de estados pode ser vista na Fig. 2.

Note que, para um ensemble com um número N muito grande de elementos, pj N fornece o número de partículas preparadas no estado puro | ψj〉. Outra observação pertinente aqui é que nossa incerteza sobre a preparação do estado do sistema não tem nada de especial no que concerne a MQ. Isso porque a informação sobre qual estado foi preparado, para cada membro do ensemble, está presente na memória clássica do preparador. Por isso, essa incerteza é chamada de incerteza clássica.

3.

Entropia de von Neumann

Por razões didáticas, abdicaremos da sequência histórica dos fatos e introduziremos a entropia de Shannon antes da entropia de von Neumann. Para isso, começaremos respondendo a seguinte pergunta: Se quisermos associar uma medida de informação a um evento, que função matemática devemos usar? Podemos obter uma pista sobre tal função notando que o que ocorre frequentemente (que possui grande chance de acontecer) não nos chama a atenção. O nascer do Sol, apesar de bonito e de avisar que o dia começa, não nos fornece nenhuma informação realmente nova. Por outro lado, se o céu estiver sem nuvens às 14 h e 40 min do dia 14 de dezembro de 2020 em Montevidéu, quem perdeu as notícias nos dias anteriores provavelmente vai ficar assustado quando perceber o dia virando noite, até descobrir que está ocorrendo um eclipse solar. Esse evento, que não ocorre frequentemente (é pouco provável), nos fornece bastante informação pois nos causa surpresa. Este raciocínio nos induz a quantificar a informação, I, obtida ao tomarmos conhecimento da ocorrência de um evento (ou, de forma equivalente, nossa incerteza sobre o evento antes dele acontecer) usando o recíproco da sua probabilidade de ocorrência p, i.e., I ≡1/p.

Uma exigência mínima que deve ser feita para uma função que quantifica informação é que ela seja aditiva para eventos independentes. Ou seja, se I1 e I2 são as informações obtidas ao tomarmos conhecimento dos eventos independentes 1 e 2, se espera que a informação total obtida seja a soma das duas: I12 = I1 + I2. Tratando esses eventos como variáveis aleatórias, sabemos, da teoria de probabilidades [21[21] M.N. Magalhães e A.C.P. de Lima, Noções de Probabilidade e Estatística (Edusp, São Paulo, 1999).,22[22] M.H. DeGroot, Probability and Statistics (Addison-Wesley, Massachusetts, 1975).], que a probabilidade conjunta de eventos independentes é o produto das probabilidades individuais, ou seja, p12 = p1 p2. Mas isso implica que a informação total será: I12 = 1/p12 = 1/p1p2 ≠ 1/p1 + 1/p2 = I1 + I2. Para obter aditividade da medida de informação, podemos aplicar a função logaritmo ao recíproco da probabilidade

(9)Ilog2(1/p)=log2p1=log2p.
É fácil verificar que essa medida de informação é aditiva para eventos independentes (pois log2 p1p2 = log2 p1 + log2 p2). Na última equação e doravante utilizamos o logaritmo na base dois para medir informação em bits (ao tomarmos conhecimento de um evento que possui 50 % de chances de ocorrer, i.e., p= 1/2, adquirimos 1 bit de informação).

Vamos considerar uma variável aleatória X que pode assumir um conjunto discreto e finito de valores {xi}i=1n com probabilidades respectivas {pi}i=1n. Cada um desses valores é associado a um evento. Por exemplo, X pode representar uma moeda, e os dois eventos seriam a ocorrência de cara ou de coroa em um jogo dessa moeda. Podemos medir nossa incerteza média sobre o valor de X usando a média da informação dos eventos individuais calculada usando a distribuição de probabilidades {pi}i=1n

(10) H({pi})i=1npi(log2pi)=i=1npilog2pi.
Esta função, que foi introduzida por Claude Shannon na Ref. [23[23] C.E. Shannon, Bell Syst. Tech. J. 27, 379 (1948).], é denominada entropia de Shannon e estabeleceu a base para a teoria clássica da informação [24[24] T.M. Cover and J.A. Thomas, Elements of Information Theory (John Wiley & Sons, Nova Jersey, 2006).].

Como os operadores densidade são operadores hermitianos e positivos semidefinidos (seus autovalores são números reais maiores ou iguais a zero) e possuem traço igual a um (o traço de uma matriz é a soma dos elementos na sua diagonal principal), podemos escrever ρ^=j=1mpj|ψjψj|=i=1nλi|λiλi|, com λi ∈ ℝ, λi ≥ 0, i=1nλi=1 e 〈λi|λj〉 = δij. Ou seja, os autovalores de ρ̂ formam uma distribuição de probabilidades. Então, operadores densidade podem ser vistos como uma generalização para distribuições de probabilidades. Como a função traço é independente da base usada na representação do operador densidade, a entropia de von Neumann, que foi definida na Ref. [25[25] J. von Neumann, Mathematical Foundations of Quantum Mechanics (Princeton University Press, Princeton, 1955).], pode ser escrita como

(11)S(ρ^)Tr(ρ^log2ρ^)=i=1nλilog2λi,
em que Tr é a função traço. Ou seja, a entropia de von Neumann S(ρ̂) é a entropia de Shannon da distribuição de probabilidades obtida usando os autovalores de ρ̂, i.e.,
(12)S(ρ^)=H({λi}).
Esta é uma das funções mais utilizadas atualmente para medir incerteza sobre o estado de um sistema quântico. Porém é válido observar que, embora na teoria quântica da informação [26[26] M.A. Nielsen and I.L. Chuang, Quantum Computation and Quantum Information (Cambridge University Press, Cambridge, 2000)., 27[27] M.M. Wilde, Quantum Information Theory (Cambridge University Press, Cambridge, 2013).] exista uma interpretação operacional para essa função [28[28] B. Schumacher, Phys. Rev. A 51, 2738 (1995).], critérios mais fortes para quantificar incerteza sobre o operador densidade são conhecidos, como por exemplo aquele obtido via teoria de majoração [29[29] M.A. Nielsen, An Introduction of Majorization and its Applications to Quantum Mechanics. Disponível em http://michaelnielsen.org/blog/talks/2002/maj/book.ps.
http://michaelnielsen.org/blog/talks/200...
]. Deixaremos para discutir essas questões em uma outra oportunidade.

A entropia de von Neumann é comumente escrita na seguinte forma: S(ρ̂) = −kBTr(ρ̂ ln ρ̂), com kB sendo a constante de Boltzmann e ln o logaritmo natural. Vale observar que esta expressão, que aparece naturalmente no contexto da mecânica estatística, difere daquela que usamos neste artigo (Eq. (11)) somente por uma constante multiplicativa [30[30] M.B. Plenio and V. Vitelli, Cont. Phys. 42, 25 (2001).]. Ou seja, não há nenhuma diferença fundamental entre elas, é só a unidade da entropia fornecida que muda. Por isso usamos a expressão (11), que se encaixa melhor dentro do contexto de teoria de informação quântica, onde recebe um significado operacional em termos número mínimo, médio, de bits quânticos (sistemas quânticos com dois níveis de energia) necessários para representar o estado de um sistema [28[28] B. Schumacher, Phys. Rev. A 51, 2738 (1995).].

4.

O jogo

Por simplicidade, vamos considerar um sistema com dois níveis de energia, cujo espaço de estados é ℂ2. Das várias escolhas disponíveis, usaremos partículas de spin 1/2 cujo momento magnético é medido utilizando um aparato de Stern e Gerlach [31[31] J.J. Sakurai e J. Napolitano, Mecânica Quântica Moderna (Bookman, Porto Alegre, 2013).]. Os observáveis que consideraremos são as componentes do momento magnético dessas partículas na direção z, Ŝz = (+ħ/2)|z+〉 〈z+| +(−ħ/2)|z〉〈 z|, e na direção x, Ŝx = (+ħ/2)|x+〉 〈 x+| + (−ħ/2)|x〉 〈x|, em que ħ é a constante de Planck,

(13)|z+=[10],|z=[01],
e
(14)|x±=(1/2)(|z+±|z).

As regras para o jogo são as seguintes: Considere um ensemble de partículas de spin 1/2 preparado no estado ρ̂ =∑j pj|ψj〉〈ψj|. Você poderá escolher um único observável do sistema para ser medido e precisará escolher também um único autovetor desse observável. Cada vez que o valor do observável correspondente a este autovetor for obtido você ganha um ponto, caso contrário você perde um ponto. O objetivo é obter o maior saldo de pontos, Np, possível para um número muito grande, N, de medidas realizadas. Queremos relacionar sua pontuação com a entropia de von Neumann, S(ρ̂). Para calculá-la, você precisará escolher uma base, por exemplo {|z+〉, |z〉}, obter a representação matricial de ρ̂ nessa base (ρ11 = 〈z+|ρ̂|z+〉, ρ12 = 〈 z+|ρ̂|z〉, ρ21 = 〈z|ρ̂|z+〉 e ρ22 = 〈z|ρ̂|z〉) e diagonalizar essa matriz 2×2. Feito isso, precisarás ainda somar o produto dos autovalores de ρ̂ pelo seu logaritmo, como na Eq. (11). Se ρ̂ possuir um autovalor nulo, usamos limx→0 x log2 x = 0 para justificar 0 log2 0 = 0. Com o objetivo de criar intuição sobre o problema, vamos considerar alguns casos particulares de ensembles preparados
  • ρ̂1 = |z+〉 〈 z+|

Nesse caso, como você sabe que todas as partículas do ensemble estão no mesmo estado, tudo fica mais fácil. Você pode escolher medir o observável Ŝz e pode escolher como seu autovetor o autoestado |z+ 〉 de Ŝz. Como a probabilidade de obter o valor +ħ/2 para Ŝz é um para um sistema preparado no estado |z+〉, você ganha em todas as medidas e faz um saldo de Np = N − 0= N pontos, o máximo possível. Isso é esperado pois não há incerteza alguma sobre a preparação do sistema, o que é confirmado pelo valor da entropia de von Neumann desse estado, S(ρ̂1) = S(|z+〉)= −1 log2 1−0 log2 0 = 0.
Note que, como ocorreu para este ensemble, a entropia de von Neumann é nula para qualquer estado puro, i.e., S(|ψ〉) = 0. Entretanto, isso não significa que podemos prever o resultado de qualquer medida que possa ser feita nesse sistema, mas sim que existe um observável cujo valor é totalmente previsível, pois está definido antes que testes sejam feitos (seu valor é o seu autovalor correspondente ao autovetor |ψ〉).
  • ρ̂2 = p1|z+〉 〈 z+| + p2|x+〉 〈 x+|

Neste exemplo, é aconselhável analisar com cuidado o estado preparado antes de fazer suas escolhas. Veja que existe incerteza clássica sobre se |z+〉 ou se |x+ 〉 foi preparado. Além disso, esses estados são autovetores de observáveis incompatíveis, o que implica na existência de incerteza quântica (pois você pode escolher um único observável para medir). Para facilitar sua escolha, use o fato de que |x+〉 é uma superposição dos autovetores de Ŝz. Assim z±|x+=(1/2)(z±|z++z±|z)=1/2. Usando a regra de Born vemos que, para as partículas preparadas no estado |x+〉, a probabilidade de medir +ħ/2 ou −ħ/2 para Ŝz é 1/2. Por conseguinte, se você escolher medir Ŝz e escolher |z+〉, seu número de pontos será Np = p1N + p2N(1/2) − p2N(1/2) = p1N. O primeiro termo dessa equação aparece pois para todos os membros do ensemble preparados no estado |z+〉 você ganha. O segundo e terceiro termos são obtidos notando que para as partículas preparadas no estado |x+〉 você ganha metade das vezes e perde em metade das medidas. De forma análoga, podemos usar |z+=(1/2)(|x++x|) para verificar que se Ŝx e |x+〉 forem escolhidos, então Np = p1N(1/2) − p1N(1/2) + p2N = p2N. A diferença entre os Np das duas escolhas é N(p1p2). Assim, usamos o viés nas probabilidades, ou seja, verificamos se p1p2 é maior ou menor que zero, para fazer nossa escolha de forma apropriada a maximizar Np. Por exemplo, se p1 = 3/4 e p2 = 1/4 a primeira escolha nos fornece Np = 0, 75N e a segunda escolha resulta em Np = 0, 25N. Por outro lado, se p1 = p2 = 1/2 as duas escolhas resultarão em Np = 0, 5N. Esse será nosso pior saldo de pontos, pois a incerteza clássica é máxima nesse caso. Para este ensemble a entropia de von Neumann é dada por S(ρ̂2) = −λ1 log2 λ1 − (1 − λ1) log2(1 − λ1), com λ1=(112p1p2)/2, e está mostrada na Fig. 3.
  • ρ̂3 = p1|z+〉 〈z+| + p2|z 〉 〈z|

Este ensemble é obtido trocando-se |x+〉 por |z〉 no último exemplo. Portanto a análise é, de certa forma, parecida. Nesse caso é natural escolher Ŝz para ser medido. Então, se o autovetor escolhido for |z+〉, o saldo de pontos será Np = p1Np2N = (2p1 − 1)N. Se, no entanto, escolhermos |z〉, então Np = p2Np1N = (2p2 − 1)N. A diferença entre essas expressões para Np é 2(p1p2)N. Usamos o sinal desse número para escolher o autovetor que maximiza nossa pontuação. Aqui é interessante considerar o caso de equiprobabilidade p1 = p2 = 1/2, para o qual Np = 0. Note que nossa pontuação nesse caso, além de ser menor quando comparada com o mesmo caso no exemplo anterior, é a mínima possível. A entropia de von Neumann desse ensemble é: S(ρ̂3) = −p1 log2 p1 − (1 − p1) log2(1 − p1), e possui o máximo valor possível quando p1 = 1/2 (veja a Fig. 3).

A entropia de von Neumann, S, e o máximo saldo de pontos normalizado, PNp/N, estão mostrados na Fig. 3 para os três ensembles considerados. Note que, para um dado ensemble, P diminui (aumenta) com o aumento (decrécimo) de S. Além disso, o aumento de S de ρ̂3 (que é uma mistura estatística de estados ortogonais) em relação a ρ̂2 (que é uma mistura estatística de estados não ortogonais) está associado a uma diminuição relativa de P. Vale observar que S depende só do estado do sistema, enquanto que P depende também do observável medido e do autovalor escolhido. Mas a principal mensagem que gostaríamos de passar com esses exemplos é que o seu saldo de pontos está relacionado com a sua capacidade de, usando a informação que tens sobre como o sistema foi preparado, prever o que acontecerá em uma medida de um observável desse sistema. Por sua vez, a falta dessa informação, ou seja, a incerteza sobre o estado do sistema, que pode ser quantificada usando a entropia de von Neumann, diminuirá sua capacidade de previsão e por consequência o seu saldo de pontos.

Com esse jogo fica claro que o que é incerteza quântica quando o observável medido é incompatível com o observável usado na preparação do sistema, na presença de incerteza clássica torna-se informação que pode ser utilizada para aumentar nossa pontuação no jogo, ou seja, para diminuir nossa incerteza sobre o estado do sistema e aumentar nossa capacidade de previsão concernindo resultados de testes. Essas observações podem ser generalizadas para sistemas discretos com um número finito d de níveis de energia. Nesse caso, se {|oi〉} são autovetores do observável Ô, S(i=1d(1/d)|oioi|)=log2d é o valor máximo que a entropia de von Neumann pode assumir. A presença de um ou mais estados que não são autovetores de Ô nessa mistura diminuirá o valor de S.

5.

Considerações finais

Nesse artigo apresentamos os postulados da mecânica quântica de forma orientada a facilitar o entendimento da entropia de von Neumann. Um jogo simples foi proposto para ajudar nessa tarefa. Com esse jogo enfatizamos o papel distinto da incerteza clássica, que está relacionada com a falta de informação sobre a preparação do sistema, e da incerteza quântica, que existe quando medimos um observável para um sistema preparado em um estado que não é seu autovetor. Esperamos que essa exposição ajude também na compreensão de vários outros tópicos interessantes relacionados à entropia de von Neumann, como por exemplo a sua interpretação operacional [28[28] B. Schumacher, Phys. Rev. A 51, 2738 (1995).] e seus vínculos em sistemas quânticos compostos [32[32] E.A. Carlen and E. Lieb, Lett. Math. Phys. 101, 1 (2012).].

Agradecimentos

Esse trabalho foi parcialmente financiado pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), via o Instituto Nacional de Ciência e Tecnologia de Informação Quântica (INCT-IQ), e pela Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). Agradecemos ao revisor pelas suas observações pertinentes e cooperantes.

References

  • [1]
    H.C. Van Ness, Understanding Themodynamics (Dover Publications, Nova York, 1983).
  • [2]
    S.R.A. Salinas, Introdução à Física Estatística (Edusp, São Paulo, 2013).
  • [3]
    J. von Neumann and R. Tumulka Eur. Phys. J. 35, 201 (2010).
  • [4]
    S. Goldstein, J.L. Lebowitz, R. Tumulka and N. Zanghí, Eur. Phys. J. 35, 173 (2010).
  • [5]
    E.T. Jaynes, Phys. Rev. 106, 620 (1957).
  • [6]
    E.T. Jaynes, Phys. Rev. 108, 171 (1957).
  • [7]
    E.T. Jaynes, Am. J. Phys. 33, 391 (1965).
  • [8]
    A. Wehrl, Rev. Mod. Phys. 50, 221 (1978).
  • [9]
    D. Petz, http://arxiv.org/abs/math-ph/0102013
    » http://arxiv.org/abs/math-ph/0102013
  • [10]
    S. Popescu, A. J. Short and A. Winter, Nature Physics 2, 754 (2006).
  • [11]
    S. Popescu, A.J. Short and A. Winter, http://arxiv.org/abs/quant-ph/0511225v3
    » http://arxiv.org/abs/quant-ph/0511225v3
  • [12]
    E.H. Lieb and J. Yngvason, Phys. Today 53, 32 (2000).
  • [13]
    B. Baumgartner, Found. Phys. 44, 1107 (2014).
  • [14]
    C. Jarzynski, Annu. Rev. Condens. Matter Phys. 2, 329 (2011).
  • [15]
    T.B. Batalhão, A.M. Souza, L. Mazzola, R. Auccaise, R.S. Sarthour, I.S. Oliveira, J. Goold, G. De Chiara, M. Paternostro e R.M. Serra, Phys. Rev. Lett. 113, 140601 (2014).
  • [16]
    D.J. Griffiths, Mecânica Quântica (Pearson Education, São Paulo, 2011).
  • [17]
    A.F.R. de Toledo Piza, Mecânica Quântica (Edusp, São Paulo, 2009).
  • [18]
    G.B. Arfken and H.J. Weber, Mathematical Methods for Physicists (Elsevier, California, 2005).
  • [19]
    M. Bell, K. Gottfried and M. Veltman, John Bell on The Foundations of Quantum Mechanics (World Scientific, Singapura, 2001).
  • [20]
    A. Peres, Quantum Theory: Concepts and Methods (Kluwer Academic Publishers, Nova York, 2002).
  • [21]
    M.N. Magalhães e A.C.P. de Lima, Noções de Probabilidade e Estatística (Edusp, São Paulo, 1999).
  • [22]
    M.H. DeGroot, Probability and Statistics (Addison-Wesley, Massachusetts, 1975).
  • [23]
    C.E. Shannon, Bell Syst. Tech. J. 27, 379 (1948).
  • [24]
    T.M. Cover and J.A. Thomas, Elements of Information Theory (John Wiley & Sons, Nova Jersey, 2006).
  • [25]
    J. von Neumann, Mathematical Foundations of Quantum Mechanics (Princeton University Press, Princeton, 1955).
  • [26]
    M.A. Nielsen and I.L. Chuang, Quantum Computation and Quantum Information (Cambridge University Press, Cambridge, 2000).
  • [27]
    M.M. Wilde, Quantum Information Theory (Cambridge University Press, Cambridge, 2013).
  • [28]
    B. Schumacher, Phys. Rev. A 51, 2738 (1995).
  • [29]
    M.A. Nielsen, An Introduction of Majorization and its Applications to Quantum Mechanics Disponível em http://michaelnielsen.org/blog/talks/2002/maj/book.ps
    » http://michaelnielsen.org/blog/talks/2002/maj/book.ps
  • [30]
    M.B. Plenio and V. Vitelli, Cont. Phys. 42, 25 (2001).
  • [31]
    J.J. Sakurai e J. Napolitano, Mecânica Quântica Moderna (Bookman, Porto Alegre, 2013).
  • [32]
    E.A. Carlen and E. Lieb, Lett. Math. Phys. 101, 1 (2012).

Figures

Figura 1
Se não conhecemos com certeza qual é o estado de um membro de um ensemble de partículas, mas sabemos que a chance do seu estado ser |ψj〉 é pj, podemos usar o operador densidade, ρ̂, para calcular a probabilidade de obter o valor oi em medidas de um observável Ô desse sistema.
Figura 2
Espaço de estados: Estados puros (vetores de estado) estão na borda de uma hiperesfera com raio igual a um. Por sua vez, os operadores densidade (que são misturas estatísticas de vetores de estado) estão no interior dessa hiperesfera (ρ̂ = p1|ψ1〉〈 ψ1| + p2〉 〈 ψ2| e ρ̂2 = ρ̂1 + p3|ψ3〉〈 ψ3|).
Figura 3
Entropia de von Neumann, S, e pontuação máxima normalizada, PNp/N, para os ensembles ρ̂1, ρ̂2 e ρ̂3 como função da probabilidade de preparação p1 = 1 − p2.

Datas de Publicação

  • Publicação nesta coleção
    30 Mar 2015
  • Data do Fascículo
    Jan-Mar 2015

Histórico

  • Recebido
    12 Out 2014
  • Aceito
    19 Dez 2014
Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
E-mail: marcio@sbfisica.org.br