Preview only show first 10 pages with watermark. For full document please download

Resumo Termodinâmica

Um resumo com definições de termos muito usados na termodinâmica e em teoria da informação.

   EMBED


Share

Transcript

Mariane Rodrigues Cortes Entendendo um pouco mais de termodinˆamica e informac¸a˜ o Niter´oi 2017 Cap´ıtulo 1 Definic¸o˜ es preliminares • Termodinˆamica: e´ um conceito macrosc´opico. • Calor: Fluxo de energia espontˆaneo provocado pela diferenc¸a de temperatura (Q). • Trabalho: E´ qualquer fluxo de energia que n˜ao seja calor (W). • Universo: Uma porc¸a˜ o finita do mundo constitu´ıdo do sistema das vizinhanc¸as deste, que tem possibilidades de interagir com o mesmo. • Sistema aberto: A mat´eria pode ser transferida atrav´es da fronteira entre o sistema e suas vizinhanc¸as. • Sistema fechado: A mat´eria n˜ao pode passar a traves das fronteiras sistemasvizinhanc¸a. • Sistema isolado: O sistema n˜ao tem contato mecˆanico nem t´ermico com suas vizinhanc¸as. • Maquina T´ermica: Um dispositivo que transforma calor em trabalho. 2 • Entropia: E´ uma grandeza termodinˆamica que mensura o grau de irreversibilidade de um sistema. A entropia procura mensurar a parcela de energia que n˜ao pode mais ser transformada em trabalho em transformac¸o˜ es termodinˆamicas a` dada temperatura. • Processo revers´ıvel:E´ aquele que ocorre de tal modo, na conclus˜ao do processo, tanto o sistema como o meio exterior local podem ser reintegrados aos seus estados iniciais sem produzir qualquer variac¸a˜ o no resto do universo. • Processo irrevers´ıvel: S˜ao processos que h´a dissipac¸a˜ o de energia e que depois de iniciado ele n˜ao retorna ao seu estado inicial de forma espontˆaneo. • Processo quase-est´atico: E´ o processo em que o desvio do equil´ıbrio termodinˆamico ao ir-se de um estado de equil´ıbrio ao subsequente e´ infinitesimal de forma que o sistema pode ser considerado a qualquer momento como estando em um dos estados de equil´ıbrio. • Processo isob´arico: Ocorre a press˜ao constante. • Processo isoc´orico: Ocorre a volume constante. • Processo isent´alpico: Ocorre a uma entalpia constante. • Processos isolado: Nenhuma mat´eria ou energia (nem como trabalho, nem na forma de calor) e´ transferido para dentro ou para fora do sistema. • Processo Isentr´opico: E´ um processo revers´ıvel onde n˜ao h´a transferˆencia de energia calorifica, e por isso o processo e´ tamb´em adiab´atico . E´ um processo revers´ıvel adiab´atico que ocorre a uma entropia constante. 1.1 Informac¸a˜ o cl´assica e quˆantica • L´ogicos: E´ um conjunto abstrato de vari´aveis nas quais pode ser realizada algum processamento de informac¸a˜ o. • Processos L´ogico revers´ıvel: E´ um mapeamento injetivo(um-para-um) para estados l´ogicos, que corresponde a um processo f´ısico revers´ıvel. • Processo logicamente irrevers´ıvel: E´ um processo n˜ao injetivo, isto e´ , mapeamento de muitos para um. Tal processo n˜ao tem um inverso u´ nico, pois pode haver muitos estados originais poss´ıveis para um u´ nico estado resultante. • Vari´avel aleat´oria: E´ uma vari´avel quantitativa, cujo resultado depende de fatores aleat´orios. uma vari´avel aleat´oria pode ser uma medic¸a˜ o de um parˆametro que pode gerar valores diferentes. • Processos aleat´orios: S˜ao processos que tamb´em s˜ao denominados de processos estoc´asticos e representam uma extens˜ao do conceito de vari´avel aleat´oria para sistemas dinˆamicos (que dependem do tempo). • apagamento da mem´oria: E´ um processo logicamente irrevers´ıvel. Porque muitos estados poss´ıveis de mem´oria podem ser definidos por um estado fixo, depois de um apagamento e´ imposs´ıvel determinar o estado anterior sem a ajuda de mais informac¸a˜ o. Como a tarefa especial para um programa de computador que esta correlacionada com a mem´oria em quest˜ao. Cap´ıtulo 2 Leis da termodinˆamica 2.1 Lei zero da termodinˆamica A lei zero e´ a lei que nos tr´as o conceito de equil´ıbrio t´ermico entre corpos em contato. Definic¸a˜ o: Se dois corpos A e B est˜ao em equil´ıbrio t´ermico com um terceiro C, ent˜ao est˜ao em equil´ıbrio t´ermico entre si (observe a figura 2.1). Figura 2.1: Ilustrac¸a˜ o para exemplificar a definic¸a˜ o da lei zero da termodinˆamica. 2.2 1ª lei da termodinˆamica A primeira lei traz com sigo o conceito da conservac¸a˜ o de energia. 5 Q = W + ∆U (2.1) onde ∆U e´ a avariac¸a˜ o da energia interna do sistema que est´a associada a variac¸a˜ o de temperatura, e W e´ o trabalho que esta associado a variac¸a˜ o de volume. Podemos reescrever a eq. 2.1, como: ∆U = Q − W (2.2) Quando temos que ∆U > 0 (∆U < 0) a temperatura do sistema esta aumentando (diminuindo). em diferentes referencias bibliogr´aficas o sinal do trabalho na eq. 2.2 e´ adotado negativo ou positivo, quando o trabalho for negativo (positivo) estamos nos referindo ao trabalho realizado pelo (no) sistema. 2.3 2ª Segunda Lei da termodinˆamica A segunda lei da termodinˆamica nos tr´as o questionamento em relac¸a˜ o o quando de calor e´ convertido em trabalho e nos tr´as uma nova grandeza chamada entropia. A quantidade de entropia de qualquer sistema isolado tende a aumentar com o tempo, at´e alcanc¸ar um valor m´aximo. Enquanto a primeira lei da termodinˆamica estabelece a conservac¸a˜ o de energia em qualquer transformac¸a˜ o, a segunda lei estabelece condic¸o˜ es para que as transformac¸o˜ es termodinˆamicas possam ocorrer. Com o surgimento das maquinas a vapor durante a revoluc¸a˜ o industrial, surgiu as seguintes perguntas: Quanto do combust´ıvel inserido na maquina esta sendo convertido em trabalho? Qual o rendimento m´aximo da maquina t´ermica? Seria poss´ıvel construir uma maquina t´ermica que trabalha em ciclo e que converta totalmente calor em trabalho u´ til? E como respostas para estes questionamentos foram formulado os seguintes enunciados para a segunda lei: • Enunciado de Kelvin: ”E´ imposs´ıvel remover energia t´ermica de um sistema a uma certa temperatura e converter essa energia integralmente em trabalho mecˆanico sem que haja uma modificac¸a˜ o no sistema ou em suas vizinhanc¸as.” • Enunciado de Clausius: ”O calor n˜ao pode fluir, de forma espontˆaneo de um corpo de temperatura menor, para um outro corpo de temperatura mais alto.” • Enunciado de Kelvin-Planck: ”E´ imposs´ıvel que uma maquina t´ermica, operando em ciclo tenha como u´ nico efeito a extrac¸a˜ o de calor de um reservat´orio e a execuc¸a˜ o de trabalho integral dessa quantidade de energia.” A partir destes enunciados chegaram as seguintes conclus˜oes: • E´ imposs´ıvel converter (em um ciclo) todo o calor em trabalho u´ til; • Maquinas que trabalham em ciclo n˜ao s˜ao 100% eficiente; • Sempre existem algumas imperfeic¸o˜ es para converter calor em trabalho u´ til devido a “irreversibilidades” dos processos; • A definic¸a˜ o de Entropia diretamente ligadas a` esses enunciados. A entropia e´ uma grandeza que na f´ısica n˜ao h´a um consenso sobre sua definic¸a˜ o fixado em pedra, mas de um modo geral a entropia e´ vista como uma grandeza termodinˆamica que mesura o grau de irreversibilidade de um sistema. Com a entropia procura-se mensurar a parcela de energia que n˜ao pode mais ser transformada em trabalho em transformac¸o˜ es termodinˆamicas a dada temperatura T. Considerando um sistema isolado, quando ocorrer mudanc¸a em um sistema isolado sua entropia nunca diminui, ela pode crescer ou permanecer constante. Na forma ∆S ≥ 0. (2.3) A ideia de entropia, surgi no seguimento de uma func¸a˜ o criada por Clausius a partir de um processo c´ıclico revers´ıvel. Sendo que variac¸a˜ o da entropia de um processo revers´ıvel em func¸a˜ o do calor trocado, Q, e da temperatura, T , do sistema, e´ calculada como f Z ∆S = i dQ . T (2.4) Em processo revers´ıvel a integral s´o depende do estado inicial e final, portanto sendo independente do caminho seguido durante o processo. A entropia f´ısica, em sua forma cl´assica e´ dada por: dS = δQ , T (2.5) desde que o calor seja trocado de forma revers´ıvel ou quando o processo e´ isot´ermico. Como calcular a entropia de um processo irrevers´ıvel? Para encontrarmos a variac¸a˜ o de entropia para um processo irrevers´ıvel que ocorre em um sistema fechado, substitu´ımos esse processo por qualquer processo revers´ıvel que conecte o mesmo ponto inicial e final. Calculamos a variac¸a˜ o de entropia estes processos usando a eq. 2.4. 2.3.1 Interpretac¸a˜ o estat´ıstica da entropia Em 1877, Ludwinf Boltzman visualizou um m´etodo probabil´ıstico para medir a entropia de um determinando nº de part´ıculas de um g´as ideal, na qual ele definiu entropia como proporcional ao logaritmo neperiano do numero de microestados que um g´as pode ocupar, S = KlnΩ (2.6) O postulado fundamental da mecˆanica estat´ıstica estabelece que todos esses microestados s˜ao igualmente prov´aveis. A conex˜ao com a termodinˆamica se da por meio de func¸a˜ o de Ω(E, N ), no chamado limite termodinˆamico, em que E, N → ∞, com a raz˜ao E/N fixa. Para maior fixac¸a˜ o do conceito de microestado e macroestado, consideremos um sistema de trˆes moedas distintas,adotando c para cara e C para coroa, jogamos as trˆes moedas algumas vezes para ver quantas combinac¸o˜ es distintas das trˆes moedas teremos, observe a tabela a baixo. Tabela 2.1: jogadas Jogadas 1ª 2ª 3ª 4ª 5ª 6ª 7ª 8ª Moeda 1 c c c C c C C C moeda 2 c c C c C c C C moeda 3 c C c c C C c C Observe que temos 8 possibilidades distintas das moedas se apresentarem,denominamos estas distintas possibilidades como microestados, logo temos 8 microestados pra um sistema de 3 moedas distintas. J´a o agrupamento dos microestados que apresentam as mesmas caracter´ısticas global,como as jogadas 2ª, 3ª e 4ª onde duas moedas apresentam cara, e´ denominado como sendo macroestados. Cap´ıtulo 3 Demˆonio de Maxwell e a informac¸a˜ o Maxwell foi um dos primeiros a entender que o calor e´ na verdade apenas o movimento das mol´eculas. Quanto mais quente algo est´a, mais r´apido suas mol´eculas est˜ao se movendo. Essa ideia levariam Maxwell ao experimento mental no qual a informac¸a˜ o tinha um papel central. Maxwell teorizou que simplesmente ao saber o que est´a acontecendo em uma caixa cheia de um dado g´as seria poss´ıvel fazer uma metade ficar mais quente, e a outra mais fria. Algo como construir um forno ao lado de uma geladeira sem usar energia alguma, o argumento dele era muito persuasivo, funciona do seguinte modo: imagine um pequeno demˆonio posto acima da caixa, com uma vis˜ao t˜ao boa que ele pode observar com precis˜ao o movimento de todas as mol´eculas de ar dentro da caixa e ele faria o servic¸o de porteiro controlando a partic¸a˜ o que divide a caixa em duas partes de volumes iguais. Toda vez que ele vˆe uma mol´ecula com velocidade maior que a velocidade m´edia, hVT i, sem aproximando da partic¸a˜ o do lado direito, ele a abre para ela passar para o outro lado e toda vez que ele vˆe uma mol´ecula se aproximando da partic¸a˜ o pelo lado esquerdo com a velocidade menor que hVT i, ele abre, para ela poder passar para o lado direito. E assim ele induz uma pequena diferenc¸a de temperatura entre a direta e a esquerda, sendo sua ac¸a˜ o continua transferindo calor da parte, mais 11 fria para a mais quente [1]. Crucialmente, o demˆonio fez essa separac¸a˜ o com nada mais que a informac¸a˜ o a respeito do movimento da mol´eculas. O demˆonio de Maxwell parecia dizer que tendo informac¸a˜ o sobre as mol´eculas vocˆe poderia criar ordem na desordem. Esta ideia vai contra ao conceito de entropia que diz que com o tempo a entropia sempre aumenta. As coisas eram destinadas a se deteriorarem, mas o demˆonio parecia sugerir que podia voltar a construir as coisas sem usar energia alguma. Usando apenas informac¸a˜ o, seria poss´ıvel criar ordem. E a ac¸a˜ o do demˆonio de permitir que as mol´eculas mais r´apidas v´a do lado direito para o lado esquerdo e as mais lentas irem da esquerda para direita e induzindo esta diferenc¸a de temperatura, vai contra a segunda lei da termodinˆamica e em especial contra o enuncia do de Clausius que diz que imposs´ıvel transferir calor de uma fonte fria para uma fonte quente de forma espontˆanea. A soluc¸a˜ o para esse problema se provou ser diabolicamente dif´ıcil, em grande parte porque o brilhante Maxwell havia criado uma ideia muito a frente do seu tempo. Maxwell de fato n˜ao ofereceu uma soluc¸a˜ o, ele o apresentou como um problema e deixou em aberto. 3.1 Entropia de Shannon No seculo XX, o surgimento do telefonia e a expans˜ao do uso do telegrafo colocam desafios sobre os poss´ıveis limites para as taxas de transmiss˜ao de informac¸a˜ o veiculadas por canais ruidosos. Acreditava-se na e´ poca que a probabilidade de erro na recepc¸a˜ o de uma mensagem s´o poderia ser reduzida pela reduc¸a˜ o da taxa de transmiss˜ao. Claude Shannon (1948) discordou e encontrou uma maneira efetiva de medir a informac¸a˜ o contida em uma mensagem. Ele viu que a quantia de informac¸a˜ o em uma mensagem n˜ao tinha nada a ver com seu significado. Shannon mostrou que se relacionar somente com o qu˜ao incomum a mensagem e´ . ”A informac¸a˜ o se relaciona com a imprevisibilidade. As noticias s˜ao noticias porque s˜ao inesperadas e quanto mais inesperadas for, mais importante ela e´ .” Portanto Shannon relacionou imprevisibilidade e informac¸a˜ o. Ele mostrou que qualquer mensagem que se quisesse enviar podia ser traduzido em d´ıgitos bin´arios, uma longa sequencia de 1 e 0. O bit e´ a menor quantia de informac¸a˜ o. E assim consideremos um conjunto de n eventos poss´ıveis de uma vari´avel aleat´oria X = {x1 , x2 , ..., xn } cujas probabilidades de ocorrˆencia s˜ao, respectivamente P1 , P2 , ..., Pn . Tais probabilidades s˜ao conhecidas mais isso e´ tudo o que sabe sobre qual evento ir´a ocorrer. H=− n X Pi logPi , (3.1) i=1 onde Pi > 0. Shannon provou que, para H ser continua, monotonicamente crescente em n e com valor m´aximo para eventos equiprov´aveis: • O limite inferior e´ atingido quando h´a m´axima certeza sobre qual evento ir´a ocorrer, representando por Pj = 1 para o evento certo e Pi = 0, i 6= j, para dados eventos. • O limite superior ocorre na situac¸a˜ o de m´axima incerteza, que e´ quando os eventos s˜ao equiprov´aveis, ou seja, para n eventos poss´ıveis, Pi = H(X) = logn. 1 n e A entropia de Shannon basicamente quantifica a informac¸a˜ o obtida, mediante o conhecimento de X. Como calcular a quantidade de informac¸a˜ o que proporciona o conhecimento de um determinado processo? • Quanto menos esperado seja, maior ser´a a quantidade de informac¸a˜ o proporcionada. • Quanto mais prov´avel seja um sucesso, menor ser´a a surpresa que cause seu conhecimento. Exemplo: Quando a ocorrˆencia do evento/sucesso seja segura P (sucesso) = 1, a quantidade de informac¸a˜ o e´ nula I(sucesso) = 0, (3.2) seja em sucesso X que pode aparecer com probabilidade P (E) quando E acontece d´ecimos que I(E) = log 1 = log1 − logP (E) P (E) −→ I(E) = −logP (E). (3.3) Ent˜ao quando olhamos a entropia de Shannon temos H(X) = − X Pi logPi (3.4) onde logPi e´ a informac¸a˜ o adquirida ap´os qualquer processo. E o somat´orio sobre todos os simbolo da fonte/processo. 3.2 Entropia de Von Neumann O estado quˆantico de um sistema representa o conhecimento (a informac¸a˜ o) que possu´ımos acerca de sua preparac¸a˜ o. Von Neumann na formulac¸a˜ o de sua entropia ele contempla a desordem dos estados quˆanticos. S(b ρ) ≡ −T r(b ρlogb ρ) = − X λi logλi , (3.5) ou seja a entropia de Von Neumann e´ a entropia de Shannon de distribuic¸a˜ o de probabilidade obtida usando os autovalores de ρb, isto e´ : S(b ρ) = H(λi ). A entropia de Von Neumann e´ comumnete escrita na seguinte forma: S(b ρ) ≡ −KB T r(b ρlnb ρ), com KB sendo a constante de Boltzman. Vale observar que esta express˜ao, que aparece naturalmente no contexto da mecˆanica estat´ıstica, difere da eq. 3.5 somente por uma constante multiplicativa. Ou seja, n˜ao h´a nenhuma diferenc¸a fundamental entre elas, e´ s´o a unidade da entropia fornecida que muda. Por isso usamos a express˜ao, que se encaixa melhor dentro do contexto de teoria de informac¸a˜ o quˆantica, onde recebe um significado operacional em termos n´umero m´ınimo, m´edio, de bits quˆanticos necess´arios para representar o estado de um sistema. 3.3 Maquina de Szilard O demˆonio de maxwell na formulac¸a˜ o de Szilard [2], extrai energia de um u´ nico reservat´orio t´ermico realizando um processo c´ıclico baseado na informac¸a˜ o adquirida sobre o sistema. Tais processos envolvendo feedback se tornaram objeto de intensa atividade de pesquisa nos u´ ltimos anos. Na formulac¸a˜ o de Szilard o demˆonio viola a segunda lei da termodinˆamica como resultado da convers˜ao perfeita de calor em trabalho u´ til. Figura 3.1: Diagrama esquem´atico do motor t´ermico de Szilard. Uma cˆamara de volume V cont´em um g´as de uma mol´ecula, que pode ser encontrado na parte direita ou na parte esquerda da caixa. (a) Inicialmente, a posic¸a˜ o da mol´ecula e´ desconhecida. (b) O demˆonio de Maxwell insere uma partic¸a˜ o no centro e observa a mol´ecula para determinar se est´a no lado direito ou esquerdo da partic¸a˜ o. Ele registra essa informac¸a˜ o em sua mem´oria. (c) Dependendo do resultado da medic¸a˜ o (que est´a registrado em sua mem´oria), o demˆonio conecta uma carga a` partic¸a˜ o. Se a mol´ecula est´a na parte direita como mostrado, ele conecta a carga para o lado direito da partic¸a˜ o. (d) A expans˜ao isot´ermica do g´as funciona sobre a carga, cuja quantidade e´ kT ln2, que chamamos de 1 bit. Adaptado da Fig. 4 em [3] Szilard propˆos que h´a um aumento compensat´orio da entropia causada pelo demˆonio no processo de medic¸a˜ o. Ele se referiu a kln2 de entropia como uma quantidade fundamental bem antes de Shannon fundar a teoria da informac¸a˜ o em 1948 [4] [5]. Embora ele considerasse a mem´oria do demˆonio como um elemento importante na an´alise de sua m´aquina uma mol´ecula, Szilard n˜ao revelou o papel espec´ıfico da mem´oria em termos da segunda lei. No entanto, seu trabalho e´ muito importante, pois foi o primeiro a identificar a conex˜ao expl´ıcita entre informac¸a˜ o e f´ısica. 3.4 Soluc¸a˜ o tempor´aria para o paradoxo do demˆonio de Maxwell-Negentropia Brilloiun se inspirou no trabalho de Demers(1944) [6]que reconheceu na d´ecada de 1940 que uma lampada de alta temperatura e´ necess´aria para iluminar as mol´eculas de modo que a luz difusa possa ser facilmente distinguida da radiac¸a˜ o do corpo negro, Brilloiun mostrou que a aquisic¸a˜ o de informac¸a˜ o via sinais luminosos e´ necessariamente acompanhado por um aumento de entropia, o que e´ suficiente para salvar a 2ª lei. Brillouin(1950) postulou uma conex˜ao direta entre entropia de informac¸a˜ o e entropia termodinˆamica. Isso levou a` ´ıdeia de Negentropia que e´ uma quantidade oposta a entropia que e´ definida, como: N := Smax − S (3.6) onde S e´ a entropia termodinˆamica e Smax e´ a a entropia m´axima poss´ıvel de um sistema. Em sua hip´otese, o ganho de informac¸a˜ o vinculada Ib por medic¸a˜ o esta ligado a mudanc¸as na entropia no sistema f´ısico como: ∆Ib = Sam − Sdm > 0 (3.7) sendo que Sam e Sdm , e´ a entropia f´ısica ante e depois de ser feito a medida, respectivamente. Como a Ib e´ tratada com a mesma base da entropia f´ısica do sistema, a 2ª lei precisa se expressa por Ib , assim como a entropia f´ısica: Conside- rando ent˜ao se nenhuma informac¸a˜ o no sistema f´ısica esta dispon´ıvel inicialmente, a entropia do sistema ap´os obter informac¸a˜ o Ib e´ Sf = Si − Ib . (3.8) A2ª lei diz que em um sistema isolado a entropia f´ısica n˜ao diminui: ∆Sf ≥ 0. Usando a mudanc¸a da negentropia ∆N : −∆S, ∆Sf = ∆(Si − Ib ) = ∆Si − ∆Ib = −∆Ni ∆I ≥ 0 (3.9) ∆(Ni + Ib ) ≤ 0. (3.10) Se n˜ao h´a mudanc¸a na informac¸a˜ o dispon´ıvel para n´os, a equac¸a˜ o 3.10 n˜ao ser´a nada mais que a segunda lei da termodinˆamica (∆S ≥ 0). No entanto, a eq. 3.10, a informac¸a˜ o e´ tratada como parte da entropia total, e afirma que a quantidade (negentropia+informac¸a˜ o) nunca aumenta. Esta e´ uma nova interpretac¸a˜ o da senda lei da termodinˆamica. 3.5 Exorcismo do Demˆonio Landauer colocou fim a vida do demˆonio reconhecendo o papel da memoria, que Szilard deixou passar despercebido Ele ent˜ao percebeu que a irreversibilidade l´ogica deve envolver a dissipac¸a˜ o, portanto, apagar a informac¸a˜ o na mem´oria implica aumento da entropia (no ambiente). A mol´ecula est´a em L ou R, dependendo da informac¸a˜ o que armazena (Fig. 3.2.a). Para apagar a informac¸a˜ o armazenada, primeiro, removemos a divis˜ao que divide o recipiente no centro (Fig. 3.2.b). Em segundo lugar, insira um pist˜ao na extremidade direita ( 3.2.c), quando o estado de mem´oria padr˜ao for L, e empurre-o Figura 3.2: Processo termodinˆamico para apagar informac¸o˜ es. A informac¸a˜ o bin´aria e´ armazenada num recipiente como a posic¸a˜ o da mol´ecula, L ou R. Um procedimento comum para ambos os estados iniciais, isto e´ , a remoc¸a˜ o da divis˜ao e a divis˜ao por metade do volume inteiro por uma compress˜ao isot´ermica em relac¸a˜ o ao estado padr˜ao L, completa o apagamento. Adaptado da Fig. 3 [3] e [7] para a esquerda isot´ermicamente a` temperatura T at´e o volume comprimido se tornar V /2 ( 3.2.d). O estado resultante e´ L para ambos os estados iniciais e a informac¸a˜ o e´ apagada. Vale ressaltar que o processo de apagamento n˜ao deve depender do estado inicial da mem´oria. O estado R em ( 3.2.a) pode ser transferido para o estado L deslocando a regi˜ao de volume V /2 para a esquerda. No entanto, neste caso, o operador do pist˜ao precisa observar a posic¸a˜ o da mol´ecula e esta ac¸a˜ o requer outra mem´oria. Assim, o processo de apagamento deve ser independente do estado de mem´oria inicial. O trabalho investido para comprimir o volume de V para V /2 e´ Wapagar = kT ln2 e este e´ dissipado como calor no ambiente, aumentando sua entropia por kln2, como argumentou Landauer. Como n˜ao h´a desperd´ıcio de trabalho (no sentido de que todo o trabalho investido e´ convertido em calor para aumentar a entropia do ambiente), kT ln2 e´ o m´ınimo quantidade de trabalho a consumir para o apagamento. Se houver uma tendˆencia tendenci- osa na frequˆencia de aparecimento de um estado de mem´oria particular, digamos L, quanto seria o trabalho de apagamento ser? A resposta e´ simples: o trabalho de apagamento e´ proporcional a` quantidade de informac¸a˜ o armazenada, portanto Wapagar = kT ln2H(p), onde H(p) = −plogp − (1 − p)log(1 − p) (3.11) Referˆencias Bibliogr´aficas [1] Maxwell, J. C., 1911, in Life and Scientific Work of Peter Guthrie Tait, edited by C. G. Knott Cambridge University Press, London, p. 213. [2] Szilard, L., 1929, Z. Phys. 53, 840. Behav. Sci. 9, 301 (1964). [3] Plenio, M. B., and V. Vitelli, 2001, Contemp. Phys. 42, 25. [4] Shannon, C. E., 1948, Bell Syst. Tech. J. 27, 379. [5] Shannon, C. E., and W. W. Weaver, 1949, The Mathematical. [6] Demers, P., 1944, J. Curric. Stud. 22, 27. [7] K. Maruyama, F. Nori, V. Vedral, Rev. Mod. Phys., Vol. 81, No. 1, January–March 2009 21