Tecnologia Científica

Fortalecendo a segunda lei da termodina¢mica
Desde pelo menos o século 19, os fa­sicos tem investigado o papel da entropia na teoria da informaa§a£o - estudando as transaa§aµes de energia para adicionar ou apagar bits de computadores, por exemplo.
Por Instituto Santa Fe - 05/11/2021


Figura 3 do artigo "Produção de entropia dadas as restrições nas funções de energia." Crédito: Santa Fe Institute

De acordo com a segunda lei da termodina¢mica, a entropia total de um processo fechado pode aumentar ou permanecer a mesma, mas nunca diminuir. A segunda lei garante, por exemplo, que um ovo pode cair de uma mesa e deixar uma baguna§a no cha£o, mas que tal baguna§a nunca formara¡ um ovo espontaneamente e saltara¡ de volta na mesa. Ou o ar escapara¡ de um bala£o, mas nunca, por conta própria, o inflara¡. Desde pelo menos o século 19, os fa­sicos tem investigado o papel da entropia na teoria da informação - estudando as transações de energia para adicionar ou apagar bits de computadores, por exemplo.

A termodina¢mica da computação éum foco de pesquisa do fa­sico e membro do corpo docente residente da SFI David Wolpert, e nos últimos anos ele tem colaborado com Artemy Kolchinsky, fa­sico e ex-pa³s-doutorando da SFI, para entender melhor a conexão entre termodina¢mica e processamento de informações na computação . Sua última exploração do ta³pico, publicada na Physical Review E , examina a aplicação dessas idanãias a uma ampla gama de áreas cla¡ssicas e qua¢nticas, incluindo a termodina¢mica qua¢ntica.

"Os sistemas de computação são projetados especificamente para perder informações sobre seu passado a  medida que evoluem", diz Wolpert.

Se uma pessoa insere "2 + 2" em uma calculadora e depois pressiona "enter", o computador retorna a resposta - 4. Ao mesmo tempo, a ma¡quina perde informações sobre a entrada, pois não apenas 2 + 2, mas também 3 + 1 (e outros pares de números) podem produzir a mesma saa­da. Com base apenas na resposta, a ma¡quina não pode relatar qual par de números atuou como entrada. Em 1961, o fa­sico da IBM Rolf Landauer descobriu que quando a informação éapagada, como durante um ca¡lculo desse tipo, a entropia da calculadora diminui (ao perder informações), o que significa que a entropia do ambiente deve aumentar.

“Se vocêapagar um pouco de informação, tera¡ que gerar um pouco de calor”, diz Kolchinsky.

Wolpert e Kolchinsky queriam saber: qual éesse custo de energia de de apagar informações para um determinado sistema? Landauer derivou uma equação para a quantidade ma­nima de energia produzida durante o apagamento, mas a dupla SFI descobriu que a maioria dos sistemas realmente produz mais. “Ha¡ um custo que parece além do limite de Landauer”, diz Kolchinsky.

A única maneira de conseguir a perda ma­nima de energia de Landauer, diz ele, éprojetar um computador com uma determinada tarefa em mente. Se o computador realizar algum outro ca¡lculo, ele gerara¡ entropia adicional. Kolchinsky e Wolpert demonstraram que dois computadores podem realizar o mesmo ca¡lculo, por exemplo, mas diferem na produção de entropia por causa de suas expectativas de entradas. Os pesquisadores chamam isso de "custo incompata­vel" ou o custo de estar errado.

“a‰ o custo entre para que a ma¡quina foi construa­da e para que vocêa usa”, diz Kolchinsky.

Em artigos anteriores, a dupla provou que esse custo de incompatibilidade éum fena´meno geral que pode ser explorado em uma variedade de sistemas, não apenas na teoria da informação , mas também na física ou na biologia. Eles descobriram uma relação fundamental entre irreversibilidade termodina¢mica - o caso em que a entropia aumenta - e irreversibilidade lógica - o caso em computação em que o estado inicial éperdido. Em certo sentido, eles fortaleceram a segunda lei da termodina¢mica .

Em sua última publicação, Kolchinsky e Wolpert demonstram que essa relação fundamental se estende ainda mais amplamente do que eles pensavam anteriormente, incluindo a termodina¢mica dos computadores qua¢nticos. As informações em computadores qua¢nticos são vulnera¡veis ​​a perdas ou erros devido a flutuações estata­sticas ou rua­do qua¢ntico, razãopela qual os fa­sicos estãoprocurando novos manãtodos de correção de erros. Uma melhor compreensão do custo de incompatibilidade, diz Kolchinsky, pode levar a uma melhor compreensão de como prever e corrigir esses erros.

“Existe uma relação profunda entre a física e a teoria da informação ”, diz Kolchinksy.

 

.
.

Leia mais a seguir