Mundos fora de equilíbrio (física)
MUNDOS FORA DE EQUILÍBRIO
Jean Pierre PETIT – Ex-diretor de pesquisa – CNRS FR.
12 de janeiro de 2013
Quando um homem da rua pensa em equilíbrio de um sistema, geralmente imagina uma bola no fundo de um poço, ou algo semelhante.
A teoria do equilíbrio termodinâmico contém algo mais sutil: o equilíbrio dinâmico. O caso mais simples é o ar que respiramos. Suas moléculas estão agitadas em todas as direções, com uma velocidade térmica média de 400 m/s. A uma taxa frenética, essas moléculas colidem e interagem. Esses choques alteram suas velocidades. No entanto, o físico traduz isso por uma estacionariedade estatística (o termo usado é "equilíbrio detalhado"). Imagine um duende que, a todo instante e em qualquer ponto da sala, pudesse medir a velocidade molecular em uma direção dada, com uma leve incerteza angular. Em cada intervalo de tempo, nosso duende conta as velocidades V e V + ΔV, valor algébrico. Em seguida, ele traça esses valores em um gráfico e observa surgir uma bela curva gaussiana, com um valor médio no pico próximo a 400 m/s. Quanto mais rápidas ou lentas são as moléculas, menor é sua população.
Ele repete essa operação apontando seu dispositivo de medição em qualquer direção do espaço e, surpresa, surpresa, obtém o mesmo resultado. A agitação molecular na sala é isotrópica. Além disso, nada pode perturbar esse equilíbrio dinâmico se a temperatura permanecer constante, pois a temperatura do gás é exatamente a energia cinética média proveniente dessa agitação térmica. O físico descreverá esse gás como estando em equilíbrio termodinâmico. Esse estado é multifacetado: as moléculas de ar não têm simetria esférica. As moléculas diatômicas, como oxigênio ou hélio, têm forma de amêndoa. As do gás carbônico ou da água têm outras formas. Todos esses objetos, em rotação, podem armazenar energia como pequenos piões. Essas moléculas também podem vibrar. O conceito de distribuição igual de energia diz que a energia deve ser distribuída igualmente em todas essas diferentes "modos". Durante uma colisão, parte da energia cinética pode se transformar em energia vibracional ou rotacional de uma molécula. O processo inverso também é válido. Tudo isso repousa na estatística, e nosso duende pode contar quantas moléculas estão em tal ou qual estado, têm tal energia cinética, estão em tal estado de vibração. Voltando ao ar que respiramos: esse censo conduz a um estado estacionário. Esse meio é então dito estar em equilíbrio termodinâmico, isto é, relaxado. Imagine um feiticeiro com o poder de parar essas moléculas, congelar seus movimentos de rotação ou vibração, modificá-los à vontade, criando assim uma nova lei estatística, deformando essa bela curva gaussiana, ou até criando eventos anisotrópicos, por exemplo dobrando a velocidade térmica em uma direção em relação às direções transversais. Finalmente, ele deixa o sistema evoluir segundo novas colisões. Quantas dessas colisões são necessárias para que o sistema recupere um equilíbrio termodinâmico? Resposta: muito poucas. O tempo médio livre de uma molécula, entre duas colisões, dá uma ideia do tempo de relaxamento em um gás, de seu tempo de retorno ao equilíbrio termodinâmico.
Existem meios fora de equilíbrio, onde as velocidades estatísticas moleculares se afastam notavelmente dessa isotropia confortável e dessa beleza das curvas gaussianas?
Oh sim! E na verdade é o caso majoritário no universo. Uma galáxia, essa "ilha-universo", composta por centenas de bilhões de estrelas, cuja massa é mais ou menos comparável, pode ser vista como um meio gasoso, em que as moléculas deveriam ser... estrelas. Nesse caso específico, descobre-se um mundo desconcertante onde o tempo médio livre de uma estrela, antes de qualquer encontro com uma estrela vizinha, é dez mil vezes a idade do universo. O que queremos dizer com "encontro"? Trata-se de uma colisão em que as duas estrelas se esmagam violentamente? De modo algum! No domínio da física teórica chamado teoria cinética dos gases, considera-se uma colisão quando a trajetória de uma estrela é notavelmente modificada ao passar perto de uma estrela vizinha.
No entanto, os cálculos provam que esses eventos são extremamente raros, e que nosso sistema de centenas de bilhões de estrelas pode ser visto como geralmente sem colisões.
Desde bilhões de anos, a trajetória do nosso Sol é regular, quase circular. Se o Sol fosse consciente de si mesmo e não mudasse de ritmo por causa de encontros, ignoraria totalmente a presença de vizinhos. Ele sente apenas o campo gravitacional como "suave". Avança em seu ritmo como em uma bacia, sem sentir qualquer saliência criada por outras estrelas. Imediatamente surge a consequência: coloque nosso duende, agora astrônomo, próximo ao Sol em nossa galáxia e peça-lhe que construa uma estatística de velocidade das estrelas vizinhas em todas as direções. O fato evidente surge agora. Dinamicamente falando, o meio é fortemente anisotrópico. Existe uma direção onde as velocidades de agitação das estrelas (chamadas velocidades residuais pelos astrônomos, em relação à rotação média da galáxia, bastante circular e de cerca de 230 km/s perto do Sol) são praticamente duas vezes maiores que em qualquer outra direção transversal. No nosso ar respirado, isso se chamava uma distribuição de velocidades esferoidal – agora torna-se uma distribuição elipsoidal. Até aqui, tudo bem? Como isso afeta nossa visão, nossa compreensão do mundo? Muda tudo! Pois, de longe, não podemos tratar teorias de sistemas tão fortemente fora de equilíbrio.
Deixando de lado o estatuto paradoxal das galáxias, devido a esse efeito demoníaco da matéria escura (massa faltante), descoberta em 1930 pelo norte-americano de origem suíça Fritz Zwicky, e, com certeza, não podemos produzir nenhum modelo de massa pontual auto-gravitante (em órbita em seu próprio campo gravitacional). Nossa física permanece sempre próxima a um estado de equilíbrio termodinâmico. Obviamente, qualquer desvio desse ou daquele elemento representa uma desvio em relação ao equilíbrio, por exemplo, uma diferença de temperatura entre duas regiões gasosas, o que provocará uma transferência de calor, uma transferência de energia cinética proveniente da agitação térmica. Nesse caso, se colocarmos nosso duende para trabalhar novamente, ele concluiria que o meio, do ponto de vista dinâmico, é "quase isotrópico". Seria esse o caso da nossa atmosfera, mesmo atravessada pelas tempestades mais violentas.
Então, é impossível encontrar, "colocar os dedos sobre", situações em que um meio gasoso, um fluido, esteja claramente fora de equilíbrio? Encontramos tais ocorrências durante a passagem de ondas de choque. São zonas limitadas, precisamente a espessura da onda de choque sendo da ordem do número de comprimentos médios livres.
Quando um gás atravessa uma onda de choque, passa abruptamente de um estado próximo ao equilíbrio termodinâmico para um estado "chocado", e o equilíbrio termodinâmico é restabelecido após algumas distâncias médias livres.
Relatamos uma observação há quarenta anos, no laboratório onde trabalhava, agora demolido, o "Institut de Mécanique des Fluides de Marseille". Tínhamos então o que chamávamos de "tubos de choque", tipo canhões de gás. Princípio: usando uma explosão, provocamos uma onda de choque que se propagava a vários milhares de metros por segundo em um gás rarefeito – inicialmente, esse gás estava a uma pressão de alguns milímetros de mercúrio. A passagem da onda de choque recomprime o gás, aumentando sua densidade.
Podíamos acompanhar facilmente e com precisão o aumento da densidade usando interferometria. Naquela época, também medíamos o fluxo térmico na superfície de maquetes em Plexiglas. Como os experimentos duravam apenas frações de milissegundo, nossos dispositivos de medição precisavam ter resposta rápida. Precisamente, eram películas metálicas finas de um micrômetro de espessura, depositadas sob vácuo na parede, atuando como termistores. Avaliávamos o fluxo térmico registrando a resistência desses sensores enquanto eles se aqueciam.
Um dia, colocamos um sensor diretamente na parede do tubo. Em seguida, observamos que o fluxo térmico atingia o sensor após um certo atraso, após a passagem da onda de choque, materializada por um salto brusco de densidade. No entanto, verificamos que o atraso térmico do sensor era suficientemente pequeno para que esse atraso não viesse dele. Na verdade, tínhamos colocado os dedos sobre um fenômeno de retorno a um quasi-equilíbrio termodinâmico, a jusante da onda de choque.
Podemos comparar isso a um golpe de martelo. Não só a densidade é bruscamente aumentada, mas observamos um salto de temperatura, significando um aumento da velocidade térmica das moléculas. Mas atrás dessa onda, a isotropia só é restabelecida várias distâncias médias livres depois. Imediatamente antes do fronte de densidade, a agitação térmica é traduzida por movimentos que começam perpendicularmente à direção da onda.
Quando nosso sensor recebe o calor, isso provém do impacto das moléculas de ar em sua superfície. No entanto, imediatamente antes do fronte de densidade, em certa distância, a agitação térmica se desenvolvia paralelamente à parede. O gás estava bem "aquecido", mas temporariamente incapaz de transferir esse calor para a parede. Durante as colisões, o "elipsoide das velocidades" transformava-se em "esferoide das velocidades", e o sensor acabava por restituir o fluxo térmico que havia recebido. Acredito lembrar, com o dispositivo experimental que tínhamos, que registramos esse fluxo térmico a cerca de um centímetro antes do fronte de densidade.
Assim, as ondas de choque representam zonas de espessura muito pequena, onde o meio gasoso está fortemente fora de equilíbrio.
Como lidamos com isso? Fazemos com que essas zonas sejam equivalentes a superfícies de espessura nula. E isso funciona desde quase um século.
Tenho idade suficiente para ter conhecido quase toda a história dos computadores, desde o início. Quando era estudante na "École Nationale Supérieure de l'Aéronautique", não havia computador no prédio. Esses estavam instalados em santuários chamados "centros de cálculo" aos quais não tínhamos acesso. Calculávamos usando réguas de cálculo, objetos de curiosidade para a geração de hoje. Nas salas da escola superior, todos tínhamos nosso livro de logaritmos, e cada exame incluía um teste cansativo de cálculo numérico usando esses objetos, agora expostos em museus.
Quando deixei a escola aeronáutica, as máquinas mecânicas (FACIT) estavam começando a aparecer, manuais. Para multiplicar números, girávamos uma manivela em um sentido, para dividir, girávamos no outro.
Os professores ou chefes de departamento tinham máquinas elétricas, que quebravam o silêncio dos escritórios com seu barulho de engrenagens no Instituto de Mecânica dos Fluidos, em 1964. Os computadores ocupavam lugar de honra, como deuses distantes visíveis apenas através de uma janela, nesses centros de cálculo. Esses computadores, cuja potência equivalia à de um computador de bolso atual, eram servidos por sacerdotes de hábito branco. Não se podia comunicar com eles senão por meio de uma espessa pilha de cartões perfurados lidos barulhentamente por um leitor mecânico. Comprávamos "tempo de cálculo" por segundo, tão caro que era quase neolítico para os jovens de hoje.
A invasão dos microcomputadores mudou tudo. Além disso, o aumento da potência dos computadores foi tão rápido que a internet agora está cheia de imagens mostrando vastas salas repletas de caixas pretas misteriosas, gerenciando quantidades espantosas de dados.
Megaflops, gigaflops, petaflops, à vontade! Nas décadas de 1970, era fácil ler o conteúdo da memória RAM de um Apple II, inteiramente escrito em forma de pequeno caderno.
Vivemos em um mundo prometeico. Podemos dizer que essas ferramentas modernas aumentam nossa dominância sobre a física? Uma anedota me vem à mente. Na França, fui pioneiro da microinformática, tendo gerenciado um dos primeiros centros (baseado no Apple II) dedicados a essa tecnologia. Naquela época, também era professor de escultura na École des Beaux-Arts de Aix-en-Provence. Um dia, apresentei um sistema usando um traçador plano que desenhava, por vontade própria, perspectivas bem dominadas. Um velho professor, franzindo as sobrancelhas, disse então: "Não me diga que o computador substituirá o artista?"
Parfraseando, poderíamos imaginar um colega, após visitar um centro de dados gigantesco, afirmar: "Não me diga que o computador substituirá o cérebro?"
Apesar da escalada incontrolável da potência de cálculo e dos processadores massivamente multiplicados, estamos muito longe disso. No entanto, em certos domínios, esses sistemas jogaram no lixo nossos livros de logaritmos e réguas de cálculo, entre outros. Quem ainda brinca em calcular integrais à mão, papel e lápis? Quem ainda brinca com o cálculo diferencial, a não ser os matemáticos puros?
Hoje acreditamos que "o computador faz tudo". Escrevemos algoritmos, fornecemos dados, lançamos os cálculos até obter resultados. Se quisermos desenhar um edifício ou uma bela obra de engenharia, isso funciona maravilhosamente bem. A teoria dos fluidos também é um sucesso.
Podemos colocar um elemento de superfície, de forma qualquer, perpendicular a um fluxo gasoso, e calcular o esquema do fluxo turbulento em torno dele, independentemente da sua forma. Isso corresponde à experiência? Nem sempre. Qualitativamente, dominamos o evento: por exemplo, podemos calcular um valor confiável de arrasto aerodinâmico resultante dessa turbulência gasosa. Da mesma forma, calculamos a eficiência da combustão dentro de um cilindro, os fluxos de convecção em uma câmara. A meteorologia preditiva avança rapidamente, para previsões de alguns dias, exceto pelos "microeventos", muito localizados, ainda inacessíveis. É assim em todos os domínios?
Existem corpos que se recusam a ser dominados por este leão-treinador moderno que é o computador. São os plasmas fora de equilíbrio, detentores do título em todas as categorias. Eles também se afastam da teoria dos fluidos, apesar de uma semelhança familiar, pois estão sujeitos a ações à distância devido ao campo eletromagnético, cujo efeito só pode ser avaliado levando-se em conta todas as partículas iônicas constituintes do sistema.
Pode-se dizer: "Tanto faz. Basta considerar o plasma como um sistema de N corpos." Mais fácil dizer do que fazer! Já falamos acima das galáxias, como exemplos de mundos sem colisão. Os tokamaks são outro exemplo (ITER é um tokamak gigante). O gás que contêm é extremamente rarefeito. Antes de iniciar, a pressão dentro dos 840 metros cúbicos do ITER seria inferior a uma fração de milímetro de mercúrio. Por que uma pressão tão baixa? Porque precisamos aquecer esse gás a mais de 100 milhões de graus. Você sabe que a pressão é dada por: p = nkT – k sendo a constante de Boltzmann, T a temperatura absoluta e n o número de partículas por metro cúbico. O confinamento do plasma repousa exclusivamente sobre a pressão magnética, que aumenta com o quadrado do campo magnético.
Com uma intensidade de campo de 5,2 Tesla, a pressão magnética é de 200 atmosferas. Para o confinamento do plasma, sua pressão deve permanecer bem abaixo desse valor. Devido ao uso de um dispositivo supercondutor, o campo magnético não pode ser aumentado indefinidamente, portanto a densidade do plasma dentro da câmara do reator permanece limitada a valores muito baixos. A partir desses fatos, vemos que se trata de um corpo totalmente sem colisão, escapando de qualquer definição macroscópica confiável. Podemos tratá-lo como um problema de N corpos? Nem sonhe com isso, nem no presente nem no futuro – é impossível calcular localmente, como fazemos com a mecânica dos fluidos neutros. Cada região está acoplada a todas as outras por meio do campo eletromagnético. Tomemos, por exemplo, o problema da transferência de energia do núcleo do plasma para as paredes. Além de um mecanismo semelhante a um fenômeno de condução, além do que se relaciona com a turbulência, surge uma terceira modalidade, chamada "transporte anormal", utilizando... ondas.
Em resumo, um tokamak é um verdadeiro pesadelo para um teórico.
O plasma em si, além de seu comportamento imprevisível, não é o único elemento envolvido. Há todo o resto: especialmente a ablação inevitável de partículas provenientes das paredes. Quem pratica planadores conhece o parâmetro fundamental dessas máquinas: a razão sustentação-tração: expressa o número de metros percorridos por metro de queda (razão de planeio). A uma velocidade dada, a asa do planador produz uma certa força de sustentação. À mesma velocidade, obtém-se uma força de arrasto, que tem duas origens: primeiramente, o arrasto induzido: um
Podemos colocar um elemento de superfície, de qualquer forma, perpendicularmente a algum fluxo gasoso, e calcular o padrão de fluxo giratório em torno dele, independentemente de sua aparência. Isso se adequa aos experimentos? Nem sempre. Qualitativamente, dominamos o evento, por exemplo, podemos calcular um valor confiável de arrasto aerodinâmico como resultado desse redemoinho de gás. Da mesma forma, calculamos a eficiência de combustão dentro de um cilindro, a corrente de convecção em uma câmara. A meteorologia preditiva está avançando rapidamente, fornecendo um quadro de tempo de alguns dias, exceto os "eventos micro", muito localizados, que ainda não são gerenciáveis. Isso é o caso em todos os domínios?
Há corpos que se recusam a serem controlados por esse domador de leões moderno, o chamado computador. São os plasmas "não em equilíbrio", campeões em todas as categorias. Eles também se afastam da teoria dos fluidos, apesar de uma semelhança familiar, porque estão sujeitos a ação à distância, devido ao campo eletromagnético cuja ação só pode ser avaliada considerando todos os partículas iônicas que constituem o sistema.
Não importa, disse você. Basta considerar o plasma como um sistema de N corpos. Mais fácil de dizer do que de fazer! Falamos anteriormente sobre galáxias, como exemplos de mundos livres de colisões. Tokamaks são outro tipo (ITER é um grande tokamak). O gás que contêm é extremamente escasso. Antes de iniciar, a pressão dentro dos 840 metros cúbicos do ITER seria menor que frações da pressão de um milímetro de mercúrio. Por que tanta baixa pressão? Porque queremos aquecer esse gás a mais de 100 milhões de graus. No entanto, você sabe que a pressão é expressa como: p = nkT - k sendo a constante de Boltzmann, T a temperatura absoluta e n o número de partículas por metro cúbico. A confinamento do plasma é devido apenas à pressão magnética, esta última aumentando com o quadrado do campo magnético.
Com uma intensidade de campo de 5,2 Tesla, a pressão magnética é de 200 atmosferas. Em vista do confinamento do plasma, sua pressão deve permanecer muito abaixo desse valor. Devido ao uso de um dispositivo supercondutor, o campo magnético não pode ser aumentado indefinidamente, então a densidade do plasma dentro da câmara do reator permanece limitada a valores muito baixos. A partir desses fatos, vemos um corpo totalmente livre de colisões, escapando de qualquer definição macroscópica confiável. Podemos gerenciá-lo como um problema de N corpos? Nem sonhe com isso, presente ou futuro – não é possível calcular localmente, como poderíamos fazer com a mecânica dos fluidos neutros. Cada área está acoplada com qualquer outra através do campo eletromagnético. Por exemplo, considere o problema de transferência de energia do núcleo do plasma para as paredes. Além de um mecanismo que parece fenômeno de condução, além do que pertence à turbulência, surge uma terceira modalidade, chamada "transporte anormal", usando... ondas.
Em resumo, um tokamak é um pesadelo absoluto para um teórico.
O próprio plasma, além de seu comportamento imprevisível, não é o único envolvido. Há tudo mais: entre eles está a ablação inevitável de partículas das paredes. Quem pratica planadores sabe que o parâmetro básico dessas máquinas é a razão de sustentação para arrasto: expressa o número de metros voados por metro de altura perdida (razão de planeio). A asa do planador, a uma velocidade dada, produz uma força de sustentação. Na mesma velocidade, obtemos uma força de arrasto, que é dupla: primeiro é o arrasto induzido: uma perda de energia devido aos vórtices nas pontas das asas.
Você não pode evitá-lo, a menos que tenha envergadura infinita... Para reduzi-lo, os planadores têm uma envergadura muito grande, frequentemente mais de 20 metros, associada a uma razão de aspecto – razão da metade da envergadura sobre a largura média da asa – maior que 20. A segunda fonte de arrasto é o arrasto viscoso. Ele será reduzido buscando a superfície mais lisa da asa. Devido a um bom polimento, atrasamos o início da turbulência na imediata proximidade da superfície da asa. Este fenômeno é uma instabilidade básica do fluido, a excelência do polimento da superfície só pode adiar seu surgimento. Inversamente, esta turbulência pode ser iniciada por uma perturbação. Se olharmos uma linha de fumaça em uma atmosfera calma, é um jato de gás quente, colorido pelo seu conteúdo de partículas. Este fio de fumaça, calmo inicialmente, torna-se intensamente turbulento após uma décima de centímetro de elevação, independentemente da quietude do ar ambiente. Ao introduzir um obstáculo, como uma agulha, neste fluxo ascendente, podemos desencadear uma turbulência irreversível. O mesmo é feito por uma pequena rugosidade na superfície polida da asa do planador, que desencadeia fenômenos turbulentes, aumentando localmente por um fator de centésimo a fricção do ar, aumentando assim o arrasto total. Nos planadores modernos, conseguimos manter um fluxo laminar (não turbulento, camadas paralelas) em mais de 60% da linha da corda. Se por acaso um mosquito colidir com a borda de ataque, esta pequena aspereza iniciará turbulência em uma zona de 30 graus mais ou menos adiante. Por este motivo, nos planadores de competição, cuja razão de planeio é superior a 50, há um dispositivo de limpeza da borda de ataque, acionado automaticamente e no momento certo, que pode ser comparado a um para-brisas linear, um tipo de escova que percorre a borda de ataque, para frente e para trás, e retorna ao repouso em um local oculto. Grandes esforços foram investidos para aumentar a razão de planeio geral dos aviões comerciais, a fim de reduzir seu consumo de combustível. Nos anos 60, o "Caravelle", que era capaz de voar entre Orly e Dijon, tinha uma razão de planeio de 12. Hoje em dia, mesmo estes monstros Airbus 380 têm uma razão de planeio superior a 20.
Isso quer dizer, quando a força propulsiva estiver ausente, com seus quatro motores desligados, a partir de 10 mil metros de altura, eles podem planejar por 200 quilômetros.
Voltando aos plasmas e aos tokamaks: nesses aparelhos, um microvolume de turbulência pode ser desencadeado por partículas minúsculas, arrancadas das paredes, e invadirá a câmara de reação. Falando em termos de turbulência, a faixa é extremamente ampla e vai desde esta turbulência microscópica até convulsões eletrodinâmicas do plasma envolvendo todo o volume.
Como conclusão, os engenheiros não estão de maneira alguma gerenciando a máquina, a menos que utilizem leis empíricas aproximadas, de baixa confiabilidade, sobre o sistema em operação. Nesse domínio em que o não-equilíbrio é o rei, onde as medições são extremamente difíceis, o computador não é útil. O experimento é o único líder. Além disso, a extrapolação leva à descoberta de novos fenômenos inesperados, como o movimento vertical do plasma (VDE, Vertical Displacement Event), que surgiu quando o tamanho saltou do TFR de Fontenay aux Roses para o JET de Culham.
O recente fracasso do NIF (National Ignition Facility, localizado em Livermore, Califórnia) é um bom exemplo de falha sonante em grandes instalações caras, com o auxílio dos computadores mais poderosos do mundo. É a conclusão da NIC (National Ignition Campaign) após 2 anos de testes, de 2010 a 2012. O sistema, composto por 192 lasers, entrega 500 terawatts (mais de mil vezes a potência da rede elétrica dos Estados Unidos) em uma dúzia de nanossegundos, em um alvo esférico de 2 mm de diâmetro, preenchido com uma mistura de Deutério-Tritio, que está inserido no centro de uma caixa cilíndrica de 2 cm de comprimento e 1 cm de diâmetro, chamada Holraum (forno em alemão).
O plano é o seguinte: metade dos feixes dos lasers, em forma de disco, rompem um lado do Holraum, a outra metade atinge o lado oposto. Esses feixes ultradelgados de UV atingem as paredes internas do forno, feitas de Ouro. Este reemite radiação X. Os feixes de laser, com foco preciso, criam 3 zonas de pontos na parede interna. A radiação X reemitida então atinge o alvo esférico. Falamos agora de irradiação indireta. Este sistema foi basicamente concebido para imitar a fase de fusão de uma bomba de hidrogênio, onde a radiação X (gerada desta vez por um dispositivo de fissão) atinge as paredes de uma casca chamada ablativo, contendo o explosivo de fusão (deutério-lítio). No NIF, esta última foi substituída por uma mistura de Deutério-Tritio, na qual a fusão começa a uma temperatura mais baixa, da ordem de 100 milhões de graus. A envoltória (o ablativo, uma casca esférica fina) sublima e explode em ambas as direções, interna e externa. Usamos esta compressão de volta para criar um "ponto quente" no centro do alvo, esperando iniciar a ignição em um esquema de confinamento inercial.
Tudo isso foi calculado sob a direção de John Lindl. Em 2007, um artigo dedicado a este cientista, durante a entrega do prêmio Maxwell, descreveu finamente o que aconteceria. Os teóricos estavam tão convencidos que Lindl não hesitou em afirmar que a ignição seria o ponto de partida de uma vasta série de experimentos. O mesmo aconteceu com o gerente de testes, que até fixou um prazo para o sucesso operacional, outubro de 2012, que deveria coroar trinta anos de esforços, tanto teóricos quanto tecnológicos.
O resultado foi um grande fracasso, revelado por um relatório de 19 de julho de 2012, emitido pelo D.O.E. (Departamento de Energia dos Estados Unidos) e escrito sob supervisão de Davis H. Crandall.
O que deve permanecer deste relatório de observação, relacionado a este artigo muito importante, é que, apesar da excelência deste trabalho, tanto tecnológica quanto em termos de medições, nada que emergiu deste experimento apresentava qualquer relação com os dados calculados e previsões obtidas com o auxílio dos computadores mais poderosos.
Chegando ao ponto em que alguns observadores questionavam se estas simulações poderiam representar qualquer investimento para experimentos futuros.
A crise do NIF é evidente – é impossível aumentar o número de lasers (de vidro dopado com neodímio) por motivos de custo. Novamente, é impossível aumentar sua potência individual – na verdade, quando estão saturados de energia, acima de certo nível, eles estão propensos a explodir, independentemente da homogeneidade e da qualidade do vidro.
Para conseguir iniciar a ignição e a fusão por confinamento inercial, a velocidade de implodir deve ser de pelo menos 370 km/s.
Não apenas esta velocidade não é atingida, mas, muito mais grave, quando a casca que constitui o dispositivo de ablação é transformada em plasma, e empurra seu conteúdo de D-T, "o êmbolo se mistura com o combustível", devido a uma instabilidade bem conhecida, a de Raleigh Taylor. Para minimizar seus efeitos, devemos tornar mais espessa o ablativo. Mas então aumentaria sua inércia e a velocidade limite de implodir não seria alcançada novamente.
Simulações feitas no computador deram resultados falsos em todos os domínios. Como escrito no relatório do D.O.E., o modelo das interações entre laser e paredes (impacto dos raios X nas paredes de ouro) não é satisfatório, apesar de décadas de estudos dedicados a este assunto, e centenas de teses e artigos. O mesmo acontece com a interação entre feixes de raios X, seguindo uma lei chamada "Espalhamento de Raman Inverso", com o plasma de ouro, proveniente da sublimação do ouro da parede dentro da câmara. A interação da radiação X com o ablativo também não é corretamente simulada. Por fim, os algoritmos de cálculo (LASNEX) subestimaram totalmente o peso da instabilidade de Raleigh Taylor, a deformação da superfície de contato do ablativo, deuterium-trítio, lembrando as vilosidades intestinais.
Esses problemas mostram os limites de confiança que podemos estabelecer nos resultados de simulações computadorizadas superiores, uma vez que estas máquinas tentam atacar problemas claramente fora do equilíbrio, principalmente não lineares, onde um conjunto de mecanismos, mal modelados, desempenham um papel no jogo.
Dr. Jean Pierre Petit