Mondi non in equilibrio (fisica)

En résumé (grâce à un LLM libre auto-hébergé)

  • Il testo spiega il concetto di equilibrio termodinamico, illustrato dalle molecole d'aria in movimento casuale ma statisticamente stabili.
  • Confronta i sistemi in equilibrio con quelli non in equilibrio, come le galassie, dove i movimenti stellari non seguono una distribuzione isotropa.
  • L'autore presenta esperienze sulle onde d'urto e il loro impatto sui mezzi gassosi, mostrando come ritrovino un equilibrio dopo una perturbazione.

Mondi fuori equilibrio (fisica)

MONDI FUORI EQUILIBRIO

Jean Pierre PETIT – Ex-direttore di ricerca – CNRS FR.

12 gennaio 2013

Pdf (inglese) Pdf (francese)

Quando un uomo della strada pensa all'equilibrio di un sistema, immagina generalmente una palla al fondo di un pozzo, o qualcosa del genere.

La teoria dell'equilibrio termodinamico contiene qualcosa di più sottile: l'equilibrio dinamico. Il caso più semplice è l'aria che respiriamo. Le sue molecole sono agitate in tutte le direzioni, con una velocità termica media di 400 m/s. A un ritmo forsennato, queste molecole entrano in collisione, interagiscono. Questi urti modificano le loro velocità. Tuttavia, il fisico lo traduce in una stazionarietà statistica (il termine usato è "equilibrio dettagliato"). Immagina un folletto che, in ogni momento e in ogni punto della stanza, possa misurare la velocità molecolare in una direzione data, con una lieve incertezza angolare. A ogni intervallo di tempo, il nostro folletto conta le velocità V e V + ΔV, valore algebrico. Poi traccia questi valori su un grafico, e osserva comparire una bella curva gaussiana, con un valore medio al vertice vicino ai 400 m/s. Più le molecole sono veloci o lente, più la loro popolazione è bassa.

Ripete questa operazione puntando il suo strumento di misura in qualsiasi direzione dello spazio, e, sorpresa, sorpresa, ottiene lo stesso risultato. L'agitazione molecolare nella stanza è isotropa. Inoltre, nulla può disturbare questo equilibrio dinamico se la temperatura rimane costante, perché la temperatura del gas è esattamente l'energia cinetica media derivante da questa agitazione termica. Il fisico descriverà questo gas come in equilibrio termodinamico. Questo stato è multifaccettato: le molecole d'aria non hanno simmetria sferica. Le molecole biatomiche, come l'ossigeno o l'elio, sono a forma di arachide. Quelle del gas carbonico o del vapore acqueo hanno altre forme. Tutti questi oggetti, in rotazione, possono immagazzinare energia come minuscoli volani. Queste molecole possono anche vibrare. Il concetto di distribuzione uguale dell'energia dice che l'energia deve essere distribuita equamente in tutti questi diversi "modi". Durante una collisione, parte dell'energia cinetica può trasformarsi in energia vibrazionale o rotazionale di una molecola. Il processo inverso è altrettanto valido. Tutto ciò si basa quindi sulla statistica, e il nostro folletto può contare quante molecole si trovano in uno stato dato, con quale energia cinetica, in quale stato di vibrazione. Torniamo alla nostra aria respirata: questo censimento porta a uno stato stazionario. Il mezzo è quindi detto essere in equilibrio termodinamico, cioè rilassato. Immagina un mago che abbia il potere di fermare queste molecole, di congelare i loro movimenti di rotazione o vibrazione, di modificarli a piacimento, creando così una nuova legge statistica, deformando quella bella curva gaussiana, o addirittura creando eventi anisotropi, ad esempio raddoppiando la velocità termica in una direzione rispetto alle direzioni trasversali. Infine, lascia che il sistema evolva secondo nuove collisioni. Quante di queste collisioni sono necessarie affinché il sistema ritorni a un equilibrio termodinamico? Risposta: pochissime. Il tempo libero medio di una molecola, tra due collisioni, dà un'idea del tempo di rilassamento in un gas, del suo tempo di ritorno verso l'equilibrio termodinamico.

Esistono mezzi fuori equilibrio, dove le velocità statistiche molecolari si discostano notevolmente da questa isotropia confortevole e dalla bellezza delle curve gaussiane?

Oh sì! E anzi, è il caso maggioritario nell'universo. Una galassia, quell'«isola-universo» composta da centinaia di miliardi di stelle, la cui massa è più o meno simile, può essere vista come un mezzo gassoso, in cui le molecole dovrebbero essere... stelle. In questo caso preciso, si scopre un mondo sconcertante dove il tempo libero medio di una stella, prima di qualsiasi incontro con una stella vicina, è diecimila volte l'età dell'universo. Cosa intendiamo per "incontro"? Si tratta di una collisione in cui le due stelle si schiantano violentemente? Per niente! Nel dominio della fisica teorica, chiamato teoria cinetica dei gas, si considera una collisione quando la traiettoria di una stella è notevolmente modificata passando vicino a una stella vicina.

Tuttavia, i calcoli dimostrano che questi eventi sono estremamente rari, e che il nostro sistema di centinaia di miliardi di stelle può essere visto come generalmente privo di collisioni.

Da miliardi di anni, l'orbita del nostro Sole è regolare, quasi circolare. Se il Sole fosse consapevole di sé, e non cambiasse il suo ritmo a causa di incontri, ignorerebbe completamente la presenza di vicini. Percepisce solo il campo gravitazionale come "liscio". Procede al suo ritmo come in una vasca, senza sentire alcuna irregolarità creata da altre stelle. Subito dopo, ne emerge la conseguenza: poni il nostro folletto, ora astronomo, vicino al Sole nella nostra galassia, e chiedigli di costruire una statistica delle velocità delle stelle vicine in tutte le direzioni. Ora emerge un fatto evidente. Dinamicamente parlando, il mezzo è fortemente anisotropo. Esiste una direzione in cui le velocità di agitazione delle stelle (chiamate velocità residue dagli astronomi, rispetto alla rotazione media della galassia, abbastanza circolare e di circa 230 km/s vicino al Sole) sono praticamente il doppio rispetto a qualsiasi altra direzione trasversale. Nella nostra aria respirata, questo si chiamava una distribuzione delle velocità sferoidale – ora diventa una distribuzione ellissoidale. Fino a qui, tutto bene? Come influisce ciò sulla nostra visione, sulla nostra comprensione del mondo? Cambia tutto! Perché da lontano non possiamo trattare le teorie di sistemi così fortemente fuori equilibrio.

Lasciando da parte lo stato paradossale delle galassie, dovuto a questo effetto demoniaco della materia oscura (massa mancante), scoperta nel 1930 dall'americano di origine svizzera Fritz Zwicky, e in ogni caso non possiamo produrre alcun modello di massa puntiforme autogravitante (in orbita nel proprio campo gravitazionale). La nostra fisica rimane sempre vicina a uno stato di equilibrio termodinamico. Ovviamente, qualsiasi deviazione da questo o da quell'elemento rappresenta una deviazione rispetto all'equilibrio, ad esempio una differenza di temperatura tra due regioni gassose, che porterà a un trasferimento di calore, un trasferimento di energia cinetica derivante dall'agitazione termica. In questo caso, se rimettiamo al lavoro il nostro folletto, concluderà che il mezzo, dal punto di vista dinamico, è "quasi isotropo". Sarebbe il caso della nostra atmosfera, anche attraversata dalle tempeste più violente.

Allora, è impossibile incontrare, "mettere le mani sopra", situazioni in cui un mezzo gassoso, un fluido, sia chiaramente fuori equilibrio? Si trovano tali casi durante il passaggio di onde d'urto. Sono zone limitate, precisamente lo spessore dell'onda d'urto è dell'ordine del numero di lunghezze libere medie.

Quando un gas attraversa un'onda d'urto, passa bruscamente da uno stato vicino all'equilibrio termodinamico a uno stato "colpito", e l'equilibrio termodinamico viene ripristinato dopo alcune lunghezze libere medie.

Abbiamo riportato un'osservazione, quaranta anni fa, nel laboratorio in cui lavoravo, ora demolito, l'«Institut de Mécanique des Fluides de Marseille». Avevamo allora dei "tubi a shock", una sorta di cannoni a gas. Principio: usando un'esplosione, abbiamo innescato un'onda d'urto che si propagava a diverse migliaia di metri al secondo in un gas rarefatto – inizialmente, questo gas era a una pressione di alcuni millimetri di mercurio. Il passaggio dell'onda d'urto ricomprime il gas, aumentandone la densità.

Potevamo seguire facilmente e precisamente l'aumento di densità tramite interferometria. All'epoca, misuravamo anche il flusso termico sulla superficie di modelli in Plexiglas. Poiché gli esperimenti duravano solo frazioni di millisecondo, i nostri strumenti di misura dovevano avere una risposta rapida. Precisamente, erano sottili pellicole metalliche dello spessore di un micron, depositate in vuoto sulla parete, che agivano come termistori. Valutavamo il flusso termico registrando la resistenza di questi sensori mentre si riscaldavano.

Un giorno abbiamo posizionato un sensore direttamente sulla parete del tubo. Successivamente, abbiamo osservato che il flusso termico raggiungeva il sensore dopo un certo ritardo, dopo il passaggio dell'onda d'urto, materializzato da un salto brusco di densità. Tuttavia, abbiamo verificato che il ritardo termico del sensore era sufficientemente basso perché questo ritardo non provenisse da esso. In realtà, avevamo messo le mani su un fenomeno di ritorno verso un quasi-equilibrio termodinamico, a valle dell'onda d'urto.

Possiamo paragonarlo a un colpo di martello. Non solo la densità è bruscamente aumentata, ma abbiamo osservato un salto di temperatura, che indica un aumento della velocità termica delle molecole. Ma dietro questa onda, l'isotropia viene ripristinata solo dopo diverse lunghezze libere medie. Subito prima del fronte di densità, l'agitazione termica si traduce in movimenti che iniziano perpendicolarmente alla direzione dell'onda.

Quando il nostro sensore riceve il calore, questo deriva dall'impatto delle molecole d'aria sulla sua superficie. Tuttavia, subito prima del fronte di densità, su una certa distanza, l'agitazione termica si sviluppava parallelamente alla parete. Il gas era ben "riscaldato" ma temporaneamente incapace di trasferire questo calore alla parete. Durante le collisioni, l'«ellissoide delle velocità» si trasformava in «sferoide delle velocità», e il sensore finiva per restituire il flusso termico che aveva ricevuto. Ricordo con il dispositivo sperimentale che avevamo, che abbiamo registrato questo flusso termico a circa un centimetro prima del fronte di densità.

Così, le onde d'urto rappresentano zone di spessore molto ridotto, dove il mezzo gassoso è fortemente fuori equilibrio.

Come facciamo a gestirlo? Facciamo in modo che queste zone siano equivalenti a superfici di spessore nullo. E funziona da quasi un secolo.

Ho l'età sufficiente per aver conosciuto quasi tutta la storia dei computer, sin dall'inizio. Quando ero studente all'«École Nationale Supérieure de l’Aéronautique», non c'era alcun computer nel palazzo. Questi erano installati in santuari chiamati «centri di calcolo» a cui non avevamo accesso. Calcolavamo usando regoli calcolatori, oggetti di curiosità per la generazione odierna. Nelle classi della scuola superiore, tutti avevamo il nostro libro dei logaritmi, e ogni esame includeva un test noioso di calcolo numerico utilizzando questi oggetti, ora esposti nei musei.

Quando ho lasciato la scuola aeronautica, le macchine meccaniche (FACIT) stavano apparendo, manuali. Per moltiplicare i numeri, si girava una manovella in un senso, per dividere, si girava nell'altro.

I professori o capi dipartimento avevano macchine elettriche, che rompevano il silenzio degli uffici con il loro rumore di ingranaggi all'Institut de Mécanique des Fluides nel 1964. I computer occupavano un posto d'onore, come dei lontani dèi visibili solo attraverso una finestra, in questi centri di calcolo. Questi computer, la cui potenza equivalente a quella di un computer tascabile attuale, erano serviti da sacerdoti in tonaca bianca. Non si poteva comunicare con loro che tramite uno spesso mucchio di schede perforate lette rumorosamente da un lettore meccanico. Acquistavamo il "tempo di calcolo" al secondo, così costoso che per i giovani d'oggi è quasi neolitico.

L'invasione dei microcomputer ha cambiato tutto. Inoltre, l'esplosione della potenza dei computer è stata così rapida che ora la rete è piena di immagini in cui si vedono ampie sale riempite da misteriosi cassetti neri, che gestiscono quantità sbalorditive di dati.

Megaflop, gigaflop, petaflop, a profusione! Negli anni settanta, si poteva facilmente leggere il contenuto della RAM di un Apple II, interamente scritto sotto forma di un piccolo opuscolo.

Viviamo in un mondo prometeico. Possiamo dire che questi strumenti moderni aumentano il nostro controllo sulla fisica? Un aneddoto mi viene in mente. In Francia, sono stato pioniere dell'informatica micro, avendo gestito uno dei primi centri (basato su Apple II) dedicati a questa tecnologia. In quel periodo, ero anche professore di scultura all'École des Beaux-Arts di Aix-en-Provence. Un giorno ho presentato un sistema che utilizzava un tracciante piatto che disegnava a piacere prospettive padroneggiate. Un vecchio professore, aggrottando le sopracciglia, disse allora: «Non dirmi che il computer sostituirà l'artista?»

Riformulando, si potrebbe immaginare un collega, dopo aver visitato un grande centro dati, affermare: «Non dirmi che il computer sostituirà il cervello?»

Nonostante l'inesorabile crescita della potenza di calcolo e i processori massivamente multipliati, siamo molto lontani da questo. Tuttavia, in alcuni settori, questi sistemi hanno mandato alla spazzatura i nostri libri dei logaritmi e i regoli calcolatori, tra gli altri. Chi ancora gioca a calcolare integrali a mano, carta e penna? Chi si diverte ancora con il calcolo differenziale, tranne i matematici puri?

Oggi crediamo che «il computer faccia tutto». Scriviamo algoritmi, forniamo dati, lanciamo i calcoli fino a ottenere risultati. Se vogliamo disegnare un edificio o un bel manufatto ingegneristico, funziona alla perfezione. La teoria dei fluidi è anch'essa un successo.

Possiamo posizionare un elemento di superficie, di forma qualsiasi, perpendicolarmente a un flusso gassoso, e calcolare lo schema del flusso vorticoso attorno ad esso, qualunque sia la sua forma. Corrisponde all'esperimento? Non sempre. Qualitativamente, padroneggiamo l'evento: per esempio, possiamo calcolare un valore affidabile della resistenza aerodinamica derivante da questo vorticoso flusso gassoso. Allo stesso modo, calcoliamo l'efficienza di combustione all'interno di un cilindro, i flussi di convezione in una camera. La meteorologia predittiva progredisce rapidamente, per previsioni su alcuni giorni, a eccezione dei «micro-eventi», molto localizzati, ancora inaccessibili. È così in tutti i settori?

Esistono corpi che rifiutano di essere tenuti al guinzaglio da questo leone-domatore moderno che è il computer. Sono i plasmi fuori equilibrio, detentori del titolo in tutte le categorie. Si discostano anche dalla teoria dei fluidi, nonostante una somiglianza familiare, perché sono soggetti a azioni a distanza dovute al campo elettromagnetico, il cui effetto può essere valutato solo tenendo conto di tutte le particelle ioniche costitutive del sistema.

Poco importa, dirà qualcuno. Basta considerare il plasma come un sistema a N corpi. Più facile a dirsi che a farsi! Abbiamo parlato prima delle galassie, come esempi di mondi senza collisioni. I tokamak ne sono un altro (ITER è un tokamak gigante). Il gas che contengono è estremamente rarefatto. Prima del lancio, la pressione all'interno dei 840 metri cubi di ITER sarebbe inferiore a una frazione di millimetro di mercurio. Perché una pressione così bassa? Perché dobbiamo riscaldare questo gas a più di 100 milioni di gradi. Ora, sapete che la pressione si esprime con: p = nkT – k è la costante di Boltzmann, T la temperatura assoluta, e n il numero di particelle per metro cubo. Il confinamento del plasma si basa esclusivamente sulla pressione magnetica, che aumenta con il quadrato del campo magnetico.

Con un'intensità di campo di 5,2 Tesla, la pressione magnetica è di 200 atmosfere. Per il confinamento del plasma, la sua pressione deve rimanere ben al di sotto di questo valore. A causa dell'uso di un dispositivo superconduttore, il campo magnetico non può essere aumentato indefinitamente, quindi la densità del plasma all'interno della camera del reattore rimane limitata a valori molto bassi. Da questi fatti si vede che si tratta di un corpo completamente senza collisioni, sfuggente a qualsiasi definizione macroscopica affidabile. Possiamo gestirlo come un problema a N corpi? Nemmeno a pensarci, né nel presente né nel futuro – è impossibile calcolare localmente, come si fa con la meccanica dei fluidi neutri. Ogni regione è accoppiata a tutte le altre tramite il campo elettromagnetico. Prendiamo ad esempio il problema del trasferimento di energia dal cuore del plasma alle pareti. Oltre a un meccanismo simile a un fenomeno di conduzione, oltre a ciò che rientra nella turbolenza, appare una terza modalità, chiamata «trasporto anomalo», che utilizza... onde.

In sintesi, un tokamak è un vero incubo per un teorico.

Il plasma in sé, oltre al suo comportamento imprevedibile, non è l'unico elemento coinvolto. C'è tutto il resto: in particolare l'ablativa inevitabile di particelle provenienti dalle pareti. Chi pratica il planismo conosce il parametro fondamentale di queste macchine: il rapporto portanza-resistenza: esprime il numero di metri percorsi per metro di discesa (il rapporto di planata). A una velocità data, l'ala del planino produce una certa forza di portanza. Alla stessa velocità, si ottiene una forza di resistenza, che ha due origini: prima, la resistenza indotta: una

Possiamo posizionare un elemento superficiale, di qualsiasi forma, perpendicolarmente a un flusso gassoso e calcolare il pattern di flusso vorticoso che lo attraversa, indipendentemente dalla sua forma. Si adatta all’esperimento? Non sempre. Qualitativamente, padroneggiamo l’evento: ad esempio, possiamo calcolare un valore affidabile della resistenza aerodinamica derivante da questo vortice gassoso. Allo stesso modo, calcoliamo l’efficienza della combustione all’interno di un cilindro, le correnti di convezione in un vano chiuso. La meteorologia predittiva sta avanzando rapidamente, fornendo un quadro temporale di pochi giorni, tranne per i cosiddetti “micro-eventi”, estremamente localizzati, che ancora non sono gestibili. È questo il caso in ogni campo?

Esistono corpi che si rifiutano di essere tenuti sotto controllo da questo moderno domatore di leoni chiamato computer. Si tratta dei plasmi “non in equilibrio”, detentori di tutti i titoli. Essi si discostano anche dalla teoria dei fluidi, nonostante una certa somiglianza familiare, perché sono soggetti a interazioni a distanza, dovute al campo elettromagnetico il cui effetto può essere valutato solo considerando tutte le particelle ioniche che costituiscono il sistema.

Non importa, dici tu. È sufficiente considerare il plasma come un sistema di N corpi. Più facile a dirsi che a farsi! Abbiamo già parlato in precedenza delle galassie, come esempi di mondi liberi da collisioni. I tokamak sono un altro tipo (ITER è un gigantesco tokamak). Il gas che contengono è estremamente scarso. Prima dell’accensione, la pressione interna nei 840 metri cubi di ITER sarebbe inferiore a frazioni della pressione di un millimetro di mercurio. Perché una pressione così bassa? Perché dobbiamo riscaldare questo gas a oltre 100 milioni di gradi. Eppure sai che la pressione si esprime come: p = nkT – k è la costante di Boltzmann, T la temperatura assoluta e n il numero di particelle per metro cubo. Il confinamento del plasma avviene solo grazie alla pressione magnetica, che cresce con il quadrato del campo magnetico.

Con un’intensità di campo di 5,2 Tesla, la pressione magnetica è di 200 atmosfere. Per il confinamento del plasma, la sua pressione deve rimanere molto al di sotto di questo valore. A causa dell’uso di dispositivi superconduttori, il campo magnetico non può essere aumentato indefinitamente, quindi la densità del plasma nella camera del reattore resta limitata a valori estremamente bassi. Da questi fatti vediamo un corpo completamente libero da collisioni, che sfugge a qualsiasi definizione macroscopica affidabile. Possiamo gestirlo come un problema di N corpi? Nemmeno sognarlo, né nel presente né nel futuro – non è possibile calcolare localmente, come si può fare con la meccanica dei fluidi neutri. Ogni zona è accoppiata a ogni altra tramite il campo elettromagnetico. Prendiamo ad esempio il problema del trasferimento di energia dal nucleo del plasma alle pareti. Oltre a un meccanismo simile alla conduzione, oltre a ciò che appartiene alla turbolenza, entra in gioco una terza modalità, chiamata “trasporto anomalo”, che utilizza… onde.

In breve, come nell’unico caso, un tokamak è un incubo assoluto per un teorico.

Il plasma in sé, a parte il suo comportamento imprevedibile, non è l’unico elemento coinvolto. C’è tutto il resto: tra cui l’inevitabile ablazione delle particelle dalle pareti. Chi pratica il volo a vela conosce il parametro fondamentale di queste macchine: il rapporto portanza-resistenza, che esprime il numero di metri percorsi per metro perso in altezza (il rapporto di planata). L’ala dell’aeroplano, a una certa velocità, produce una certa forza di portanza. Nella stessa velocità otteniamo una forza di resistenza, che ha due cause: la prima è la resistenza indotta: una perdita di energia dovuta ai vortici alle estremità dell’ala.

Non puoi evitarla se non hai un’apertura alare infinita… È per ridurla che i velivoli a vela hanno un’apertura alare così grande, spesso superiore ai 20 metri, con un rapporto d’aspetto – rapporto tra la metà dell’apertura e la larghezza media dell’ala – maggiore di 20. La seconda fonte di resistenza è la resistenza viscosa. Essa può essere ridotta cercando la superficie più liscia possibile. Grazie a un ottimo lucidato, ritardiamo l’inizio della turbolenza nelle immediate vicinanze della superficie dell’ala. Questo fenomeno è un’instabilità fondamentale dei fluidi; l’eccellenza del lucidato può solo ritardarne l’arrivo. Al contrario, la turbolenza può essere innescata da una perturbazione. Se osserviamo una colonna di fumo in un’atmosfera calma, essa è un flusso di gas caldo colorato dai suoi componenti. Questo filamento di fumo, inizialmente tranquillo, diventa intensamente turbolento dopo appena un decimo di centimetro di salita, indipendentemente dalla calma dell’aria circostante. Introducendo un ostacolo, come un ago, in questo flusso ascendente, possiamo innescare una turbolenza irreversibile. Lo stesso avviene con una minima asperità sulla superficie lucidata dell’ala del velivolo a vela, che innescerà fenomeni turbolenti, aumentando localmente l’attrito dell’aria di un fattore anche cento volte, e quindi la resistenza totale. Nei moderni velivoli a vela, riusciamo a mantenere un flusso laminare (non turbolento, strati paralleli) su oltre il 60% della corda. Se per caso un mosquito colpisce il bordo d’attacco, questa minima asperità innescerà la turbolenza in una zona che si estende per circa 30 gradi. Per questo motivo, nei velivoli da competizione, i cui rapporti di planata superano 50, esiste un dispositivo di pulizia del bordo d’attacco, attivato automaticamente e tempestivamente, che può essere paragonato a uno spazzolino lineare: una specie di spazzola si muove avanti e indietro lungo il bordo d’attacco e ritorna al suo ripostiglio nascosto.

Sono stati compiuti notevoli sforzi per aumentare il rapporto di planata complessivo degli aerei da linea, al fine di ridurre il consumo di carburante. Negli anni Sessanta, la “Caravelle”, in grado di volare tra Orly e Dijon, aveva un rapporto di planata di 12. Oggi, anche questi giganteschi Airbus A380 hanno un rapporto di planata superiore a 20.

Cioè, quando manca la spinta propulsiva, con i quattro motori spenti, partendo da un’altezza di 10.000 metri possono planare per oltre 200 chilometri.

Torniamo ai plasmi e ai tokamak: in queste macchine, una piccola volume di turbolenza può essere innescato da particelle minime staccate dalle pareti, e si diffonderà nella camera di reazione. Parlando di turbolenza, l’intervallo è estremamente ampio e va da questa turbolenza microscopica alle convulsioni elettrodinamiche del plasma che coinvolgono l’intero volume.

In conclusione, gli ingegneri non riescono affatto a gestire la macchina senza ricorrere a leggi empiriche approssimate, di scarsa affidabilità, relative al sistema in funzione. In questo dominio dove l’equilibrio è il re, dove le misurazioni sono estremamente difficili, il computer non è d’aiuto. L’esperimento è l’unico leader. Anche l’estrapolazione porta alla scoperta di fenomeni imprevisti, come il movimento verticale del plasma (VDE, Vertical Displacement Event), apparso quando si è passati da TFR a Fontenay-aux-Roses a JET a Culham.

Il recente fallimento del NIF (National Ignition Facility, situato a Livermore, California) è un buon esempio di fallimento sonoro in impianti grandi e costosi, con l’aiuto dei computer più potenti al mondo. È la conclusione della campagna NIC (National Ignition Campaign) dopo due anni di prove, dal 2010 al 2012. Il sistema, composto da 192 laser, eroga 500 terawatt (più del mille volte la potenza della rete elettrica statunitense) in un intervallo di pochi nanosecondi su un bersaglio sferico di 2 mm di diametro, riempito con un miscuglio di deuterio-trizio, inserito al centro di una scatola cilindrica lunga 2 cm e larga 1 cm, chiamata Holraum (forno in tedesco).

Il piano è il seguente: metà dei fasci laser, a forma di disco, si aprono da un lato del Holraum, l’altra metà si introduce dall’altro lato. Questi raggi ultrapiatti in UV colpiscono le pareti interne del forno, realizzate in oro. Questo riproduce radiazione X. I fasci laser, con una concentrazione precisa, creano tre righe di punti sulla parete interna. La radiazione X riprodotta colpisce quindi il bersaglio sferico. Ora parliamo di irradiazione indiretta. Questo sistema è stato concepito principalmente per imitare la fase di fusione di una bomba all’idrogeno, dove la radiazione X (generata questa volta da un dispositivo a fissione) colpisce le pareti di un guscio chiamato ablatore, contenente l’esplosivo di fusione (deuteruro di litio). Nel NIF, quest’ultimo è stato sostituito con un miscuglio di deuterio-trizio, in cui la fusione inizia a una temperatura più bassa, dell’ordine di 100 milioni di gradi. L’involucro (l’ablatore, sottile guscio sferico) sublima e esplode in entrambe le direzioni, interna ed esterna. Usiamo questa compressione inversa per creare un “punto caldo” al centro del bersaglio, sperando di innescare l’accensione in un regime di confinamento inerziale.

Tutto questo era stato calcolato sotto la direzione di John Lindl. Nel 2007, un articolo dedicato a questo scienziato durante la consegna del premio Maxwell descriveva finemente ciò che sarebbe accaduto. I teorici erano così convinti che Lindl non esitò a dichiarare che l’accensione sarebbe stata il punto di partenza di una vasta serie di esperimenti. Lo stesso pensava il responsabile del test, che aveva addirittura fissato una data limite per il successo operativo, ottobre 2012, che avrebbe dovuto coronare trent’anni di sforzi teorici e tecnologici.

Il risultato è stato un enorme fallimento, evidenziato da una relazione del 19 luglio 2012 emanata dal D.O.E. (Dipartimento dell’Energia degli Stati Uniti) e redatta sotto la supervisione di Davis H. Crandall.

Ciò che deve rimanere da questa relazione, così dettagliata e fondamentale, è che nonostante l’eccellenza di questo lavoro, sia dal punto di vista tecnologico che delle misurazioni, nulla di ciò che è emerso dall’esperimento ha mostrato alcun legame con i dati calcolati e le previsioni ottenute con l’aiuto dei computer più potenti.

Fino al punto in cui alcuni osservatori si chiedevano se queste simulazioni potessero rappresentare un investimento per esperimenti futuri.

La crisi del NIF è evidente: è impossibile aumentare il numero di laser (in vetro drogato con neodimio) per ragioni di costo. È impossibile anche aumentarne la potenza unitaria – in realtà, quando sono saturati di energia, al di sopra di un certo livello, sono soggetti a esplosione, indipendentemente dall’omogeneità e dalla qualità del vetro.

Per riuscire ad innescare l’accensione e la fusione con confinamento inerziale, la velocità di implosione deve essere almeno di 370 km/sec. Non solo questa velocità non è stata raggiunta, ma, cosa ben più grave, quando il guscio che costituisce il dispositivo ablativo si trasforma in plasma e spinge il suo contenuto D-T, “il pistone si mescola con il carburante”, a causa di un’instabilità ben nota, quella di Raleigh-Taylor. Per minimizzarne gli effetti, dobbiamo rendere più spesso l’ablatore. Ma allora aumenterebbe la sua inerzia e la soglia di velocità dell’implosione non sarebbe raggiunta nuovamente.

Le simulazioni fatte al computer hanno dato risultati falsi in tutti i domini. Come scritto nella relazione del D.O.E., la modellizzazione delle interazioni tra laser e pareti (impatto dei raggi X sulle pareti d’oro) non è soddisfacente, nonostante decine di anni di studi su questo argomento e centinaia di tesi e articoli. Lo stesso vale per l’interazione tra i fasci di raggi X, secondo una legge chiamata “Scattering Raman inverso”, con il plasma d’oro derivante dalla sublimazione dell’oro parietale all’interno della camera. L’interazione della radiazione X con l’ablatore non è inoltre correttamente simulata. Infine, gli algoritmi di calcolo (LASNEX) hanno totalmente sottovalutato il peso dell’instabilità di Raleigh-Taylor, la deformazione della superficie di contatto tra ablatore e deuterio-trizio, ricordando le villosità intestinali.

Questi errori mostrano i limiti di fiducia che possiamo attribuire ai risultati delle super-simulazioni computerizzate quando queste macchine affrontano problemi chiaramente fuori equilibrio, principalmente non lineari, in cui un insieme di meccanismi mal modellati giocano un ruolo decisivo.

Dott. Jean Pierre Petit