Mundos fuera de equilibrio (física)
MUNDOS FUERA DE EQUILIBRIO
Jean Pierre PETIT – Exdirector de investigación – CNRS FR.
12 de enero de 2013
Cuando un hombre de la calle piensa en el equilibrio de un sistema, generalmente imagina una bola en el fondo de un pozo, o algo similar.
La teoría del equilibrio termodinámico contiene algo más sutil: el equilibrio dinámico. El caso más simple es el aire que respiramos. Sus moléculas se agitan en todas direcciones, con una velocidad térmica media de 400 m/s. A un ritmo frenético, estas moléculas chocan e interactúan. Estos impactos modifican sus velocidades. Sin embargo, el físico lo traduce como una estacionariedad estadística (el término utilizado es "equilibrio detallado"). Imagina un duende que, en todo momento y en cualquier punto de la habitación, pudiera medir la velocidad molecular en una dirección determinada, con una ligera incertidumbre angular. En cada intervalo de tiempo, nuestro duende cuenta las velocidades V y V + ΔV, valor algebraico. Luego traza estos valores en un gráfico, y observa cómo aparece una agradable curva gaussiana, con un valor medio en la cima cercano a 400 m/s. Cuanto más rápido o lento sean las moléculas, menor será su población.
Repite esta operación apuntando su dispositivo de medición en cualquier dirección del espacio, y, sorpresa, sorpresa, obtiene el mismo resultado. La agitación molecular en la habitación es isotrópica. Además, nada puede perturbar este equilibrio dinámico si la temperatura permanece constante, porque la temperatura del gas es exactamente la energía cinética media proveniente de esta agitación térmica. El físico describirá este gas como en equilibrio termodinámico. Este estado es multifacético: las moléculas de aire no tienen simetría esférica. Las moléculas diatómicas, como el oxígeno o el helio, tienen forma de cacahuate. Las del dióxido de carbono o del vapor de agua tienen otras formas. Todos estos objetos, al girar, pueden almacenar energía como pequeños volantes. Estas moléculas también pueden vibrar. El concepto de distribución igual de la energía dice que la energía debe repartirse equitativamente en todas estas diferentes "modos". Durante una colisión, parte de la energía cinética puede transformarse en energía vibracional o rotacional de una molécula. El proceso inverso también es válido. Todo esto se basa en la estadística, y nuestro duende puede contar cuántas moléculas se encuentran en tal o cual estado, tienen tal energía cinética, están en tal estado de vibración. Volvamos al aire que respiramos: este censo conduce a un estado estacionario. Se dice entonces que este medio está en equilibrio termodinámico, es decir, relajado. Imagina un hechicero con el poder de detener estas moléculas, congelar sus movimientos de rotación o vibración, modificarlos a voluntad, creando así una nueva ley estadística, deformando esa hermosa curva gaussiana, e incluso creando eventos anisotrópicos, por ejemplo duplicando la velocidad térmica en una dirección respecto a las direcciones transversales. Finalmente, deja que el sistema evolucione según nuevas colisiones. ¿Cuántas de estas colisiones son necesarias para que el sistema recupere un equilibrio termodinámico? Respuesta: muy pocas. El tiempo libre medio de una molécula, entre dos colisiones, da una idea del tiempo de relajación en un gas, de su tiempo de retorno hacia el equilibrio termodinámico.
¿Existen medios fuera de equilibrio, donde las velocidades estadísticas moleculares se apartan notablemente de esta isotropía cómoda y de la belleza de las curvas gaussianas?
¡Oh sí! Y de hecho, es la situación mayoritaria en el universo. Una galaxia, esa "isla-universo", compuesta por cientos de miles de millones de estrellas, cuya masa es más o menos comparable, puede considerarse como un medio gaseoso, en el que las moléculas deberían ser... estrellas. En este caso concreto, se descubre un mundo desconcertante donde el tiempo libre medio de una estrella, antes de cualquier encuentro con una estrella vecina, es diez mil veces la edad del universo. ¿Qué queremos decir con "encuentro"? ¿Se trata de una colisión en la que las dos estrellas chocan violentamente? ¡Ni hablar! En el ámbito de la física teórica llamado teoría cinética de los gases, se considera una colisión cuando la trayectoria de una estrella se modifica notablemente al pasar cerca de una estrella vecina.
Sin embargo, los cálculos demuestran que estos eventos son extremadamente raros, y que nuestro sistema de cientos de miles de millones de estrellas puede considerarse generalmente sin colisiones.
Desde hace miles de millones de años, la trayectoria de nuestro Sol es regular, casi circular. Si nuestro Sol fuera consciente de sí mismo, y no cambiara de ritmo debido a encuentros, ignoraría totalmente la presencia de vecinos. Solo percibe el campo gravitatorio como "liso". Avanza a su ritmo como en una piscina, sin sentir ninguna protuberancia creada por otras estrellas. Inmediatamente surge la consecuencia: coloca a nuestro duende, ahora astrónomo, cerca del Sol en nuestra galaxia, y pídele que construya una estadística de velocidad de las estrellas vecinas en todas las direcciones. Ahora surge un hecho evidente. Dinámicamente hablando, el medio es fuertemente anisotrópico. Existe una dirección donde las velocidades de agitación de las estrellas (llamadas velocidades residuales por los astrónomos, respecto a la rotación media de la galaxia, bastante circular y de unos 230 km/s cerca del Sol) son prácticamente dos veces mayores que en cualquier otra dirección transversal. En nuestro aire respirado, esto se llamaba una distribución de velocidades esferoidal; ahora se convierte en una distribución elipsoidal. ¿Hasta aquí todo bien? ¿Cómo afecta esto a nuestra visión, a nuestra comprensión del mundo? Cambia todo. Porque desde lejos no podemos tratar las teorías de sistemas tan fuertemente fuera de equilibrio.
Dejando de lado el estatus paradójico de las galaxias, debido a este efecto demoníaco de la materia oscura (masa faltante), descubierta en 1930 por el estadounidense de origen suizo Fritz Zwicky, y en todo caso, no podemos producir ningún modelo de masa puntual auto-gravitante (en órbita en su propio campo gravitatorio). Nuestra física sigue siempre cerca de un estado de equilibrio termodinámico. Obviamente, toda desviación de este o aquel elemento representa una desviación respecto al equilibrio, por ejemplo, una diferencia de temperatura entre dos regiones gaseosas, lo que provocará una transferencia de calor, una transferencia de energía cinética proveniente de la agitación térmica. En este caso, si volvemos a poner a trabajar a nuestro duende, concluiría que el medio, desde el punto de vista dinámico, es "casi isotrópico". Sería el caso de nuestra atmósfera, incluso atravesada por las tormentas más violentas.
Entonces, ¿es imposible encontrar, "poner los dedos sobre", situaciones en las que un medio gaseoso, un fluido, esté francamente fuera de equilibrio? Se encuentran tales ocurrencias durante el paso de ondas de choque. Son zonas limitadas, precisamente el espesor de la onda de choque es del orden del número de longitudes medias libres.
Cuando un gas atraviesa una onda de choque, pasa bruscamente de un estado cercano al equilibrio termodinámico a un estado "choqueado", y el equilibrio termodinámico se restablece tras algunas longitudes medias libres.
Hemos relatado una observación, hace cuarenta años, en el laboratorio donde trabajaba, ahora demolido, el "Institut de Mécanique des Fluides de Marseille". Disponíamos entonces de lo que llamábamos "tubos de choque", una especie de cañones de gas. Principio: usando una explosión, provocamos una onda de choque que se propaga a varios miles de metros por segundo en un gas enrarecido — inicialmente, este gas estaba a una presión de algunos milímetros de mercurio. El paso de la onda de choque recomprime el gas, aumentando su densidad.
Podíamos seguir fácil y precisamente el aumento de densidad mediante interferometría. En aquel entonces, también medíamos el flujo térmico en la superficie de maquetas de Plexiglás. Como los experimentos duraban solo fracciones de milisegundo, nuestros dispositivos de medida debían tener una respuesta rápida. Precisamente, estaban formados por finas películas metálicas de un micrómetro de espesor, depositadas al vacío sobre la pared, actuando como termistores. Evaluábamos el flujo térmico registrando la resistencia de estos sensores mientras se calentaban.
Un día colocamos un sensor directamente sobre la pared del tubo. Luego observamos que el flujo térmico alcanzaba al sensor después de un cierto retraso, tras el paso de la onda de choque, materializado por un salto brusco de densidad. Sin embargo, verificamos que el retraso térmico del sensor era lo suficientemente pequeño como para que ese retraso no proviniera de él. En realidad, habíamos puesto la mano sobre un fenómeno de retorno hacia un equilibrio termodinámico cuasi-estable, aguas abajo de la onda de choque.
Se puede comparar esto con un golpe de martillo. No solo la densidad aumenta bruscamente, sino que también observamos un salto de temperatura, lo que significa un aumento de la velocidad térmica de las moléculas. Pero detrás de esta onda, la isotropía solo se restablece varias longitudes medias libres después. Inmediatamente antes del frente de densidad, la agitación térmica se traduce en movimientos que comienzan perpendiculares a la dirección de la onda.
Cuando nuestro sensor recibe el calor, esto proviene del impacto de las moléculas de aire sobre su superficie. Sin embargo, inmediatamente antes del frente de densidad, durante cierta distancia, la agitación térmica se desarrollaba paralela a la pared. El gas estaba bien "calentado", pero temporalmente incapaz de transferir ese calor a la pared. Durante las colisiones, el "elipsoide de velocidades" se transformaba en "esferoide de velocidades", y el sensor finalmente restituía el flujo térmico que había recibido. Creo recordar, con el dispositivo experimental que teníamos, que registrábamos este flujo térmico a unos centímetros antes del frente de densidad.
Así, las ondas de choque representan zonas de muy pequeña espesor, donde el medio gaseoso está fuertemente fuera de equilibrio.
¿Cómo hacemos frente a esto? Hacemos que estas zonas sean equivalentes a superficies de espesor nulo. Y esto funciona desde hace casi un siglo.
Tengo suficiente edad para haber conocido casi toda la historia de los ordenadores, desde el principio. Cuando estudiaba en la "École Nationale Supérieure de l’Aéronautique", no había ordenador en el edificio. Estos estaban instalados en santuarios llamados "centros de cálculo" a los que no teníamos acceso. Calculábamos con reglas de cálculo, objetos de curiosidad para la generación actual. En las clases de la escuela superior, todos teníamos nuestro libro de logaritmos, y cada examen incluía una prueba aburrida de cálculo numérico usando estos objetos, ahora expuestos en los museos.
Cuando dejé la escuela aeronáutica, las máquinas mecánicas (FACIT) estaban apareciendo, manuales. Para multiplicar números, se giraba una manivela en un sentido, para dividir, se giraba en el otro.
Los profesores o jefes de departamento tenían máquinas eléctricas, que rompían el silencio de los despachos con su ruido de engranajes en el Instituto de Mecánica de Fluidos en 1964. Los ordenadores ocupaban un lugar de honor, como dioses lejanos visibles solo a través de una ventana, en estos centros de cálculo. Estos ordenadores, cuya potencia equivalía a la de un ordenador de bolsillo actual, eran servidos por sacerdotes con hábitos blancos. No se podía comunicar con ellos sino a través de un grueso montón de tarjetas perforadas leídas ruidosamente por un lector mecánico. Comprábamos "tiempo de cálculo" por segundo, tan caro que para los jóvenes de hoy es casi neolítico.
La invasión de los microordenadores cambió todo. Además, el auge de la potencia de los ordenadores fue tan rápido que ahora la red está llena de imágenes donde se ven salas enormes llenas de misteriosos cajones negros, gestionando cantidades asombrosas de datos.
Megaflops, gigaflops, petaflops, a montones. En los años setenta, se podía leer fácilmente el contenido de la RAM de un Apple II, completamente escrito en forma de un pequeño librito.
Vivimos en un mundo prometeico. ¿Podemos decir que estas herramientas modernas aumentan nuestra dominación de la física? Una anécdota me viene a la mente. En Francia, fui pionero de la microinformática, gestionando uno de los primeros centros (basado en Apple II) dedicados a esta tecnología. En aquel entonces, también era profesor de escultura en la École des Beaux-Arts de Aix-en-Provence. Un día presenté un sistema que usaba un trazador plano que dibujaba a voluntad perspectivas controladas. Un viejo profesor, frunciendo el ceño, dijo entonces: "¿No me digas que la computadora reemplazará al artista?"
Para reformularlo, podríamos imaginar a un colega, tras visitar un centro de datos gigantesco, afirmar: "¿No me digas que la computadora reemplazará al cerebro?"
A pesar del ascenso incontenible de la potencia de cálculo y los procesadores masivamente multiplicados, estamos muy lejos de eso. Sin embargo, en ciertos campos, estos sistemas han tirado a la basura nuestros libros de logaritmos y reglas de cálculo, entre otros. ¿Quién todavía juega a calcular integrales a mano, papel y lápiz? ¿Quién sigue jugando con el cálculo diferencial, salvo los matemáticos puros?
Hoy creemos que "la computadora hace todo". Escribimos algoritmos, proporcionamos datos, lanzamos cálculos hasta obtener resultados. Si queremos dibujar un edificio o una hermosa obra de ingeniería, funciona a la perfección. La teoría de fluidos también es un éxito.
Podemos colocar un elemento de superficie, de forma cualquiera, perpendicular a un flujo gaseoso, y calcular el patrón del flujo turbulento alrededor de él, sin importar su forma. ¿Corresponde esto a la experiencia? No siempre. Cualitativamente, dominamos el fenómeno: por ejemplo, podemos calcular un valor fiable de la resistencia aerodinámica resultante de esta turbulencia gaseosa. Asimismo, calculamos la eficiencia de combustión dentro de un cilindro, las corrientes de convección en una cavidad. La meteorología predictiva avanza rápidamente, para predicciones de unos pocos días, a excepción de los "microeventos", muy localizados, aún inaccesibles. ¿Es esto cierto en todos los campos?
Existen cuerpos que se niegan a ser controlados por este león domado que es el ordenador moderno. Son los plasmas fuera de equilibrio, poseedores del título en todas las categorías. También se apartan de la teoría de fluidos, a pesar de una similitud familiar, porque están sujetos a acciones a distancia debidas al campo electromagnético, cuyo efecto no puede evaluarse sin tener en cuenta todas las partículas iónicas constitutivas del sistema.
Poco importa, dirán. Basta con considerar el plasma como un sistema de N cuerpos. Más fácil decirlo que hacerlo. Hemos hablado antes de las galaxias, como ejemplos de mundos sin colisiones. Los tokamaks son otro ejemplo (ITER es un tokamak gigante). El gas que contienen es extremadamente raro. Antes de encenderlo, la presión dentro de los 840 metros cúbicos de ITER sería inferior a una fracción de milímetro de mercurio. ¿Por qué una presión tan baja? Porque debemos calentar este gas a más de 100 millones de grados. Sabes que la presión se expresa como: p = nkT – k es la constante de Boltzmann, T la temperatura absoluta, y n el número de partículas por metro cúbico. El confinamiento del plasma depende únicamente de la presión magnética, que aumenta con el cuadrado del campo magnético.
Con una intensidad de campo de 5,2 Tesla, la presión magnética es de 200 atmósferas. Para el confinamiento del plasma, su presión debe mantenerse bien por debajo de este valor. Debido al uso de un dispositivo superconductor, el campo magnético no puede aumentarse indefinidamente, por lo tanto, la densidad del plasma dentro de la cámara del reactor permanece limitada a valores muy bajos. De estos hechos se deduce que se trata de un cuerpo totalmente sin colisiones, escapando a toda definición macroscópica fiable. ¿Podemos manejarlo como un problema de N cuerpos? Ni lo sueñes, ni en el presente ni en el futuro — es imposible calcular localmente, como se hace con la mecánica de fluidos neutros. Cada región está acoplada a todas las demás a través del campo electromagnético. Por ejemplo, tomemos el problema de transferencia de energía desde el corazón del plasma hasta las paredes. Además de un mecanismo similar a un fenómeno de conducción, y además de lo que corresponde a la turbulencia, aparece una tercera modalidad, llamada "transporte anómalo", que utiliza... ondas.
En resumen, un tokamak es una verdadera pesadilla para un teórico.
El plasma en sí mismo, además de su comportamiento incontrolable, no es el único elemento implicado. Hay todo lo demás: especialmente la ablation inevitable de partículas procedentes de las paredes. Los que practican el planeador conocen el parámetro fundamental de estas máquinas: la relación sustentación-arrastre: expresa el número de metros recorridos por metro de caída (la relación de planeo). A una velocidad dada, el ala del planeador produce una cierta fuerza de sustentación. A la misma velocidad, se obtiene una fuerza de arrastre, que tiene dos orígenes: primero, el arrastre inducido:
Podemos colocar un elemento de superficie, de cualquier forma, perpendicularmente a un flujo gaseoso, y calcular el patrón de flujo giratorio alrededor de él, sin importar su aspecto. ¿Se ajusta esto a los experimentos? No siempre. Cualitativamente, dominamos el fenómeno, por ejemplo, podemos calcular una figura confiable de arrastre aerodinámico como resultado de este remolino de gas. Lo mismo, calculamos la eficiencia de combustión dentro de un cilindro, la corriente de convección en un recinto. La meteorología predictiva está ganando terreno rápidamente, proporcionando un marco de tiempo de unos días, excepto los "eventos micro", muy localizados, que aún no son manejables. ¿Es así en todos los dominios?
Hay cuerpos que se niegan a ser controlados por este domador de leones del tiempo moderno, llamado computadora. Estos son "plasmas no en equilibrio", campeones de todas las categorías. También se alejan de la teoría de fluidos, a pesar de una cierta semejanza familiar, porque están sujetos a la acción a distancia, debido al campo electromagnético cuya acción solo puede evaluarse considerando todos los iones que constituyen el sistema.
No importa, dijiste. Es suficiente considerar el plasma como un sistema de N-cuerpos. Más fácil de decir que de hacerlo. Hablamos anteriormente sobre galaxias, como ejemplos de mundos libres de colisiones. Los tokamaks son otro tipo (ITER es un gran tokamak). El gas que contienen es extremadamente escaso. Antes de comenzar, la presión dentro de los 840 metros cúbicos de ITER sería menor que fracciones de la presión de un milímetro de mercurio. ¿Por qué una presión tan baja? Porque queremos calentar este gas a más de 100 millones de grados. Sin embargo, sabes que la presión se expresa como: p = nkT - k es la constante de Boltzmann, T es la temperatura absoluta y n es el número de partículas por metro cúbico. La confinación del plasma se debe solo a la presión magnética, esta última aumentando como el cuadrado del campo magnético.
Con una intensidad de campo de 5,2 Tesla, la presión magnética es de 200 atmósferas. En vista de la confinación del plasma, su presión debe permanecer muy por debajo de este valor. Debido al uso de un dispositivo superconductor, el campo magnético no puede aumentarse indefinidamente, por lo tanto, la densidad del plasma dentro de la cámara del reactor permanece limitada a valores muy bajos. De estos hechos vemos un cuerpo totalmente libre de colisiones, escapando a cualquier definición macroscópica confiable. ¿Podemos manejarlo como un problema de N-cuerpos? Ni siquiera sueñes con ello, presente o futuro - no es posible calcular localmente, como podríamos hacerlo con la mecánica de fluidos neutros. Cada área está acoplada con cualquier otra a través del campo electromagnético. Tomemos por ejemplo el problema de transferencia de energía desde el núcleo del plasma hasta las paredes. Además de un mecanismo que parece fenómeno de conducción, además de lo que pertenece a la turbulencia, aparece una tercera modalidad, llamada "transporte anómalo", que utiliza... ondas.
En resumen, un tokamak es un auténtico infierno para un teórico.
El plasma en sí, aparte de su comportamiento incontrolable, no es el único involucrado. Hay todo lo demás: entre ellos está la inevitable ablation de partículas de las paredes. Quienes practican planeadores saben que el parámetro básico de estas máquinas es la relación de sustentación a arrastre: expresa el número de metros volados por metro de altura perdida (la relación de planeo). El ala del planeador, a una velocidad dada, produce una cierta fuerza de sustentación. A la misma velocidad obtenemos una fuerza de arrastre, que es doble: primero es el arrastre inducido: una pérdida de energía debido a vórtices en las puntas de las alas.
No puedes evitarlo a menos que tengas una envergadura infinita... Es para reducirlo que los planeadores tienen una envergadura tan grande, frecuentemente más de 20 metros, asociada con una relación de aspecto - relación de la envergadura media sobre el ancho medio del ala - mayor que 20. La segunda fuente de arrastre es el arrastre viscoso. Se reducirá buscando la superficie más lisa del ala. Debido a un buen pulido retrasamos el inicio de la turbulencia en la inmediata proximidad de la superficie del ala. Este fenómeno es una inestabilidad básica de fluidos, la excelencia del pulido solo puede retrasar su llegada. Inversamente, esta turbulencia puede ser iniciada por una perturbación. Si miramos una línea de humo en una atmósfera tranquila, es un flujo de gas caliente, coloreado por su contenido de partículas. Este hilo de humo, tranquilo al principio, se volverá intensamente turbulento después de un décimo de centímetro de elevación, sin importar la calma del aire ambiente. Al introducir un obstáculo, como una aguja, en este flujo ascendente podríamos desencadenar una turbulencia irreversible. Lo mismo se hace con una pequeña aspereza en la superficie pulida del ala del planeador, la cual desencadenará fenómenos turbulentos, aumentando localmente por un factor de cien la fricción del aire, y por consiguiente el arrastre total. En los planeadores modernos, logramos mantener un flujo laminar (no turbulento, capas paralelas) sobre el 60% de la cuerda del ala. Si por casualidad un mosquito choca contra el borde de ataque, esta pequeña aspereza iniciará turbulencia en una zona de 30 grados aproximadamente. Por esta razón, en los planeadores de competición, cuya relación de planeo es más de 50, existe un dispositivo de limpieza del borde de ataque, activado automáticamente y a tiempo, que puede compararse con un parabrisas lineal, un cepillo que se desplaza a lo largo del borde de ataque, hacia adelante y hacia atrás, y vuelve a su posición oculta. Se han realizado grandes esfuerzos para aumentar la relación de planeo general de los aviones comerciales, con el fin de reducir su consumo de combustible. En los años sesenta, el "Caravelle", que era capaz de volar entre Orly y Dijon, tenía un factor de planeo de 12. Hoy en día, incluso estos monstruosos Airbus 380 tienen un factor de planeo superior a 20.
Es decir, cuando se pierde la fuerza propulsiva, con sus cuatro motores apagados, partiendo de una altura de 10.000 metros, pueden planear más de 200 kilómetros.
Volvamos al plasma y los tokamaks: en estas máquinas, un microvolumen de turbulencia puede ser desencadenado por partículas minúsculas, arrancadas de las paredes, y ocupará la cámara de reacción. En cuanto a la turbulencia, el rango es extremadamente amplio y abarca desde esta turbulencia microscópica hasta convulsiones electro-dinámicas del plasma que involucran todo el volumen.
En conclusión, los ingenieros no están manejando la máquina a menos que utilicen leyes empíricas aproximadas, de baja fiabilidad, sobre el sistema en funcionamiento. En este dominio donde el no equilibrio es el rey, donde las mediciones son extremadamente difíciles, la computadora no es de ayuda. El experimento es el único líder. Además, la extrapolación conduce a descubrir fenómenos inesperados, como el movimiento vertical del plasma (VDE, Evento de Desplazamiento Vertical), que apareció cuando se pasó del TFR de Fontenay aux Roses al JET de Culham.
El reciente fracaso del NIF (National Ignition Facility, ubicado en Livermore, Ca) es un buen ejemplo de fracaso sonoro en grandes y costosas instalaciones, con ayuda de las computadoras más potentes del mundo. Es la conclusión de la Campaña de Ignición Nacional (NIC) tras 2 años de pruebas, de 2010 a 2012. El sistema, compuesto por 192 láseres, entrega 500 teravatios (más de mil veces la potencia de la red eléctrica de EE.UU.) en una docena de nanosegundos, sobre un objetivo esférico de 2 mm de diámetro, lleno de mezcla de Deuterio-Tritio, el cual se inserta en el centro de una caja cilíndrica de 2 cm de largo y 1 cm de diámetro, llamada Holraum (horno en alemán).
El plan es el siguiente: la mitad de los haces de los láseres, en forma de disco, estallan en un lado de Holraum, la otra mitad entran por el lado opuesto. Estos haces ultradelgados de rayos UV golpean las paredes interiores del horno, construidas de Oro. Este reemite radiación X. Los haces láser, enfocados con precisión, crean 3 puntos de luz en la pared interior. La radiación X reemitida luego golpea al objetivo esférico. Hablamos ahora de irradiación indirecta. Este sistema fue diseñado básicamente para imitar la etapa de fusión de una bomba de hidrógeno, donde la radiación X (generada esta vez por un dispositivo de fisión) golpea las paredes de una cáscara llamada ablativo, que contiene el explosivo de fusión (deuteruro de litio). En el NIF, este último fue reemplazado con una mezcla de Deuterio-Tritio en la cual la fusión comienza a una temperatura más baja, del orden de 100 millones de grados. La cáscara (el ablativo, una cáscara esférica delgada) sublima y explota en ambas direcciones, interna y externa. Usamos esta compresión inversa para crear un "punto caliente" en el centro del objetivo, esperando iniciar la ignición en un esquema de confinamiento inercial.
Todo esto fue calculado bajo la dirección de John Lindl. En 2007, un artículo dedicado a este científico, durante la entrega del premio Maxwell, describió finamente lo que sucedería. Los teóricos estaban tan convencidos que Lindl no dudó en afirmar que la ignición sería el punto de partida de una gran serie de experimentos. Lo mismo sucedió con el encargado de las pruebas, quien incluso fijó una fecha límite para el éxito operativo, octubre de 2012, que se suponía coronar treinta años de esfuerzos, tanto teóricos como tecnológicos.
El resultado fue un enorme fracaso, revelado por un informe del 19 de julio de 2012, emitido por el Departamento de Energía de EE.UU. (DOE) y redactado bajo la supervisión de Davis H. Crandall.
Lo que debe quedar de este informe de observación, relacionado con este artículo muy importante, es que a pesar de la excelencia de este trabajo, tanto en tecnología como en medición, nada que salió de este experimento mostraba relación alguna con los datos calculados y las predicciones obtenidas con ayuda de las computadoras más potentes.
Hasta el punto en que algunos observadores preguntaban si estas simulaciones podían representar algún tipo de inversión para experimentos futuros.
La crisis del NIF es evidente: es imposible aumentar el número de láseres (de vidrio dopado con neodimio) por razones de costo. Es imposible nuevamente aumentar su potencia individual - en realidad, cuando están saturados de energía, por encima de cierto nivel, están propensos a explotar, sin importar la homogeneidad y la calidad del vidrio.
Para lograr iniciar la ignición y la fusión por confinamiento inercial, la velocidad de implosión debe ser al menos de 370 km/seg. No solo esta velocidad no se alcanza, sino que, muy grave, cuando la cáscara que constituye el dispositivo ablativo se convierte en plasma, y empuja su contenido de D-T, "el pistón se mezcla con el combustible", debido a una inestabilidad bien conocida, la de Raleigh Taylor. Para minimizar sus efectos, debemos hacer más grueso el ablativo. Pero entonces aumentaría su inercia y el umbral de velocidad de implosión no se alcanzaría nuevamente.
Las simulaciones realizadas en la computadora dieron resultados falsos en todos los dominios. Como se escribió en el informe del DOE, el modelado de las interacciones entre láser y paredes (el impacto de los rayos X en las paredes de oro) no es satisfactorio, a pesar de décadas de estudios dedicados a este tema, y cientos de tesis y artículos. Lo mismo ocurre con la interacción entre los haces de rayos X, siguiendo una ley llamada "Dispersión de Raman inversa", con el plasma de oro, proveniente de la sublimación del oro en las paredes del recinto. La interacción de la radiación X con el ablativo tampoco se simula correctamente. Por último, los algoritmos de cálculo (LASNEX) subestimaron completamente el peso de la inestabilidad de Raleigh Taylor, la deformación de la superficie de contacto del ablativo, deuterio-tritio, recordando vellos intestinales.
Estos errores muestran los límites de confianza que podemos establecer en los resultados de simulaciones computarizadas excelentes, una vez que estas máquinas intentan atacar problemas francamente fuera de equilibrio, sobre todo no lineales, donde un conjunto de mecanismos mal modelados juegan un papel en el juego.
Dr. Jean Pierre Petit