Nichtgleichgewichtswelten (Physik)

En résumé (grâce à un LLM libre auto-hébergé)

  • Der Text erklärt das Konzept des thermodynamischen Gleichgewichts, veranschaulicht durch die zufälligen, aber statistisch stabilen Bewegungen der Luftmoleküle.
  • Er vergleicht Systeme im Gleichgewicht mit solchen außerhalb des Gleichgewichts, wie Galaxien, bei denen die Bewegungen der Sterne keiner isotropen Verteilung folgen.
  • Der Autor stellt Experimente zu Schockwellen und deren Einfluss auf gasförmige Medien vor, wobei gezeigt wird, wie diese nach einer Störung wieder ein Gleichgewicht erreichen.

Welt ohne Gleichgewicht (Physik)

WELTEN OHNE GLEICHGEWICHT

Jean Pierre PETIT – Ehemaliger Forschungsdirektor – CNRS FR.

  1. Januar 2013

PDF (englisch) PDF (französisch)

Wenn ein Durchschnittsmensch an das Gleichgewicht eines Systems denkt, stellt er sich gewöhnlich eine Kugel vor, die im Boden eines Brunnens ruht, oder etwas Ähnliches.

Die Theorie des thermodynamischen Gleichgewichts enthält jedoch etwas Feinere: das dynamische Gleichgewicht. Das einfachste Beispiel ist die Luft, die wir atmen. Ihre Moleküle sind in alle Richtungen hin und her bewegt, mit einer mittleren thermischen Geschwindigkeit von 400 m/s. Mit ungeheurer Geschwindigkeit stoßen diese Moleküle zusammen, interagieren miteinander. Diese Stöße verändern ihre Geschwindigkeiten. Der Physiker übersetzt dies jedoch in eine statistische Stationarität (der verwendete Begriff ist „detailliertes Gleichgewicht“). Stellen Sie sich einen Zwerg vor, der zu jedem Zeitpunkt und an jedem Punkt des Raums die Molekülgeschwindigkeit in einer bestimmten Richtung messen könnte, mit einer geringen Winkelfehler. In jedem Zeitintervall zählt unser Zwerg die Geschwindigkeiten V und V + ΔV, den algebraischen Wert. Danach zeichnet er diese Werte in ein Diagramm ein und beobachtet, wie sich eine schöne Gaußsche Kurve bildet, deren Spitze nahe bei 400 m/s liegt. Je schneller oder langsamer die Moleküle sind, desto geringer ist ihre Population.

Er wiederholt diese Messung, indem er sein Messgerät in jede beliebige Raumrichtung richtet, und überraschenderweise erhält er jedes Mal das gleiche Ergebnis. Die Molekularbewegung im Raum ist isotrop. Außerdem kann nichts dieses dynamische Gleichgewicht stören, solange die Temperatur konstant bleibt, denn die Temperatur des Gases entspricht genau der mittleren kinetischen Energie, die aus dieser thermischen Bewegung resultiert. Der Physiker beschreibt dieses Gas als im thermodynamischen Gleichgewicht. Dieser Zustand ist vielschichtig: Die Luftmoleküle haben keine kugelsymmetrische Form. Zweiatomige Moleküle wie Sauerstoff oder Helium sind erbsenförmig. Moleküle von Kohlendioxid oder Wasserdampf haben andere Formen. Alle diese Objekte können sich drehen und so wie winzige Flywheels Energie speichern. Diese Moleküle können auch schwingen. Das Konzept der gleichmäßigen Energieverteilung besagt, dass die Energie gleichmäßig in all diesen verschiedenen „Moden“ verteilt sein muss. Bei einer Kollision kann ein Teil der kinetischen Energie in Schwingungs- oder Rotationsenergie eines Moleküls umgewandelt werden. Der umgekehrte Prozess ist ebenfalls möglich. Alles beruht somit auf Statistik, und unser Zwerg kann zählen, wie viele Moleküle sich in einem bestimmten Zustand befinden, welche kinetische Energie sie haben oder in welchem Schwingungszustand sie sind. Zurück zu unserer eingeatmeten Luft: Diese Zählung führt zu einem stationären Zustand. Dieses Medium wird dann als im thermodynamischen Gleichgewicht, also entspannt, bezeichnet. Stellen Sie sich einen Zauberer vor, der die Fähigkeit besitzt, diese Moleküle anzuhalten, ihre Dreh- oder Schwingungsbewegungen zu fixieren und sie nach Belieben zu verändern, wodurch eine neue statistische Verteilung entsteht, die diese schöne Gaußsche Kurve verformt oder sogar anisotrope Ereignisse erzeugt, beispielsweise indem die thermische Geschwindigkeit in einer Richtung gegenüber den querliegenden Richtungen verdoppelt wird. Schließlich lässt er das System nach weiteren Kollisionen evolvieren. Wie viele dieser Stöße sind notwendig, damit das System wieder ein thermodynamisches Gleichgewicht erreicht? Antwort: sehr wenige. Die mittlere freie Weglänge einer Molekül, also die Zeit zwischen zwei Kollisionen, gibt eine Vorstellung vom Relaxationszeitraum in einem Gas, von seiner Rückkehr zum thermodynamischen Gleichgewicht.

Gibt es Medien außerhalb des Gleichgewichts, bei denen sich die statistischen Molekülgeschwindigkeiten deutlich von dieser bequemen Isotropie und der Schönheit der Gaußschen Kurven entfernen?

Oh ja! Und das ist sogar der überwiegende Fall im Universum. Eine Galaxie, diese „Insel-Universum“, bestehend aus mehreren hundert Milliarden Sternen mit etwa gleichem Massenwert, kann als gasförmiges Medium betrachtet werden, in dem die Moleküle eigentlich… Sterne sein sollten. In diesem speziellen Fall entdeckt man eine beunruhigende Welt, in der die mittlere freie Weglänge eines Sterns vor einer Begegnung mit einem Nachbarstern zehntausendmal älter ist als das Alter des Universums. Was meinen wir mit „Begegnung“? Soll es eine Kollision sein, bei der die beiden Sterne heftig aufeinandertreffen? Gar nicht! In der theoretischen Physik, genannt kinetische Gastheorie, gilt eine Kollision dann als erfolgt, wenn die Bahn eines Sterns durch die Nähe eines Nachbarsterns deutlich verändert wird.

Trotzdem zeigen Berechnungen, dass solche Ereignisse extrem selten sind, und unser System aus mehreren hundert Milliarden Sternen kann im Allgemeinen als kollisionsfrei betrachtet werden.

Seit Milliarden von Jahren ist die Bahn unserer Sonne regelmäßig, fast kreisförmig. Wenn unsere Sonne selbstbewusst wäre und sich nicht durch Begegnungen verändern würde, würde sie die Anwesenheit von Nachbarn völlig ignorieren. Sie spürt nur das Gravitationsfeld als „glatt“. Sie bewegt sich wie in einer Mulde fort, ohne eine Unebenheit zu spüren, die durch andere Sterne entstanden wäre. Sofort tritt nun die Konsequenz auf: Stellen Sie unseren Zwerg, nunmehr Astronomen, in der Nähe der Sonne in unserer Galaxie und bitten Sie ihn, eine Geschwindigkeitsstatistik der benachbarten Sterne in allen Richtungen zu erstellen. Die offensichtliche Tatsache tritt nun hervor: Dynamisch gesehen ist das Medium stark anisotrop. Es gibt eine Richtung, in der die Agitationsgeschwindigkeiten der Sterne (die Astronomen nennen sie „Restgeschwindigkeit“, bezogen auf die mittlere Rotationsgeschwindigkeit der Galaxie, die nahe der Sonne etwa 230 km/s beträgt) praktisch doppelt so hoch sind wie in jeder anderen querliegenden Richtung. In unserer eingeatmeten Luft hieß das eine sphäroidale Geschwindigkeitsverteilung – jetzt wird es eine ellipsoidale Verteilung. Bisher alles klar? Wie beeinflusst dies unsere Wahrnehmung, unser Verständnis der Welt? Es verändert alles! Denn aus der Ferne können wir die Theorien solch stark von Gleichgewicht abweichender Systeme nicht behandeln.

Wenn wir den paradoxen Status der Galaxien beiseite lassen, der durch diesen teuflischen Effekt der Dunklen Materie (fehlende Masse) verursacht wird, entdeckt 1930 vom Schweizer-US-amerikaner Fritz Zwicky, und zumindest können wir kein Modell einer selbstgravitierenden Punktmasse (auf einer Bahn in ihrem eigenen Gravitationsfeld) erstellen. Unsere Physik bleibt immer nahe einem Zustand thermodynamischer Gleichgewicht. Natürlich stellt jede Abweichung von diesem oder jenem Element eine Abweichung vom Gleichgewicht dar, beispielsweise eine Temperaturdifferenz zwischen zwei gasförmigen Regionen, was zu einem Wärmetransfer, zu einem Transfer kinetischer Energie aus der thermischen Bewegung führt. In diesem Fall würde unser Zwerg, wenn wir ihn wieder arbeiten lassen, feststellen, dass das Medium dynamisch gesehen „fast isotrop“ ist. Dies wäre der Fall unserer Atmosphäre, selbst wenn sie von den heftigsten Stürmen durchzogen wird.

Gibt es also unmöglich Situationen, bei denen ein gasförmiges Medium, eine Flüssigkeit, deutlich außerhalb des Gleichgewichts ist? Solche Fälle finden sich beim Durchgang von Stoßwellen. Es handelt sich um begrenzte Bereiche, wobei die Dicke der Stoßwelle in der Größenordnung der mittleren freien Weglänge liegt.

Wenn ein Gas eine Stoßwelle durchläuft, wechselt es abrupt von einem Zustand nahe dem thermodynamischen Gleichgewicht zu einem „gestoßenen“ Zustand, und das thermodynamische Gleichgewicht wird nach wenigen mittleren freien Weglängen wiederhergestellt.

Wir berichteten vor vierzig Jahren in dem Labor, in dem ich arbeitete – nun abgerissen, dem „Institut de Mécanique des Fluides de Marseille“ – eine Beobachtung. Damals verfügten wir über sogenannte „Stoßrohre“, eine Art Gaskanonen. Prinzip: Mit einer Explosion lösten wir eine Stoßwelle aus, die sich mit mehreren Tausend Metern pro Sekunde in einem verdünnten Gas ausbreitete – ursprünglich war das Gas bei einem Druck von einigen Millimetern Quecksilber. Die Stoßwelle komprimiert das Gas erneut und erhöht seine Dichte.

Wir konnten die Zunahme der Dichte leicht und genau mit Interferometrie verfolgen. Zu jener Zeit maßen wir auch den Wärmestrom an der Oberfläche von Plexiglas-Modellen. Da die Experimente nur Bruchteile einer Millisekunde dauerten, mussten unsere Messgeräte eine schnelle Reaktionszeit haben. Genau genommen bestanden sie aus dünnen metallischen Schichten mit einer Dicke von einem Mikrometer, die im Vakuum an die Wand aufgebracht wurden und als Thermistoren fungierten. Wir bewerteten den Wärmestrom, indem wir den Widerstand dieser Sensoren aufzeichneten, während sie sich erwärmten.

Eines Tages platzierten wir einen Sensor direkt an der Rohrwand. Danach beobachteten wir, dass der Wärmestrom nach einer gewissen Verzögerung nach dem Durchgang der Stoßwelle den Sensor erreichte, die durch einen plötzlichen Dichtesprung sichtbar wurde. Dennoch stellten wir sicher, dass die thermische Verzögerung des Sensors so gering war, dass diese Verzögerung nicht von ihm stammte. Tatsächlich hatten wir einen Prozess der Rückkehr zu einem quasi-thermodynamischen Gleichgewicht, stromabwärts der Stoßwelle, erfasst.

Man kann dies mit einem Hammerschlag vergleichen. Nicht nur wird die Dichte plötzlich erhöht, sondern wir beobachteten auch einen Temperaturanstieg, was eine Erhöhung der thermischen Geschwindigkeit der Moleküle bedeutet. Doch hinter dieser Welle wird die Isotropie erst nach mehreren mittleren freien Weglängen wiederhergestellt. Unmittelbar vor dem Dichtegipfel ist die thermische Bewegung durch Bewegungen gekennzeichnet, die senkrecht zur Wellenrichtung beginnen.

Wenn unser Sensor Wärme empfängt, stammt dies aus dem Aufprall der Luftmoleküle auf seine Oberfläche. Doch unmittelbar vor dem Dichtegipfel, über eine gewisse Strecke, entwickelte sich die thermische Bewegung parallel zur Wand. Das Gas war gut „erhitzt“, aber vorübergehend unfähig, diese Wärme an die Wand abzugeben. Bei den Kollisionen verwandelte sich das „Ellipsoid der Geschwindigkeiten“ in ein „Sphäroid der Geschwindigkeiten“, und der Sensor gab schließlich den empfangenen Wärmestrom wieder ab. Ich erinnere mich, dass wir mit dem experimentellen Aufbau, den wir hatten, diesen Wärmestrom etwa einen Zentimeter vor dem Dichtegipfel aufgezeichnet haben.

Stoßwellen stellen somit Bereiche von äußerst geringer Dicke dar, in denen das gasförmige Medium stark außerhalb des Gleichgewichts ist.

Wie gehen wir damit um? Wir machen diese Bereiche gleichwertig mit Flächen unendlich geringer Dicke. Und das funktioniert seit fast einem Jahrhundert.

Ich bin alt genug, um fast die gesamte Geschichte der Computer zu kennen, seit deren Anfang. Als Student an der „École Nationale Supérieure de l’Aéronautique“ gab es im Gebäude keinen Computer. Diese waren in heiligen Stätten untergebracht, sogenannten „Rechenzentren“, auf die wir keinen Zugang hatten. Wir rechneten mit Rechenschiebern, Gegenständen der Neugier für die heutige Generation. In den Klassen der Hochschule hatten wir alle ein Logarithmenbuch, und jedes Examen beinhaltete einen langweiligen numerischen Berechnungstest mit diesen Objekten, die heute in Museen ausgestellt sind.

Als ich die Flugzeugakademie verließ, kamen gerade mechanische Rechenmaschinen (FACIT), manuell betrieben. Um Zahlen zu multiplizieren, drehte man eine Kurbel in eine Richtung, um sie zu dividieren, in die andere.

Die Professoren oder Abteilungsleiter verfügten über elektrische Maschinen, die das Schweigen der Büros mit ihrem Räderwerkgeräusch im Institut für Strömungsmechanik 1964 durchbrachen. Die Computer hatten eine Ehrenstellung, wie ferne Götter, die man nur durch ein Fenster in diesen Rechenzentren erblicken konnte. Diese Computer, deren Leistung einer heutigen Taschenrechner entsprach, wurden von Priestern in weißen Gewändern bedient. Man konnte mit ihnen nur über eine dicke Stapel von Lochkarten kommunizieren, die laut von einem mechanischen Kartenleser gelesen wurden. Wir kauften „Rechenzeit“ pro Sekunde, so teuer, dass es für heutige Jugendliche fast neolithisch erscheint.

Die Invasion der Mikrocomputer hat alles verändert. Außerdem war der Anstieg der Rechenleistung so explosionsartig, dass das Netz nun voller Bilder ist, auf denen riesige Räume mit mysteriösen schwarzen Kästen gefüllt sind, die unglaubliche Datenmengen verarbeiten.

Megaflops, Gigaflops, Petaflops – üppig! In den siebziger Jahren konnte man den Inhalt des RAMs eines Apple II leicht lesen, der vollständig als kleines Büchlein geschrieben war.

Wir leben in einer prometheischen Welt. Kann man sagen, dass diese modernen Werkzeuge unsere Beherrschung der Physik erhöhen? Eine Anekdote kommt mir in den Sinn. In Frankreich war ich Pionier der Mikroinformatik und leitete eines der ersten Zentren (auf Basis des Apple II), das dieser Technologie gewidmet war. Zu jener Zeit war ich auch Professor für Skulptur an der École des Beaux-Arts in Aix-en-Provence. Eines Tages stellte ich ein System vor, bei dem ein Flachbettplotter beliebige, beherrschte Perspektiven zeichnen konnte. Ein alter Professor, die Augenbrauen zusammengezogen, sagte dann: „Sagen Sie mir nicht, dass der Computer den Künstler ersetzen wird?“

In einer Paraphrase könnte man sich vorstellen, dass ein Kollege nach einem Besuch eines riesigen Datenzentrums sagt: „Sagen Sie mir nicht, dass der Computer das Gehirn ersetzen wird?“

Trotz des unaufhaltsamen Anstiegs der Rechenleistung und der massiven Multi-Prozessoren sind wir weit davon entfernt. In bestimmten Bereichen haben diese Systeme jedoch unsere Logarithmenbücher und Rechenschieber in die Mülltonne geworfen, unter anderem. Wer berechnet heute noch Integrale per Hand, Papier und Bleistift? Wer jongliert noch mit Differentialrechnung, abgesehen von reinen Mathematikern?

Heute glauben wir, dass „der Computer alles macht“. Wir schreiben Algorithmen, liefern Daten, starten Berechnungen, bis wir Ergebnisse erhalten. Wenn es darum geht, ein Gebäude oder ein schönes Ingenieurwerk zu zeichnen, funktioniert das hervorragend. Die Strömungslehre ist ebenfalls ein Erfolg.

Wir können ein Flächenelement beliebiger Form senkrecht zu einem Gasstrom platzieren und das Wirbelmuster des Strömungsums herausschreiben, egal wie die Form ist. Stimmt das mit der Erfahrung überein? Nicht immer. Qualitativ beherrschen wir das Ereignis: Beispielsweise können wir einen zuverlässigen Wert für den aerodynamischen Widerstand berechnen, der durch diese Gaswirbel entsteht. Ebenso berechnen wir die Verbrennungseffizienz innerhalb eines Zylinders, die Konvektionsströmungen in einem Raum. Die Wettervorhersage entwickelt sich schnell, für Vorhersagen von einigen Tagen, mit Ausnahme der „Mikroereignisse“, sehr lokal begrenzt und immer noch unzugänglich. Gilt das für alle Bereiche?

Es gibt Körper, die sich nicht von diesem modernen Löwen, dem Computer, zähmen lassen. Das sind die Plasmen außerhalb des Gleichgewichts, die in allen Kategorien führend sind. Sie weichen auch von der Theorie der Fluide ab, obwohl sie eine gewisse Verwandtschaft aufweisen, da sie durch Fernwirkungen des elektromagnetischen Feldes beeinflusst werden, deren Effekt nur berücksichtigt werden kann, wenn alle ionischen Teilchen des Systems berücksichtigt werden.

Man könnte sagen: Es ist egal. Man muss das Plasma einfach als ein N-Körper-System betrachten. Einfacher gesagt als getan! Wir sprachen oben bereits von Galaxien als Beispiele für Welten ohne Kollisionen. Tokamaks sind ein weiteres Beispiel (ITER ist ein riesiger Tokamak). Das darin enthaltene Gas ist extrem verdünnt. Vor dem Start wäre der Druck innerhalb der 840 Kubikmeter des ITER kleiner als ein Bruchteil eines Millimeters Quecksilber. Warum so niedriger Druck? Weil wir dieses Gas auf über 100 Millionen Grad erhitzen müssen. Sie wissen, dass der Druck durch p = nkT ausgedrückt wird – k ist die Boltzmann-Konstante, T die absolute Temperatur, und n die Anzahl der Teilchen pro Kubikmeter. Die Einschlusskraft des Plasmas beruht ausschließlich auf dem magnetischen Druck, der mit dem Quadrat des magnetischen Feldes ansteigt.

Bei einer Feldstärke von 5,2 Tesla beträgt der magnetische Druck 200 Atmosphären. Für die Einschlusskraft des Plasmas muss sein Druck deutlich unter diesem Wert bleiben. Aufgrund der Verwendung eines supraleitenden Geräts kann das magnetische Feld nicht beliebig erhöht werden, daher bleibt die Dichte des Plasmas im Reaktorraum auf sehr niedrige Werte begrenzt. Aus diesen Fakten ergibt sich, dass es sich um einen vollständig kollisionsfreien Körper handelt, der keiner zuverlässigen makroskopischen Beschreibung fähig ist. Können wir ihn als N-Körper-Problem behandeln? Träumen Sie nicht einmal davon, weder heute noch in Zukunft – lokal wie bei der Strömungsmechanik neutraler Fluide kann dies nicht berechnet werden. Jede Region ist über das elektromagnetische Feld mit allen anderen gekoppelt. Nehmen wir beispielsweise das Problem des Energieübertrags vom Kern des Plasmas zu den Wänden. Neben einem Mechanismus, der einer Wärmeleitung ähnelt, und neben dem, was der Turbulenz zuzurechnen ist, tritt eine dritte Möglichkeit auf, genannt „anormaler Transport“, der… Wellen nutzt.

Zusammenfassend lässt sich sagen, dass ein Tokamak für einen Theoretiker eine wahre Alptraumdarstellung ist.

Das Plasma selbst, abgesehen von seinem unkontrollierbaren Verhalten, ist nicht das einzige beteiligte Element. Es gibt noch alles andere: insbesondere die unvermeidbare Ablation von Teilchen aus den Wänden. Diejenigen, die Gleitschirmfliegen betreiben, kennen den grundlegenden Parameter dieser Maschinen: das Verhältnis Auftrieb-Widerstand: Es drückt aus, wie viele Meter pro Meter Sinken zurückgelegt werden (der Gleitzahl). Bei einer bestimmten Geschwindigkeit erzeugt die Flügel des Gleitschirms eine bestimmte Auftriebskraft. Bei derselben Geschwindigkeit ergibt sich eine Widerstandskraft, die zwei Ursachen hat: Erstens der induzierte Widerstand: ein

Wir können ein Oberflächenstück, welches irgendeine Form hat, senkrecht zu einem gasförmigen Fluss platzieren und den Wirbelstromverlauf daran berechnen, egal wie seine Form ist. Passt das zur Experimentierung? Nicht immer. Qualitativ beherrschen wir das Ereignis, beispielsweise können wir aufgrund dieses Gaswirbelns eine zuverlässige aerodynamische Widerstandszahl berechnen. Ebenso berechnen wir die Verbrennungseffizienz innerhalb eines Zylinders, den Konvektionsstrom in einem Raum. Die prognostische Meteorologie gewinnt schnell an Boden, indem sie einen Zeitrahmen von ein paar Tagen bietet, außer bei „Mikroereignissen“, sehr lokalisierten, die noch nicht beherrschbar sind. Ist das in jedem Bereich der Fall?

Es gibt Körper, die sich nicht von diesem modernen Zirkusdompteur, dem sogenannten Computer, halten lassen. Diese sind „nicht im Gleichgewicht“-Plasmen, Titelträger, aller Kategorien. Sie drifteten auch von der Theorie der Flüssigkeiten ab, obwohl sie eine gewisse Familienähnlichkeit aufweisen, da sie der Fernwirkung unterliegen, aufgrund des elektromagnetischen Feldes, dessen Wirkung nur berücksichtigt werden kann, wenn alle ionisierten Teilchen, die das System bilden, berücksichtigt werden.

Es ist egal, sagtest du. Es genügt, das Plasma als N-Körper-System zu betrachten. Einfacher gesagt als getan! Wir sprachen bereits über Galaxien als Beispiele für kollisionsfreie Welten. Tokamaks sind eine andere Art (ITER ist ein riesiger Tokamak). Das Gas, das sie enthalten, ist extrem dünn. Bevor man beginnt, wäre der Fülldruck innerhalb der 840 Kubikmeter von ITER weniger als Bruchteile des Drucks von Quecksilbersäulen. Warum so niedriger Druck? Weil wir dieses Gas auf über 100 Millionen Grad erhitzen wollen. Doch du weißt, dass der Druck wie folgt ausgedrückt wird: p = nkT – k ist die Boltzmann-Konstante, T die absolute Temperatur und n die Anzahl der Teilchen pro Kubikmeter. Die Plasmaeinschließung erfolgt nur durch magnetischen Druck, dieser letzte steigt mit dem Quadrat des Magnetfeldes.

Mit einer Feldintensität von 5,2 Tesla beträgt der magnetische Druck 200 Atmosphären. Im Hinblick auf die Plasmaeinschließung muss sein Druck weit unter diesem Wert bleiben. Aufgrund der Verwendung eines Supraleitergeräts kann das Magnetfeld nicht unbegrenzt erhöht werden, wodurch die Plasmadichte im Reaktorraum auf sehr niedrige Werte begrenzt bleibt. Aus diesen Fakten sehen wir einen vollständig kollisionsfreien Körper, der jeder zuverlässigen makroskopischen Definition entgeht. Können wir ihn wie ein N-Körper-Problem behandeln? Träume nicht einmal davon, jetzt oder in Zukunft – es ist nicht möglich, lokal zu berechnen, wie es bei der Mechanik neutraler Flüssigkeiten möglich ist. Jeder Bereich ist über das elektromagnetische Feld mit jedem anderen Bereich verbunden. Nehmen wir beispielsweise das Problem der Energieübertragung vom Plasma-Kern zu den Wänden. Neben einem Mechanismus, der dem Wärmeleitungsphänomen ähnelt, und dem, was zur Turbulenz gehört, kommt eine dritte Modus, genannt „anormale Transport“, die … Wellen verwendet.

Kurz gesagt, ein Tokamak ist für einen Theoretiker ein absolutes Albtraum.

Plasma an sich, abgesehen von seinem unkontrollierbaren Verhalten, ist nicht das einzige, das beteiligt ist. Es gibt alles andere: darunter ist die unvermeidliche Ablation von Teilchen von den Wänden. Wer Segelflugzeuge praktiziert, weiß, dass der grundlegende Parameter dieser Maschinen das Verhältnis von Auftrieb zu Widerstand ist: es drückt die Anzahl der Meter aus, die pro Meter Höhe verloren geht (das Gleitverhältnis). Das Segelflugzeugflügel, bei einer bestimmten Geschwindigkeit, erzeugt eine bestimmte Auftriebskraft. Bei derselben Geschwindigkeit erhalten wir eine Widerstandskraft, die zweifach ist: erstens ist es induzierter Widerstand: ein Energieverlust aufgrund von Wirbeln an den Flügelspitzen.

Du kannst es nicht vermeiden, es sei denn, du hast eine unendliche Flügellänge … Um ihn zu verringern, haben Segelflugzeuge so große Flügellängen, häufig mehr als 20 Meter, mit einem Aspektverhältnis – Verhältnis der halben Flügellänge zur mittleren Flügeltiefe – größer als 20. Die zweite Quelle des Widerstands ist der viskose Widerstand. Er wird verringert, indem man die glatteste Flügelfläche sucht. Aufgrund einer guten Politur verzögern wir das Auftreten von Turbulenzen in der unmittelbaren Nähe der Flügelfläche. Dieses Phänomen ist eine grundlegende Fluidinstabilität, die Exzellenz der Politur kann nur ihren Eintritt verzögern. Umgekehrt kann diese Turbulenz durch eine Störung ausgelöst werden. Wenn wir eine Rauchlinie in einer ruhigen Atmosphäre betrachten, ist es ein Aufstieg von heißem Gas, gefärbt durch seine Teilcheninhalt. Dieses Rauchband, zunächst ruhig, wird nach einem Zehntel Zentimeter Aufstieg sehr turbulent, egal wie ruhig die Umgebungsluft ist. Durch das Einführen eines Hindernisses, wie einer Nadel, in diesen Aufstieg können wir eine irreversible Turbulenz auslösen. Das Gleiche geschieht durch eine kleine Rauheit auf der polierten Flügelfläche eines Segelflugzeugs, die lokale Turbulenzphänomene auslöst, die die Luftreibung lokal um einen Faktor von fast hundert erhöhen, somit den Gesamtwiderstand. In modernen Segelflugzeugen gelingt es, eine laminare Luftströmung (nicht turbulent, parallele Schichten) über 60 % der Flügelspannweite zu halten. Wenn zufällig ein Käfer auf der Vorderkante aufschlägt, wird diese kleine Rauheit Turbulenz in einem Bereich von etwa 30 Grad weiter auslösen. Aus diesem Grund haben Wettkampfsegelflugzeuge, deren Gleitverhältnis über 50 liegt, ein Reinigungsgerät an der Vorderkante, das automatisch und zeitgerecht aktiviert wird, das mit einem linearen Windschutz vergleichbar ist, eine Art Bürste, die entlang der Vorderkante hin und her fährt und sich dann in eine versteckte Stelle zurückzieht. Um das Gesamtleistungsverhältnis von Verkehrsflugzeugen zu erhöhen, wurden beträchtliche Arbeiten investiert, um ihren Kraftstoffverbrauch zu reduzieren. Zurück in den sechziger Jahren hatte das „Caravelle“, das in der Lage war, zwischen Orly und Dijon zu fliegen, ein Gleitfaktor von 12. Heute haben selbst diese riesigen Airbus 380 einen Gleitfaktor von mehr als 20.

Das bedeutet, dass, wenn die Antriebskraft fehlt, mit ihren vier Motoren im Leerlauf, sie aus einer Höhe von 10.000 Metern über 200 Kilometer gleiten können.

Zurück zu Plasmen und Tokamaks: in diesen Maschinen kann eine Mikrovolumen-Turbulenz durch winzige Partikel ausgelöst werden, die von den Wänden abgerissen werden, und wird den Reaktionsraum übernehmen. In Bezug auf Turbulenz ist der Bereich extrem groß und erstreckt sich von dieser Mikroturbulenz bis zu elektrodynamischen Plasma-Krämpfen, die das gesamte Volumen betreffen.

Zusammenfassend sind Ingenieure überhaupt nicht in der Lage, die Maschine zu kontrollieren, es sei denn, sie verwenden angenäherte empirische „Ingenieursgesetze“, die nur schwach zuverlässig sind, über das laufende System. In diesem Bereich, in dem Nichtgleichgewicht der König ist, wo Messungen extrem schwierig sind, ist der Computer nicht hilfreich. Experiment ist der einzige Führer. Auch die Extrapolation führt zu der Entdeckung neuer unvorhergesehener Phänomene, wie der vertikalen Plasmaschwingung (VDE, Vertical Displacement Event), die auftrat, als die Größe von Fontenay aux Roses TFR zu Culham JET sprang.

Das jüngste Desaster des NIF (National Ignition Facility, in Livermore, Kalifornien) ist ein gutes Beispiel für einen kläglichen Misserfolg in großen und kostspieligen Anlagen, mit Hilfe der mächtigsten Computer der Welt. Es ist das Ergebnis der NIC (National Ignition Campaign) nach 2 Jahren Versuchen, von 2010 bis 2012. Das System besteht aus 192 Lasern, die 500 Terawatt (mehr als tausendmal die Leistung des US-Stromnetzes) in einem Handvoll Nanosekunden auf ein kugelförmiges Ziel mit 2 mm Durchmesser abgeben, das mit einer Deuterium-Tritium-Mischung gefüllt ist, das in der Mitte eines zylindrischen Behälters mit 2 cm Länge und 1 cm Durchmesser, genannt Holraum (Ofen auf Deutsch), eingesetzt wird.

Das Ziel ist folgendes: die Hälfte der Laserscheibenstrahlen zerplatzen an einer Seite des Holraums, die andere Hälfte dringen in das gegenüberliegende Loch ein. Diese ultradünnen UV-Strahlen treffen die Innenwände des Ofens, die aus Gold bestehen. Dieser strahlt Röntgenstrahlung wieder ab. Die präzise fokussierten Laserstrahlen erzeugen 3 Streifen auf der Innenwand. Die wieder abgestrahlte Röntgenstrahlung trifft dann das kugelförmige Ziel. Wir sprechen jetzt von indirekter Bestrahlung. Dieses System wurde hauptsächlich entwickelt, um den Fusionsstadium eines Wasserstoffbomben zu imitieren, bei dem die Röntgenstrahlung (diesmal von einer Spaltungsanlage erzeugt) die Wände einer Hülle namens Ablator trifft, die die Fusionsexplosivstoffe (Lithiumdeuterid) enthält. Im NIF wurde letzteres durch eine Deuterium-Tritium-Mischung ersetzt, in der die Fusion bei einer niedrigeren Temperatur, im Bereich von 100 Millionen Grad, beginnt. Die Hülle (der Ablator, eine dünne kugelförmige Schale) sublimiert und explodiert in beide Richtungen, nach außen und innen. Wir nutzen diese Rückkompression, um einen „heißen Punkt“ im Zentrum des Ziels zu erzeugen, hoffend, die Zündung in einem Trägheitskonfinementschema zu starten.

All dies wurde unter der Leitung von John Lindl berechnet. Im Jahr 2007 wurde ein Papier, das diesem Wissenschaftler gewidmet war, während der Maxwell-Preisverleihung, detailliert beschrieben, was passieren würde. Die Theoretiker waren so überzeugt, dass Lindl nicht zögerte, zu behaupten, dass die Zündung der Ausgangspunkt einer großen Reihe von Experimenten sein würde. Das gilt auch für den Testmanager, der sogar ein Fristdatum für den operativen Erfolg festgelegt hatte, Oktober 2012, das den dreißigjährigen Bemühungen, sowohl theoretisch als auch technologisch, krönendes Werk sein sollte.

Das Ergebnis war ein riesiges Desaster, das durch einen Bericht vom 19. Juli 2012, herausgegeben vom US-Department of Energy (DOE) und unter der Aufsicht von Davis H. Crandall geschrieben, offengelegt wurde.

Was aus dieser Beobachtungsbericht, der diesem Papier sehr wichtig ist, bleibt, ist, dass trotz der Exzellenz dieser Arbeit, sowohl in technischer als auch in Messungsbeziehung, nichts, was aus diesem Experiment hervorging, irgendeine Beziehung zu den berechneten Daten und Vorhersagen aufwies, die mit Hilfe der mächtigsten Computer erzielt wurden.

So weit, dass einige Beobachter fragten, ob diese Simulationen irgendeine Investition für zukünftige Experimente darstellen könnten.

Die NIF-Krise ist offensichtlich – es ist unmöglich, die Anzahl der Laser (Neodym-dotiertes Glas) aus Kostengründen zu erhöhen. Es ist auch wiederum unmöglich, ihre Einheitsspannung zu erhöhen – in der Tat, wenn sie mit Energie geflutet werden, sind sie anfällig für Explosionen, egal wie homogen und wie hoch die Qualität des Glases ist.

Um die Zündung und die Trägheitskonfinierungsfusion zu starten, muss die Implosiongeschwindigkeit mindestens 370 km/s betragen.
Nicht nur, dass diese Geschwindigkeit nicht erreicht wird, sondern, viel schlimmer, wenn die Schale, die den ablativen Gerät bildet, in Plasma verwandelt wird und ihren D-T-Inhalt verdrängt, „der Kolben mischt sich mit dem Brennstoff“, aufgrund einer gut bekannten Instabilität, der von Raleigh Taylor. Um ihre Auswirkungen zu minimieren, müssen wir den Ablator dicker machen. Dann würde aber seine Trägheit zunehmen und die Implosionsgeschwindigkeitsschwelle würde nicht wieder erreicht werden.

Die auf dem Computer durchgeführten Simulationen haben in allen Bereichen falsche Ergebnisse geliefert. Wie im DOE-Bericht geschrieben, ist die Modellierung der Wechselwirkungen zwischen Laser und Wänden (Einfluss der Röntgenstrahlen auf Goldwände) nicht zufriedenstellend, obwohl Jahrzehnte der Forschung auf diesem Thema und Hunderte von Dissertationen und Papieren investiert wurden. Das Gleiche gilt für die Wechselwirkung zwischen Röntgenstrahlen und dem Goldplasma, das aus der Sublimation von Wandgold im Inneren des Behälters stammt. Die Wechselwirkung der Röntgenstrahlung mit dem Ablator wird ebenfalls nicht korrekt simuliert. Zuletzt unterschätzten die Berechnungsalgorithmen (LASNEX) die Bedeutung der Raleigh-Taylor-Instabilität völlig, die Verformung der Kontaktfläche des Ablators, Deuterium-Tritium, die an Darmvilli angedeutet wird.

Diese Pannen zeigen die Vertrauensgrenzen, die wir in hervorragende, computerisierte Simulationsergebnisse setzen können, sobald diese Maschinen sich mutig mit außergleichgewichtigen Problemen, insbesondere nichtlinearen, anlegen, in denen eine Reihe von Mechanismen, die schlecht modelliert sind, eine Rolle spielen.

Dr. Jean Pierre Petit