非平衡世界(物理学)
非平衡世界
ジャン・ピエール・ペティ – 元研究主任 – CNRS FR.
2013年1月12日
一般の人がシステムの平衡について考えるとき、たいていは井戸の底に落ちたボールやそれに似たものばかりを想像する。
熱力学的平衡の理論には、より奥深い概念が含まれている:動的平衡である。最も単純な例は、私たちが呼吸する空気である。その分子はあらゆる方向に激しく運動しており、平均熱速度は400m/sである。途方もない頻度でこれらの分子は衝突し、相互作用する。衝突によって分子の速度は変化する。しかし物理学者はこれを統計的定常状態(用語としては「詳細平衡」)として解釈する。ある妖精が、瞬間的かつ部屋内の任意の点で、ある特定方向の分子速度をわずかに角度誤差を伴って測定できると想像してみよう。時間間隔ごとに、この妖精は速度VとV+ΔV(代数値)を数える。その後、その値をグラフにプロットすると、平均値が400m/s付近に頂点を持つ美しいガウス曲線が現れる。分子が速いか遅いかほど、その個体数は少なくなる。
彼は測定装置を空間内のどの方向にも向けると、驚くことに、同じ結果を得る。部屋内の分子運動は等方的である。さらに、温度が一定であれば、この動的平衡は壊れることはない。なぜなら気体の温度は、まさにこの熱運動に由来する平均運動エネルギーそのものだからである。物理学者はこの気体を熱力学的平衡にあると記述する。この状態は多面的である:空気の分子は球対称ではない。酸素やヘリウムのような二原子分子はピーナッツ型をしている。二酸化炭素や水蒸気の分子は他の形をしている。これらすべての物体は回転することでエネルギーを蓄えることができ、小さな飛行機のようなものである。また分子は振動もできる。エネルギー均等分配の法則によれば、エネルギーはこれらのさまざまな「モード」に均等に分配されなければならない。衝突の際、一部の運動エネルギーが分子の振動エネルギーまたは回転エネルギーに変換されることがある。逆のプロセスも成立する。すべては統計に基づくものであり、この妖精は、ある状態にある分子の数、ある運動エネルギーを持つ分子の数、ある振動状態にある分子の数を数えることができる。私たちが呼吸する空気に戻ると、この集計は定常状態に至る。この媒質は熱力学的平衡にある、すなわち緩和された状態であるとされる。ある魔法使いが、これらの分子を止める力を持ち、回転や振動の運動を固定し、自由に変更できると想像しよう。これにより新しい統計法則が生まれ、美しいガウス曲線が歪められ、異方的な現象が生じるかもしれない。たとえば、ある方向の熱速度を横方向に対して2倍にするような状況である。その後、システムは新たな衝突に従って進化する。このシステムが再び熱力学的平衡に戻るには、いったい何回の衝突が必要だろうか?答えは、非常に少ない。分子が2回の衝突の間に行う平均自由行程は、気体における緩和時間、すなわち熱力学的平衡への戻り時間の目安となる。
では、分子速度の統計がこの快適な等方性や美しいガウス曲線から著しく逸脱する非平衡状態の媒質は存在するだろうか?
もちろん存在する。むしろ宇宙の大部分がまさにそのような状態である。数億個の星からなる銀河、いわゆる「宇宙の島」として見られるものだが、その質量は概ね同程度である。これは気体と見なすことができる。この場合、分子は……星そのものとなる。この状況では、星が隣接する星と遭遇するまでの平均自由時間は、宇宙の年齢の1万倍にもなる。ここでいう「遭遇」とは何か? 2つの星が激しく衝突するようなものだろうか?まったく違う。理論物理学の分野である気体運動論では、星の軌道が隣接する星の近くで著しく変化した場合を「衝突」とみなすのである。
しかし計算によれば、このような出来事は極めてまれであり、数百億個の星からなるこのシステムは、通常は衝突がないと見なせる。
何十億年もの間、私たちの太陽の軌道は規則的で、ほぼ円形である。もし太陽が自己意識を持ち、遭遇によって速度を変えないならば、隣接する星の存在をまったく知らなかったであろう。重力場は「滑らか」にしか感じられない。他の星が作り出す凸凹を感じることなく、バケツの中を進むように、自分のペースで進んでいく。直ちにその結果が現れる。太陽の近くに、今や天文学者となったこの妖精を置き、周囲の星の速度統計をあらゆる方向に構築してほしいと頼もう。明らかに、動的観点から見れば、この媒質は強く異方的である。星の運動速度(天文学者はこれを「残差速度」と呼ぶ。銀河の平均回転速度、太陽付近では約230km/sでほぼ円形)が、他の任意の横方向と比べて、実際には2倍近く高い方向が存在するのである。私たちが呼吸する空気では、これは「楕円体型の速度分布」と呼ばれていたが、今やそれは「楕円体型の速度分布」に変わる。ここまで問題ないだろうか? この事実は、私たちの視覚や世界観にどのような影響を与えるのか? まったく変わってしまうのである。なぜなら、遠くから見ると、このような極めて非平衡なシステムの理論を扱うことはできないからである。
銀河の奇妙な状態(暗黒物質という「悪魔的な効果」によるもので、1930年にスイス系アメリカ人フリッツ・ツヴィッキーによって発見された)を無視するとしても、点質量の自己重力系(自身の重力場内で軌道を回る)のモデルは作成できない。私たちの物理学は常に熱力学的平衡に近い状態にある。もちろん、この状態からのわずかなずれも、平衡からのずれである。たとえば、2つの気体領域間に温度差がある場合、熱の移動が生じ、熱運動に由来する運動エネルギーの移動が発生する。この場合、再び妖精を働かせると、彼は動的観点から見れば「ほぼ等方的」と結論づけるだろう。これは私たちの大気であっても、最も激しい嵐が吹き荒れても同じである。
では、気体や流体が明確に非平衡状態にあるような状況に、実際に遭遇することは不可能なのだろうか? そのような状況は衝撃波を通過する際に見られる。これらは非常に限られた領域であり、衝撃波の厚さは平均自由行程の数倍程度である。
気体が衝撃波を通過すると、熱力学的平衡に近い状態から「衝撃された」状態へと急激に移行し、数個の平均自由行程の後に再び熱力学的平衡が回復する。
40年前、私が勤めていた実験室(現在は取り壊されている)である「マルセイユ流体力学研究所」で、ある観測を報告した。当時、我々は「衝撃管」と呼ばれるガス銃のような装置を持っていた。原理は、爆発を利用して、希薄な気体中を数千m/sの速度で伝播する衝撃波を発生させることである。当初の気体圧力は数ミリメートルHg程度であった。衝撃波が通過すると、気体は再び圧縮され、密度が増加する。
我々は干渉計を用いて、密度の増加を容易かつ正確に追跡できた。当時、プラスチック製の模型表面での熱流束も測定していた。実験は数ミリ秒未満しか持続しなかったため、測定装置は非常に高速な応答が必要だった。正確には、壁面に真空蒸着された厚さ1μm程度の金属薄膜(熱抵抗素子として機能)が使用されていた。これらのセンサーが加熱される際の抵抗値を記録することで、熱流束を評価した。
ある日、センサーを管の壁面に直接設置した。その後、衝撃波の通過(密度の急激な上昇として観測)から一定時間遅れて、熱流束がセンサーに到達することを確認した。しかし、センサーの熱的遅れが十分小さく、この遅延はセンサー自身の原因ではないことを確認した。実際には、衝撃波の下流で、準平衡状態への回復現象に触れたのである。
これはハンマーによる打撃に似ている。密度が急激に増加するだけでなく、温度の跳躍も観測された。これは分子の熱速度が増加したことを意味する。しかし、この波の後方では、等方性は数個の平均自由行程経過後まで回復しない。密度前線の直前では、熱運動は波の進行方向に対して垂直に始まる。
私たちのセンサーが熱を受けるのは、空気分子がその表面に衝突するためである。しかし、密度前線の直前では、ある距離にわたり、熱運動は壁面と平行に発展していた。気体は確かに「加熱」されていたが、一時的に壁面への熱伝達ができなかったのである。衝突の過程で、「速度の楕円体」は「速度の球体」へと変化し、最終的にセンサーは受信した熱流束を再放出した。私たちの実験装置を思い出す限り、この熱流束は密度前線から約1cm手前の位置で記録された。
つまり、衝撃波は、気体媒質が極めて非平衡状態にある非常に薄い領域を表しているのである。
こうした状況にどう対処するか? その領域を厚さゼロの表面と見なすようにする。このアプローチはほぼ1世紀前から機能している。
私はコンピュータの歴史のほとんどを、その始まりから知っている年齢である。航空大学(エコール・ナショナル・サペリュール・ド・ラエロナウティック)に在学していた頃、建物内にはコンピュータがなかった。それらは「計算センター」と呼ばれる聖域に置かれており、我々はアクセスできなかった。私たちは計算尺を使って計算していた。現代の若者にとっては珍しい道具である。大学の授業では、全員が対数表を持ち、試験にはその使用を要する面倒な数値計算テストが含まれていた。今やそれらは博物館に展示されている。
航空大学を卒業した頃には、手動式の機械式計算機(FACIT)が登場しつつあった。数値を乗算するには一方に、除算するには反対方向にハンドルを回す。
教授や学科長は電気式の機械を持っており、1964年の流体力学研究所では、その歯車の音が静寂を破っていた。コンピュータは神々のように、計算センターの窓越しにしか見ることができない、特別な場所に置かれていた。当時のコンピュータの性能は現在のポケットコンピュータと同等であり、それらを支えるのは白いローブを着た司祭のような人々だった。私たちは機械式カードリーダーがうるさく読み取る大量のパンチカードを通じてのみ、コンピュータとやり取りできた。計算時間は秒単位で購入し、その価格は現代の若者にとってはネオライクなほど高かった。
マイクロコンピュータの台頭がすべてを変えた。さらに、コンピュータの性能の爆発的な向上により、インターネットには、巨大なデータを処理する謎めいた黒いキャビネットで満たされた広大な部屋の画像が溢れている。
メガフロップ、ギガフロップ、ペタフロップ、数えきれないほどである。1970年代には、Apple IIのRAMの内容を簡単に読み取ることができ、それは小さな手帳に完全に記載されていた。
私たちはプロメテウス的な世界に生きている。こうした現代的ツールは、物理学への掌握を高めていると言えるだろうか? あるエピソードが思い出される。フランスでは、Apple IIを基盤とする最初期のマイクロコンピュータ専用センターの運営を手がけた先駆者であった。その頃、アーレ・プロヴァンス美術学校の彫刻教授も務めていた。ある日、平面図描画機(フラットベッドプロッタ)を使った、自在な透視図を描くシステムを紹介した。当時、年配の教授が眉をひそめながら言った。「コンピュータがアーティストを置き換えるというのか?」
言い換えれば、巨大データセンターを訪れたある同僚が、「コンピュータが脳を置き換えるというのか?」と宣言するようなものだろう。
計算能力の絶え間ない向上と、並列プロセッサの大量化にもかかわらず、私たちはまだそのような段階には遠い。しかし、特定の分野では、こうしたシステムは対数表や計算尺をゴミ箱に放り込むなど、他の道具も同様に不要なものにしてしまった。今や、紙と鉛筆で積分を手計算する人は誰もいないだろうか? 微分計算を遊ばせるのは、純粋な数学者以外にはほとんどいない。
今日、私たちは「コンピュータがすべてをやってくれる」と信じている。アルゴリズムを書く。データを提供する。計算を実行し、結果を得るまで続ける。建物や優れた工学構造物の設計も、これで完璧に機能する。流体力学理論も成功している。
任意の形状の表面要素を気流に対して垂直に配置し、その周囲の渦巻き流れの様子を、形状に関係なく計算できる。これは実験と一致するだろうか? いいえ、常にそうとは限らない。しかし定性的には、この現象を制御できている。たとえば、この気体の渦巻きによって生じる空力抵抗の信頼性の高い値を計算できる。同様に、シリンダー内の燃焼効率や、室内の対流の流れも計算できる。予測気象学は、数日間の予報において急速に進歩しており、「マイクロイベント」(非常に局所的な出来事)を除いては、すでに実用的である。すべての分野でそうだろうか?
コンピュータという現代のライオン飼い手に、従わせようとしない体が存在する。それは非平衡プラズマであり、あらゆる分野でその地位を確立している。彼らは流体理論と似ているが、電磁場による遠隔作用を受け、その効果は系を構成するすべてのイオン粒子を考慮しなければ評価できないため、流体理論から逸脱する。
「どうせ、プラズマをN体問題として扱えばいい」と言うかもしれない。しかし、言うのは簡単だが、実行は難しい。前述の銀河のように、衝突がほとんどない世界である。トカマクもその一例(ITERは巨大なトカマク)である。内部に封じ込められた気体は極めて希薄である。起動前にITERの840m³の内部圧力は、1mmHgの数分の1以下になる。なぜこのような低圧なのか? それは、この気体を1億度以上まで加熱しなければならないからである。圧力はp = nkTで表される(kはボルツマン定数、Tは絶対温度、nは1m³あたりの粒子数)。プラズマの閉じ込めは磁気圧に依存しており、磁場の2乗に比例して増加する。
5.2テスラの磁場強度では、磁気圧は200気圧に達する。プラズマの閉じ込めには、この値よりずっと低い圧力でなければならない。超伝導装置を使用しているため、磁場を無限に増加させることはできず、結果として反応炉内のプラズマ密度は非常に低い値に限定される。こうした事実から、これは完全に衝突のない物体であり、信頼できるマクロな定義が不可能であることがわかる。これをN体問題として扱えるだろうか? 今も未来も、夢見ることさえできない。流体力学のように局所的に計算することは不可能である。各領域は電磁場を通じて他のすべての領域と結合している。たとえば、プラズマ中心から壁へのエネルギー輸送問題を考えよう。熱伝導的なメカニズムや乱流に加え、第三のモード「異常輸送」が現れる。これは……波を利用しているのである。
結論として、トカマクは理論家にとって真の悪夢である。
プラズマ自体が制御不能な振る舞いを示すだけでなく、関与する要素はそれだけではない。壁面からの不可避な粒子放出も含まれる。グライダーを操縦する人々は、この装置の基本パラメータである揚力対抗力比(滑空比)をよく知っている。これは1mの下降に対して何m進むかを示す。一定速度で、グライダーの翼は特定の揚力を発生させる。同じ速度で、抗力も発生する。その原因は2つある。第一に誘導抗力:
我々は、任意の形状の表面要素を気体の流れに対して垂直に配置し、その周囲の渦流パターンを計算できる。形状がどうであれ、実験と一致するだろうか?必ずしもそうではない。定性的には、この気体の渦動によって信頼性の高い空力抵抗係数を計算できる。同様に、シリンダー内の燃焼効率や、閉鎖空間内の対流を計算できる。予測気象学は急速に発展しており、数日程度の時間枠を提供しているが、「マイクロイベント」と呼ばれる非常に局所的な現象はまだ取り扱えない。このような状況はすべての分野に共通するのだろうか?
現代の「コンピュータ」と称される獅子飼いの手綱に従わない物体も存在する。それらは「非平衡」プラズマであり、あらゆるカテゴリでその代表格である。これらは流体理論から逸脱している。なぜなら、電磁場による遠隔作用を受けるためであり、系を構成するすべてのイオン粒子を考慮しなければその作用を評価できないからである。
「どうでもいい」と言うかもしれない。プラズマをN体問題として扱えばよいのだ。言うのは簡単だが、実行は難しい!以前、衝突のない世界の例として銀河を述べた。トカマクもこれと同じ種類のもの(ITERは巨大なトカマクである)である。その中に含まれる気体は極めて希薄である。ITERの840立方メートルの内部に満たす圧力は、水銀のミリメートル単位の分数以下になる。なぜそんなに低い圧力なのか?なぜなら、この気体を1億度以上まで加熱する必要があるからである。しかし、圧力は p = nkT で表される(kはボルツマン定数、Tは絶対温度、nは1立方メートルあたりの粒子数)。プラズマの閉じ込めは磁気圧のみによって行われ、この磁気圧は磁場の二乗に比例して増加する。
5.2テスラの磁場強度では、磁気圧は200気圧に達する。プラズマの閉じ込めを実現するためには、その圧力がこの値よりはるかに低く保たれなければならない。超伝導装置の使用により、磁場を無限に増加させることはできないため、反応炉内のプラズマ密度は非常に低い値に限定される。このような事実から、衝突がまったくない完全な物体が生じ、どんな信頼できるマクロな定義にも従わないことがわかる。これをN体問題として扱えるだろうか?現時点でも未来でも夢物語である。中性流体力学のように局所的に計算することは不可能である。すべての領域が電磁場を通じて相互に結合している。たとえば、プラズマ中心から壁へのエネルギー伝達問題を考えると、伝導現象や乱流に加えて、「異常輸送」と呼ばれる第三のモードが現れる。これは…波を利用している。
要するに、トカマクは理論家にとって絶対的な悪夢である。
プラズマそのものだけでなく、制御不能な挙動以外にも多くの要素が関与している。特に避けられないのが、壁からの粒子の剥離(アブレーション)である。グライダーを操る人々は、この機体の基本パラメータとして揚力対抗力比(滑空比)を知っている。これは、1メートルの高度低下に対して何メートル飛行できるかを示す。同じ速度で、スライドプレーンの翼は特定の揚力を作り出す。同じ速度で抗力も発生するが、それは二つの要因から成る。第一は誘導抗力であり、翼端の渦によってエネルギーが損失するものである。
無限の翼幅がない限り避けられない。そのため、グライダーは非常に大きな翼幅(頻繁に20メートル以上)を持ち、スパン比(半翼長÷平均翼幅)も20以上になる。第二の抗力源は粘性抗力であり、これは翼表面をできるだけ滑らかにすることで減少させる。良好な仕上げにより、翼表面近くでの乱流発生を遅らせることができる。この現象は基本的な流体不安定性であり、表面仕上げの優秀さがその発生を遅らせるだけで、完全に防ぐことはできない。逆に、わずかな摂動によって乱流は誘発される。静かな空気中で煙の線を観察すると、これは熱いガスであり、粒子の含有量で色づけられている。この煙の線は最初は静かだが、数センチメートル上昇しただけで、環境の静けさに関係なく激しく乱流になる。この上昇流に針のような障害物を挿入すれば、不可逆的な乱流を引き起こすことができる。同様に、滑空機の翼表面のわずかな粗さも、局所的に乱流を発生させ、空気抵抗を100倍程度まで増加させる。現代の滑空機では、弦長の60%以上で層流(乱流なし、平行な層)を維持することに成功している。もし偶然ミツバチが先端に衝突しても、この微細な不整が30度程度の範囲で乱流を引き起こす。そのため、滑空競技用機では、滑空比が50以上という高水準を維持するために、先端クリーニング装置が自動的に作動する。これは線形の風防に似ており、ブラシのようなものがあらかじめ隠し場所に収納された状態で、先端を往復して清掃した後、元の位置に戻る。
航空機の滑空比を向上させるための膨大な努力がなされており、燃料消費量を削減することを目指している。1960年代には、オルリーからディジョン間を飛行可能な「カラヴェル」は滑空比12だった。現在では、巨大なエアバスA380ですら滑空比が20を超えている。
つまり、推進力を失った状態で、4つのエンジンが停止した場合、1万メートルの高度から200キロメートル以上を滑空できるのである。
プラズマとトカマクに戻ろう。これらの装置では、壁から剥離した微小な粒子によって微小な乱流が発生し、反応室全体に広がる。乱流のスケールは極めて広範で、この微小乱流から、全容積を巻き込む電磁的プラズマの痙攣までが含まれる。
結論として、エンジニアは近似的な経験則(「エンジニアリング法則」)に頼らなければ機械を制御できない。これらの法則は信頼性が低く、運転システムについての知見も限られている。非平衡が支配する領域では、測定が極めて困難であり、コンピュータは役立たない。実験こそが唯一の指針である。また、外挿によって予期せぬ現象を発見することもある。例えば、フォンテーヌ・オー・ローズのTFRからカランのJETへのサイズ拡大に伴って出現した「垂直プラズマ移動」(VDE:Vertical Displacement Event)である。
最近のNIF(国立点火施設、カリフォルニア州リバモアに所在)の失敗は、世界最高性能のコンピュータを駆使した大規模かつ高コストな施設での音頭を取る失敗の良い例である。これは2010年から2012年の2年間の試行を経て、NIC(国立点火キャンペーン)が下した結論である。このシステムは192本のレーザーから構成され、1ナノ秒程度の短時間に500テラワット(米国電力網の1000倍以上)を、直径2mmの球状標的へ照射する。この標的は重水素-三重水素混合物で満たされており、さらに直径1cm、長さ2cmの円筒形の箱(ドイツ語で「ホルラウム」=オーブン)の中心に配置されている。
計画の概要は次の通りである。レーザーの半分がホルラウムの一側面の開口部から入射し、残り半分が反対側の穴から進入する。これらの極めて薄い紫外線ビームは金製のオーブン内壁に衝突し、X線を再放出する。正確に焦点を合わせたレーザーは、内壁に3つのスポットを形成する。再放出されたX線が球状標的を打つ。これこそ「間接照射」と呼ばれる方式である。このシステムは、水素爆弾の融合段階を模倣することを目的としている。この場合、X線は核分裂装置によって生成され、融合爆薬(リチウム重水素化物)を含む被覆材(アブレーター)の内壁に衝突する。NIFでは、この被覆材は重水素-三重水素混合物に置き換えられ、融解温度が1億度程度と低くなった。被覆材(薄い球殻)は昇華し、内外両方向に爆発する。この逆圧縮を利用して、標的中心に「高温スポット」を形成し、慣性閉じ込め方式で点火を開始することを目指す。
すべての計算はジョン・リンドルの指導のもとに行われた。2007年、マクスウェル賞授与式に際してリンドル博士に捧げられた論文では、その過程が詳細に記述されていた。理論家たちは非常に自信を持ち、リンドルは点火が広範な実験の出発点になると断言した。テストマネージャーも同様に、2012年10月を成功の期限として定め、30年の理論的・技術的努力の頂点と位置づけていた。
しかし結果は、極めて大きな失敗であった。これは2012年7月19日に米国エネルギー省(D.O.E.)が発表した報告書によって明らかにされた。この報告書はデイビス・H・クランダルの監修のもと作成された。
この報告書から残るべき重要な点は、技術的・測定的に優れたこの研究であっても、実験から得られた結果は、世界最高性能のコンピュータを用いて計算されたデータや予測と何の関係も持たなかったということである。
その結果、一部の観察者は「これらのシミュレーションが今後の実験に何か価値があるのか」と疑問を呈するようになった。
NIFの危機は明らかである。コストの理由からレーザー数を増やすことは不可能である。また、ユニット出力を増加させることも不可能である。なぜなら、エネルギーを多量に注入すると、均一性やガラス品質に関わらず、爆発してしまうからである。
点火と慣性閉じ込め融合を達成するためには、収縮速度が少なくとも370km/sでなければならない。しかし、その速度は達成されておらず、さらに深刻な問題として、アブレーション装置の殻がプラズマに変化し、D-T物質を押し出す際、「ピストンが燃料と混合してしまう」現象が発生する。これはよく知られた不安定性、レイリー=テイラー不安定性によるものである。その影響を最小限に抑えるためには、アブレーターを厚くしなければならない。しかし、それによって慣性が増加し、再び収縮速度の閾値に達しなくなる。
コンピュータ上で行われたシミュレーションは、すべての分野で誤った結果をもたらした。D.O.E.報告書によれば、レーザーと壁の相互作用(X線が金壁に衝突する)のモデリングは、何十年もの研究と百以上の博士論文・論文を費やしても満足のいくものではない。同様に、X線ビームと金プラズマ(室内壁の金が昇華して生じる)との相互作用(「逆ラマン散乱」と呼ばれる法則に従う)も不正確である。X放射線とアブレーターとの相互作用も正しくシミュレーションされていない。最後に、計算アルゴリズム(LASNEX)は、レイリー=テイラー不安定性の重みをまったく過小評価しており、アブレーターと重水素・三重水素の接触面の変形(腸の静毛に似た形状)も正しく再現できていない。
このような失敗は、これらの機械が非平衡状態、特に非線形性が強い問題に直面した際、優れたシミュレーション結果にどれほど信頼を置けるかという限界を示している。複数のメカニズムが不完全にモデル化されており、ゲームに影響を与えるためである。
ドクター・ジャン=ピエール・ペティ