Mondes hors d’équilibre

J.P.PETIT

Ancien directeur de recherche au Cnrs

Décembre 2012

Version anglaise, traduite par François Brault

 

Article dont l'académicien Robert Dautray s'était engagé à appuyer la publication dans la revue Pour la Science.

Mais, après des mois de silence, j'ai perdu espoir que cela soit fait

 

Quand l’homme de la rue pense à un système à l’équilibre, il imagine une bille au fond d’une dépression, ou quelque chose du même genre.

La notion d’équilibre thermodynamique fait intervenir quelque chose de plus subtil : celui d’un équilibre dynamique. L’exemple le plus simple est l’air que nous respirons. Ses molécules sont agitées de mouvements dirigés dans tous les sens, représentant une vitesse moyenne d’agitation thermique de 400 mètres par seconde. A un rythme effréné, ces molécules entrent en collision, interagissent. Ces chocs modifient leurs vitesses. Pourtant le physicien dira que ceci se traduit par une certaine stationnarité, statistiquement parlant. Imaginons un lutin qui, en quelque point de l’espace, puisse mesurer à tout instant la vitesse des molécules d’air qui s’agitent dans une direction donnée, disons selon telle ou telle direction, modulo une étroite fourchette angulaire. A chaque instant il compte, et recompte combien de molécules sont animées d’une vitesse comprise, en valeur algébrique, entre V et de V + Δ V. Il consigne le résultat de ses mesures sur un graphique, et voit apparaître une belle courbe de Gauss, avec une bosse, au voisinage de cette vitesse moyenne de 400 mètres par seconde. Puis, plus le décompte porte sur des molécules plus rapides, ou plus lentes, plus leur population diminue.

Il réédite cette opération en pointant son instrument de mesure dans toutes les directions de l’espace et, ô surprise, parvient à un résultat identique. L’agitation moléculaire de l’air de la pièce est isotrope. De plus, rien ne vient perturber cet équilibre dynamique, pour peu que la température de ce gaz reste constante, puisque sa température absolue est précisément la mesure de la valeur moyenne de l’énergie cinétique correspondant à cette agitation thermique.

Le physicien dira que ce gaz est en état d’équilibre thermodynamique. Cette situation possède d’autres facettes. Les molécules d’air ne sont pas des objets à symétrie sphérique. Les molécules diatomiques, d’oxygène ou d’hélium ont des formes de cacahuètes. Celles composant le gaz carbonique et la vapeur d’eau sont encore différentes. Toujours est-il que ces objets peuvent, en tournant sur eux-mêmes, stocker de l’énergie comme de minuscules volants d’inertie. Ces molécules peuvent aussi vibrer. Le concept d’équipartition de ces énergies prescrit que l’énergie soit équitablement répartie selon ces différents « modes ». Lors d’une collision, de l’énergie cinétique peut provoquer une mise en vibration, ou en rotation, d’une molécule. Mais le phénomène inverse est aussi possible. Tout est alors question de statistique et notre lutin peut compter combien de molécules sont dans tel ou tel état, possède telle énergie cinétique, sont dans tel état vibratoire. Toujours dans l’air que nous respirons ce recensement conduit à la stationnarité de cet état. On dit que ce milieu est en état d’équilibre thermodynamique, relaxé .

Imaginons un magicien qui ait la possibilité d’arrêter la course de ces molécules, dans le temps, de figer leurs différents mouvements de rotation et de vibration, et qui modifie ceux-ci à son gré, en créant une statistique différente, en déformant cette belle courbe de Gauss, voir en s’amusant à créer quelque situation anisotrope, où les vitesses d’agitation thermiques seraient par exemple deux fois plus importantes dans telle direction que dans les directions transverses. Puis il laisserait ce système évoluer, au gré des collisions.

Combien de celles-ci faudrait-il pour que le système retourne vers son état d’équilibre thermodynamique ? Réponse : quelques unes. Le temps de libre parcours moyen d’une molécule, entre deux collisions, donne l’ordre de grandeur du temps de relaxation dans un gaz, de son temps de retour vers un état d’équilibre thermodynamique.

Existe-t-il des milieux hors d’équilibre, où la statistique des vitesses d’agitation des éléments s’écarte notablement de cette rassurante isotropie et de ces belles courbes gaussiennes ?

Que oui, et c’est même la majorité des cas, dans l’univers ! Une galaxie, cet « univers-île », constitué par des centaines de milliards d’étoiles, de masses somme toutes assez voisines, est assimilable à un ensemble gazeuse, dont les molécules seraient … les étoiles. Dans ce cas précis, on découvre un monde extrêmement déconcertant où le temps de libre parcours moyen d’une étoile, vis à vis d’une rencontre avec ses voisines est de dix mille fois l’âge de l’univers. Mais qu’entend-t-on par rencontre ? S’agirait-il d’une collision où les deux astres se percuteraient ? Même pas. Dans un domaine de la physique théorique qu’on appelle la théorie cinétique des gaz, on considèrera qu’il y a collision quand la trajectoire des étoiles se trouve simplement modifiée de manière sensible, lors qu’elle croise une de ses voisines. Or le calcul montre que ces évènements sont rarissimes et que le système des 100 et quelques milliards d’étoiles orbitant dans une galaxie peut être considéré comme constituant un système pratiquement non collisionnel. Ainsi, depuis des milliards d’années, la trajectoire de notre Soleil est bien régulière, quasi circulaire. Si ce Soleil pouvait être doté d’une conscience, en l’absence de changements de sa trajectoire, due à des rencontres, il ignorerait qu’il possède des voisines. Il ne perçoit du champ gravitationnel que sa forme « lisse ». Il chemine comme dans une cuvette dont il ne percevrait pas les minuscules aspérités, crées par les autres étoiles.

Le corollaire émerge aussitôt. Plaçons notre lutin, devenu astronome, au voisinage du Soleil, dans notre galaxie et demandons lui d’effectuer une statistique sur les vitesses relatives de toutes les étoiles voisines, dans toutes les directions. Une chose apparaît alors comme parfaitement évidente. Le milieu est, dynamiquement parlant, très anisotrope. Il existe une direction selon laquelle les vitesses d’agitation stellaires  (appelées par les astronomes vitesses résiduelles, par rapport à un mouvement d’entraînement moyen, de 230 km/s au voisinage du Soleil, selon un trajectoire quasi circulaire) sont en moyenne pratiquement deux fois plus élevées que dans les directions transverses. Dans l’air que nous respirions, on parlait de sphéroïde des vitesses. Là, cela devient un ellipsoïde des vitesses.

Bien. Quelle incidence cela a-t-il sur notre façon de concevoir le monde, de l’appréhender ? Cela change tout. Parce que nous ne savons simplement pas gérer, sur le plan théorique, des systèmes aussi catégoriquement hors d’équilibre. Si on fait abstraction des situations paradoxales dans lesquelles se trouvent les galaxies, avec ce fichu effet de masse manquante, découvert par l’Américain d’origine Suisse Fritz Zwicky, on ne saurait en aucun cas produire de modèle de systèmes de points-masses auto-gravitants ( orbitant dans leur propre champ de gravité ). Notre physique se situe toujours près d’une situation d’équilibre thermodynamique. Bien sûr, tout écart de ceci ou de cela représente un écart vis à vis de l’équilibre, par exemple un écart de température entre deux régions gazeuses, qui se traduira par un transfert de chaleur, un transfert d’énergie cinétique d’agitation thermique. Dans ce cas-là, si on mettait notre lutin à travail, il conclurait que le milieu, dynamique parlant, est « presque isotrope ». Ca sera le cas dans l’atmosphère, même parcourue par les vents les plus violents.

Alors, est-il impossible de rencontrer, de « toucher du doigt » des situations où un milieu gazeux, un fluide, soit franchement hors d’équilibre ? On trouvera de telles conditions à la traversée d’une onde de choc. Ce sont des régions d’étendue limitées, puisque précisément l’épaisseur d’une onde de choc est de l’ordre de quelques libres parcours moyens. A la traversée d’une onde de choc, un gaz passe d’un état à un autre état très brutalement, en considérant qu’un état très proche de l’équilibre thermodynamique est retrouvé, dans le gaz « choqué », au bout de quelques temps de libres parcours moyens.

Nous avions fait il y a une quarantaine d’années un constat fortuit, dans le laboratoire où je travaillais, qui a aujourd’hui disparu, l’Institut de Mécanique des Fluides de Marseille. Nous avions alors de sortes de canons à gaz qu’on appelait « tubes à choc ». Schématiquement, en utilisant un explosif, on provoquait le départ d’une onde de choc qui se propageait à des milliers de mètres par seconde dans un gaz rare. Initialement, celui-ci était à une pression de quelques millimètres de mercure. Le passage de l’onde de choc le recomprimait, accroissant sa densité. On pouvait mettre aisément et précisément en évidence la remontée de la densité par une méthode optique, interférométrique. A l’époque on effectuait aussi des mesures de flux de chaleur à la surface de maquettes en plexiglas. Comme ces expériences ne duraient en tout que des fractions de milliseconde, il fallait nos instruments de mesure présentent des temps de réponse très brefs. En l’occurrence c’étaient des films métalliques des quelques microns d’épaisseur, déposés sous vide sur la paroi, constituant des thermistances. On évaluait alors le flux de chaleur en enregistrant la variation de la résistance de ces capteurs pariétaux au fur et à mesure de leur échauffement.

Un jour on plaça un capteur, simplement sur la paroi du tube. Et là, on constaté que le flux de chaleur ne se manifestait sur le capteur qu’avec un certain retard vis à vis du passage de l’onde de choc, signalé par un ressaut très abrupt de densité. Pourtant nous étions sûrs que l’inertie thermique des capteurs était suffisamment faible pour que ce retard ne vienne pas de là. En fait, nous touchions du doigt un phénomène de retour vers un quasi équilibre thermodynamique, en aval d’une onde de choc. On peut comparer elle-ci à un coup de marteau. Non seulement il y a augmentation brutale de la densité, mais on observe aussi un ressaut de la température, c’est à dire un accroissement de la vitesse d’agitation thermique des molécules. Mais, derrière cette onde, l’isotropie ne se manifeste qu’au bout de quelques temps de libre parcours. Immédiatement en aval du front de densité, l’accroissement d’agitation thermique se traduit par des mouvements s’effectuant au départ perpendiculairement à l’onde. Quand notre capteur collecte de la chaleur, cela résulte de l’impact des molécules d’air à sa surface. Or, immédiatement en aval de l’onde, sur une certaine distance, l’agitation thermique s’effectuait … parallèlement à la paroi. Le gaz était bien « chaud », mais momentanément incapable de transférer cette chaleur à la paroi. Au fil des collisions, « l’ellipsoïde des vitesse » se transformait en « sphéroïde des vitesses » et le capteur finissait par rendre compte du flux de chaleur qu’il recevait. Je crois me rappeler, avec les conditions expérimentales qui étaient les nôtres, qu’on enregistrait ce flux de chaleur en aval du front de densité qu’à une distance du front de densité proche du centimètre.

Ainsi les ondes de choc représentent des régions de faible épaisseur, où le milieu gazeux est franchement hors d’équilibre. Comment traite-t-on cela ? En assimilant ces région à des surfaces d’épaisseur nulle. Et cela marche depuis presque un siècle.

Je suis assez âgé pour avoir connu presque toute l’histoire de l’informatique, depuis ses débuts. Quand j’étais étudiant à l’Ecole Nationale Supérieure de l’Aéronautique il n’y avait aucun ordinateur dans la maison. Ceux-ci se trouvaient dans des sanctuaires appelés Centres de Calcul, auxquels nous n’avions d’ailleurs pas accès. Nous nous servions de règles à calcul, objets de curiosité pour la jeune génération d’aujourd’hui. Dans les classes préparatoires chacun avait sa … table de logarithme, et les épreuves écrites comportaient une fastidieuse épreuve de calcul numérique à l’aide de ces objets, qu’on ne trouve plus aujourd’hui que dans les musées. A ma sortie d’école apparurent des calculateurs mécaniques Facit, mécaniques, à main. Pour effectuer des multiplications, on tournait une manivelle dans un sens, pour les divisions en sens inverse. Les professeurs, ou chefs de service, avaient des machines électriques, qui ponctuaient du crépitement de leurs engrenages le silence des bureaux de l’institut de Mécanique des Fluides, en 1964. Les ordinateurs restaient des dieux inapprochables, qu’on n’apercevait qu’à travers une vitre, toujours dans ces centres de calcul. Ces machines, ayant la puissance des calculettes d’aujourd’hui, étaient servies par des prêtres vêtus de blouses blanches. On ne pouvait s’adresser à elles qu’en introduisant un épais paquet de cartes perforées, qui étaient bruyamment lues par un « lecteur de cartes », mécanique. On achetait du « temps de calcul », qui s’évaluait en secondes, tant il était coûteux. Une vision préhistorique pour les jeunes d’aujourd’hui. L’apparition de la micro-informatique a tout changé. Et, au delà, la puissance des ordinateurs s’est mise à grimper en flèche. Le net abonde de photos où on voit de vastes salles emplies d’armoires mystérieuses, en général de couleur noire, gérant des quantités de données dépassant l’imagination. Mégaflops, Gigaflops, Pétaflops… en veux-tu, en voilà. Quant on pense que dans les années soixante dix on pouvait parfaitement parcourir le contenu de la RAM d’un Apple II, qui était contenue dans un petit fascicule.

Nous sommes dans un monde prométhéen. Est-ce à dire que ces modernes outils ont accru notre emprise sur la physique ?

Une anecdote me traverse l’esprit. J’ai été en France un pionnier de cette micro-informatique, ayant dirigé un des premiers centres (équipé d’Apple II) qui était entièrement centré sur cette nouvelle technologie. A l’époque, également professeur de sculpture à l’Ecole des Beaux Arts d’Aix en Provence, j’avais un jour présenté une machine, équipée d’une table traçante, qui réalisait à la demande, avec virtuosité, des dessins en perspective. Un vieux professeur, haussant les sourcils, m’a dit  « vous n’allez pas me dire que l’ordinateur va remplacer l’artiste ? ». Paraphrasant tout cela on pourrait imaginer quelque quidam qui, après avoir visité un méga centre, dirait « vous n’allez pas me dire que l’ordinateur va remplacer le cerveau ? ».

En dépit de l’escalade irrésistible de la puissance de calcul, de l’essor du calcul parallèle, multiprocesseur, on est loin du compte. Pourtant, dans certains domaines, ces machines ont envoyé au rebut nos tables de logarithme, nos règles à calcul, et autres dispositifs de ce genre. Qui s’amuserait encore à calculer une intégrale, avec papier-crayon ? Qui jongle encore avec des équations différentielles, sinon des mathématiciens ? De nos jours on vit dans la croyance que « l’ordinateur, de tout, s’occupe ». On construit les algorithmes, on entre les données, on laisse tourner et on se contente de regarder le résultat. Effectivement, s’il s’agit de dessiner quelque bâtiment ou ouvrage d’art, cela fonctionne très bien. La mécanique des fluides a aussi connu ses succès. On peut par exemple placer un élément de surface, de forme quelconque, perpendiculairement à un écoulement, et calculer l’allure de l’écoulement tourbillonnaire qu’il engendrerait sur l’aval, et cela quelle que soit sa forme. Cela cadre-t-il parfaitement avec l’expérimentation ? Pas forcément. Mais qualitativement, on maîtrise le phénomène, on peut par exemple calculer de manière fiable quelle sera la traînée résultant de ce tourbillonnement de gaz. On calcule de la même façon le rendement de combustion dans un cylindre, la convexion dans une enceinte. La météorologie prédictive gagne sans cesse du terrain, dans le cadre d’un horizon temporel limité à quelques jours, à l’exception de la gestion de « micro-phénomènes », de phénomènes météorologiques très locaux, alors difficilement prédictibles et gérables.

Mais est-ce le cas dans tous les domaines ?

Il y a des êtres qui refusent de ses laisser apprivoiser par ce dompteur d’équations des temps modernes que l’ordinateur prétend être. Ce sont les plasmas, champions de l’hors d’équilibre, toutes catégories. Par ailleurs ils s’écartent de la mécanique des fluides, avec laquelle ils semblent pourtant présenter un degré de parenté, parce qu’ils sont le siège d’actions à distance, à travers le champ électromagnétique, qui ne peut s’évaluer qu’en sommant les contributions de toutes les particules chargées qui constituent ce système. Qu’à cela ne tienne, me direz-vous. Il suffit de traiter un plasma comme un système à N corps. Plus facile à dire qu’à faire.

Nous parlions tout à l’heure des galaxies, comme exemples de mondes non collisionnels. Les tokamaks en sont un autre (ITER est un tokamak géant ). Le gaz qu’ils contiennent est extrêmement raréfié. Avant mise en route, la pression de remplissage, dans les 840 mètres cubes d’ITER ne sera que de quelques infimes fractions de millimètres de mercure. Pourquoi une pression aussi basse ? Parce qu’on va chauffer ce gaz à plus de cent millions de degrés. Or, vous savez que la pression est p = n k T, k étant la constante de Boltzmann, T la température absolue et n le nombre de particules par mètre cube. Le confinement du plasma ne pourra être assuré que grâce à une pression magnétique, laquelle croît comme le carré de la valeur de celui-ci. Avec un champ de 5,3 teslas, cela donne une pression magnétique de 200 atmosphères. Pour envisager de confiner ce plasma, il faut que sa pression reste très en dessous de cette valeur. Comme on ne peut pas, avec un dispositif supraconducteurs, accroître indéfiniment la valeur du champ magnétique, la densité du plasma, dans la chambre, se trouve donc limitée à des valeurs très basses. D’où un être complètement non-collisionnel, échappant à toute description macroscopique fiable. Le gérer comme un problème à N-corps ? Inutile d’y songer, ni maintenant, ni plus tard. ITER contiendra 1021 particules, et pour chacune d’entre elles il faudrait associer six quantités, trois pour la position, trois pour la vitesse. Impossible de raisonner en local, comme on peut se faire avec une mécanique des fluides neutres. Chaque région est couplée avec toutes les autres par le biais du champ électromagnétique. Prenez par exemple la question du transfert d’énergie, du cœur du plasma vers les parois. En plus d’un mécanisme qui s’apparenterait à un phénomène de conduction, en plus de ce qui relève de la turbulence, vient se greffer un troisième mode, auquel on donne le nom de « transport anormal », par … ondes.

En un mot comme en un seul, un tokamak est un cauchemar absolu pour théoricien.

Le plasma lui-même, de par sa nature incontrôlable, n’est pas seul en cause. Il y a tout le reste, entre autre ce qui résulte de l’arrachement inévitable de particules à la paroi. Ceux qui ont fait du planeur savent qu’un des paramètres essentiels de ces machines est leur finesse. C’est à dire le nombre de mètres que l’on peut parcourir pour chaque mètre d’altitude perdu. L’aile du planeur, à une vitesse donnée, engendre une certaine force de portance. A la même vitesse on obtient une force de traînée, qui offre deux facettes. Il y a la traînée induite, qui se traduit par une dissipation d’énergie en bouts d’aile, sous forme tourbillonnaire. Elle est inévitable, à moins d’utiliser une aile d’envergure … infinie. C’est pour la réduire que les planeur ont des envergures si importantes, dépassant fréquemment 20 mètres, associés à des allongements (rapport demie envergure sur largeur moyenne de l’aile) supérieurs à 20. La seconde source de traînée est la traînée de frottement. On la réduira en recherchant un état de surface le plus lisse possible. Grâce à un poli très soigné on retarde l’apparition de la turbulence au voisinage de la surface de l’aile.

Ce phénomène correspond à une instabilité foncière du fluide et l’excellence de l’état de surface ne fait que retarder son inéluctable apparition. Inversement, cette turbulence peut être déclenchée, par une perturbation. Si on regarde la montée du filet de fumée émanant d’une cigarette, dans un air très calme, il s’agit d’une montée de gaz chaud, coloré par les particules que celui-ci contient. Ce filet de fumée, bien cylindrique au départ, sera le siège d’une intense turbulence après une dizaine de centimètres d’ascension, et cela quel que soit la tranquillité de l’air ambiant. En introduisant un obstacle comme une aiguille dans ce filet d’air ascendant, on pourra déclencher ce phénomène de turbulence de manière irréversible. De la même façon, une aspérité minime, sur la surface lisse d’une aile de planeur, pourra déclencher un phénomène de turbulence qui accroîtra localement d’un facteur atteignant facilement cent le phénomène de friction de l’air, donc la traînée. Dans les planeurs modernes, on parvient à conserver la laminarité de l’écoulement (une non-turbulence, avec un écoulement en couches parallèles) sur 60 % de la corde de l’aile. Mais si d’aventure un moucheron s’écrase sur le bord d’attaque, ce minuscule objet déclenchera la turbulence sur un secteur de plus ou moins trente degrés, en aval. Pour cette raison, dans les planeurs de compétition, dont la finesse dépasse 50, existe un dispositif de nettoyage du bord d’attaque, mis en marche automatiquement et périodiquement, comparable à un essuie-glace linéaire ! Une sorte de brosse parcourt tout le bord d’attaque, en effectuant un aller retour, puis retourne de s’abriter dans un logement. Des efforts considérables ont été faits pour accroître la finesse des avions de ligne, ceci ayant pour effet de réduire leur consommation. Dans les années soixante la Caravelle, capable de planer d’Orly à Dijon, avait une finesse de 12. Aujourd’hui, même ces gros monstres que sont les Airbus 380 possèdent une finesse supérieure à 20. C’est à dire qu’en l’absence de force propulsive, avec leurs quatre moteurs « en roue libre », à partir d’une altitude de 10.000 mètres ils peuvent franchir, en planant, 200 kilomètres.

Revenons aux plasmas et aux tokamak. Dans ces machines une micro-turbulence en volume peut être déclenchée par de minuscules particules arrachées à la paroi, et envahissant la chambre. En matière de turbulence, la palette est extrêmement large et va de cette micro-turbulence à des contorsions électrodynamiques du plasma intéressant l’ensemble du volume. A titre de conclusion, les ingénieurs ne maîtrisent pas du tout cette machine, sinon à l’aide de « lois ingénieur » qui ne sont qu’une gestion empirique très approximative, d’une fiabilité toute relative, de leur fonctionnement. Dans ce domaine, où l’hors équilibre est roi, et où il est en outre bien difficile d’effectuer des mesures, l’ordinateur n’est pratiquement d’aucun secours. L’expérimentation est le seul guide. L’extrapolation fait découvrir des phénomènes imprévus, comme le déplacement vertical du plasma (VDE ou Vertical Displacement Event) qui s’est manifesté quand on est passé du TFR de Fontenay-aux-Roses, au JET de Culham.

Le récent fiasco du NIF (National Ignition Facility, installé à Livermore, Californie) est un exemple d’échec du pilotage d’expériences extrêmement lourdes et coûteuses par les plus puissants ordinateurs du monde. C’est la conclusion du NIC (National Ignition Campaign), une campagne d’essais courant sur deux années, entre 2010 et 2012. La machine, comportant 192 lasers, pointe pendant une poignée de nanosecondes 500 térawatts (plus de mille fois la puissance développée par toute les machines électriques en fonctionnement aux Etats-Unis) sur une cible sphérique de 2 mm de diamètre, contenant un mélange deutérium tritrium, elle-même placée au centre d’une boite cylindrique de 2 cm de long et d’un cm de diamètres, appelée hohlraum (four en allemand). Le schéma est le suivant : la moitié des faisceaux laser pénètrent par un orifice ménagé sur un des fonds de cette boite, en forme de disque, et l’autre moitié par un autre orifice située sur le fond opposé. Ces fins pinceaux de rayonnement ultraviolet frappent la paroi intérieur de cette boite, faisant office de four, constituée par de l’or. Celle-ci réémet alors du rayonnement X. Les rayons laser, positionnés avec précision, créent sur cette paroi interne trois couronnes de spots. Le rayonnement réémis se situe alors dans la gamme des X et vient frapper la cible sphérique. On parle alors d’irradiation indirecte. Ce système a été conçu en particulier pour reconstituer, schématiquement, l’étage de fusion d’une bombe à hydrogène, où le rayonnement X (émis cette fois par un engin à fission) vient frapper la paroi d’une coquille appelée ablateur, à l’intérieur de laquelle se trouve l’explosif de fusion (du deutérure de lithium). Dans le NIF, celui-ci était remplacé par un mélange deutérium-tritium, où les réactions de fusion débutent à une température plus basse, de l’ordre de 100 millions de degrés. L’enveloppe (l’ablateur, une fine coque sphérique) se sublime et explose, à la fois vers l’extérieur et vers l’intérieur. On utilise cette rétro-compression pour créer au centre de la cible un « point chaud » en espérant créer l’ignition dans un schéma de confinement inertiel.

Tout cela avait été calculé sous la direction de John Lindl. En 2007 une communication effectuée, lors de la remise du prix Maxwell, à ce chercheur, décrivait par le menu ce qui devait se passer. Le théoriciens étaient à ce point sûrs d’eux que Lindl n’hésitait pas à déclarer que l’ignition ne serait que le timide point de départ d’une gamme d’expérimentations beaucoup plus vaste. Quand au responsable des essais, il avait même fixé une date pour la réussite de cette opération, octobre 2012, qui devait représenter le couronnement de trente années d’efforts, à la fois sur le plan technologique et sur le plan théorique.

Le résultat fut un fiasco total, relevé lors d’un rapport en date du 19 juillet 2012, émanant du DOE, du département de l’énergie américain et rédigé sous la direction de David H. Crandall. Ce qu’il faut retenir de ce constat, en liaison avec la matière de cet article, c’est qu’en dépit de l’excellence de cette réalisation, au plan technologique et au plan des mesures, rien de ce qui émergea de cette expérience ne semblait présenter un rapport quelconque avec les prédiction issues des calculs effectués sur les machines les plus puissantes du monde, au point que certains rapporteurs se demandaient si ces simulations pouvaient présenter un quelconque intérêt pour la conduite de ces expériences.

La crise du NIF est patente. Il est impossible d’accroître le nombre des lasers (au verre dopé au néodyme) pour des questions de coût. Impossible également d’accroître leur puissance unitaire. En effet ces lasers, quand on les bourre d’énergie, au delà d’un certain seuil, explosent, même si (et c’était le cas) la qualité du verre et son homogénéité sont les meilleures possibles. Pour réaliser l’ignition et la fusion par confinement inertiel il faut une vitesse d’implosion minimale de 370 km/s. Non seulement cette vitesse n’est pas atteinte mais, beaucoup plus grave encore, lorsque cette coque, constituant l’ablateur, est transformée en plasma, pousse sur son contenu en DT, « le piston se mélange au carburant », du fait d’une instabilité bien connue, celle de Raleigh Taylor. Pour minimiser ses effets, il faudrait épaissir l’ablateur. Mais alors on accroîtrait son inertie et le seuil de vitesse d’implosion ne serait plus atteint.

Les simulations effectuées sur ordinateur ont donné des résultats faux dans tous les domaines. Comme noté dans le rapport du DOE, la modélisation des mécanismes d’interaction laser-paroi (l’effet de l’impact des pinceaux d’UV sur la paroi en or) n’est pas satisfaisante, en dépit de décennies d’études menées sur le sujet, et de centaines de thèses, de rapports. Même chose pour l’interaction des pinceaux de rayonnement UV, interagissant selon un mécanisme nommé « diffusion par effet Raman inverse » avec le plasma d’or, dont la présence dans la chambre résulte de la sublimation du métal de la paroi. L’interaction du rayonnement X avec l’ablateur n’est pas non plus correctement modélisée. Enfin le programme de calcul (LASNEX) a totalement sous-estimé l’importance de l’instabilité de Raleigh-Taylor (la déformation de la surface de contact ablateur, deutérium-tritium, rappelant les villosités intestinales).

Ces mésaventures montrent les limites de la confiance que l’on peut accorder aux superbes résultats issus des simulations sur ordinateur, dès que ces machines prétendent s’attaquer à des problèmes très hors d’équilibre, très non linéaires, où une foule de mécanismes, mal modélisés, entrent en jeu.

 


Retour vers le sommaire " Science "