audit scientifique mené par l'Académie des Sciences de Paris

audit scientifique mené par l'Académie des Sciences de Paris
Ê
Ê-
-
E
F
@
J
L
=
8
C
<1
I
@
8
y
C
:
L
E
K8C<
FE;8D<E
?<I:?<=
;<C8I<:
E<I>@<6
Ëy
;
E
@F
K
:
L
ÁC8GIF;
\Zk`fe[\
JfljcX[`i
C
>LPC8M8
La fusion nucléaire :
de la recherche fondamentale
à la production d’énergie ?
RAPPORT SUR LA SCIENCE ET LA TECHNOLOGIE No 26
Animateur : Guy Laval
ACADÉMIE DES SCIENCES
17, avenue du Hoggar
Parc d’activités de Courtabœuf, BP 112
91944 Les Ulis Cedex A, France
Rapports sur la science et la technologie
– Sciences et pays en développement. Afrique subsaharienne francophone
RST no 21, 2006.
– La recherche spatiale française
RST no 22, 2006.
– L’épidémiologie humaine. Conditions de son développement en France,
et rôle des mathématiques
RST no 23, 2006.
– La maîtrise des maladies infectieuses. Un défi de santé publique,
une ambition médico-scientifique
RST no 24, 2006.
– Les eaux continentales
RST no 25, 2006.
Imprimé en France
c 2007, EDP Sciences, 17, avenue du Hoggar, BP 112, Parc d’activités de Courtabœuf,
91944 Les Ulis Cedex A
Tous droits de traduction, d’adaptation et de reproduction par tous procédés réservés pour tous
pays. Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit,
des pages publiées dans le présent ouvrage, faite sans l’autorisation de l’éditeur est illicite et constitue une contrefaçon. Seules sont autorisées, d’une part, les reproductions strictement réservées à
l’usage privé du copiste et non destinées à une utilisation collective, et d’autre part, les courtes citations justifiées par le caractère scientifique ou d’information de l’œuvre dans laquelle elles sont
incorporées (art. L. 122-4, L. 122-5 et L. 335-2 du Code de la propriété intellectuelle). Des photocopies payantes peuvent être réalisées avec l’accord de l’éditeur. S’adresser au : Centre français
d’exploitation du droit de copie, 3, rue Hautefeuille, 75006 Paris. Tél. : 01 43 26 95 35.
ISBN 978-2-86883-862-9
Académie des sciences
Rapport Science et Technologie
Le Comité interministériel du 15 juillet 1998, à l’initiative du ministre de l’Éducation nationale, de la Recherche et de la Technologie, a confié à l’Académie
des sciences l’établissement du rapport biennal sur l’état de la science et de la
technologie.
Pour répondre à cette demande, l’Académie des sciences a mis en place en
son sein le Comité « Rapport Science et Technologie » (RST), chargé de choisir
les sujets d’étude et de suivre les travaux.
Chaque thème retenu est conduit par un groupe de travail animé par un
membre ou un correspondant de l’Académie, entouré d’experts.
Chaque rapport est soumis au Comité RST, à un Groupe de lecture critique,
et à l’Académie des sciences.
Entre 1999 et 2006, vingt-cinq rapports ont ainsi été édités et remis au ministre délégué à la Recherche.
COMPOSITION DU COMITÉ RST
Alain ASPECT
Membre de l’Académie des sciences — Directeur de recherche au Centre
national de la recherche scientifique, professeur à l’École polytechnique
Jean-François BACH
Secrétaire perpétuel de l’Académie des sciences — Professeur à l’université
René-Descartes
Jean-Michel BONY
Membre de l’Académie des sciences — Professeur à l’École polytechnique
Christian BORDÉ
Correspondant de l’Académie des sciences – Directeur de recherche au Centre
national de la recherche scientifique
Édouard BRÉZIN
Président de l’Académie des sciences — Professeur à l’université Pierre-etMarie-Curie et à l’École polytechnique
Philippe TAQUET
Membre de l’Académie des sciences — Professeur au Muséum national
d’histoire naturelle
Geneviève COMTE-BELLOT
Correspondant de l’Académie des sciences — Professeur émérite de l’École
centrale de Lyon
François CUZIN
Membre de l’Académie des sciences — Professeur à l’université de Nice-SophiaAntipolis
Jean DERCOURT
Secrétaire perpétuel de l’Académie des sciences — Professeur émérite
à l’université Pierre-et-Marie-Curie
Christian DUMAS
Membre de l’Académie des sciences — Professeur à l’École normale supérieure
de Lyon
Michel FARDEAU
Correspondant de l’Académie des sciences — Professeur au Conservatoire national des arts et métiers, directeur médical et scientifique à l’Institut de myologie
(Hôpital de la Pitié Salpêtrière)
vi
LA
FUSION NUCLÉAIRE
Jules HOFFMANN
Vice-président de l’Académie des sciences — Directeur de l’Institut de biologie
moléculaire et cellulaire de Strasbourg
Jean-Pierre KAHANE
Membre de l’Académie des sciences — Professeur émérite à l’université ParisSud Orsay
Daniel KAPLAN
Membre de l’Académie des sciences — Directeur de la société Fastlite
Henri KORN
Membre de l’Académie des sciences — Professeur honoraire à l’institut Pasteur
et directeur de recherche honoraire à l’Institut national de la santé et de la
recherche médicale
Nicole LE DOUARIN
Secrétaire perpétuelle honoraire de l’Académie des sciences —
Professeur honoraire au Collège de France
Jean-Louis LE MOUËL
Membre de l’Académie des sciences — Physicien à l’Institut de physique
du globe de Paris
François MATHEY
Membre de l’Académie des sciences — Directeur de recherche au Centre
national de la recherche scientifique, professeur à l’École polytechnique
René MOREAU
Membre de l’Académie des sciences — Professeur à l’Institut national
polytechnique de Grenoble
Olivier PIRONNEAU
Membre de l’Académie des sciences — Professeur à l’université Pierre-et-MarieCurie
Jean-Pierre SAUVAGE
Membre de l’Académie des sciences — Directeur de recherche au Centre
national de la recherche scientifique
Moshe YANIV
Membre de l’Académie des sciences — Professeur à l’Institut Pasteur et directeur
de recherche au Centre national de la recherche scientifique
Coordination éditoriale :
Jean-Yves CHAPRON
Directeur du service des Publications de l’Académie des sciences, assisté de
Joëlle FANON
AVANT-PROPOS
La production d’énergie est au cœur des préoccupations de tous les États du
monde. Les uns sont privés de ressources énergétiques, ce qui limite leur développement. Les autres, gros consommateurs d’énergie, visent à accroître leurs
ressources traditionnelles, c’est-à-dire les hydrocarbures et le charbon, et simultanément à construire une société moins consommatrice d’énergie, en portant
notamment un effort significatif sur les matériaux de construction dits « intelligents », qui seraient énergétiquement autosuffisants.
Les pays qui accèdent rapidement au développement (dont la Chine et l’Inde
sont les plus représentatifs) ne peuvent se contenter d’économiser l’énergie qu’ils
consomment peu. Ils tendent alors dans l’immédiat à accroître les sources d’énergie rapidement accessibles, dont la principale est le charbon, car ils disposent
de très grands gisements exploitables, et, à plus long terme, à utiliser l’énergie
nucléaire de fission.
Depuis quelques dizaines d’années, un nouveau concept s’impose. Non
seulement les énergies actuellement les plus consommées (c’est-à-dire les énergies fossiles) affectent le climat en émettant des gaz à effet de serre, mais ces
variations anthropiques de l’environnement paraissent insupportables.
Ainsi, le monde scientifique se trouve face à un énorme défi : soit permettre
à tous d’accéder à l’énergie selon les procédures existantes, soit inventer un
nouveau mode de production énergétique indispensable au développement des
peuples.
L’énergie nucléaire de fission est une réponse possible : le stockage, l’entreposage ou la transmutation des déchets radioactifs en déchets stables ou en les
transformant eux-mêmes en matériaux énergétiques, est une méthode possible et
activement étudiée. Mais un autre processus nucléaire est en voie d’exploration :
il concerne la fusion. Les expériences actuelles et plus anciennes, échelonnées
sur plusieurs décennies, sont présentées ici. Ce procédé est fondé sur la fusion
des noyaux d’éléments chimiques de petite taille et en particulier d’un isotope
lourd de l’hydrogène, le deuterium, abondant dans les eaux des océans, et de
tritium, autre isotope de l’hydrogène. L’hydrogène contient un nucléon, le deuterium en contient deux et le tritium, trois. Au cours de la fusion, quatre de ces
nucléons s’associent pour donner un noyau d’hélium à quatre nucléons emportant une très forte énergie cinétique (3,5 MeV) et un nucléon isolé, un neutron
de 14 MeV qui contient 80 % de l’énergie produite dans la réaction. Tous ces
produits sont abondants et bon marché.
viii
LA
FUSION NUCLÉAIRE
Le présent rapport étudie les deux voies réalisables pour une fusion contrôlée,
qui doit maîtriser les émissions neutroniques : l’une par confinement magnétique,
l’autre par confinement inertiel.
Il y eut plus d’un siècle de la pile de Volta à l’éclairage électrique des rues
de Paris sous les conseils de Leblond. Il y aura loin d’aujourd’hui à l’utilisation
commerciale de l’énergie par fusion nucléaire. Mais il est raisonnable et prospectif d’aborder cette question, dont ce rapport présente les caractéristiques
essentielles.
Il n’est pas du rôle de l’Académie des sciences de dégager le poids relatif que les États doivent consacrer aux énergies renouvelables, aux économies
d’énergie à moyen et long terme et aux travaux scientifiques qui, pendant de
nombreuses décennies, exploreront l’aptitude de la fusion à produire une énergie consommable.
Si l’énergie issue de la fission de gros éléments chimiques est maîtrisée depuis un demi-siècle tant au plan militaire que civil, il en va très différemment
de l’énergie issue de la fusion de très petits éléments (hydrogène, deuterium
et tritium). Cette fusion ne peut intervenir qu’à des températures très élevées
(quelques 100 millions de degrés).
Les recherches, depuis près d’un demi-siècle, ont permis de réaliser la fusion
pendant quelques secondes, établissant que la méthode est possible. L’isolation
des volumes où se produit la fusion se fait selon les deux voies mentionnées plus
haut : la voie d’isolation magnétique, les Tokamaks en ont établi la faisabilité,
et la voie d’isolation inertielle dont le principe a été vérifié par des expériences
(Centurion-Halite), mais toutes ces expériences consomment jusqu’à présent plus
d’énergie qu’elles n’en produisent.
Bref, même si la faisabilité de la fusion est chose établie, il y a très loin pour
atteindre une exploitation routinière.
L’intérêt de cette méthode de production tient, d’une part au fait que les matériaux utilisés dans la combustion sont inépuisables (eau des océans) et d’autre
part au fait qu’aucun déchet radioactif n’est engendré. Cependant, bien des interrogations subsistent, par exemple, au cours de la réaction, des neutrons de
14 millions d’électrovolts sont engendrés et aucun matériau existant n’est susceptible de résister à cette énergie colossale.
L’Académie des sciences a souhaité faire le point sur les connaissances scientifiques et techniques acquises, sur les pistes des recherches à entreprendre afin
que puissent être établies les étapes à franchir avant de pouvoir réaliser des
usines productrices d’énergie.
AVANT- PROPOS
ix
Le travail a été animé par Guy Laval. Il a regroupé des spécialistes de ces différentes questions : théoriciens et expérimentateurs engagés dans des travaux
les plus théoriques et dans les expériences de confinement magnétique, dont
Iter et IFMIF sont deux des éléments majeurs ; ils relèvent de la recherche civile
essentiellement, alors que le LMJ (Laser Mégajoule en France) conçu pour développer le confinement inertiel, relève essentiellement de la recherche militaire
fondamentale, mais destiné à des simulations se substituant aux expériences
d’explosions autrefois réalisées dans le milieu extérieur.
L’importance des travaux dans chacune de ces voies implique une coopération internationale. Il est en effet totalement exclu qu’un pays ou un ensemble
de pays puisse, seul, les maintenir pendant des décennies. Aujourd’hui, ce programme existe autour de la voie du confinement magnétique et Iter, IFMIF, en
sont des étapes associant la Communauté européenne, le Japon, les États-Unis,
la Chine, la Fédération de Russie, la Corée et l’Inde.
L’importance de l’effort implique une organisation de grande ampleur, adaptable, de nombreuses disciplines ; elle est exposée ici. C’est l’impérieuse nécessité de former des chercheurs, des enseignants et des ingénieurs pour cette
entreprise de très longue haleine et éminemment innovante. L’Académie des
sciences a souhaité présenter les conséquences immédiates, en France, de son
association avec les partenaires d’Iter.
Le rapport est scindé en trois parties :
1. Une partie synthétique, appelée « Analyse et recommandations ».
2. Des chapitres explicitant chaque étape de l’exposé.
3. Un dossier d’annexes scientifiques et techniques très complet, fourni sous
une forme de CD-ROM joint à ce volume. On y trouvera les résultats des
travaux du groupe, présentés chacun par un spécialiste, mais commentés
et adaptés au terme de nombreuses séances de travail, communes aux
différents spécialistes-rédacteurs.
Le texte du rapport, approuvé par l’Académie des sciences, a été soumis à un
groupe de lecture critique constitué d’organismes, d’établissements et de sociétés
savantes concernés ; on trouvera leur opinions et leurs propositions. Enfin, un
membre de l’Académie, Édouard Brézin, alors président de l’Académie, n’ayant
pas participé au groupe de travail, a présenté un rapport final qui a été adopté
par l’Académie le 6 juin 2006.
x
LA
FUSION NUCLÉAIRE
L’Académie des sciences adresse ses remerciements aux spécialistes qui ont
participé aux nombreuses réunions du groupe de travail, à la rédaction des
annexes de ce fascicule et aux nombreux chapitres du volume publié sous forme
informatisée. Rappelons que tous ces textes sont signés mais ils ont été amendés
et adoptés par l’ensemble des membres du groupe de travail. Guy Laval a été
l’inspirateur, le responsable et le chef d’orchestre, qu’il en soit très vivement
remercié.
Le suivi éditorial final, comme les nombreuses rédactions provisoires qui se
sont égrenées pendant deux ans, ont été mises au point par Jean-Yves Chapron, directeur du service des publications de l’Académie des sciences, assisté
de Joëlle Fanon. Les éditions EDP Sciences ont réalisé ce rapport et nous leur
adressons nos remerciements.
COMPOSITION DU GROUPE DE TRAVAIL
Animateur
Guy LAVAL
Membre de l’Académie des sciences —
Directeur de recherche émérite au CNRS
Rapporteur
Bernard BLANZAT
Directeur de recherche au CNRS — Chargé
de mission à l’Académie des sciences
Membres du groupe
Alain ASPECT
Membre de l’Académie des sciences —
Directeur de recherche au CNRS
et professeur à l’École polytechnique
Robert AYMAR
Directeur général du Cern
Bogdan BIELAK
Responsable des activités « Fusion thermonucléaire » — Direction Recherche & Développement — AREVA NP
Michel DECROISETTE
Ingénieur CEA à la retraite
Xavier GARBET
Département de Recherche sur la fusion
contrôlée — CEA-Cadarache
Jean JACQUINOT
Chef du Département de Recherche sur la
fusion contrôlée — CEA-Cadarache
Georges MARTIN
Conseiller scientifique auprès du Haut
Commissaire à l’énergie atomique
Arnold MIGUS
Directeur général de l’Institut d’optique
René MOREAU
Membre de l’Académie des sciences —
Professeur émérite à l’Institut national
polytechnique de Grenoble
xii
LA
FUSION NUCLÉAIRE
Olivier PIRONNEAU
Membre de l’Académie des sciences —
Professeur à l’université Pierre-et-MarieCurie
Yves QUÉRÉ
Membre de l’Académie des sciences —
Professeur émérite à l’École polytechnique
Alain VALLÉE
Directeur adjoint — CEA Saclay
Coordonnateur
Jean DERCOURT
Secrétaire perpétuel de l’Académie
des sciences — Professeur émérite
à l’université Pierre-et-Marie-Curie
Ont également participé à la rédaction du rapport
Chapitre 2
Michel ANDRÉ
Ingénieur CEA à la retraite
Charles BAYER
Ingénieur CEA/DAM — Île-de-France
Claude DEUTSCH
Directeur de recherche émérite —
Laboratoire de Physique des gaz
et des plasmas — Orsay
Denis JURASZEK
Ingénieur CEA/DAM — Île-de-France
Bruno LE GARREC
Ingénieur CEA/DAM/Cesta
Chapitre 3
Pascale HENNEQUIN
Laboratoire de Physique et technologie des
plasmas — École polytechnique
Yves PEYSSON
Département de Recherche sur la fusion
contrôlée — CEA-Cadarache
Clément LAVIRON
Département de Recherche sur la fusion
contrôlée — CEA-Cadarache
Jean-Marcel RAX
Laboratoire de Physique et technologie des
plasmas — École polytechnique
C OMPOSITION DU
xiii
GROUPE DE TRAVAIL
Chapitre 4
Denis PESME
Centre de Physique théorique de l’École
polytechnique
Chapitre 5
Jacques BAUCHE
Professeur à l’Université Paris XI —
Laboratoire Aimé Cotton — Orsay
Pascale MONIER-GARBET
Chef du groupe « Interface plasma-paroi »
— CEA-Cadarache
Roland STAMM
Professeur à l’université Aix-Marseille I
Gilles ZERAH
Chef du Service de Physique
de la matière condensée — CEA/DAM —
Bruyères-le-Châtel
Chapitre 7
Philippe GHENDRIH
CEA/DSM Cadarache
Roland LAYET
Physique des interactions ioniques
et moléculaires — Université de Provence
André GROSMAN
Département Recherche sur la fusion
contrôlée — Euratom-CEA
Chapitre 8
Ana ALAMO
DEN/DMN/SRMA —
CEA Saclay
Luciano GIANCARLI
Yves POITEVIN
ITER-Tritium Breeding Working Group
Émmanuel RIGAL
Direction de la Recherche technologique —
CEA Grenoble
Chapitre 9
Daniel SCHIRMANN
Ingénieur CEA à la retraite
xiv
LA
FUSION NUCLÉAIRE
Chapitre 10
Jean-Pierre CHIÈZE
Directeur adjoint de l’Institut Lasers
et Plasmas — Professeur à l’Institut national
des sciences et techniques nucléaires
TABLE DES MATIÈRES
Rapport Science et Technologie
iii
Composition du Comité RST
v
Avant-propos
vii
Composition du groupe de travail
xi
Analyse et recommandations
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1. Rappel des objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
3
2. État de la situation aujourd’hui . . . . . . . . . . . . . . . . . . . . .
5
3. Évolution des recherches dans les vingt prochaines années . . . . .
3.1. Le confinement magnétique : Iter . . . . . . . . . . . . . . . .
3.2. Le confinement inertiel : LMJ . . . . . . . . . . . . . . . . . .
4. Les verrous scientifiques et techniques pour Iter et le LMJ . . . . . . .
5. Les verrous techniques et la préparation de l’industrialisation . . . .
6. Les autres filières ou solutions innovantes . . . . . . . . . . . . . . .
7. Organisation de la recherche en fusion : aspects nationaux,
européens et internationaux . . . . . . . . . . . . . . . . . . . . .
7.1. La recherche de base . . . . . . . . . . . . . . . . . . . . . .
7.2. L’organisation de la recherche sur le confinement magnétique
7.3. L’organisation de la recherche pour le confinement inertiel . .
Conclusions et propositions . . . . . . . . . . . . . . . . . . . . . . . .
. 7
. 7
. 9
. 10
. 13
. 14
. 16
. 16
17
. 22
. 25
CHAPITRE 1 La filière Tokamak et la machine Iter
29
1. La machine Iter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2. Objectif nominal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
xvi
LA
FUSION NUCLÉAIRE
3. Objectif avancé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4. Objectif technologique . . . . . . . . . . . . . . . . . . . . . . . . . 36
5. Après Iter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
CHAPITRE 2 La fusion par confinement inertiel
1. Principes et motivations . . . . . . . . . . . . . . . . . .
1.1. Concept . . . . . . . . . . . . . . . . . . . . . . .
1.2. Principe d’un réacteur FCI . . . . . . . . . . . . .
1.3. Les attraits de la fusion inertielle . . . . . . . . . .
1.4. Les principales étapes de la fusion inertielle . . . .
2. Solutions et projets . . . . . . . . . . . . . . . . . . . .
2.1. Les drivers . . . . . . . . . . . . . . . . . . . . . .
2.2. La cible et les schémas d’implosion . . . . . . . . .
2.3. La chambre de réactions et les projets de réacteurs
3. Situation actuelle et perspectives . . . . . . . . . . . . .
3.1. L’implosion par laser . . . . . . . . . . . . . . . .
3.2. L’implosion par ions lourds . . . . . . . . . . . . .
3.3. L’implosion par Z-pinch . . . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
CHAPITRE 3 Les plasmas chauds magnétisés
1. Physique des plasmas chauds magnétisés . . . . . . . . . . . .
2. Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1. Principaux résultats . . . . . . . . . . . . . . . . . . . . .
2.2. Les problèmes de physique ouverts en MHD . . . . . . . .
2.3. Problèmes communs avec d’autres secteurs de la physique
3. Turbulence et transport . . . . . . . . . . . . . . . . . . . . . .
3.1. Principaux résultats . . . . . . . . . . . . . . . . . . . . .
3.2. Problèmes de physique ouverts en turbulence . . . . . . .
3.3. Problèmes communs avec d’autres secteurs de la physique
4. Chauffage et génération de courant . . . . . . . . . . . . . . .
4.1. Les principales méthodes de chauffage et de génération
de courant . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Les problèmes de physique ouverts en chauffage
et génération de courant . . . . . . . . . . . . . . . . . .
4.3. Liens avec d’autres secteurs de la physique :
les procédés plasmas . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
41
43
43
43
45
46
46
46
48
49
50
51
54
55
55
.
.
.
.
.
.
.
.
.
.
57
59
59
60
66
69
70
71
76
79
81
. . . 82
. . . 87
. . . 91
TABLE
xvii
DES MATIÈRES
5. Diagnostics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.1. Les principales techniques de mesure . . . . . . . . . . . . . . . 94
5.2. Les diagnostics dans Iter . . . . . . . . . . . . . . . . . . . . . 95
CHAPITRE 4 Interaction laser-plasma et laser petawatt
101
1. Interaction laser-plasma . . . . . . . . . . . . . . . . . . . . . . . . . 103
1.1. Physique mise en jeu . . . . . . . . . . . . . . . . . . . . . . . 103
1.2. État de l’art actuel . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Domaines à développer : études fondamentales, stratégie de
développement de codes de prédiction globale, coordination
de l’effort . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4. Enseignement . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5. Coordination et structuration de la communauté . . . . . . . . .
2. Allumage rapide et laser petawatt . . . . . . . . . . . . . . . . . . .
2.1. Présentation générale . . . . . . . . . . . . . . . . . . . . . . .
2.2. Les enjeux scientifiques . . . . . . . . . . . . . . . . . . . . . .
2.3. Stratégie régionale, nationale et européenne . . . . . . . . . .
108
109
110
110
110
112
117
CHAPITRE 5 La physique atomique pour la fusion
1. Contrôle du flux d’énergie à la paroi au moyen d’un scénario
fortement radiatif . . . . . . . . . . . . . . . . . . . . . . . .
2. Spectroscopie . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1. Spectroscopie passive . . . . . . . . . . . . . . . . . .
2.2. Effets des champs magnétiques et électriques
sur les profils de raies . . . . . . . . . . . . . . . . . . .
2.3. Plasmas par confinement inertiel . . . . . . . . . . . . .
2.4. Spectroscopie active . . . . . . . . . . . . . . . . . . .
2.5. Mesures spectroscopiques dans le plasma de bord . . .
2.6. Développements associés . . . . . . . . . . . . . . . . .
3. Interprétations théoriques . . . . . . . . . . . . . . . . . . . .
3.1. Structure et évolution des plasmas . . . . . . . . . . . .
3.2. Effets des fluctuations turbulentes . . . . . . . . . . . . .
3.3. Développements associés . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
127
127
128
129
130
130
130
131
132
CHAPITRE 6 La simulation numérique
1. La simulation . . . . . . . . . . . . . . . . . . .
2. Fusion magnétique . . . . . . . . . . . . . . . .
2.1. Modélisation intégrée . . . . . . . . . . . .
2.2. Modélisation dite « de premiers principes »
2.3. Les verrous et les besoins . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
135
. 137
. 138
. 139
. 140
. 143
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
106
123
. . . . 125
. . . . 126
. . . . 126
xviii
3. Fusion par confinement inertiel . . . . . . . . .
3.1. La modélisation . . . . . . . . . . . . . .
3.2. Les méthodes numériques . . . . . . . . .
3.3. Les machines . . . . . . . . . . . . . . .
3.4. L’adéquation de méthodes aux machines .
3.5. Les résultats . . . . . . . . . . . . . . . .
3.6. Points durs et besoins . . . . . . . . . . .
Conclusion et recommandations . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
LA
FUSION NUCLÉAIRE
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
CHAPITRE 7 Interaction plasma-paroi
1. Position du problème . . . . . . . . . . . . . . . . . . . . . . . . .
2. Rôle de la région d’interaction plasma-paroi et contraintes associées
3. Choix de la géométrie de la région d’interaction plasma-paroi . . .
4. Transport dans le plasma périphérique . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
144
146
147
148
150
150
150
151
153
. 155
156
. 158
. 160
5. États du plasma de divertor . . . . . . . . . . . . . . . . . . . . . . . 161
6. Les matériaux des éléments face aux plasmas . . . . . . . . . . . . . 162
7. Les problèmes ouverts . . . . . . . . . . . . . . . . . . . . . . . . . . 164
CHAPITRE 8
1.
2.
3.
4.
5.
Les matériaux pour les composants proches
du plasma dans les réacteurs
à confinement magnétique
167
Problématique et solutions potentielles pour les composants proches
du plasma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
1.1. Les couvertures tritigènes . . . . . . . . . . . . . . . . . . . . . 171
1.2. Le divertor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Les matériaux de structure . . . . . . . . . . . . . . . . . . . . . . . 175
2.1. R&D Matériaux pour la technologie fusion . . . . . . . . . . . . 177
2.2. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
Les apports de la modélisation . . . . . . . . . . . . . . . . . . . . . 183
Les apports de l’expérimentation . . . . . . . . . . . . . . . . . . . . 190
Les techniques d’assemblage . . . . . . . . . . . . . . . . . . . . . . 194
5.1. Les procédés d’assemblage par fusion . . . . . . . . . . . . . . 195
5.2. Les procédés d’assemblage sans fusion . . . . . . . . . . . . . 196
CHAPITRE 9 Les études de sûreté
199
1. Particularités des installations de fusion en termes de sûreté et vis-à-vis
de l’environnement . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
1.1. Absence de risque de réaction en chaîne . . . . . . . . . . . . 203
1.2. Limitation de déchets radioactifs à vie longue . . . . . . . . . . 203
TABLE
xix
DES MATIÈRES
2. Démonstration de la sûreté des installations de fusion thermonucléaire
2.1. Approche générale . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Approche probabiliste complémentaire . . . . . . . . . . . . .
3. La sûreté et les critères environnementaux . . . . . . . . . . . . . . .
3.1. Prescriptions communes aux deux filières – magnétique
et inertielle . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2. Prescriptions particulières relatives à la filière magnétique –
Maîtrise de l’énergie magnétique . . . . . . . . . . . . . . . . .
3.3. Prescriptions particulières relatives à la filière inertielle . . . . .
3.4. L’impact de la filière « fusion » sur l’environnement . . . . . . .
204
204
205
205
205
211
212
212
CHAPITRE 10 La fusion par confinement inertiel
et l’astrophysique
215
Groupe de lecture critique
219
Composition du Groupe de lecture critique . . . . . . . . . . . . . . 221
Commentaire du Commissariat à l’énergie atomique . . . . . . . . 223
Commentaire du CNRS . . . . . . . . . . . . . . . . . . . . . . . . 229
Commentaires de la Société française de physique . . . . . . . . . 233
Présentation à l’Académie des sciences,
par Édouard Brézin
237
Intervention de Claude Allègre . . . . . . . . . . . . . . . . . . . . 246
Intervention d’Édouard Brézin . . . . . . . . . . . . . . . . . . . . 247
Intervention de Robert Dautray . . . . . . . . . . . . . . . . . . . . 248
Annexes : commander le CD-ROM
251
ANALYSE ET RECOMMANDATIONS
Introduction
Aujourd’hui, la croissance de la consommation énergétique mondiale suscite une profonde inquiétude pour l’avenir. D’une part, la pénurie de certaines
ressources, comme le gaz naturel et le pétrole, fait craindre une envolée des
coûts, constituant un frein dangereux au développement économique et une dépendance excessive de l’Europe vis-à-vis de son approvisionnement en énergie.
D’autre part, les climatologues pensent que les activités anthropiques et plus
particulièrement les émissions de gaz carbonique pourraient bouleverser le climat trop rapidement pour que l’humanité puisse s’y adapter dans de bonnes
conditions. Pour faire face à ces menaces et tenter d’en atténuer l’ampleur, la
recherche de nouvelles formes d’énergie exploitable a déjà commencé, avec un
intérêt particulier pour celles qui n’augmentent pas la concentration des gaz à
effet de serre dans l’atmosphère. Dans le bouquet de solutions dont la mise en
œuvre sera nécessaire pour maintenir un niveau satisfaisant de développement
sur la planète, il apparaît de plus en plus vraisemblable que l’énergie nucléaire
jouera un rôle important. Cette ressource possède, en effet, des atouts décisifs qui répondent aux préoccupations actuelles puisqu’elle n’entraîne aucune
émission de gaz à effet de serre et qu’elle utilise des combustibles présents en
quantités presque illimitées.
L’énergie nucléaire de fission contribue déjà massivement à la production
d’électricité, en France et cette part dominante perdurera sur plusieurs décennies. Toutefois, sous sa forme actuelle, elle ne peut se généraliser aisément au
monde entier. En effet, la fission du seul isotope 235 de l’uranium naturel, utilisant une trop faible fraction du combustible nucléaire, conduirait, là aussi, à
une crise d’approvisionnement et à une gestion difficile des déchets radioactifs
2
LA
FUSION NUCLÉAIRE
générés. L’avenir de la fission est donc subordonné à l’avènement des réacteurs
à neutrons rapides de la prochaine génération, la quatrième. Ils permettront de
mieux utiliser la ressource en matière fissile, de produire moins de déchets nucléaires et d’incinérer les déchets issus des réacteurs à eau pressurisée en service
aujourd’hui. Dans le cadre d’une collaboration internationale étendue, un vaste
programme vise à élaborer des solutions industrielles convaincantes, respectant
de sévères contraintes de sûreté environnementale, qui pourraient devenir opérationnelles avant un demi-siècle.
L’énergie de fusion se présente sous un jour plus contrasté que la fission. Elle
n’a pas encore atteint le stade industriel et elle n’a pas encore donné de preuves
indiscutables de son aptitude à y parvenir. Elle repose sur la maîtrise d’une
physique spécifique qui a peu de rapports avec la science mise en jeu dans la
fission comme dans toute autre méthode de production énergétique. Elle pose
des questions nouvelles aux métallurgistes afin qu’ils élaborent des matériaux
capables de supporter les rayonnements neutroniques qu’elle génère. Mais, au
moins en théorie, les ressources en combustibles sont facilement accessibles et
inépuisables, les déchets radioactifs ne posent pas de problèmes environnementaux insupportables et la sûreté passive est inhérente au principe du fonctionnement. L’ensemble de ces qualités prometteuses représente un enjeu si imposant
qu’il faut se défendre contre un enthousiasme aveugle et vérifier patiemment la
validité de ces assertions en s’engageant dans l’étude de la fusion avec tous les
moyens disponibles dès maintenant, au niveau français et international, mais,
pour que la fusion contribue massivement un jour à la production d’électricité
nucléaire, le chemin reste long et escarpé.
Sur le plan international, les recherches sur l’énergie de fusion se structurent
aujourd’hui autour de trois grands projets expérimentaux. Il s’agit, d’une part,
de la machine Iter1 , fruit d’une coopération internationale, qui sera implantée
à Cadarache, et, d’autre part, du Laser Mégajoule (LMJ) et du National Ignition Facility (NIF) qui sont en cours de construction respectivement à Bordeaux
et à Livermore (États-Unis). Ces deux dernières installations sont financées sur
des budgets de défense avec pour objectif principal la simulation des armes nucléaires. Prenant acte des décisions prises2 concernant ces machines, le présent
rapport rappellera les objectifs des recherches sur la fusion nucléaire, puis il
fera le point sur leur état aujourd’hui et décrira leurs évolutions probables au
cours des vingt prochaines années, période dominée vraisemblablement par Iter
et le LMJ en Europe. Il analysera ensuite les principaux points durs à surmonter
pour que ces deux expériences parviennent à une démonstration satisfaisante
1
Iter, « le chemin » en latin, était à l’origine l’acronyme de International Thermonuclear Experimental Reactor.
2 Pour Iter, communiqué de la Présidence de la République concernant le choix du site de Cadarache pour accueillir Iter en date du 28 juin 2005 ; pour le LMJ, annonce du Premier ministre
concernant le lancement de la réalisation du Laser Mégajoule en date du 21 avril 1995.
A NALYSE ET
RECOMMANDATIONS
3
de faisabilité scientifique. Le rapport évaluera ensuite les difficultés qui accompagneront la mise en œuvre industrielle et les précautions nécessaires pour faciliter son acceptation par la société. Il décrira brièvement les autres filières ou
variantes pouvant offrir d’autres solutions si Iter ou le LMJ en révélait la nécessité. Enfin, il s’étendra plus longuement sur l’organisation de l’enseignement et
de la recherche dans le domaine de la fusion nucléaire, en proposant des aménagements et des coordinations qui paraissent indispensables pour faire face
aux besoins des deux expériences et permettre à la communauté scientifique
française d’en tirer le meilleur profit. Les propositions seront résumées à la fin
du rapport.
Des chapitres supplémentaires donneront des informations sur les points les
plus importants discutés dans l’analyse et les recommandations. Les deux premiers chapitres présenteront rapidement les deux voies principales envisagées
pour la fusion : le confinement magnétique avec Iter et le confinement inertiel
avec le LMJ. Ensuite, les domaines scientifiques et techniques les plus directement concernés feront l’objet d’une présentation détaillée. Il s’agit, d’abord, de
la physique des plasmas chauds magnétisés, qui reste le guide fondamental pour
les recherches sur le confinement magnétique. La physique de l’interaction laserplasma suivra en raison de son rôle crucial dans les projets actuels de confinement inertiel, comme pour les développements futurs. Le rapport mettant l’accent
sur les besoins urgents de développement en physique atomique, en simulation
numérique et en science des matériaux, quatre autres chapitres en approfondiront la nature et les motivations. Puis, une mise au point détaillée présentera
l’état actuel des réflexions sur les aspects liés à la sûreté et aux problèmes environnementaux ou sociétaux. Enfin, un court dernier chapitre évoquera certains
aspects intéressants de ces recherches pour l’astrophysique.
Un rapport annexe, sous forme d’un CD-ROM, contient des présentations
beaucoup plus complètes sur les résultats déjà acquis, les machines existantes
et projetées, les problèmes industriels attendus, les retombées technologiques et
les considérations économiques.
1
Rappel des objectifs
La Conférence de Genève sur les utilisations pacifiques de l’énergie atomique,
en 1958, a véritablement marqué le début des recherches sur la fusion nucléaire
contrôlée avec comme objectif la production d’énergie à des fins civiles. Après
une suite de tâtonnements, de déceptions et de succès, l’avenir de cette source
d’énergie apparaît plus clairement aujourd’hui. Les résultats acquis montrent
qu’il est possible de construire des dispositifs produisant de l’énergie à partir
4
LA
FUSION NUCLÉAIRE
de la fusion nucléaire et de dater approximativement les futures étapes qui devraient conduire à son exploitation industrielle. Les expériences actuelles, comme
celles du proche avenir, appartiennent encore au domaine de la recherche. En
Europe et au Japon, au moins, ces recherches s’affirment comme franchement
orientées vers la réalisation d’un réacteur industriel. Cette intention se manifeste
par la préoccupation constante d’éliminer les dispositifs qui n’ont aucune chance
de déboucher un jour sur une production d’électricité dans des conditions industrielles, donc avec des coûts admissibles, en tenant compte des incertitudes
attachées inévitablement à leur estimation.
La fusion des noyaux d’atomes préoccupe les physiciens nucléaires depuis
que leur spécialité existe. En particulier, les expériences sur les éléments légers
(hydrogène et ses isotopes, hélium, lithium) ont beaucoup contribué à clarifier la
théorie des interactions nucléaires, en raison du faible nombre de nucléons intervenant dans les réactions. Très tôt également, les astrophysiciens ont trouvé dans
les réactions de fusion nucléaire les clefs de l’évolution de la matière stellaire et
la source d’énergie qui permet aux astres de rayonner. Puis, après avoir joué un
rôle important dans le perfectionnement des armes nucléaires, la fusion a suivi
la même route que la fission, avec beaucoup de retard, en s’affichant comme
une source d’énergie présentant des avantages considérables. À ce jour, une
seule réaction permet d’envisager une mise en œuvre à l’échelle industrielle.
Elle résulte de la fusion des deux isotopes lourds de l’hydrogène, le deutérium et
le tritium.
La fusion se produit lorsque la collision de deux noyaux d’atomes légers est
suivie d’une réaction nucléaire avec formation d’un noyau plus lourd et diminution de la masse totale du système. La masse perdue se retrouve dans l’énergie
cinétique des produits de la réaction, comme le prédit la relativité. La réaction la
plus facile à réaliser est la fusion des noyaux de deutérium (D) et de tritium (T),
les deux isotopes de l’hydrogène mentionnés plus haut. Le deutérium contient
deux nucléons, le tritium trois. Au cours de la fusion, quatre de ces nucléons
s’associent pour donner un noyau d’hélium 4, emportant une énergie cinétique
de 3,5 MeV, et le nucléon restant est un neutron libre de 14 MeV qui contient
donc 80 % de l’énergie produite par la réaction.
Cette réaction très exothermique présente l’intérêt supplémentaire de n’impliquer que des produits abondants et bon marché. En effet, le deutérium existe
dans l’eau de mer à une concentration de 33 mg par litre. Le tritium se fabrique à partir du lithium, élément bon marché et présent en grande quantité
dans l’écorce terrestre. Ce métal alcalin, additionné d’un multiplicateur de neutrons, génère l’isotope de l’hydrogène lorsqu’il est irradié à l’aide des neutrons
produits par la réaction de fusion elle-même. La fusion complète d’un gramme
de mélange DT équimoléculaire libère 340 GJ, soit environ 94 MWh. Cette
consommation extrêmement faible en combustible conduit à estimer que, au vu
A NALYSE ET
RECOMMANDATIONS
5
des ressources prévisibles, la domestication de la fusion libérerait l’humanité de
tout risque de pénurie énergétique. C’est le lithium qui viendrait d’abord à manquer, dans plusieurs dizaines de siècles3 . On peut espérer que les progrès de
la science et de la technique permettraient alors de n’utiliser que le deutérium
comme combustible, ce qui est possible mais plus difficile. Alors les réserves
deviendraient vraiment illimitées.
Un autre intérêt de la fusion du DT réside dans le fait que cette réaction nucléaire ne génère aucun élément radioactif à vie longue. Les combustibles de
base, lithium et deutérium, ne sont pas radioactifs. Le tritium, élément radioactif
avec un temps de vie de 12 ans, serait fabriqué sur place au fur et à mesure des
besoins sans en amasser des stocks importants. Seuls des éléments du réacteur
deviendront radioactifs par exposition aux neutrons de 14 MeV, mais la radioactivité induite, dans les hypothèses actuelles, aura pratiquement disparu en
une ou deux centaines d’années. La quantité de ces déchets peut être réduite en
choisissant des matériaux dont l’activation reste faible. De plus, la production
d’énergie ne s’accompagne d’aucune émission de gaz à effet de serre, point
commun avec une centrale nucléaire classique, basée sur la fission des noyaux
lourds.
Enfin, s’il reste indispensable de se prémunir contre les éventuels incidents, en
particulier ceux concernant la gestion du tritium, la sûreté nucléaire d’une telle
installation est facile à assurer. Aucune catastrophe majeure n’est à redouter, car
un accident par emballement des réactions n’est pas possible. En effet, à chaque
instant, le cœur du réacteur ne contient qu’une faible quantité de combustible
et l’interruption de l’alimentation en mélange DT entraîne l’arrêt immédiat de la
combustion, comme dans une chaudière à gaz. De plus, tout dérèglement ou
détérioration aurait le même effet, tant est difficile le maintien des conditions
physiques permettant aux réactions de se produire. Un arrêt du refroidissement
avec maintien de l’alimentation provoquerait une montée des parois en température, suivi d’une vaporisation qui étoufferait ou déréglerait le mécanisme
délicat qui maintient le milieu réactionnel dans les conditions favorables à une
production d’énergie.
2
État de la situation aujourd’hui
La fusion contrôlée fait l’objet de travaux intenses depuis la fin de la Seconde
Guerre mondiale, avec un financement, au niveau européen, de plusieurs centaines de millions d’euros par an. Une exploitation industrielle est envisagée, au
plus tôt, dans la seconde moitié du XXIe siècle. Ce long délai résulte du caractère
3 Plusieurs
millénaires avec les réserves connues et la consommation d’aujourd’hui.
6
LA
FUSION NUCLÉAIRE
extrême des conditions physiques à réaliser. Pour s’en faire une idée, il suffit de
noter que la fusion d’un noyau de deutérium (D) et d’un noyau de tritium (T) est
la plus facile à mettre en œuvre et cependant elle nécessite de porter les combustibles à des températures supérieures à 100 millions de degré. Aujourd’hui
deux méthodes sont envisagées pour domestiquer la fusion : le confinement magnétique et le confinement inertiel. Ni l’une, ni l’autre n’est encore parvenue
à produire plus d’énergie qu’il n’en faut injecter pour maintenir les conditions
des réactions. Iter appartient à la première voie et le LMJ à la seconde. Dans
les deux cas, les deux dernières décennies ont permis des progrès suffisants
pour envisager la réalisation de ces deux expériences, où des gains en énergie
deviennent possibles.
La machine Iter, de la famille des Tokamaks4 , sera le fruit de quarante ans
de recherches sur le confinement magnétique. Dans ce type de machine (chapitre 1), on cherche à réaliser les conditions de la fusion, soit des températures
de centaines de millions de degrés, en régime quasi permanent, dans une enceinte. La matière est alors complètement ionisée et forme un plasma. Un champ
magnétique fort assure son isolation thermique des parois, en confinant les particules chargées dont il est constitué. En cinquante ans, les performances n’ont
cessé de s’approcher du but, la température croissant de près d’un facteur mille
sur cette durée et le plasma atteignant les caractéristiques requises pour le réacteur. La puissance de fusion la plus élevée a été obtenue sur la machine européenne Jet, avec un rapport puissance produite sur puissance injectée de 0,65 5
et 16 MW générés par les réactions de fusion pendant quelques secondes. En
France, le Tokamak Tore-Supra, a confiné un plasma pendant six minutes, grâce
à ses bobinages supraconducteurs et à une gestion efficace des flux de chaleur,
justifiant ainsi l’espoir de faire fonctionner ces machines en régime permanent.
Le LMJ résulte de trente années de recherches classifiées et ouvertes sur le
confinement inertiel (chapitre 2). C’est l’autre voie proposée pour aboutir au
contrôle de la fusion nucléaire. Elle consiste à créer, pendant un bref instant et
dans une petite quantité de mélange DT, les conditions pour que la combustion
thermonucléaire s’amorce et se développe sans chercher à la contrôler, jusqu’à
épuisement du combustible. La température initiale nécessaire reste très élevée,
supérieure à cinquante millions de degrés. Si la matière est assez dense pour
freiner les noyaux d’hélium, produits avec une énergie cinétique de 3,5 MeV,
afin qu’ils déposent leur énergie dans la matière, il suffira de déclencher les
réactions dans une petite zone, qui chauffera le combustible voisin à la bonne
température pour qu’il s’enflamme à son tour. La réaction peut alors se propager
4
Les Tokamaks, initialement développés en URSS, sont des machines dans lesquelles un plasma
torique est confiné par un champ magnétique dont une partie est générée par des aimants et le reste
par un fort courant circulant dans le plasma.
5 Cette puissante crête n’a été obtenue que pendant trois secondes. Dans des décharges de plus
longue durée, le rapport n’a pas dépassé 0,2.
A NALYSE ET
RECOMMANDATIONS
7
dans la masse avant la dissociation du combustible, que gouverne la seule inertie, en l’absence de confinement. Pour optimiser les conditions de ces réactions,
le laser comprimera une cible à des densités de 100 à 1000 fois la densité de
l’eau et en ménageant une petite zone à très haute température, appelée point
chaud, qui va servir d’allumette pour déclencher la combustion.
Pour y parvenir, le rayonnement du laser est dirigé sur une petite cible sphérique, constituée d’une coquille de DT solide cryogénique, à l’intérieur de laquelle subsiste un peu de combustible en phase gazeuse. L’irradiation de la cible
provoque un chauffage violent de sa surface extérieure qui se trouve soumise à
une très haute pression. Le matériau de surface se détend à grande vitesse dans
le vide, en entraînant une ablation partielle de matériau. Par un effet analogue à
celui qui, dans une fusée, permet aux gaz brûlés d’exercer une poussée, l’éjection de matière propulse la coquille vers le centre de la sphère, et la cible implose
en comprimant le combustible qu’elle contient. La chronologie de l’implosion est
réglée pour que la compression de la cible, sans subir trop de freinage, porte
le gaz à une température suffisante afin que la fusion s’y déclenche, amorçant
ainsi la combustion décrite plus haut, qui a reçu le nom d’ignition. L’ignition
n’a jamais encore été réalisée en laboratoire. Le principe en a été cependant
vérifié dans les expériences américaines « Centurion-Halite », où le rayonnement d’un engin nucléaire se substituait au laser pour faire imploser la cible. Les
expériences de laboratoire ont permis, quant à elles, de déterminer les conditions précises pour lesquelles l’ignition se produit et d’identifier les contraintes à
imposer à la fabrication des cibles pour minimiser l’énergie nécessaire du laser.
3
Évolution des recherches dans les vingt prochaines
années
3.1 Le confinement magnétique : Iter
L’objectif de la machine Iter est de parvenir à créer un plasma en combustion
(chapitre 1). On entend par là un plasma dont la température est maintenue
essentiellement par les réactions de fusion elle-même. La fusion du deutérium et
du tritium libère un neutron de 14 MeV et un noyau d’hélium de 3,5 MeV. Le
neutron s’échappe mais le noyau d’hélium, grâce à sa charge électrique, est
capturé par le champ magnétique de la configuration et cède son énergie au
plasma, soit 20 % de l’énergie totale libérée, réduisant d’autant la puissance
à injecter pour compenser les pertes et maintenir la température au niveau nécessaire. Dans un réacteur rentable, l’énergie injectée ne devrait pas dépasser
quelques pourcents de l’énergie produite. L’expérience Iter ouvrira la voie dans
8
LA
FUSION NUCLÉAIRE
cette direction et d’autres machines devront lui succéder pour aboutir à une
véritable usine de production.
Dans les expériences menées jusqu’à présent, le chauffage du plasma par
les noyaux d’hélium restait négligeable et la température ne se maintenait que
grâce à une énergique injection de particules et de rayonnement. Dans le cas
d’Iter, les performances nominales visent à produire un plasma où la puissance
injectée ne représentera plus que la moitié de la puissance fournie au plasma
par les noyaux d’hélium, soit 10 % de la puissance totale de fusion. Le défi est
de parvenir au contrôle des mécanismes physiques régissant ce plasma, dominé
par les réactions de fusion, pendant 400 secondes, dans un volume de 840 m3 .
La maîtrise d’un plasma en combustion est un point de passage obligé sur la
route du réacteur et l’obtention de ces performances représenterait une avancée
incontestable vers la réalisation d’un réacteur. Dans ces conditions physiques
nouvelles, le comportement du plasma guidera les choix de l’étape suivante.
Outre l’objectif de ces performances nominales, le programme expérimental
d’Iter prévoit une deuxième phase d’exploitation, dite « avancée », qui permettra d’explorer des domaines plus proches du réacteur. Pour qu’une machine
mérite le nom de réacteur, elle doit fonctionner en régime permanent, pendant
des années, en produisant assez d’énergie pour compenser la consommation
des auxiliaires indispensables et alimenter les turbines électrogènes à vapeur.
La machine Iter n’atteindra pas ces régimes qui resteront l’apanage des dispositifs suivants, chargés d’en démontrer la faisabilité et déjà baptisés Demo.
Mais Iter devra explorer les voies qui y mènent. Dans ce programme avancé,
il ne suffira plus de se limiter seulement à des situations obtenues par une extrapolation raisonnable des machines précédentes, mais il faudra appréhender
les limites et contours des différentes conditions de fonctionnement intéressant.
En particulier, la durée du plasma sera allongée afin de sonder les possibilités
de travail en mode permanent, des plasmas à plus fortes pressions mettront à
l’épreuve la résistance de la configuration magnétique, des modifications fines
du champ magnétique permettront d’explorer des configurations où ses propriétés isolantes s’amélioreront. Il n’est pas exclu, si le succès accompagne ces
tentatives, d’aborder le thème du contrôle d’un plasma à l’ignition, c’est-à-dire
d’un plasma qui génèrerait par lui-même assez d’énergie pour assurer le remplacement des pertes et la génération du courant ; la principale variable de
contrôle deviendrait l’alimentation en combustible, au lieu de l’injection d’énergie, comme c’est le cas actuellement.
La réalisation de ces programmes validerait le concept de confinement magnétique sur le plan scientifique et introniserait les tokamaks comme principe de
base pour un réacteur. C’est le socle de l’argumentation justifiant l’expérience
Iter.
A NALYSE ET
RECOMMANDATIONS
9
À ces finalités, de nature plutôt fondamentale, vient s’ajouter un thème plus
proche de l’ingénierie nouvelle qui accompagnera nécessairement l’exploitation
industrielle de la fusion. Le succès ou l’échec de cette partie du programme n’engagerait pas la validité du confinement magnétique mais concernerait seulement
la durée du travail restant à effectuer avant de pouvoir exploiter cette énergie
de manière rentable. Il s’agit d’abord d’évaluer la résistance des parois proches
du plasma aux conditions très dures créées par la proximité du plasma. Quant
aux particules qui s’en échappent, elles seront conduites par le champ magnétique vers un dispositif périphérique, le divertor, où elles seront refroidies, neutralisées et pompées à l’extérieur du système. Ce divertor jouera aussi un rôle
central dans l’évacuation des combustibles brûlés, dont l’étude fait partie du
programme expérimental d’Iter. Un tel système fonctionne déjà sur le Jet. Mais,
dans Iter, les flux thermiques plus élevés créeront des conditions plus sévères et
feront de sa réalisation et de son endurance un des défis les plus difficiles à
relever. De sa réussite dépendra la faisabilité des étapes suivantes.
La résolution de ces problèmes techniques conditionne la réussite du programme scientifique et ces recherches apporteront aussi de précieux enseignements pour les développements postérieurs à Iter. Mais, dans le cahier des
charges de cette machine, les performances demandées se limitent à ce qui
est nécessaire pour qu’Iter fonctionne correctement et réponde aux questions
concernant la faisabilité et l’intérêt de la fusion. Il en est de même pour l’ingénierie nucléaire. Les aimants et les équipements seront protégés des neutrons par
des écrans bien dimensionnés, mais la quantité totale de neutrons émis pendant
sa durée de vie ne justifie pas l’emploi de matériaux spéciaux résistant à une
irradiation permanente très intense pendant des années, comme il le faudrait
dans un réacteur. Dans ces écrans, l’énergie déposée par les neutrons sera évacuée vers l’extérieur pour limiter la montée en température des matériaux, au
lieu de générer de la vapeur destinée aux turboalternateurs, comme devrait le
faire un réacteur électrogène. De même, le tritium ne sera pas régénéré dans
la machine, qui sera alimentée par le stock existant. Seuls des modules tests
de dimensions significatives seront introduits localement pour mettre à l’épreuve
des principes élaborés en prévision des autres étapes de la fusion. En ce sens,
Iter sera loin de remplir toutes les fonctions primaires demandées à un réacteur
dans l’industrie nucléaire. Il ne s’agit encore que d’une expérience de principe.
3.2 Le confinement inertiel : LMJ
Le LMJ a pour objectif scientifique de réaliser l’ignition d’une cible en la comprimant et en parvenant à créer le point chaud qui provoquera l’inflammation
du DT cryogénique (chapitre 2). Cette installation, comme son homologue américaine le NIF, est financée essentiellement par la défense, dans le cadre d’un
10
LA
FUSION NUCLÉAIRE
programme de simulation qui fait suite à l’arrêt des essais nucléaires. Mais l’objectif scientifique du LMJ coïncide avec la première étape d’un programme axé
sur la production d’énergie à des fins civiles. En conséquence, une communauté
civile, collaborant avec les scientifiques des laboratoires de défense, s’est constituée et s’est donnée pour programme l’utilisation des installations du LMJ et de
ses dépendances pour avancer dans cette voie et défricher ce champ inexploré
qui constitue une discipline émergente.
Les expériences passées ont validé des schémas de compression par ablation de matière et il reste à vérifier que ces résultats s’extrapolent bien pour les
paramètres du LMJ. Mais, jusqu’à présent, aucune expérience de laboratoire
n’a pu créer le point chaud où seraient réunies les conditions de température et
de densité demandées pour déclencher la combustion6. Le LMJ est dimensionné
pour atteindre cet objectif et produire dix fois plus d’énergie que le laser n’en
a injecté dans le combustible. Mais, à la différence d’Iter, l’énergie de fusion
restera très inférieure à l’énergie dépensée pour générer l’énergie rayonnée par
le laser, en raison du rendement très faible du laser lui-même. La justification
première de l’expérience n’est pas la production d’énergie, mais la réalisation
d’un banc d’essai pour mettre à l’épreuve les connaissances sur la dynamique
de la combustion nucléaire. Pour que les futurs résultats s’intègrent dans une
recherche de nouvelles sources d’énergie, le rendement du laser doit progresser de manière très importante, et c’est bien ce qui est entrepris, à une échelle
encore assez modeste, en France et aux États-Unis, dans un cadre assez large
pour que les étapes intermédiaires puissent être utiles à d’autres applications.
Les verrous scientifiques et techniques pour Iter
et le LMJ
4
Avant d’envisager les solutions qui conduiront à une possible exploitation industrielle de la fusion, les installations en construction auront à démontrer la
faisabilité d’une production d’énergie à partir de la fusion nucléaire, avec des
rendements, des dimensionnements et des conditions de fonctionnement compatibles avec l’objectif final. Malgré les succès des machines en service actuellement, il subsiste des difficultés et des verrous qu’il convient d’évaluer, avant
de proclamer la fin des investigations scientifiques et la venue de l’exploration
technologique.
Dans le cas d’Iter et plus généralement dans celui des Tokamaks, le verrou
principal reste l’optimisation de la stabilité et du confinement (chapitre 3). Les
écarts à l’équilibre thermodynamique conduisent en effet au développement
6 Si
on excepte les expériences baptisées Centurion-Halite, citées plus haut.
A NALYSE ET
RECOMMANDATIONS
11
d’instabilités dans une large gamme d’échelles spatiales et temporelles. Les instabilités de grandes échelles spatiales déforment le plasma et peuvent conduire
à la perte du confinement. La compréhension et le contrôle de leur évolution ont
déjà beaucoup progressé et ont permis de délimiter les domaines où elles restent inoffensives. Pratiquement impossibles à éviter, les instabilités à petite échelle
évoluent vers un régime turbulent qui réduit la qualité du confinement en accélérant le transport des particules et de la chaleur vers les parois. Cette turbulence
est associée à des structures spatiotemporelles aléatoires dont la description et
la prévision font partie des questions non résolues de la physique.
Un second verrou est celui de l’interaction plasma-paroi (chapitre 7). En effet,
les éléments de première paroi sont censés jouer des rôles multiples : extraction
de la puissance, pompage des cendres (He), contrôle de l’influx d’impuretés et
alimentation en matière du plasma. La difficulté vient ici des processus complexes de physique atomique et de physicochimie qui interviennent dans la mise
en œuvre de ces fonctions. Le divertor est au cœur de cette problématique. Le
régime de fonctionnement choisi pour Iter assure un confinement optimal, qui,
en contrepartie, entraîne de fortes variations de pression au bord du plasma.
Les expériences sur le Jet ont montré que des instabilités résiduelles pouvaient
se développer dans cette zone, avec des risques d’injection de plasma risquant
d’endommager le divertor7 . Le contrôle de ce phénomène constitue un verrou
qui peut limiter les performances et qui donne une importance toute particulière
aux études actuelles sur ce sujet.
La modélisation numérique rend de nombreux services et intervient à tous les
stades de l’exploitation et de l’interprétation des expériences ainsi que dans
l’élaboration des théories (chapitre 6). Mais les performances complètes ne
peuvent pas encore faire l’objet d’une prédiction par le calcul, car, comme prévu
par les mathématiques, la turbulence introduit une variété de comportements très
difficile à prendre en compte. Outre les problèmes fondamentaux introduits par
la dynamique chaotique, les ordinateurs actuels ne peuvent pas encore traiter la
grande disparité des échelles spatiotemporelles. Cette restriction constitue un véritable verrou en limitant la compréhension des observations et les explorations
théoriques en dehors des voies tracées par les expériences existantes. L’amélioration des outils numériques constitue peut-être le défi le plus important avec
comme objectif final l’analyse prédictive. Une telle situation n’est pas sans rappeler le problème des climatologues. La modélisation numérique jouera donc un
rôle croissant, même si l’objectif initial d’un calcul complet n’est pas atteint.
7 Sur le Jet, le divertor initial a été remplacé par un divertor pompé, afin d’assurer un meilleur
contrôle de la densité. En fait, le régime de confinement optimal a relégué ce problème au second
plan en raison de la présence de ces oscillations du bord du plasma.
12
LA
FUSION NUCLÉAIRE
À défaut de simulations numériques complètes, les performances sont actuellement prédites à l’aide de lois d’échelle. Cette démarche empirique a été utilisée
avec succès, grâce à une collaboration internationale remarquable qui a permis
la mise en commun de tous les résultats obtenus sur les machines actuelles (voir
chapitre 3 § 3.1). Cette méthode a pu être fiabilisée en utilisant un principe de
similitude, fondé sur une expression adimensionnelle de ces lois d’échelles. On
peut ainsi extrapoler vers Iter les résultats obtenus sur des machines existantes
comme le Jet ou JT-60, une machine japonaise équivalente. L’essentiel du programme actuel de ces machines consiste à rechercher des conditions de plasmas
stables et faiblement turbulents, qui sont ainsi transposables à Iter. C’est dans
cet axe que les progrès les plus importants sont attendus. Cette stratégie repose
aussi sur la mise au point de diagnostics permettant de mesurer les propriétés
d’un plasma de fusion.
Parallèlement à Iter, installation nucléaire performante aux procédures rigides, il sera important de conserver une activité de recherche sur des appareils
plus modestes, aux performances moindres mais présentant une plus grande
flexibilité. Il sera ainsi possible de faire progresser plus rapidement certains
développements accompagnant l’exploitation d’Iter voire de générer des idées
nouvelles qui pourraient alors être transposées sur Iter. Cette pratique s’est souvent avérée fructueuse dans le passé : le concept de divertor inventé dans le petit
Tokamak allemand ASDEX a été implanté avec succès dans Jet qui n’incluait pas
ce concept à l’origine ; les dispositifs de chauffage du plasma de Jet ont tous été
étudiés et développés sur des installations de petite taille, plus accessibles et plus
souples d’utilisation.
Dans le cas du LMJ, les instabilités jouent aussi un rôle crucial dans la limitation des performances et elles portent la responsabilité du gigantisme de
l’installation. Elles ont ruiné les espoirs prématurés mis dans le confinement inertiel, dans les années 1970. Aujourd’hui, grâce à la théorie, à l’expérience et à la
simulation numérique, les progrès sont considérables. Il reste que la simulation
numérique ne peut pas encore prendre en compte toutes les échelles spatiales et
temporelles et que, là aussi, cet outil jouera un rôle central. L’observation pose
des problèmes spécifiques liés aux dimensions minuscules de la cible après compression, au caractère hautement transitoire de l’implosion et de la combustion
ainsi qu’aux conditions de densité et de température, gênant la propagation
des rayonnements. Des méthodes nouvelles font leur apparition comme l’imagerie neutronique ou le laser à rayons X. Dans ce domaine aussi, la vérification
de la validité des simulations numériques se situe au centre du programme de
recherche et demande une très haute sophistication dans les diagnostics.
A NALYSE ET
5
RECOMMANDATIONS
13
Les verrous techniques et la préparation
de l’industrialisation
Dès les origines, partisans et adversaires de la fusion s’accordaient sur un
point : démontrer la faisabilité de la fusion contrôlée en laboratoire n’apportait
pas la preuve qu’elle pouvait devenir une source d’énergie exploitable industriellement. Pour apporter cette preuve, il manquait un développement scientifique et
technologique spécifique qui, s’il n’apparaissait pas totalement hors d’atteinte,
demanderait des efforts longs et coûteux après la validation scientifique. Aujourd’hui, bien qu’il subsiste des zones d’incertitude sur l’extrapolation des résultats
actuels à un réacteur, la démonstration scientifique de faisabilité est presque acquise et sera précisée par les expériences des prochaines années. De plus, le
passage à des machines réellement thermonucléaires demande des investissements en forte croissance qui ne vont plus pouvoir se justifier en l’absence de la
validation technologique. Le volet technique de la fusion doit donc être abordé,
en se concentrant sur les aspects qui ne dépendent pas de la conjoncture actuelle et qui ont de bonnes chances de conserver une valeur dans les décennies
à venir (chapitre 9).
Les deux grands projets, Iter et LMJ, s’appuient sur des technologies éprouvées, dont plusieurs ont fait récemment l’objet d’avancées importantes. Les
points technologiques les plus sensibles concernent les matériaux faisant face
au plasma et leur assemblage, dans Iter, et la tenue des optiques à haut flux
pour le LMJ.
Pour le confinement magnétique, les principaux sous-ensembles d’Iter ont été
testés avec succès. Par conséquent, les verrous technologiques se manifesteront
surtout après Iter, en vue de la machine suivante, appelée Demo et plus tard lorsqu’il faudra passer au stade de l’industrialisation et de la rentabilité économique
dans plusieurs dizaines d’années. Les questions les plus évidentes concerneront
la transformation de l’énergie des neutrons en chaleur utilisable et sa récupération, la couverture tritigène, la longévité des matériaux de structure sous l’irradiation accumulée des neutrons de 14 MeV, la minimisation de l’activation des
matériaux, l’optimisation du cycle du tritium.
En ce qui concerne les matériaux, la mise au point des réacteurs à fission a
déjà conduit à aborder et résoudre des problèmes de résistance aux radiations
(chapitre 8). Cependant, la fusion s’en distingue par quelques caractères importants et inédits. Au contraire de la fission où l’essentiel de l’énergie libérée se
retrouve dans des noyaux lourds et chargés, les réactions de fusion produisent
des neutrons très énergétiques (14 MeV) qui emportent 80 % de l’énergie. Leur
thermalisation va demander de fortes épaisseurs de matière sans atteindre des
14
LA
FUSION NUCLÉAIRE
volumes prohibitifs, mais, surtout, leur haute énergie provoquera en abondance
des réactions nucléaires générant des particules alpha ou de l’hydrogène qui
altèrent les propriétés mécaniques en s’accumulant sur de longues périodes.
L’exploitation industrielle de la fusion demande des solutions spécifiques à ces
difficultés. Elles relèvent de la recherche en métallurgie nucléaire et nécessitent
des expériences explicites sur les matériaux, expériences à ce jour non disponibles. Des travaux européens et américains ont déjà conduit à ce qui ne
constitue encore que des pistes intéressantes, laissant penser que ces solutions
existent, mais il reste à trouver l’alliage, le composite ou la céramique réunissant l’ensemble des qualités requises. Il faut considérer les défis (expérimentaux,
théoriques, de modélisation) liés à cette situation nouvelle, comme un moteur
du développement de la science des matériaux. En les abordant dès maintenant
avec une ampleur suffisante (la mise au point d’un matériau nouveau est un long
processus), on assurera une mobilisation des chercheurs de qualité qui assureront et perpétueront l’expertise indispensable tout au long de cette entreprise.
Les verrous techniques du confinement inertiel ont des similitudes avec ceux
du confinement magnétique dans le domaine des matériaux et des couvertures
tritigènes. En revanche, les différences sont notables dans le domaine des cibles
et des sources d’énergie. La synergie la plus évidente avec le confinement magnétique concerne le comportement des matériaux de structure qui constitueront
la chambre de réaction ; signalons cependant la difficulté supplémentaire de
l’émission de neutrons sous forme de flux pulsés extrêmement intenses, pour
lesquelles il faudra probablement attendre la réalisation du réacteur pour entièrement valider les matériaux.
Le processus de fabrication de la cible cryogénique de deuterium-tritium sera
mis au point pour les expériences avec le LMJ. Mais, le passage au stade du réacteur, qui fonctionnera à une cadence d’injection de quelques hertz, impliquera
des ruptures technologiques sur les procédés de conception et de fabrication des
cibles afin de baisser considérablement leur coût. En ce qui concerne la source
d’énergie, d’une part, elle devra permettre plusieurs implosions par seconde
alors que le LMJ n’en réalisera que quelques unes par jours, et, d’autre part, le
rendement de la source devra progresser d’au moins un ordre de grandeur. Ces
deux problèmes constituent des obstacles difficiles à surmonter et pour lesquels
il n’existe pas encore de solution disponible.
6
Les autres filières ou solutions innovantes
Dans le domaine du confinement magnétique, le Tokamak est considéré sans
conteste comme la configuration susceptible de mener le plus rapidement au
confinement d’un plasma thermonucléaire, dans des conditions représentatives
A NALYSE ET
RECOMMANDATIONS
15
de celles qui sont prévues dans un réacteur producteur d’électricité. Pour faire
d’un tokamak un véritable réacteur, il reste à franchir des étapes importantes, et,
comme déjà souligné, la certitude de la faisabilité reste encore à prouver. Un des
problèmes les plus importants concerne la stationnarité du fonctionnement qui
semble difficile à contourner et nécessite le maintien du courant interne par un
important système auxiliaire. Le caractère très compact de certains composants
internes peut aussi soulever des objections de la part des exploitants.
Le stellarator, une configuration toroïdale sans courant interne, offre une solution puisque le confinement du plasma ne dépend que de champs créés par
des aimants extérieurs. La stationnarité est inhérente à la configuration. De plus,
en principe, une certaine liberté subsiste dans le choix des paramètres géométriques. En revanche, cette configuration perd la symétrie cylindrique du Tokamak, ce qui conduit à un coût élevé pour la fabrication des bobines et à un
contrôle plus difficile du transport de l’énergie et des particules. Les machines
actuelles en service sont de plus petites dimensions que le Jet, mais elles démontrent déjà que les lois de transport ne diffèrent pas fondamentalement de
celles des Tokamaks. Au cas où il serait nécessaire de choisir cette configuration, l’expérience acquise sur les Tokamaks ne serait pas perdue pour autant car
les résultats acquis sur le chauffage du plasma, l’interaction du plasma avec les
parois, l’évacuation de l’hélium et la réduction des pertes seraient rapidement
transposés aux stellarators.
Les travaux sur le confinement inertiel n’ont pas encore débouché sur une
machine extrapolable jusqu’au réacteur. Le rayonnement laser remplit les conditions de souplesse et de précision demandées par l’implosion d’une cible, mais
le taux de répétition comme le rendement ont d’énormes progrès à accomplir.
Les accélérateurs d’ions lourds pourraient prendre le relais, mais il n’existe encore aucune donnée expérimentale permettant de jauger leurs capacités réelles.
Ils présenteraient l’avantage de n’avoir aucun des deux handicaps des lasers.
Mais, ils manquent de souplesse, de précision et nécessitent un investissement
financier très important.
Aussi, les réflexions actuelles sur les prototypes de réacteurs industriels sont
plutôt conçues avec un laser comme source d’énergie pour le confinement inertiel, ce qui implique des développements importants sur des nouvelles générations de lasers (solide pompés par diodes, lasers UV).
Une variante récente et innovante du confinement inertiel consiste à utiliser
deux types de laser, l’un pour comprimer la matière, l’autre, très intense dans
le domaine des petawatts, pour créer le point chaud en fin de compression
(chapitre 4). L’étude de l’efficacité de cette méthode et sa mise en applications
impliquent l’exploration de phénomènes qui certes peuvent se produire dans
l’Univers, mais dont l’accessibilité enfin possible en laboratoire ouvre un tout
16
LA
FUSION NUCLÉAIRE
nouveau domaine de la physique des plasmas. L’avantage essentiel de la nouvelle méthode réside dans la dissociation totale de la compression et du chauffage. Dans la méthode traditionnelle, le point chaud se forme au centre de la
cible et le laser doit assurer simultanément la compression du combustible cryogénique en créant le minimum d’entropie et le chauffage du point central à des
températures de l’ordre de cinquante millions de degrés.
La faisabilité de ce nouveau schéma, baptisé ignition rapide, attend encore une démonstration probante. Plusieurs solutions se présentent aujourd’hui :
toutes s’appuient sur un laser de haute énergie et de très forte puissance, dans
la gamme des petawatts, chargé de délivrer en un temps très court l’énergie
nécessaire pour porter une petite région de la cible comprimée à la bonne température, avant qu’elle ne se dissocie. Le dépôt de l’énergie dans le plasma et
le transfert de cette énergie au cœur de la cible pose des problèmes de physique des plasmas originaux qui enrichiront la discipline. En ce qui concerne
l’application à la fusion, la réussite de la méthode, en abaissant les contraintes
en énergie des lasers et en symétrie de la compression, feraient probablement
entrer le confinement inertiel dans le domaine des solutions crédibles pour la
production d’énergie.
7
Organisation de la recherche en fusion : aspects
nationaux, européens et internationaux
7.1 La recherche de base
La fusion, comme toute grande avancée technologique, fera appel à un grand
nombre de domaines de la physique et de la technique. La physique nucléaire
fournira ses méthodes de détection spécifiques et ses outils d’interprétation, l’hydrodynamique interviendra aussi bien dans compréhension des mouvements du
plasma que dans les écoulements des fluides extracteurs et caloporteurs, la physicochimie des surfaces permettra de mieux assurer la coexistence du plasma
et des parois, la métallurgie élaborera des matériaux résistants aux neutrons,
l’optique apportera ses diagnostiques et ses lasers (chapitre 5). L’électrotechnique dominera la conception et le pilotage des machines ; dans les bobinages
supraconducteurs et les cibles laser, la cryogénie cohabitera avec les millions de
degrés ; le génie nucléaire jouera son rôle comme il doit le faire dans une telle
installation ; la robotique sera partout présente.
Mais la physique des plasmas chauds restera encore longtemps au cœur du
problème et ses avancées éclaireront les phénomènes complexes qui se produisent dans les plasmas thermonucléaires (chapitres 3 et 4). Les instabilités, la
A NALYSE ET
RECOMMANDATIONS
17
turbulence et le transport associé ont fait de grand progrès, mais ils sont loin
d’être véritablement compris, d’autant que les régimes explorés par Iter et le
LMJ relèvent d’une physique originale qui ne se réduit pas à la mécanique des
fluides, suffisante le plus souvent jusqu’à présent. Dans ces futures machines,
l’assimilation du plasma à un fluide conducteur ne permet plus de prendre en
compte correctement l’évolution du milieu. Bien que les mouvements apparents
soient macroscopiques, il est nécessaire de décrire les orbites des particules individuelles dans les champs imposés de l’extérieur ou générés par le plasma
lui-même. Il s’agit là d’un programme scientifique de grande ampleur. Cette
thématique est à l’interface entre plusieurs communautés, notamment les mathématiques appliquées, l’astrophysique et la physique des plasmas de fusion. La
modélisation de cette turbulence requiert un effort vigoureux dans le domaine
des simulations numériques. Mais le seul calcul numérique ne suffira pas pour
résoudre tous les problèmes, car les ordinateurs actuels ne parviennent pas encore à décrire ces situations ab initio, et, même s’ils y parvenaient, ils seraient
incapables de proposer des améliorations et de forger de nouveaux concepts.
Les théoriciens des plasmas doivent aussi avoir une place importante dans la
fusion, afin d’assurer une production scientifique de qualité autour de ces installations coûteuses et afin de centrer les recherches sur les aspects les plus profonds
et les plus universels.
7.2 L’organisation de la recherche sur le confinement
magnétique
7.2.1 Le contexte européen
L’activité de recherche européenne en fusion par confinement magnétique
est fortement intégrée, notamment via une structure en associations entre laboratoires nationaux et l’Euratom. Il n’y a pas de programme national au sens
strict du terme mais un programme européen exécuté par un ensemble d’instituts qui s’engagent contractuellement avec l’Euratom. Les différentes parties du
programme sont complémentaires : au Jet l’étude des performances, à Tore Supra la physique et la technologie du fonctionnement en continu. Les grandes
lignes programmatiques, le budget et l’exécution des travaux des instituts associés (communément appelés associations pour la fusion) sont contrôlés par
un Comité de gestion mixte comprenant quatre membres de la Commission et
quatre membres du laboratoire de recherches. Il y a actuellement plus de vingt
instituts de recherches impliqués dans le programme Fusion européen. Tous les
grands pays de l’Union européenne et la Suisse ont signé des contrats d’associations. En France, le CEA est le dépositaire de ce contrat et a donc la charge
de la coordination des activités françaises (signature du contrat Euratom dès
1958).
18
LA
FUSION NUCLÉAIRE
7.2.2 Le contexte hors Europe
Pour les collaborations hors Europe, l’Euratom élabore des accords de coopération bilatéraux qui sont les canaux privilégiés pour les associations impliquées
dans le programme fusion européen et les instituts de recherches hors Europe.
En particulier, elle a établi des collaborations globales dans le cadre de l’AIEA
(Agence internationale de l’énergie atomique) ou de l’AIE (Agence internationale de l’énergie).
L’AIEA a très tôt favorisé les échanges dans le domaine de la fusion. Ainsi,
le développement d’un réacteur thermonucléaire a débuté sous les auspices de
l’AIEA en 1978 sous le nom d’Intor (International Toroidal Reactor) et c’est tout
naturellement que l’AIEA fournit le cadre légal nécessaire au développement
d’Iter de 1988 à nos jours. Le développement de la base internationale de données du confinement des Tokamaks, capitale pour les extrapolations des futures
machines et d’Iter en particulier, se déroule aussi dans ce cadre (International
Tokamak Physics Activity).
Un comité de recherche, l’International Fusion Research Council (IFRC) est
chargé de conseiller le directeur de l’AIEA sur les programmes et collaborations
que l’AIEA peut soutenir. Les collaborations sont formalisées sous la forme de
« Coordinated Research Projects, CRPs ».
L’AIEA organise annuellement une série de réunions techniques sur des sujets
précis et tous les deux ans une conférence regroupant près de 600 chercheurs
(AIEA Fusion Energy Conference). L’AIEA est aussi responsable de la publication du journal « Nuclear Fusion » couvrant les travaux menés pour la fusion
magnétique et inertielle.
L’AIE procure un autre cadre pour le support des collaborations internationales. Elles sont formalisées par l’émission d’un « Implementing Agreement »
contractualisant les relations entre au moins deux membres de l’AIE. Un comité spécifique, Committee on Energy Research and Technology (CERT) valide
ces collaborations, réparties en cinq principaux programmes : combustibles fossiles, énergies renouvelables et la production d’hydrogène, l’utilisation finale de
l’énergie, la fusion, les sources d’informations sur l’énergie.
7.2.3 Organisation en France
Le CEA conduit des recherches sur la fusion contrôlée par confinement magnétique pratiquement depuis sa création. Ces études se réalisent dans le cadre
de l’association Euratom-CEA dont la gestion est confiée au Département de
recherches sur la fusion contrôlée (DRFC), qui fait partie de la Direction des
A NALYSE ET
RECOMMANDATIONS
19
sciences de la matière (DSM) du CEA. À ce titre, le DRFC fait office de point
d’entrée français au programme Euratom sur la fusion magnétique et assure
vis-à-vis de la Commission, la gestion, la coordination et la responsabilité des
études qui sont confiées à l’association. Les activités scientifiques de l’association consistent principalement à exploiter le Tokamak Tore Supra (Cadarache),
à participer à l’ensemble du programme européen sur la fusion, notamment
l’exploitation du Tokamak européen Jet (Joint European Torus) ainsi que les développements des technologies nécessaires aux prochaines machines de fusion,
et à préparer la venue d’Iter à Cadarache. Ces activités scientifiques intègrent
des contributions d’autres laboratoires (CEA mais aussi CNRS, universités, industries) sur une thématique large, qui inclut notamment les questions liées à
la physique des plasmas de fusion, aux matériaux, aux aimants supraconducteurs, à la sûreté, à la conception et à la maintenance des futures installations
de fusion. Ces activités se prolongent au travers de collaborations avec des laboratoires étrangers et nationaux, dans le cadre des institutions (Europe et hors
Europe).
Comme la plupart des départements du CEA, le DRFC réunit dans un même
lieu ingénieurs et physiciens. Cette structure permet de couvrir un spectre d’activités très large qui recouvre la technologie des Tokamaks, le développement de
diagnostics, et la physique des plasmas de fusion. Cette spécificité est un atout
indéniable pour l’accueil d’Iter à Cadarache.
L’Association Euratom-CEA participe activement à l’ensemble du programme
européen et est en particulier très impliquée dans l’exploitation du Tokamak
européen Jet, situé à Culham (Royaume-Uni). L’Association Euratom-CEA contribue aussi fortement aux développements des technologies nécessaires aux futures machines de fusion. Les contributions de l’association Euratom-CEA représentent environ 20 % de l’activité européenne dans ce secteur et couvrent en
particulier le domaine des grandes bobines supraconductrices, des composants
faisant face au plasma (tenue aux flux de chaleur), des matériaux de structure
(tenue aux neutrons de 14 MeV), de la maintenance robotisée, de la sûreté,
des composants produisant in situ le tritium. Ces contributions sont en majorité effectuées via des collaborations contractualisées avec des laboratoires hors
DRFC comme des départements du CEA ou l’industrie. À ce titre, l’apport et l’intégration des compétences (nucléaires et hors nucléaires) des départements du
CEA confèrent à l’Association Euratom-CEA la caractéristique unique en Europe
de pouvoir appréhender dans sa globalité les thématiques posées par la fusion
magnétique. Les collaborations entre l’association Euratom-CEA, le CNRS et les
universités sont structurées autour de laboratoires de recherche conventionnés
(LRC) et de cinq axes majeurs de recherches : théorie (gyrocinétique, transport,
équilibre), études expérimentales (turbulence de centre et de bord), interaction
plasma-paroi, physique atomique, et ondes. Les LRC et les contrats EuratomCEA correspondent à 37 chercheurs et ingénieurs permanents impliqués, dans
20
LA
FUSION NUCLÉAIRE
l’activité Fusion/Énergie pour l’année 2003. Cet effectif augmentera en 2005
d’une quinzaine de chercheurs travaillant sur les questions de matériaux. Enfin
une dizaine de physiciens travaillent sur des questions de physique amont.
7.2.4 Organisation de l’enseignement
Une évaluation des besoins pour Iter et du programme d’accompagnement
indique que la France devrait fournir de l’ordre de 500 ingénieurs et physiciens
sur dix ans. Compte tenu des 225 experts existants et des départs en retraite
prévisibles, la formation et le recrutement de 250 à 300 ingénieurs et physiciens
des plasmas dans les dix ans à venir semble être une estimation raisonnable.
La formation de 300 ingénieurs et physiciens des plasmas sur dix ans pourrait
passer par la création conjointe par les établissements d’enseignement supérieur
disposant des compétences plasma d’une nouvelle spécialité « science de la
fusion ». Cette fédération des formations aux sciences de la fusion intégrerait
de façon cohérente les besoins de la fusion inertielle et magnétique. Il a donc
été proposé de créer un master national « sciences de la fusion », couvrant
l’ensemble des aspects de physique et de technologie en fusion magnétique et
inertielle. Ce master serait implanté sur quatre sites universitaires (Aix-Marseille,
Bordeaux, Paris, Nancy), et piloté conjointement pas les universités locales et
l’Institut national des sciences et techniques nucléaires (INSTN). Cette initiative
a par ailleurs reçu le soutien de plusieurs écoles d’ingénieurs. Un master a été
créé le 17 mai 2006. Ce master pourrait s’intégrer dans une structure plus
large de master européen, qui est en cours de discussion. L’encadrement de ce
master combiné à l’effort de recherche nécessaire requiert un effectif en France
d’environ 35 à 40 enseignants-chercheurs spécialisés.
La formation d’ingénieurs et technologues passe par une sensibilisation des
écoles d’ingénieurs à la thématique fusion. Par ailleurs, la création d’un master
piloté conjointement par l’Institut national des sciences et techniques nucléaires
(INSTN) et l’Université permettrait de former des experts aux technologies associées à la fusion (supraconducteurs, électrotechnique, chauffages radiofréquence, matériaux, techniques nucléaires, . . .)
7.2.5 Organisation de la communauté scientifique
Le développement d’un projet de l’envergure d’Iter, suppose l’appui et le
renforcement des contributions de type amont. Les problèmes soulevés par les
grands instruments que sont les Tokamaks sont fortement pluridisciplinaires. Ils
requièrent autant de développements de haute technologie que d’études de physique fondamentale, dans lesquelles la communauté académique a toute sa
A NALYSE ET
RECOMMANDATIONS
21
place. La participation active du CNRS au projet Iter implique une augmentation
notable de l’effort de l’organisme, en synergie avec le CEA, porteur du projet
au niveau national. La création d’une structure nationale permettrait de mieux
intégrer l’organisation collective de l’activité de recherche et de formation. Elle
viserait à garantir la cohérence de la politique de recherche, la synergie entre
les différents partenaires. S’appuyant sur les politiques scientifiques propres de
chacune des unités et leurs spécificités, elle donnerait à l’ensemble des laboratoires un poids et une visibilité significative au niveau international dans le projet
Iter.
Cette structure nationale pourrait prendre la forme d’une fédération de recherche s’appuyant sur les laboratoires de recherche conventionnés. Elle pourrait prendre appui sur une unité mixte de recherche axée sur les aspects amonts
et localisée à proximité d’Iter. La fonction principale de cette structure fédérative
serait d’organiser la participation française à l’exploitation scientifique d’Iter8
D’autres équipes, déjà sous contrat Euratom-CEA ou intéressées par les thématiques développées, pourraient être associées. L’activité de la fédération autour
des projets bénéficiant des financements Euratom serait pilotée par un conseil
scientifique représenté au comité de gestion de l’association avec Euratom. Ce
conseil assurerait la coordination scientifique, favorisant les collaborations, le
relais des appels d’offre et la préparation des projets nouveaux dans le cadre
international. La sélection des projets et l’évaluation seraient également assurées
par le conseil, assisté d’experts.
Cette structure fédérative vise aussi à promouvoir les activités des différents
groupes et élargir la communauté. Elle aurait aussi pour mission de coordonner
et susciter les actions de formation. Elle permettrait aussi la valorisation de Tore
Supra et du parc de petites machines existant des laboratoires de l’Université ou
du CNRS. Des installations de taille raisonnable doivent être maintenues autour
d’Iter, tant dans le but de formation que pour faire progresser la physique de
base et la mise au point des diagnostics.9
La part CNRS/Université de l’activité de recherche amont pourrait d’autre
part bénéficier du soutien d’actions concertées du ministère de la Recherche, de
l’ANR et du CNRS et participer aux programmes interdisciplinaires, comme le
programme Énergie du CNRS. Un groupe d’analyse thématique (GAT) effectue
depuis 2002 dans ce cadre une mission d’analyse et d’expertise. Des projets de
8 Cette
structure serait similaire à l’organisation mise en place pour l’exploitation du projet Laser
Mégajoule : une fédération de laboratoires (Institut laser plasma) s’appuyant sur une UMR créée à
Bordeaux (Celia).
9 Une réflexion s’est engagée autour des moyens expérimentaux qui permettraient une approche
globale des problèmes de la physique du plasma chaud confiné (MHD, turbulence et transport,
interaction plasma-paroi et physique du divertor, spectroscopie, nouveaux diagnostics, . . .), et qui
répondent aux critères de formation, de cohérence et de pertinence du programme.
22
LA
FUSION NUCLÉAIRE
recherche pourraient être développés également dans ce cadre programmatique
à plus long terme.
Enfin, dans l’hypothèse d’une participation significative du CNRS et des universités à cette structure fédérative et à une unité mixte de recherche (UMR)
localisée près d’Iter, une structure administrative pourrait être envisagée sur la
base d’un élargissement de l’association Euratom-CEA.
L’institut fédératif devra faire face au problème du renouvellement, actuellement insuffisant, des équipes par de jeunes chercheurs. Ce problème est d’autant plus préoccupant qu’il est amplifié par le prochain départ en retraite de
nombreux chercheurs et enseignants-chercheurs.
7.3 L’organisation de la recherche pour le confinement
inertiel
Dans le domaine du confinement inertiel, la recherche s’est organisée en
s’adaptant aux conditions particulières que lui ont imposées l’histoire et la nature du sujet. Depuis l’arrêt du laser Phébus, l’Europe ne disposait plus de grand
laser de la classe demandée par la fusion. Une part importante des moyens
intellectuels et numériques restait mobilisée sur le sujet afin de dimensionner le
LMJ et de préparer son programme. Les autres chercheurs, essentiellement basés dans les laboratoires civils, ont poursuivi des études fondamentales liées à
l’interaction des lasers à haut flux avec la matière. Une remarquable moisson de
résultats très divers a démontré la richesse du domaine. Les travaux sur l’interaction laser-plasma ont connu de remarquables développements. Ils ont débouché
sur des idées nouvelles pour mettre en œuvre la fusion par confinement inertiel avec le concept d’ignition rapide déjà évoqué. Ils ont fait considérablement
progresser la compréhension de cette interaction dans les domaines d’utilisation
pour le LMJ. Initialement prévu pour régulariser la distribution de l’intensité des
faisceaux, le lissage optique a donné un outil efficace pour contrôler les instabilités liées à l’interaction. Les progrès dans l’accélération de particules chargées
par laser ultra-intense ont partie liée avec toute cette activité.
Ces recherches, distribuées dans plusieurs laboratoires et équipes, ont toutes
su développer de solides réseaux de collaborations, nationaux, européens et
internationaux. Néanmoins, jusqu’à présent, cette collaboration était opérationnelle sur des installations laser de type académique, que l’on peut classer comme
de « petits grands instruments », tel que le Luli à l’École polytechnique à Palaiseau. Le LMJ est d’une toute autre échelle pour permettre une démonstration de
l’allumage d’une cible et l’adaptation de la communauté à ces nouvelles conditions ne se fera pas sans aide. La création d’une unité mixte de recherche impliquant le CEA, le CNRS et l’université de Bordeaux, traduit la volonté manifeste
A NALYSE ET
RECOMMANDATIONS
23
de ces organismes de rapprocher les diverses communautés autour des grandes
installations en construction. Cette UMR regroupe les recherches qui concernent
la fusion par confinement inertiel à des fins civiles, participer à la construction
et la mise au point des installations ayant cet objectif et accueillir des études
sur les retombées concernant d’autres domaines de la science. Par sa proximité
du site, elle jouera également le rôle de point d’entrée préférentielle pour les
équipes d’utilisateurs venant effectuer leurs expériences sur ces dispositifs.
En effet, programme de la défense, le LMJ va être ouvert au civil comme
réaffirmé par exemple par le comité interministériel d’aménagement du territoire
(CIADT) de décembre 2002 qui a créé le concept de Route des lasers, confirmé
par le CIADT de décembre 2003 avec la décision de construction d’un laser
petawatt10 sur la Ligne d’intégration laser (ou LIL11 , prototype opérationnel du
LMJ). Cette ouverture est déjà une réalité, mise en œuvre dans un premier stade
sur la ligne d’intégration laser.
La réussite de l’ouverture scientifique du LMJ repose sur la création d’une
communauté, motivée par les recherches sur la fusion à des fins civiles, utilisant
les lasers et prête à s’investir dans ces programmes. La situation aujourd’hui présente des éléments encourageants, comme les créations de l’UMR de Bordeaux
et de l’Institut laser et plasma, le soutien des pouvoirs publics ou l’intérêt international pour ces projets, mais il subsiste des difficultés préoccupantes comme
la faiblesse numérique de la communauté impliquée, l’absence d’un dessein
affiché au niveau du gouvernement, et les incertitudes liées aux questions de
classification.
7.3.1 L’Institut laser et plasmas (ILP)
Créé en mars 2003, l’Institut laser et plasmas (ILP) regroupe la communauté
scientifique travaillant dans ces domaines. Il a pour mission d’élaborer un programme scientifique et technologique associé à une vision vers la fusion pour
l’énergie, en s’appuyant sur l’UMR récemment créée à Bordeaux. Il doit mobiliser des compétences adossées sur une recherche amont pour le LMJ et couplées
aux installations lasers du milieu académique : étude des états extrêmes de la
matière à haute température et densité, de la physique stellaire, applications des
jets de particules relativistes engendrées dans l’interaction laser-matière, etc.
10 Le
laser petawatt délivrera une puissance crête supérieure à 1015 watts (un petawatt). Il devrait
générer une impulsion de 3,5 kJ en 10−12 seconde.
11 La LIL, formée de quatre faisceaux colinéaires est le laser le plus énergétique d’Europe. Il
délivre 40 kJ dans l’UV en une dizaine de nanosecondes. En prenant le nom d’Octalil, il devrait voir
le nombre de ses faisceaux doubler vers 2009 et les huit faisceaux éclater suivant une géométrie
permettant la compression d’une cible. Le laser petawatt pourra alors se coupler à Octalil pour
étudier l’ignition rapide.
24
LA
FUSION NUCLÉAIRE
Cette organisation nationale rassemble près de 30 laboratoires et 250 scientifiques en France, sous la forme d’une fédération de recherche reconnue par
le CNRS, le CEA, l’École polytechnique et l’université Bordeaux 1. Elle possède
déjà une certaine visibilité internationale (appel d’offres international pour l’accès à des expériences sur la LIL en 2006, comité international pour la sélection
des projets, organisation et présidence des grandes conférences du sujet). Elle
accorde une aide pour concevoir, défendre et mener des projets complexes pour
répondre à l’appel d’offres LIL 2006. Outre une politique de formation en liaison avec les formations pour Iter, elle assure la diffusion de la connaissance vers
le grand public, en organisant des enseignements autour de thématiques telles
que l’énergie, l’environnement, le développement durable... Une telle information largement diffusée sur les grands projets devrait ainsi attirer plus de jeunes
vers des disciplines scientifiques où l’on convient que la taille de la communauté
scientifique est sous-critique.
7.3.2 Le support des pouvoirs publics
L’État, des organismes et des établissements assurent en principe le financement et la pérennité de ce programme. Les décisions du CIADT de décembre
2002, prévoient des financements dédiés à la construction d’un bâtiment de
l’ILP et à la construction du laser petawatt couplé à la LIL. La Région Aquitaine a
financé des pré-études sur le laser petawatt et s’est portée maître d’ouvrage de
sa construction avec un financement permettant de lancer la première phase du
projet. Le CEA met à disposition du temps d’utilisation de la LIL pour la communauté académique dès 2005. Il est maître d’œuvre de la construction du laser
petawatt qu’il réalise en partie avec des équipements identiques à ceux du LMJ
et s’est engagé à financer son maintien en condition opérationnelle. L’université
Bordeaux 1, membre fondateur de l’ILP, appuie les projets d’accompagnement
de l’ouverture du LMJ par des recrutements fléchés « laser et fusion », par des
actions fortes de recherche, de formation et le soutien aux infrastructures. L’ensemble de ces soutiens, s’ils perdurent, assoit l’Institut dans une position stable
et manifeste l’intérêt soulevé par ces recherches dans des milieux scientifiques et
techniques qui débordent largement le seul cadre de la fusion.
7.3.3 L’organisation internationale
Au plan international, deux organismes se sont intéressés depuis la fin des années cinquante à la fusion inertielle comme source d’énergie civile, mais aucune
coopération internationale, comme celle qui existe dans le domaine magnétique,
n’a été mise en place.
A NALYSE ET
RECOMMANDATIONS
25
D’une part, l’AIEA, sous la direction de l’International Fusion Research Council, a mené un programme d’échange d’informations sur les recherches autour
de la production d’énergie par fusion inertielle (IFE). D’autre part, en 1998, un
rapport, préparé à la demande du Comité consultatif pour le Programme Fusion
de la Communauté européenne, montrait que le niveau global de compétences
de l’Europe dans le domaine de la fusion inertielle était comparable à celui des
États-Unis et qu’il était essentiel de se préparer par une concertation accrue à
la démonstration en France, de la combustion du DT en laboratoire. Toutefois,
dans ce domaine, la Communauté européenne se limite à une activité de veille
technologique.
S’il est désormais reconnu qu’il est de l’intérêt de la France d’ouvrir les installations LIL et LMJ aux activités scientifiques civiles, il est tout aussi clair que le
volet défense de l’activité FCI a été un frein à la collaboration scientifique internationale. Ceci est vrai, à la fois du côté des responsables des équipements de la
défense pour qui les inconvénients l’emportaient sur les avantages, et du côté des
scientifiques pour des raisons idéologiques compréhensibles et parfaitement respectables. Néanmoins, un projet européen d’une feuille de route vers la fusion
inertielle par allumage rapide est en discussion actuellement, sous l’égide des
physiciens anglais du Rutherford Appleton Laboratory. Dans ce contexte il est
fondamental que la France convainque la communauté scientifique européenne
de sa volonté irrévocable d’ouverture scientifique sans lien avec les activités de
défense et avec une disponibilité suffisante des installations. L’ILP, structure purement académique, a été créé à cet effet, pour être le canal exclusif de l’ouverture
civile. Une charte signée entre l’ILP et le CEA, et accessible sur le Web, définit les
droits et devoirs des utilisateurs. Ainsi, un appel d’offres à projets sur la LIL pour
l’année 2006 a été publié dans la presse scientifique internationale, dans le numéro de Physics Today de mai 2005. L’ouverture internationale se fera donc par
étapes à partir de la réalisation des premières collaborations expérimentales sur
la LIL.
Conclusions et propositions
Aboutissement de quarante ans de recherche en confinement magnétique,
fruit d’une coopération internationale et européenne exceptionnelle, Iter est un
jalon scientifique et technique décisif vers l’exploitation de l’énergie de fusion.
Le maintien d’une collaboration internationale la plus large possible fait partie
des conditions indispensables à remplir pour assurer une qualité scientifique et
technique à la hauteur des enjeux et au niveau de celle qui a conduit aux succès
du passé, élargir le recrutement des personnels à une communauté suffisamment
étendue et alléger la charge financière pour chacune des parties impliquées.
26
LA
FUSION NUCLÉAIRE
La contribution française à l’exploitation scientifique de la machine devrait
être préparée dès aujourd’hui en constituant un pôle scientifique « fusion magnétique » regroupant les efforts des organismes publics de recherche (physique
et technologie) et en organisant les enseignements nécessaires à la formation
des chercheurs, ingénieurs et techniciens indispensables à la réussite de ce programme. Dans ce contexte, il parait nécessaire de maintenir Tore Supra en activité comme base d’un programme d’accompagnement pour préparer la mise
en service de la nouvelle machine.
Au niveau européen, la coordination qui a permis de placer l’Europe en tête
des recherches sur la fusion par confinement magnétique doit être maintenue.
Toutefois, il semble souhaitable d’assurer la dualité entre recherche et conduite
de projet. Le renforcement des efforts de modélisation, dans un cadre européen
est indispensable pour atteindre le niveau des USA et du Japon afin d’accompagner la démarche théorique qui doit elle-même être stimulée et encouragée dans
le domaine de la turbulence et des instabilités en phase non linéaire. Cette démarche implique l’existence de moyens de calculs disposant d’une puissance et
d’une disponibilité suffisantes, ainsi que la formation et le recrutement de chercheurs dans ces domaines afin que se forme en Europe une communauté de la
modélisation « fusion », à la hauteur des enjeux et qui devrait être, en qualité et
en volume, équivalente à celle des États-Unis ou du Japon.
En ce qui concerne les matériaux pour le réacteur, dans un premier temps,
la simulation et la théorie devraient également être encouragées et organisées
au niveau européen, en attendant des moyens expérimentaux dans le cadre de
la collaboration internationale IFMIF (International Fusion Material Irradiation
Facility). Les compétences de la communauté des matériaux pour la fission nucléaire devraient être fortement sollicitées. Il semble important de la rassembler
dans une structure de projet, chargée du développement des matériaux résistants aux neutrons rapides. Il faut rappeler que la mise au point d’un matériau
est toujours une affaire longue (15 à 20 ans), a fortiori dans le cas de la fusion
où on se trouve dans des conditions inédites par la valeur élevée du rapport
entre le taux de production d’hélium insoluble et le taux de production de défauts ponctuels par irradiation. Cependant, des progrès rapides sont attendus
en matière de modélisation prédictive du comportement des matériaux dans ces
conditions de fonctionnement tout à fait nouvelles.
La coordination de l’ensemble du programme fusion par confinement magnétique pourrait être efficacement développée dans un cadre international en
s’appuyant sur deux pôles : Iter et l’exploitation commune des grands moyens
expérimentaux.
A NALYSE ET
RECOMMANDATIONS
27
Pour la fusion par confinement inertiel, l’étape ultime de la démonstration de
faisabilité de la FCI, en réalisant la combustion du DT en laboratoire, est en
cours.
Le contexte purement national du confinement inertiel a facilité la mise en
place de structures efficaces de collaboration entre le CEA et les organismes de
recherche civile. Cette situation doit être maintenue et encouragée. Elle constitue une expérience à laquelle la communauté de la fusion magnétique pourrait
s’intéresser dans le cadre de la création du pôle scientifique mentionné précédemment. Il peut en résulter un rapprochement des deux communautés sur des
questions communes comme l’enseignement, la conception du réacteur et les
matériaux.
L’ouverture des installations LIL (et d’un laser petawatt qui lui sera couplé) et
bientôt LMJ, constitue une opportunité unique pour la recherche, à la fois dans
le domaine fondamental de la connaissance de la matière portée à des conditions extrêmes, pour des travaux prospectifs sur l’énergie et pour réaliser des
diagnostics de plasmas en commun. Il est essentiel que cette volonté d’ouverture de la France, concrétisée par la création de l’ILP, bénéficie d’une promotion
internationale importante. Par ailleurs, une concertation européenne dans le domaine de l’énergie par confinement inertiel apparaît maintenant pertinente ; il
serait souhaitable en particulier de mener une réflexion sur la conception d’un
réacteur viable et sur les actions à entreprendre pour progresser dans ce sens.
Finalement, il faut souligner la nécessité de créer un nouveau programme de
formation aux sciences de la fusion, destiné aux scientifiques et aux techniciens
qui seront amenés à exploiter, dans moins d’une dizaine d’années, Iter et le LMJ,
deux complexes de recherche d’une envergure sans précédent que la France a
entrepris de construire sur son sol.
Chapitre 1 – La filière Tokamak et la machine Iter
Chapitre 2 – La fusion par confinement inertiel
Chapitre 3 – Les plasmas chauds magnétisés
Chapitre 4 – Interaction laser-plasma et laser petawatt
Chapitre 5 – La physique atomique pour la fusion
Chapitre 6 – La simulation numérique
Chapitre 7 – Interaction plasma-paroi
Chapitre 8 – Les matériaux pour la fusion
Chapitre 9 – Les études de sûreté
Chapitre 10 – La fusion par confinement inertiel et l’astrophysique
CHAPITRE
1
La filière Tokamak
et la machine Iter
ROBERT AYMAR ET GUY LAVAL
LA
FILIÈRE
T OKAMAK ET
LA MACHINE I TER
31
Pour pouvoir produire de l’énergie à partir des réactions de fusion entre des
noyaux de deutérium et des noyaux de tritium, la température du mélange doit
dépasser cent millions de degrés et la densité des particules doit être suffisamment élevée (n ≈ 1020 p/m3 ). Pour réaliser ces conditions physiques de manière
contrôlée et permanente, il reste à trouver une solution assurant une isolation
thermique suffisante du gaz chaud pour que les particules ne perdent pas trop
d’énergie avant de réagir. Le confinement magnétique des plasmas donne une
solution à ce problème inhabituel. Il utilise la forte interaction qui se développe
entre le gaz et un champ magnétique à ces énormes températures. En effet,
dans de telles conditions, les électrons sont arrachés des noyaux par les collisions entre les particules, et le gaz ne contient plus que des particules chargées
libres. Les électrons et les noyaux portent des charges de signes opposés de
telle sorte que le milieu reste neutre en moyenne : le gaz est devenu un plasma,
par définition. Un champ magnétique ou un champ électrique se couplent à ces
particules chargées en exerçant des forces sur ce plasma.
La liberté retrouvée des électrons permet au plasma de conduire facilement
l’électricité et donc de porter un courant. Plongé dans un champ magnétique,
le plasma pourra alors subir une force distribuée dans tout son volume et capable d’équilibrer la pression du gaz ionisé. C’est le principe du confinement
magnétique des plasmas. L’idée la plus simple consiste à imaginer un plasma
en forme d’anneau et parcouru par un courant, entouré par une coque conductrice de même forme. Malheureusement, la configuration est instable, le plasma
est soumis à des mouvements désordonnés et son confinement est détruit. Pour
la stabiliser, il faut ajouter un champ magnétique supplémentaire, généré par
une série de bobines régulièrement réparties le long de l’anneau de plasma. La
stabilité demande que ce champ additionnel domine en intensité celui qui est
généré par le courant du plasma. Quelques bobines coaxiales avec l’anneau
permettent de changer la forme de sa section en contrôlant la limite définissant
le plasma chaud, à une certaine distance des parois de l’enceinte. La configuration Tokamak part de ces principes simples.
Pour porter le plasma ainsi piégé à la température convenant à la fusion, des
sources de rayonnement ou de particules injectent de l’énergie qui se transforme
en chaleur dans le milieu. Pour que l’équilibre obtenu soit compatible avec la
forme et les dimensions de l’enceinte, les champs des bobinages et celui créé
par le courant du plasma doivent remplir des conditions qui se traduisent grossièrement par une valeur déterminée du rapport entre ces deux composantes
au bord du plasma. Une configuration magnétique n’assure pas le confinement
d’un plasma de n’importe quelle pression. Elle impose une limite supérieure
au rapport entre la pression cinétique du plasma et la densité d’énergie magnétique et cette limite dépend du courant dans le plasma et de la géométrie
choisie. Toutes ces contraintes réduisent considérablement la liberté de choix
pour les paramètres définissant un Tokamak. Ainsi s’expliquent les analogies
32
LA
FUSION NUCLÉAIRE
de comportement observées dans les différentes machines de tailles diverses et
utilisant les mêmes concepts, construites dans le monde entier au fil des années.
Malheureusement, les performances d’un Tokamak ne peuvent pas se déterminer seulement à partir de ces considérations simples. Elles permettent seulement d’assurer l’existence d’un équilibre macroscopique et d’éviter les instabilités les plus destructrices. Il n’existe pas de moyen, aujourd’hui, permettant de
stabiliser le plasma à toutes les échelles de temps et de longueur. Ces instabilités
résiduelles maintiennent l’existence de champs électromagnétiques turbulents,
avec des fluctuations dont l’amplitude reste assez faible pour être tolérable, mais
qui déterminent le transport des particules à travers la configuration magnétique
et, donc, la vitesse à laquelle le plasma s’échappe du volume de confinement.
Cette vitesse conditionne le bilan énergétique de la configuration et sa détermination constitue le premier objectif poursuivi dans les recherches sur la fusion
par confinement magnétique. Devant l’impossibilité d’un calcul a priori, la similarité des régimes de fonctionnement dans les différentes machines a permis
d’établir des lois empiriques en rassemblant l’ensemble des résultats. Leur extrapolation guide la conception des machines nouvelles et permet des prédictions
sur leurs performances mais elles n’autorisent que des sauts d’amplitude relativement faibles et ne peuvent prédire les changements de régimes de fonctionnement. Par exemple, les premières lois avaient été établies pour des puissances
de chauffage faibles et n’ont pas permis de prévoir un important changement
de régime au-delà d’un seuil qui s’est manifesté en effectuant des études systématiques sur un Tokamak de taille moyenne, la machine Asdex. Plus récemment,
les expériences sur plusieurs machines ont mis en évidence d’autres régimes de
confinement amélioré en effectuant un contrôle fin de la distribution du courant
dans le plasma. Là encore, l’absence d’un modèle entièrement calculable rend
difficile l’évaluation des gains espérés de tels effets. Ces limites à l’extrapolation
justifient la construction d’une expérience où il soit possible de juger de la valeur
réelle de ces progrès dans des conditions jugées directement transposables à un
réacteur. C’est la motivation principale qui a conduit à la décision de construire
la machine Iter.
1
La machine Iter
La configuration Tokamak se définit par le grand rayon R et le petit rayon
a du tore de plasma, le courant électrique I circulant dans le plasma, la valeur
du champ magnétique additionnel stabilisateur B. Il faut y ajouter la densité
n et la température T du plasma ainsi que les données géométriques définissant la forme du tore, lorsqu’il n’est pas à section circulaire. Ainsi, pour Iter, la
LA
FILIÈRE
T OKAMAK ET
LA MACHINE I TER
33
configuration nominale correspond à : R = 6,2 m, a = 2,0 m, I = 15 à 17 millions d’ampères, B = 5,3 Teslas, forme allongée avec une élongation verticale
de 1,84. La température du plasma avoisine les 20 keV (200 millions de degrés
environ) mais la densité ne dépasse pas 1020 particules par m3 , soit un cent
millième de la densité de l’air à la pression atmosphérique. La pression reste
modérée, de l’ordre de quelques atmosphères.
Dix-huit bobines supraconductrices génèrent le champ magnétique de stabilisation dans une enceinte à vide torique où les 837 m3 de plasma restent en
équilibre, éloignés des parois, et sont chauffés par différentes sources d’énergie
qui injectent 73 MW sous forme de particules ou de rayonnement électromagnétique. D’autres circuits créent les champs magnétiques auxiliaires nécessaires
pour donner à la section du plasma la forme désirée. L’ensemble du Tokamak
est enfermé à l’intérieur d’un cryostat contenant des écrans, refroidis à 80 K,
entre les éléments chauds et les aimants supraconducteurs maintenus à 4,5 K.
La machine tient dans un cylindre de 28 m de diamètre et 24 m de hauteur.
Le plasma restera isolé des parois grâce à une installation, appelée divertor. Elle assure l’évacuation vers l’extérieur des ions et des électrons qui franchissent une surface torique déterminée, définissant le bord du plasma. Le profil
du champ magnétique assure le guidage de ces particules vers une chambre,
située dans la partie inférieure de la machine, où elles subissent un refroidissement radiatif avant une collecte sur des plaques métalliques qui les neutralisent
et permettent de les évacuer par pompage. Le divertor concentre ainsi le contact
direct entre les parois et le plasma chaud assez loin du bord du plasma, au prix
d’une contrainte thermique très forte sur les plaques. Le refroidissement radiatif
préalable du plasma permettra de limiter le flux de chaleur sur les plaques audessous de la limite supportable de 10 MW/m2 . La mise au point de ce divertor
conditionnera l’évolution de ces configurations vers de futurs réacteurs et fait
partie des enjeux majeurs d’Iter.
2
Objectif nominal
Le déroulement d’une expérience peut suivre plusieurs scénarios selon l’objectif poursuivi. La validation du Tokamak comme voie vers le réacteur fixe le
but final d’Iter : optimiser la configuration de l’étape suivante sur le chemin menant à l’exploitation de la fusion comme source d’énergie industrielle. Mais la
recherche des conditions qui s’en rapprochent le mieux s’effectuera avec une
certaine progressivité. Pendant les phases de mise au point, Iter fonctionnera
avec de l’hydrogène, puis avec du deutérium. Dans ce dernier cas, les quelques
neutrons produits serviront de diagnostic. Une fois la machine bien prise en
34
LA
FUSION NUCLÉAIRE
main, l’effort se concentrera sur le premier objectif proposé par l’équipe de
conception et accepté par les pays partenaires :
« Le dispositif devra réaliser la combustion dans un plasma généré par induction avec une puissance produite au moins dix fois supérieure à la puissance
du chauffage auxiliaire, dans des domaines de fonctionnement et avec une durée suffisante pour réaliser des conditions stationnaires par rapport aux temps
caractéristiques des processus gouvernant la physique du plasma. »
L’induction se réfère à la méthode utilisée pour générer le courant dans le
plasma torique. La technique correspondante imite le principe des transformateurs électriques : le courant du plasma est maintenu par la force électromotrice
obtenue en faisant varier dans le temps le flux magnétique embrassé par l’anneau de plasma. Cette méthode simple présente l’inconvénient de ne fonctionner
que sur une durée finie et ne peut convenir à un système stationnaire. Mais la
condition imposée se limite à obtenir la stationnarité par rapport à des temps
caractéristiques qui vont de quelques secondes à quelques minutes. Dans ces
conditions, l’induction convient puisqu’elle est compatible avec des décharges
de 300 à 400 secondes, qui remplissent la condition imposée.
En revanche, la performance demandée pour la puissance produite implique un plasma de deutérium et de tritium, produisant d’importantes émissions de neutrons et de noyaux d’hélium énergétiques (respectivement 14 MeV
et 3,5 MeV). Le rapport 10 entre la puissance produite et la puissance injectée
donnera la preuve d’un bon confinement. Ce facteur d’amplification de l’énergie
profitera de l’apport des noyaux d’hélium de 3,5 MeV, produits par la fusion
et piégés dans la configuration magnétique. Ces particules chargées déposent
rapidement leur énergie dans le plasma et la puissance associée s’ajoute ainsi
à la puissance des systèmes de chauffage auxiliaire. L’accumulation de l’hélium,
cendre de la combustion, entraînerait une dilution néfaste du combustible et le
divertor devra donc assurer aussi son évacuation et sa séparation du combustible.
La valeur nominale de la puissance produite a été fixée à 500 MW dont
80 % sont portés par les neutrons de 14 MeV. Pendant ces expériences, les
parois faisant face au plasma recevront un flux moyen de neutrons atteignant
0,57 MW/m2 . La protection de l’enceinte à vide sera assurée grâce à un écran
modulaire de 45 cm d’épaisseur disposé entre le plasma et sa paroi interne.
Les neutrons seront ralentis et absorbés par les structures en acier et par l’eau
d’un circuit de refroidissement qui évacuera la chaleur déposée. L’irradiation
totale, pendant la vie de la machine, ne provoquera qu’une activation réduite
et ne sera pas suffisante pour altérer les propriétés mécaniques. La contrainte la
plus sévère porte sur le flux de neutrons s’échappant des écrans de protection et
LA
FILIÈRE
T OKAMAK ET
LA MACHINE I TER
35
interagissant avec les supraconducteurs. La puissance de chauffage correspondante ne devra pas dépasser 15 kW alors que, pour l’ensemble de l’installation,
le système de refroidissement devra évacuer 750 MW pendant une décharge
nominale.
Ces expériences apporteront des données importantes sur le comportement
d’un Tokamak dans les conditions d’un réacteur, puisqu’aux études sur le plasma
lui-même viendront s’ajouter le contrôle par le chauffage auxiliaire, l’alimentation en combustible et l’évacuation des cendres. Les expérimentateurs apprendront à maîtriser un plasma dont le chauffage ne dépend plus de sources
auxiliaires que pour une part minoritaire. Il est prévu d’explorer des conditions
où cette contribution du chauffage extérieur pourrait encore diminuer et même
s’annuler, ce qui permettrait d’entrer dans le domaine de l’ignition. Mais la
première investigation portera sur la validité des lois empiriques concernant le
transport de l’énergie. Elles ont permis les prévisions des performances pour
Iter ; leur vérification dans un large domaine supplémentaire servira de base au
développement à venir de la fusion par confinement magnétique.
3
Objectif avancé
Un second objectif vient compléter et élargir le domaine des investigations :
« Le dispositif devra chercher à démontrer la possibilité d’un fonctionnement en
régime permanent en utilisant une génération non inductive du courant, tout en
maintenant un rapport entre puissance produite et puissance injectée au-dessus
de cinq. »
Ce second volet du programme de recherche a un caractère plus exploratoire. Il s’appuie sur la possibilité de générer le courant en injectant des ondes
ou des particules qui transfèrent de la quantité de mouvement aux électrons.
En substituant progressivement cette méthode à l’induction, la durée des impulsions s’allongera et Iter se rapprochera d’une qualification comme configuration
possible d’un réacteur. Pour cela, il faudra démontrer qu’un fonctionnement en
régime permanent n’implique pas un dépôt d’énergie qui dégrade trop le facteur
d’amplification. On trouvera une aide précieuse dans le courant de bootstrap,
qui accompagne l’existence d’un gradient de pression dans les régimes faiblement collisionnels. Mais pour que ce courant corresponde à une fraction importante du courant total sans dégrader le confinement, il faut sortir des domaines
de fonctionnement habituels des Tokamaks où les nombreux résultats permettent
d’assurer des extrapolations fiables. Des solutions innovantes sont attendues depuis la découverte de régimes à confinement améliorés, obtenus en contrôlant
finement le profil de courant du plasma. Mais les incertitudes inhérentes à la
recherche de ces performances ont conduit à réduire les ambitions en ce qui
36
LA
FUSION NUCLÉAIRE
concerne le taux d’amplification de l’énergie dont la valeur visée ne devrait pas
néanmoins descendre au-dessous de cinq.
4
Objectif technologique
Le tritium brûlé dans Iter proviendra de stocks existants. Une décharge de
400 secondes consommera environ 0,4 gramme de tritium pour produire 2 GJ.
Mais l’extraction, la purification et la réinjection du gaz conduiront à une
circulation de 100 grammes de tritium pendant la même période. Pour les
impulsions nominales de 400 secondes, le retraitement du mélange deutériumtritium-hélium en ligne n’est pas nécessaire mais, en régime permanent (audelà de 2 000 secondes), la séparation des isotopes et leur réinjection auront
lieu en ligne. Le cycle du tritium d’un réacteur sera ainsi étudié en grandeur
réelle, à l’exception de sa génération. Toutefois, des modules tritigènes représentatifs seront inclus dans la couverture. Ils subiront une irradiation neutronique d’au moins 0,5 MW/m2 et une irradiation cumulée totale supérieure à
0,3 MWa/m2 1 , permettant ainsi une première validation des techniques envisagées. Après dix années d’expérimentation en vue d’atteindre les deux objectifs
définis plus haut, la génération du tritium pourrait devenir nécessaire, suivant
l’état des stocks disponibles, les quantités de neutrons produits et les résultats
obtenus sur les modules test de la phase précédente.
Les neutrons de 14 MeV ont une action destructrice sur les matériaux structuraux d’Iter en provoquant des déplacements d’atomes et en générant in situ
de l’hydrogène et de l’hélium. L’hydrogène diffuse dans le réseau mais l’hélium
s’accumule en petites poches (on dit qu’il précipite) qui altèrent les propriétés
physiques du matériau, en particulier sa soudabilité. Pour protéger la structure
de la chambre à vide, sa paroi interne est revêtue de modules de couverture
dont l’épaisseur de 45 cm a été calculée pour que la dose accumulée sur les
20 années de fonctionnements ne compromette jamais sa soudabilité, nécessaire en cas réparation importante. Ces conditions d’irradiation neutronique
diffèrent considérablement de celle d’un réacteur et ne constituent pas un test
significatif puisque, dans Iter, l’irradiation cumulée moyenne ne dépassera pas
0,5 MWa/m2 , alors que la première paroi d’un réacteur sera soumise en permanence à une irradiation neutronique de quelques mégawatts par m2 et les
considérations de rentabilité d’exploitation demandent une période de remplacement de l’ordre de trois à cinq années. Cette différence provient d’une part
des flux de neutrons qui, dans Iter, seront beaucoup plus faibles que dans un
réacteur et, d’autre part, du fonctionnement intermittent d’Iter, sur lequel on ne
1 1 MWa/m2 correspond à une irradiation permanente pendant un an par des neutrons de
14 MeV avec un flux incident en énergie de 1 MW/m2 .
LA
FILIÈRE
T OKAMAK ET
LA MACHINE I TER
37
prévoit que quelques dizaines de milliers de décharges dont la durée variera de
400 secondes à quelques milliers de secondes. L’irradiation dans Iter atteint cependant un niveau suffisant pour nécessiter impérativement la télémanipulation
des éléments internes et en particuliers des modules de couverture et du divertor,
qui peuvent être extraits de l’enceinte à vide et remplacés après réparation.
5
Après Iter
Les partenaires dans la construction d’Iter (Chine, Corée du Sud, Europe,
Inde, Japon, Russie et États-Unis) ont en tête une vision sommaire, plus ou moins
précise, sur le développement de la fusion après Iter et la préparation de son
exploitation économique. Officiellement, un réacteur de démonstration, appelé
Demo, devrait intégrer les enseignements de la machine Iter dans une installation préindustrielle couplée à des générateurs d’électricité et possédant toutes
les fonctionnalités d’une centrale électrique, mais sans contrainte de rentabilité.
Cette machine n’a pas encore fait l’objet d’une étude de conception détaillée.
Les résultats d’Iter conditionneront le calendrier de cette étude et détermineront
de nombreuses options techniques.
En revanche, depuis les débuts des recherches, les connaissances acquises
ont été très rapidement appliquées à des études de réacteurs sur papier, afin de
s’assurer que, malgré les contraintes scientifiques et techniques, il subsistait un
créneau où un réacteur plausible pouvait trouver place. Ces études souffraient
évidemment d’un manque de données dans certains domaines, en particulier
pour le comportement des matériaux sous irradiation, et ces tentatives ont souvent amené des contestations. Néanmoins, l’exercice2 a été récemment tenté
dans le cadre de l’European Fusion Development Agreement (EFDA), entre 1990
et 2000, avec le concours de nombreux spécialistes de l’industrie nucléaire. Les
résultats donnent une idée de la distance qu’il reste à parcourir.
Ils aboutissent à quatre propositions qui diffèrent par des hypothèses de moins
en moins conservatrices sur les performances de la technologie du divertor et des
matériaux et sur les régimes de fonctionnement. Le réacteur le moins exigeant en
progrès par rapport aux connaissances actuelles reprend simplement les hypothèses, aujourd’hui nécessairement conservatrices, utilisées pour le dessin d’Iter,
mais conduit en conséquence à un schéma probablement inacceptable par de
nombreux aspects. La centrale produit une puissance électrique de 1,55 GWe
pour une puissance de 5 GW dégagée par la fusion. Les principaux paramètres
montrent une machine beaucoup plus volumineuse qu’Iter avec R = 9,55 m,
2 Final Report of the European Fusion Power Plant Conceptual Study, April 13th 2005, EFDA-RPRE-5.0.
38
LA
FUSION NUCLÉAIRE
a = 3,17 m, élongation = 1,7, B = 7 Teslas, I = 30,5 MA dont 13,5 MA générés par bootstrap, puissance additionnelle = 246 MW, 220 millions de degrés
en moyenne dans le plasma, une irradiation neutronique de 2,2 MW/m2 au
niveau du premier mur, une charge thermique de 15 MW/m2 pour les zones les
plus exposées du divertor. C’est la nécessité de protéger le divertor qui conduit à
une taille aussi imposante, montrant ainsi l’importance de tout progrès technologique en ce domaine. L’ingénierie nucléaire s’inspire essentiellement de la technologie des réacteurs à eau pressurisée actuels. La couverture fait donc appel à
un refroidissement par eau et la partie tritigène à un eutectique lithium-plomb,
avec l’alliage Eurofer comme matériau de structure, en supposant qu’une optimisation lui aura permis de réunir toutes les qualités nécessaires. La conception
physique ne s’écarte pas de celle d’Iter et ce réacteur peut se définir comme
un Iter à grande échelle. Le choix des paramètres physiques place la configuration dans une zone bien explorée où les caractéristiques du confinement sont
connues. Cette assurance se paie par un courant élevé dont la génération laisse
subsister des incertitudes importantes. Il reste difficile d’évaluer la faisabilité de
la génération non inductive à de tels niveaux et avec un bon rendement. Iter
apportera des précisions importantes à ce sujet. Il en sera de même pour la
stabilité, le régime de turbulence de bord et la suppression des disruptions du
courant plasma qui reste un impératif.
L’étude pilotée par l’EFDA ne se limite pas à une solution unique. Conscients
des problèmes posés par la taille imposante de la machine directement transposée d’Iter avec les technologies existant aujourd’hui, les experts ont également
travaillé sur trois autres configurations plus audacieuses qui supposent des progrès technologiques raisonnablement accessibles (hautes températures, refroidissement à l’hélium) et des performances du plasma plus avancées qui, sans
être généralement réalisées, ont déjà été obtenues expérimentalement (courants
plus faibles, pressions plus fortes). Elles mettent bien en évidence l’impact important des améliorations technologiques sur le dimensionnement et la rentabilité
de ces centrales. Par exemple3, ces mêmes hypothèses peuvent justifier le dessin
d’une centrale produisant 1 GW de puissance électrique à partir d’une puissance thermique de 2,6 GW, obtenus dans une machine dont les paramètres
physiques sont soit ceux d’Iter, soit très voisins.
Malgré ces incertitudes, cette étude présente une grande utilité en mettant en
évidence les domaines critiques où les progrès se traduisent par d’importantes
améliorations au niveau du réacteur et de son exploitation. Aucun blocage mettant en cause la poursuite du programme n’est apparu aux différents groupes
qui ont expertisés les diverses conceptions.
3 How far is a fusion power reactor from an experimental reactor ? R. Toschi, P. Barabaschi, D.
Campbell et al., SOFT Conference, Madrid, Sept. 2000.
LA
FILIÈRE
T OKAMAK ET
Chambre à vide
Figure 1.1
Éclaté de la machine Iter.
39
LA MACHINE I TER
Bobines
Couverture
Divertor
CHAPITRE
2
La fusion par confinement
inertiel
MICHEL ANDRÉ, CHARLES BAYER, MICHEL DECROISETTE, CLAUDE DEUTSCH,
DENIS JURASZEK, BRUNO LE GARREC ET ARNOLD MIGUS
LA
1
FUSION PAR CONFINEMENT INERTIEL
43
Principes et motivations
1.1 Concept
L’idée à la base de la fusion par confinement inertiel (FCI) est de faire imploser une capsule sphérique (également appelée cible) contenant un mélange de
deutérium et de tritium.
Pour réaliser le processus, la cible est attaquée par un rayonnement très intense ; la paroi externe, transformée en plasma sous l’effet de l’élévation de température, se détend vers le vide ce qui, par effet fusée, entraîne l’implosion de
la capsule et la compression du mélange fusible. Sous certaines conditions, par
l’effet de la coalescence d’ondes de choc, la densité et la température atteignent
au cœur de la cible comprimée les valeurs requises pour que s’instaurent les
réactions de fusion. Tant que cette situation se maintient, c’est-à-dire avant que
la cible se désagrège, l’énergie thermonucléaire se dégage (d’où le terme de
confinement inertiel).
Les travaux théoriques réalisés depuis les années soixante ont permis de dégager plusieurs lois essentielles qu’il faut respecter pour réaliser la fusion inertielle. On peut retenir en particulier que :
– l’énergie à investir dans le milieu fusible pour obtenir l’allumage (situation obtenue lorsque le bilan énergétique du milieu devient positif) varie
comme l’inverse du carré de sa densité. Il est donc souhaitable d’atteindre
des densités élevées (c’est-à-dire comprimer fortement le milieu fusible)
pour minimiser cette énergie primaire ;
– pour obtenir des gains élevés (rapport de l’énergie thermonucléaire dégagée à l’énergie initialement délivrée à la cible), il faut ne porter aux
conditions d’allumage qu’une partie du combustible. C’est le concept d’allumage par point chaud central.
1.2 Principe d’un réacteur FCI
Un réacteur à fusion par confinement inertiel comporte quatre parties principales.
44
LA
Chauffage
de la cible
par la source d'énergie
Création d'un plasma
qui comprime le DT
Ignition à partir
d'un point chaud
FUSION NUCLÉAIRE
Combustion
Figure 2.1
Phénoménologie de l’implosion.
Le driver
Alimenté par son banc d’énergie, il est chargé d’apporter l’énergie requise
pour imploser la cible. Dans le cas d’un réacteur, il doit présenter les caractéristiques suivantes :
– énergie : qq. MJ (millions de joules) ; Intensité sur cible
qq. 1014 W/cm−2 ; durée : qq. 10 ns (milliardièmes de seconde).
:
L’énergie doit être délivrée avec des contraintes particulières : focalisation sur
une surface de dimension caractéristique inférieure ou égale à celle de la cible,
loi de puissance adaptée à la dynamique de l’implosion, uniformité d’éclairement de la cible, équilibrage des puissances entre faisceaux, . . .
– rendement ≥10 % ;
– fonctionnement reproductible avec une fréquence de répétition de
quelques hertz.
Parmi les sources présentant ces potentialités, sont en course aujourd’hui les
accélérateurs d’ions lourds, les lasers de puissance à verre dopé au Nd et les
strictions magnétiques.
La chambre de réactions
En son centre ont lieu les micro-explosions produisant l’énergie de fusion
thermonucléaire. Elle assure une quadruple fonction :
LA
FUSION PAR CONFINEMENT INERTIEL
45
– elle permet de maintenir un vide suffisant pour que l’énergie du driver
puisse se propager jusqu’à la cible ;
– elle constitue la première barrière de confinement entre le foyer thermonucléaire que l’on peut considérer comme ponctuel, et l’environnement ;
– elle récupère sous forme thermique l’énergie dégagée, en ralentissant et
absorbant particules et photons dans une « couverture » ; un fluide caloporteur véhicule cette énergie à l’extérieur ;
– elle est le siège des réactions secondaires qui régénèrent le tritium nécessaire au fonctionnement du réacteur.
On peut noter ici la similitude de certaines problématiques avec le confinement
magnétique.
L’unité de traitement des matériaux et la centrale de production des cibles
La gestion des matériaux intervenant dans le fonctionnement de la chambre
concerne à la fois les dégagements gazeux des cibles, la couverture et les matériaux de protection des parois.
Les générateurs de vapeur et les turbines
Ils transforment l’énergie thermique apportée par des fluides caloporteurs en
énergie mécanique, puis en énergie électrique pour alimenter en électricité le
réseau de distribution.
Pour fixer les idées, admettons qu’avec une énergie primaire de 10 MJ une
cible ait un gain de 100, un réacteur pourrait fournir une puissance électrique
de 1500 MW en fonctionnant à une fréquence de répétition de 7 Hz.
1.3 Les attraits de la fusion inertielle
À la suite de la description sommaire précédente, on peut émettre quelques
commentaires sur l’intérêt d’un réacteur à fusion inertielle.
Le plus remarquable est qu’au plan de la sûreté, comme pour un réacteur à
fusion magnétique, il n’y a aucun risque d’emballement, car en cas d’incident,
l’interruption de l’alimentation en cibles ou l’arrêt du driver stoppe le réacteur ;
d’autre part, le fonctionnement n’induit pas de transports de matières radioactives (déchets en particuliers).
46
LA
FUSION NUCLÉAIRE
La construction modulaire présente l’avantage de limiter à la chambre et à
l’unité de traitement des matériaux et de fabrication cibles, la présence de tritium
et de matériaux activés. C’est une facilité pour la maintenance du driver ou
même sa modification pour tenir compte d’avancées technologiques.
La quantité de matière nucléaire présente dans le réacteur est faible : il s’agit
du tritium localisé essentiellement dans la couverture et dans la centrale de production des cibles ; un développement technologique approprié (par exemple
sur la fabrication des cibles cryogéniques) devrait conduire à un inventaire très
réduit.
La puissance délivrée peut être adaptée très souplement en faisant varier la
cadence des tirs sans affecter le rendement de fusion.
1.4 Les principales étapes de la fusion inertielle
Une stratégie de développement peut être envisagée pour démontrer progressivement que la fusion inertielle peut être une source d’énergie sure, propre,
abondante et économique. Il pourrait se dérouler en quatre étapes, à partir de
la situation actuelle :
– démonstration de l’allumage (cette phase est en cours) ;
– démonstration d’un gain élevé ;
– démonstration industrielle ;
– démonstration commerciale.
Si l’on se reporte à la description de la structure de principe, on remarque
que la réalisation des quatre parties principales d’un réacteur (indépendantes et
caractérisées par des technologies différentes) pourrait s’envisager en parallèle,
ce qui serait sans doute un facteur de commodité et d’économie.
2
Solutions et projets
2.1 Les drivers
Parmi les sources présentant les potentialités requises, sont en course aujourd’hui les lasers de puissance, les accélérateurs d’ions et les strictions magnétiques.
LA
FUSION PAR CONFINEMENT INERTIEL
47
Les lasers de puissance
Le laser impulsionnel se présente comme un excellent candidat pour les premières étapes du développement de la FCI : grâce à ses propriétés – cohérence
et monochromaticité – il est possible de focaliser son rayonnement dans un volume très petit et d’obtenir les densités de puissance requises pour réaliser en laboratoire des expériences représentatives même avec des énergies « modestes ».
Divers types de lasers sont envisageables, mais il semble acquis que la démonstration de faisabilité de la fusion inertielle sera réalisée avec un laser à
verre dopé au néodymium. Sa technologie a en effet bénéficié de développements très poussés depuis la fin des années soixante, et elle est retenue pour
les deux plus grandes installations en cours de construction : le LMJ et le NIF
(voir § 3). En particulier, les problèmes posés par l’interaction laser-plasma sont
traités dans le chapitre 4 § 1.1.
Les accélérateurs d’ions
Les difficultés inhérentes aux lasers actuels : faible rendement, faible cadence
à très forte énergie ainsi que les difficultés pour trouver des solutions sûres pour
la tenue des dernières optiques dans le cas d’un réacteur, ont conduit à considérer d’autres techniques, en particulier les faisceaux de particules.
L’idée est de focaliser l’énergie sur la cible sous forme de faisceaux intenses
d’ions énergétiques au lieu de rayonnement lumineux. Les accélérateurs de particules ont des arguments favorables au regard de la FCI : fiabilité, grande durée
de vie, taux de répétition élevé (quelques dizaines de Hz), rendement important
(20 à 30 %).
Divers types d’accélérateurs ont été étudiés, mais il est généralement admis
que lorsque les lasers auront démontré la possibilité de brûler du DT en laboratoire et d’atteindre des gains de cibles de ∼10, les ions lourds pourraient être le
vecteur le mieux adapté pour les applications énergétiques.
Les projets de ce type de machine sont nombreux, mais aucun ne prétend
aboutir à la démonstration de l’ignition à court terme.
Les strictions magnétiques
Dans une striction magnétique (ou Z-Pinch), on exploite la force de Laplace
liée au passage d’un courant intense pour comprimer un « liner » (réseau de
48
LA
FUSION NUCLÉAIRE
fils métalliques). La conversion de l’énergie cinétique en énergie interne produit
un fort dégagement de rayonnement X. Ce rayonnement peut être utilisé pour
imploser une cible.
2.2 La cible et les schémas d’implosion
Dans son principe, la cible est constituée d’une coquille en matériau léger
sur la paroi interne de laquelle est déposé le combustible (DT) sous forme d’une
couche cryogénique. La structure de cette cible doit répondre à des contraintes
sévères : la sphéricité et l’uniformité d’épaisseur de la couche de DT doivent être
respectées à environ 1 %, et la rugosité doit être inférieure au micromètre.
Diverses approches ont été envisagées pour réaliser l’implosion de la coquille.
L’attaque directe
Ce schéma se rapporte essentiellement à la situation d’une cible irradiée directement par les faisceaux d’un laser, comme le montre la figure. L’interaction à
haute intensité entre le rayonnement laser et la paroi de la cible crée un plasma
très chaud qui se détend ; cette détente génère une pression dite « d’ablation »
très élevée, qui provoque l’implosion de la cible.
La question est d’assurer une irradiation du microballon la plus uniforme
possible pour préserver la structure sphérique de l’implosion, en minimisant les
défauts d’éclairement liés au recouvrement par un nombre fini de faisceaux (défauts de pointage et de synchronisme, déséquilibre en énergie et en puissance),
ainsi que les défauts propres de chaque faisceau (liés à la cohérence du rayonnement) qui sont des germes pour les instabilités hydrodynamiques.
L’attaque indirecte
Dans le cas de l’interaction entre le rayonnement laser et un milieu de numéro
atomique élevé comme l’or, le plasma émet un rayonnement X intense. Ceci
a conduit à concevoir une approche « indirecte » : le rayonnement laser est
absorbé dans une enceinte (ou « hohlraum ») renfermant la cible, et converti (par
une succession de processus élémentaires absorption-chauffage-réémission) en
un rayonnement X qui réalise l’implosion. La cible est donc immergée dans un
« four ». Au plan de l’uniformité de l’éclairement, les contraintes sur la quantité et
la qualité des faisceaux laser sont notablement réduites par rapport à l’attaque
directe.
LA
49
FUSION PAR CONFINEMENT INERTIEL
Le schéma d’attaque indirecte peut être aisément adapté au cas de faisceaux
d’ions : les faisceaux irradient des convertisseurs (matériau de numéro atomique
faible dopé d’un matériau de numéro atomique élevé, faisant office de « radiateurs » de rayonnement X) situés à l’entrée de la cavité.
Attaque directe
Attaque indirecte
Cible
Cavité
Faisceaux laser
Figure 2.2
Schémas d’attaques directe et indirecte.
L’allumage rapide
Comme nous l’avons dit précédemment, la recherche d’un gain élevé conduit
à mettre en œuvre un allumage par « point chaud » central, consistant à ne
porter aux conditions d’allumage que le cœur du DT comprimé.
Un autre concept a été proposé, appelé allumage « rapide » ou allumage
« latéral » qui consiste à dissocier les phases de compression et d’allumage :
on comprime à des densités élevées l’ensemble du combustible, puis on chauffe
sélectivement une petite fraction du DT pour le porter aux conditions d’allumage,
à l’aide d’un rayonnement laser auxiliaire attaquant latéralement le combustible
comprimé. Cette méthode est basée sur l’emploi de lasers à impulsion courte et
ultra-haute intensité dont la technologie s’est développée au cours de la dernière
décennie.
2.3 La chambre de réactions et les projets de réacteurs
On trouve dans la littérature de nombreux concepts de réacteurs publiés dans
les trente dernières années, essentiellement aux États-Unis et au Japon, et peu
en Europe (aucun projet français).
50
LA
FUSION NUCLÉAIRE
Pour la chambre, le problème le plus crucial est celui de la première paroi
matérielle, en vue directe de la micro-explosion, qui risque de se vaporiser ou
se sublimer sous l’effet du dégagement d’énergie. Plusieurs solutions ont été
explorées, mais l’idée d’un « mur sacrificiel » qui se régénère après chaque
explosion est souvent retenue. On note par exemple la proposition d’un mur
« mouillé » en surface par l’écoulement gravitaire à travers une paroi poreuse
d’un liquide de protection, ou bien d’une paroi épaisse constituée d’un fluide
circulant à grande vitesse et absorbant la majeure partie de l’énergie de fusion.
L’analyse des projets de réacteurs montre que plusieurs options de chambre
apparaissent viables, et que chaque type de driver peut être adapté à diverses
solutions. Toutefois, la tendance suivante se dégage :
– comme les faisceaux laser peuvent être focalisés avec précision à longue
distance et que la protection des optiques implique un éloignement de la
cible important, les concepts de chambre pour des drivers laser se sont
plutôt orientés vers les solutions « mur sec » ;
– pour les drivers à ions lourds, on cherche à réduire la distance à la cible,
et la solution d’un « mur liquide épais » est préférée.
Remarquons que, malgré la modularité de structure d’un réacteur inertiel, les
trois composantes driver, cible, chambre, déterminent des interfaces posant des
problèmes importants, comme la focalisation ou l’injection des cibles.
3
Situation actuelle et perspectives
À ce jour, aucune démonstration de la combustion d’un mélange DT à l’aide
d’un driver de laboratoire n’a encore été réalisée ; mais cette première phase du
développement de la fusion inertielle est en cours, comme nous le verrons plus
loin. Notons toutefois qu’aux États-Unis, des informations essentielles ont été obtenues grâce à des expériences baptisées « Centurion-Halite » (H/C), exécutées
lors de tirs souterrains réalisés sur le site du Nevada. Ces expériences consistaient à imploser des cibles de type FCI en utilisant l’énergie délivrée par un engin nucléaire. Effectuées avec une puissance primaire élevée, elles ont apporté
des précisions sur les conditions nécessaires à l’allumage et à la combustion du
DT ; elles ont permis aux États-Unis d’asseoir la définition du laser NIF destiné à
obtenir l’allumage en laboratoire (voir également plus loin).
En revanche, une somme importante de connaissances a été recueillie par la
communauté scientifique, sur la physique de l’interaction rayonnement-matière
LA
FUSION PAR CONFINEMENT INERTIEL
51
(c’est-à-dire l’irradiation de la cible par l’énergie primaire du driver) ainsi que
sur l’implosion d’une cible.
3.1 L’implosion par laser
La physique de l’interaction laser-plasma est étudiée depuis quarante ans et
l’on en a une connaissance très approfondie – même si elle est encore incomplète – grâce aux multiples travaux réalisés un peu partout dans le monde (et
en majorité avec des lasers à verre au Néodyme). On sait en particulier parfaitement définir les conditions de longueur d’onde laser, d’intensité, de nature de
cible qui optimisent le dépôt d’énergie.
Des études sur l’implosion par laser sont poursuivies par tous les grands laboratoires ; notons en particulier : le CEA en France, LLNL et LLE aux États-Unis, ILE
au Japon, Arzamas-16 en Russie. Ces travaux s’attachent en particulier à comprendre et maîtriser les phénomènes limitatifs, principalement le développement
d’instabilités hydrodynamiques.
En analysant en termes de performances d’implosion les résultats obtenus
avec les plus grandes installations, on peut dire que les valeurs des paramètres
essentiels (symétrie d’irradiation, rapport de convergence de l’implosion (rapport du rayon initial de la coquille au rayon du point chaud, énergie interne
du DT) on été atteintes, et qu’un progrès décisif ne peut désormais être obtenu
qu’au prix d’une augmentation de l’énergie des drivers.
L’ensemble de ces résultats a incité deux grands laboratoires, le CEA-Dam
en France et le LLNL aux États-Unis, à s’engager dans la construction de deux
lasers de grandes puissances, respectivement le LMJ (Laser Mégajoule) et le NIF
(National Ignition Facility). Ces installations devraient permettre non seulement
d’atteindre l’allumage, mais de réaliser la combustion du DT avec un gain élevé.
Le projet Laser Mégajoule
Le LMJ est conçu pour obtenir l’ignition et la combustion d’un mélange de
deutérium-tritium avec un gain supérieur à un. Il a été calculé qu’une énergie
de ∼2 MJ en sortie du laser était nécessaire ; pour l’obtenir avec une marge de
sécurité raisonnable, 240 faisceaux laser ont été prévus. Le verre dopé au néodyme a été conservé comme milieu actif, pour ses qualités de stockage d’énergie et parce que sa technologie est bien développée, mais, afin de diminuer
au maximum le coût de construction de l’installation, plusieurs innovations ont
été étudiées et adoptées par rapport à la structure des précédents lasers, entre
52
LA
FUSION NUCLÉAIRE
autres le regroupement des faisceaux laser en chaînes de huit faisceaux et la
focalisation par réseaux.
Les 240 faisceaux du LMJ sont donc constitués en fait de 30 chaînes comportant chacune huit faisceaux. Ces 30 chaînes sont implantées dans deux halls
laser situés de chaque coté de la salle d’expériences.
Il a été décidé de vérifier la validité de cette conception en grandeur réelle
en construisant, en avance de phase, un prototype industriel de l’une des
30 chaînes du LMJ. Ce prototype est la ligne d’intégration laser (LIL) qui vient
d’être qualifiée et dont l’un des faisceaux a prouvé l’obtention des performances
requises.
La réalisation du laser LMJ, prévue pour 2011, est en bonne voie. Les
concepts et la faisabilité des composants ayant été vérifiés avec succès sur la
LIL, le choix des industriels a été effectué et les contrats correspondants ont été
passés ; le montage de ces composants dans le bâtiment en cours de construction
pourra commencer dès 2007.
Chaînes laser
Bancs d’énergie
Focalisation et
conversion de
fréquence
Chambre
d’expérience
Figure 2.3
Architecture du Laser Mégajoule.
La collaboration entre la France et les États-Unis en matière de technologie des lasers de forte énergie remonte aux années 1970. L’idée de construire
un laser de la classe mégajoule ayant été retenue en 1990, un accord officiel
LA
FUSION PAR CONFINEMENT INERTIEL
53
de collaboration fut signé en 1994 entre le CEA et le DOE (Departement of
Energy) américain. Cet accord portait en particulier sur la mise au point des
nouvelles technologies nécessaires et plus généralement sur la conception d’un
tel laser. Diverses actions ont été menées en commun entre les deux laboratoires :
conception et test d’amplificateurs à plaques, développement d’un procédé de
fabrication de verre laser par coulée continue, développement d’un procédé de
croissance cristalline permettant l’obtention de monocristaux de KDP, etc.
Depuis 1999, la construction des lasers NIF et LMJ se poursuit en parallèle.
Les conceptions des deux lasers sont proches même si certains choix ont été
différents, tels que le nombre de faisceaux nécessaires (240 pour LMJ contre
192 pour NIF) ou le principe de focalisation (par réseaux pour LMJ et par lentille
pour NIF) par exemple.
Attaque directe vs indirecte
Chaque solution présente des avantages et des inconvénients :
– l’attaque directe est intéressante au plan du rendement de transfert énergétique entre le driver et le microballon, mais son point faible est l’uniformité d’irradiation (et par conséquent la stabilité de l’implosion) qui, pour
être satisfaisante, requiert des aménagements optiques très sophistiqués ;
– l’attaque indirecte est ouverte à tous les types de drivers. Elle bénéficie
de l’uniformité d’irradiation qu’apporte la structure de « corps noir » que
constitue la cavité renfermant le microballon, mais pêche par un faible
rendement énergétique.
Il en résulte que les grands projets – LMJ et NIF – ménagent la possibilité de
basculer d’une configuration à l’autre selon les résultats.
L’allumage latéral
Le concept de l’allumage latéral est très attrayant et paraît prometteur ; toutefois, il est hasardeux d’en vouloir préciser aujourd’hui le réalisme et l’intérêt
vis-à-vis de l’allumage par point chaud central, par exemple en termes d’économie d’énergie du driver, car les mécanismes à mettre en œuvre sont encore trop
méconnus pour être valablement quantifiés. Les travaux menés par l’ensemble
de la communauté scientifique devraient clarifier la question dans la décennie à
venir.
54
LA
FUSION NUCLÉAIRE
Prospective laser
Malgré leur fragilité optique, l’utilisation des lasers pour un réacteur n’est pas
exclue, à condition d’améliorer leurs performances. Pour aborder le problème
d’un driver laser de réacteur fonctionnant en cadence à quelques Hz, on note
que les laboratoires s’accordent pour explorer trois axes de recherche technologique : choix des matériaux (afin de gérer les effets thermiques), pompage par
diode laser pour améliorer le rendement (mais le coût de ces diodes est encore
prohibitif), définition d’une architecture permettant de garantir la qualité de la
tache focale à obtenir sur la cible.
3.2 L’implosion par ions lourds
L’équivalent pour les ions de l’état des connaissances du domaine laser n’est
pas acquis, les études actuelles portant sur le ralentissement des particules dans
les plasmas ou la matière froide.
Les accélérateurs d’ions lourds actuels, tels que ceux du Cern par exemple,
ont des caractéristiques intéressantes (cadence, stabilité, rendement), très supérieures à celles des lasers de puissance actuels, mais leur puissance instantanée
est inférieure d’au moins trois ordres de grandeur à ce qui est nécessaire à un
réacteur de fusion. Une question importante demeure : la focalisation. Au cours
de l’accélération des particules, divers mécanismes peuvent induire des mouvements aléatoires des ions qui peuvent empêcher une focalisation suffisamment
fine. La difficulté, si l’on veut progresser vers des études d’implosion significatives, est qu’il n’est pas possible, à la différence des lasers, de concevoir un
prototype autrement qu’à l’échelle 1 pour obtenir la densité de flux d’énergie
requise.
Les recherches au niveau « démonstration de principe » pour le driver (Proof
Of Principle – POP – des Anglo-saxons) ont débuté aux États-Unis il y a quelques
années, dans le cadre du VNL (Virtual National Laboratory), regroupant les
trois grands programmes sur les accélérateurs (LBNL, LLNL et PPPL), et les participations de nombreuses institutions américaines. Au plan de l’irradiation d’une
cible, un premier objectif serait de réaliser à court terme (5 ans) une expérience
intégrée permettant de porter une cible dense à une température de ∼11 600 K
afin de réaliser des expériences de physique des hautes densités. L’étape suivante vise à gagner un facteur 10 sur la température.
LA
FUSION PAR CONFINEMENT INERTIEL
55
3.3 L’implosion par Z-pinch
Les résultats obtenus par les laboratoires de la Sandia (États-Unis) avec la
« Z-Machine » montrent l’intérêt d’une telle installation comme driver : il a été
fait état en 1996 d’une production de rayonnement X très importante, et une
émission neutronique d’origine thermonucléaire a été observée avec une capsule
de renfermant du deutérium.
L’objectif de cette installation est maintenant de faire la démonstration d’un
gain thermonucléaire élevé avec la possibilité d’un fonctionnement répétitif. Toutefois, l’application à des fins énergétiques reste à prouver.
Conclusion
Démonstration de l’allumage et de la combustion du DT
Les études longues et poussées réalisées par divers laboratoires ont conduit
à cerner avec précision les structures de base des cibles à gain. Le concept
(allumage et gain élevé) devrait être validé en laboratoire dans la prochaine
décennie avec les deux installations laser LMJ (France) et NIF (États-Unis), qui
devraient faire la démonstration de la première étape du développement de la
fusion inertielle comme source d’énergie civile.
Les projets de réacteurs
Des projets nombreux et variés ont été publiés depuis les années 1970, ils
sont américains pour la plus grande partie (la France ne dispose aujourd’hui
d’aucune étude propre de réacteur inertiel). La variété résulte de la possibilité
d’associer plusieurs types de chambres aux différents drivers envisagés.
La réalisation d’une chambre de réacteur est un problème complexe ; la difficulté concerne à la fois le concept et les matériaux à mettre en jeu. Les recherches technologiques ont été faiblement développées sur ces sujets (bien que
depuis quelques années des expériences de laboratoire soient menées sur la définition de matériaux et les simulations numériques ; on peut associer cet intérêt
renouvelé au développement des projets NIF et LMJ), et de nombreux challenges
demeurent, essentiellement liés à la nature pulsée du dégagement d’énergie.
Certaines problématiques de la chambre de réaction sont similaires à celles
du confinement magnétique : matériaux de couverture, récupération du tritium,
56
LA
FUSION NUCLÉAIRE
extraction des matériaux activés, récupération de l’énergie dégagée. C’est à
l’évidence un domaine où pourrait se développer une importante synergie entre
les deux communautés de la fusion.
En termes de drivers, les lasers à verre sont aujourd’hui les plus avancés et
leur utilisation pour un réacteur n’est pas écartée.
Néanmoins, il est généralement admis que lorsque les lasers auront démontré
la possibilité de brûler du DT en laboratoire, les accélérateurs d’ions lourds
pourraient être les drivers les mieux adaptés pour les applications énergétiques,
en raison de leur rendement et de leur robustesse. L’échéance apparaît toutefois
plus lointaine, car la réalisation d’un accélérateur d’ions lourds à l’échelle d’un
réacteur représente un investissement et un saut technologique considérables qui
ne pourra s’envisager que si le coût peut être réduit d’un ordre de grandeur par
rapport à celui des technologies actuelles.
Les résultats obtenus par les laboratoires de la Sandia (États-Unis) avec la ZMachine (striction magnétique) montrent l’intérêt d’une telle installation comme
driver, mais l’application à des fins énergétiques, principalement en termes de
répétitivité, reste à prouver.
La fabrication des cibles reste également un des challenges de la fusion inertielle. Bien que l’implosion par laser soit la voie la plus avancée et que des
techniques très sophistiquées de fabrication de cibles aient été mises au point
pour les expériences d’interaction laser-matière, peu d’expériences mettant en
jeu une cible similaire à celles conçues pour obtenir la combustion du DT (c’est-àdire possédant une couche cryogénique) ont été réalisées aujourd’hui. De plus,
ces expériences sont réalisées avec une cadence de quelques tirs par jour. Il est
clair que, par rapport aux actuelles procédures de laboratoires, toutes les opérations de fabrication, de contrôle, de mise en place des cibles pour un réacteur
travaillant à une fréquence de quelques hertz seront complètement à repenser,
d’autant que l’objectif, en termes économiques est un coût unitaire ne dépassant
pas ∼0,3 e.
On peut enfin noter qu’une concertation au niveau européen entre des laboratoires intéressés par la fusion inertielle, rapprochant des compétences reconnues, variées et de haut niveau, profiterait au développement des réflexions sur
les divers concepts de drivers et de chambres et permettrait de cerner les options
à approfondir en vue de la conception d’un réacteur.
CHAPITRE
3
Les plasmas chauds
magnétisés
PASCALE HENNEQUIN, XAVIER GARBET, YVES PEYSSON, CLÉMENT LAVIRON
ET JEAN-MARCEL RAX
L ES
1
PLASMAS CHAUDS MAGNÉTISÉS
59
Physique des plasmas chauds magnétisés
La physique des plasmas chauds magnétisés est un vaste domaine de recherche, largement pluridisciplinaire. La problématique des plasmas de fusion
fait intervenir pour une grande part un couplage entre équations de Maxwell et
réponse du plasma au champ électromagnétique. Dans les cas les plus simples,
cette réponse, a priori non linéaire, est calculée en résolvant des équations
fluides et relève alors de la magnétohydrodynamique (MHD). Toutefois, l’interaction entre ondes et particules est résonnante pour une large classe de problèmes
rencontrés dans les plasmas de fusion. La description fluide est alors souvent
inadéquate, et une description cinétique du plasma devient nécessaire. Chaque
espèce est décrite par une fonction de distribution dans l’espace des phases, solution d’une équation cinétique (équation de Vlasov dans la limite sans collision).
Une méthode alternative consiste à suivre les trajectoires de (macro) particules
chargées et à construire les densités de charge et de courant. La physique statistique tient donc une place importante dans la thématique des plasmas de
fusion. Dans les régions froides du plasma, où les températures sont de l’ordre
de quelques eV, les processus de physique atomique (ionisation, recombinaison,
rayonnement) ne peuvent être ignorés. Ces régions sont aussi le lieu de l’interaction entre plasma et paroi, qui se fait via des conditions aux limites non triviales
(physique de gaine). Traditionnellement, la physique des plasmas de fusion se
décline en quatre thèmes : l’équilibre MHD et sa stabilité, le transport collisionnel
et turbulent, les méthodes de chauffage et l’interaction plasma-paroi. Les verrous
tiennent essentiellement aux aspects non linéaires (stabilité MHD, transport turbulent, propagation d’ondes dans un milieu aléatoire), à la vaste gamme des
échelles spatiales et temporelles à résoudre, et à la richesse des phénomènes
physiques impliqués. Ce chapitre est essentiellement dédiée à la physique des
plasmas chauds dans les Tokamaks, hors interaction plasma-paroi (chapitre 7).
2
Stabilité
Résumé
– L’équilibre et l’analyse de stabilité linéaire sont un problème bien posé
dans le cadre de la magnétohydrodynamique idéale. Cette analyse conduit
à un domaine opérationnel fiable. Iter sera à l’intérieur de ce domaine opérationnel.
– Trois types de phénomènes font l’objet de recherches actives : les oscillations de relaxation (notamment les modes localisés de bord, appelés ELMs),
les modes MHD résistifs (modes de déchirement néoclassiques et modes
60
LA
FUSION NUCLÉAIRE
résistifs de mur), et les modes excités par les particules alpha issues des
réactions de fusion.
– Les modes de déchirement néoclassiques devraient être stables dans le scénario standard d’Iter et instables dans les scénarios avancés. Par ailleurs ces
modes sont métastables, c’est-à-dire croissent au-dessus d’une amplitude de
seuil. Les méthodes de contrôle envisagées utilisent des techniques de génération de courant modulée permettant une action directe sur ces modes
et/ou sur l’activité MHD ambiante.
– Les modes localisés de bord sont un enjeu important pour un futur réacteur,
du fait des excursions en puissance qu’ils induisent sur les plaques du divertor. Il est donc nécessaire de les contrôler. La méthode la plus prometteuse
semble être de maintenir les profils de pression et de courant d’équilibre en
dessous de la limite de stabilité. Ce contrôle pourrait se faire via des bobines
extérieures et/ou une génération localisée de courant.
– La question de la stabilité et la saturation des modes MHD excités par
des particules rapides est encore ouverte. Le point de fonctionnement d’Iter
devrait être proche du seuil d’instabilité de ces modes. La question de leur
saturation relève de la MHD non linéaire avec effets cinétiques, qui est un
domaine largement inexploré. Cette thématique constituera une partie importante du programme scientifique d’Iter.
2.1 Principaux résultats
Équilibre
La topologie du champ magnétique est le point de départ obligé de toute
question de physique des plasmas chauds magnétisés. L’analyse est restreinte
ici au Tokamak dans lequel les lignes de champ sont des hélices qui s’enroulent
sur des tores, appelés surfaces magnétiques. Ces surfaces s’emboîtent autour
d’un axe magnétique (figure 3.1) et sont caractérisées par le flux du champ
magnétique à travers un grand cercle s’appuyant sur la surface1. Ce champ
scalaire est appelé flux poloïdal 2 . Dans un choix adéquat de coordonnées, le
taux d’enroulement des lignes de champ est constant sur chaque surface magnétique. Ce taux d’enroulement est appelé facteur de sécurité. La fonction de
flux poloïdal détermine la topologie magnétique du système, qu’il importe de
1
La valeur du flux ne dépend pas du choix du grand cercle.
convention, l’angle azimutal autour du grand axe du tore est appelée angle toroïdal ϕ,
tandis qu’un angle décrivant l’embase du tore dans un plan méridien est appelé angle poloïdal θ .
Le facteur de sécurité est défini comme q = B.∇ϕ/B.∇θ . Moyennant un choix adéquat de l’angle
poloïdal, q ne dépend que du flux poloïdal ψ.
2 Par
61
PLASMAS CHAUDS MAGNÉTISÉS
Hauteur [m]
L ES
,
,
,
Rayon normalisé [m]
Figure 3.1
Lignes de contour fermé ψ(R, Z) = cte (surfaces magnétiques) dans le Tokamak Jet. Chaque surface
magnétique est un tore sur lequel les lignes de champ s’enroulent hélicoïdalement. Ces tores s’emboîtent
autour d’un axe magnétique. Ce sont des surfaces isobares et isothermes. Un profil typique de taux
d’enroulement de lignes de champ (facteur de sécurité) est indiqué sur la figure de droite. L’abscisse est un
rayon normalisé caractérisant chaque surface magnétique (soit ρ = ρ(ψ) tel que ρ = 0 sur l’axe magnétique et
ρ = 1 sur la séparatrice).
calculer. Ajoutons qu’au bord du plasma, les lignes de champ sont ouvertes,
car interceptées par des éléments de première paroi. La dernière surface sur
laquelle les lignes de champ sont fermées est appelée séparatrice. L’équilibre
d’un plasma magnétisé résulte de l’égalité entre gradient de pression et force de
Lorentz, perpendiculaire au courant et au champ magnétique. En conséquence,
chaque surface magnétique est une isobare. C’est aussi une isotherme du fait
de la conduction thermique élevée le long du champ magnétique.
La condition d’équilibre, jointe à l’équation d’Ampère, conduit à une équation sur la fonction de flux poloïdal, appelée équation de Grad-Shafranov. Dans
les expériences actuelles, cette équation différentielle est résolue en temps réel,
les conditions aux limites étant définies par les mesures de champ magnétique
provenant des boucles magnétiques installées dans la chambre à vide du Tokamak. La précision est meilleure lorsque cette résolution se fait sous contrainte des
profils mesurés de pression et courant. On peut considérer ce problème comme
résolu dans ses grandes lignes. Le problème central est plutôt celui du contrôle
et de la stabilité de cet équilibre.
Un plasma de Tokamak peut devenir instable vis-à-vis d’un (ou plusieurs)
mode macroscopique (figure 3.2). Un mode croît linéairement puis évolue non
linéairement sous diverses formes : saturation non linéaire, régime d’oscillations
62
LA
FUSION NUCLÉAIRE
Figure 3.2
Cartographie du déplacement MHD d’un mode de pression dans le tokamak Jet. À gauche : mesure par
tomographie dans le domaine X-mou (essentiellement perturbation de température). À droite : calcul théorique
du déplacement MHD (d’après G. Huysmans, CEA-Cadarache/Jet).
de relaxation, ou couplage non linéaire à d’autres modes conduisant à une
interruption du plasma, appelée disruption. La description de ces modes relève
de la magnétohydrodynamique (MHD), idéale ou résistive.
Stabilité en MHD idéale
En MHD idéale, les deux sources d’instabilité sont les gradients de pression
et de courant. La principale instabilité due au gradient de pression est de type
échange (« interchange » en anglais), qui survient lorsque le gradient de pression est aligné avec le gradient du module du champ magnétique3 . L’échange
de deux tubes de flux est alors exo-énergétique. Cette situation défavorable est
obtenue du côté extérieur du Tokamak, où le champ magnétique est le plus
faible4 . En revanche, le côté intérieur est localement stable. Sur une surface
magnétique donnée, ces deux régions sont connectées du fait de l’enroulement
hélicoïdal des lignes de champ. De ce fait les modes instables de petite échelle
3
Le critère de stabilité conventionnel est de la forme (ξ ·∇p)(κ·ξ )>0, ou ξ est le déplacement MHD,
p la pression et κ la courbure du champ magnétique.
4 Dans un solénoïde torique, le champ magnétique toroïdal décroît comme l’inverse du grand
rayon. Le champ toroïdal est la contribution dominante au module du champ magnétique dans un
Tokamak.
L ES
PLASMAS CHAUDS MAGNÉTISÉS
63
tendent à se localiser dans la région de champ faible, et sont appelés modes de
ballonnement.
Les instabilités dues au courant sont appelées modes de torsion. La source
d’instabilité est ici le gradient de courant : un profil de courant piqué correspond à une inductance interne élevée. Une relaxation vers un état d’inductance
plus faible est énergétiquement favorable. La limitation opérationnelle principale
vient des modes de torsion externes, localisés au bord du plasma, et instables
au-dessus d’une densité de courant critique dans cette région. Ces modes sont
plus facilement déstabilisés lorsque le facteur de sécurité au voisinage de la séparatrice est un entier. En pratique la valeur du facteur de sécurité au bord du
plasma doit rester supérieure à 2 et on considère qu’une valeur égale à 3 laisse
une marge suffisante de sécurité. Les modes de torsion internes sont des modes
déstabilisés par le gradient de courant dans le cœur du plasma. En général un
seul mode interne est instable. Il conduit à des oscillations de relaxation qui ne
sont pas destructives (« dents de scie »).
La condition de stabilité des modes de ballonnement et de torsion externe
définit un domaine opérationnel dans l’espace des gradients de pression et de
courant. Un critère de stabilité global en pression peut être formulé, appelé
critère de Troyon, qui stipule (dans sa version récente) que le bêta normalisé du
plasma βN = β(%)/(Ip /aB) doit être inférieur à 4li , où li est l’inductance interne
du plasma5 . Le domaine de stabilité global est aussi contraint par une limite
en courant (modes de torsion) et une limite en densité au-dessus de laquelle le
plasma devient instable vis-à-vis des instabilités radiatives6 . À géométrie fixée,
cette limite en densité est inversement proportionnelle au facteur de sécurité au
bord. Le diagramme opérationnel final peut être dessiné schématiquement dans
les coordonnées de densité et inverse du facteur de sécurité (proportionnel au
courant plasma), tel que montré en figure 3.3 7 .
Le scénario de base prévu pour Iter sera très largement à l’intérieur de ce
domaine de stabilité. Notons aussi que des scénarios « avancés » sont envisagés pour Iter dans lesquels une partie substantielle du courant sera autogénérée (bootstrap current)8 . Ces scénarios supposent des valeurs de bêta qui
approchent la limite MHD idéale. La position précise du seuil dépend en fait de
la résistivité. Une analyse plus raffinée faisant appel à la MHD résistive devient
donc nécessaire.
5 Le
paramètre bêta est le rapport de la pression cinétique à la pression magnétique.
physique n’est pas couverte par la MHD conventionnelle.
7
Le courant plasma est inversement proportionnel au facteur de sécurité au bord du plasma.
8 Le courant autogénéré correspond à un terme non diagonal dans la matrice de transport collisionnel reliant les flux aux gradients. Plus précisément, il s’agit d’une contribution du gradient de
pression au courant circulant le long du champ magnétique de confinement. Ce courant contribue à
la composante poloïdale du champ magnétique de confinement.
6 Cette
64
LA
FUSION NUCLÉAIRE
Figure 3.3
Diagramme de stabilité MHD schématique d’un Tokamak.
Stabilité en MHD résistive
Les résultats de stabilité fournie par la MHD résistive sont complexes et ne
sauraient être détaillés entièrement ici. Les principales instabilités résistives sont
les suivantes :
– les modes de déchirement (« tearing » modes). Ces modes sont déstabilisés par le gradient de courant du plasma et caractérisés par un changement de topologie magnétique (appelée îlots magnétiques, figure 3.4).
En pratique, un mode de déchirement conventionnel est stable pour des
profils de courant typiques d’un tokamak. Cependant, ces modes sont en
fait métastables lorsqu’en prend en compte les perturbations de courant
autogénéré (bootstrap). En effet un îlot magnétique est une zone d’aplatissement du gradient de pression, et donc de faible courant autogénéré.
La modulation de courant correspondante possède la bonne phase pour
soutenir la perturbation magnétique associée à l’îlot, voire l’amplifier. Ce
mécanisme d’auto-entretien nécessite un bêta suffisant et une taille minimale d’îlot. Le seuil en amplitude peut être atteint du fait de l’activité MHD
ambiante (dents de scie, modes localisés de bord, cf. infra § Oscillations
de relaxation). Ces modes métastables sont appelés modes de déchirement néoclassiques. La valeur cible de bêta βN = 2 dans Iter est proche,
mais inférieure, à la valeur du seuil en β estimée pour ces modes dans le
scénario standard. En revanche, les scénarios avancés feront appel à des
valeurs de β supérieures au seuil d’instabilité ;
– les modes résistifs de mur. Le contrôle des modes de déchirement permet
en principe d’atteindre la limite en bêta de la MHD idéale. Cependant, les
L ES
PLASMAS CHAUDS MAGNÉTISÉS
65
Figure 3.4
Coupe poloïdale des lignes de champ (cartes de Poincaré) avant la phase de croissance d’un îlot (figure de
gauche) et dans l’état final après croissance d’un îlot (figure de droite) (d’après H. Lütjens et al., CPhT-X,
Palaiseau).
66
LA
FUSION NUCLÉAIRE
modes résistifs de mur (Resistive Wall Modes) constituent l’obstacle ultime
sur le chemin conduisant à une stabilité optimale. Notons d’emblée qu’une
paroi parfaitement conductrice localisée sur la séparatrice correspond à
la situation MHD la plus stable. En effet, toute instabilité y développe des
courants images dont la rétroaction sur le mode est stabilisante. Pour des
raisons liées au contrôle du dépôt de puissance, la première paroi ne peut
pas être placée sur la séparatrice. Lorsque la pression approche la limite
MHD idéale, des modes liés à la résistivité finie de la paroi et la distance
finie au plasma apparaissent.
2.2 Les problèmes de physique ouverts en MHD
Ils peuvent être séparés en trois grandes catégories : les oscillations de relaxation, le contrôle des modes MHD en régime non linéaire, et les effets des
particules rapides.
Oscillations de relaxation
Les oscillations de relaxation ne conduisent pas à une disruption, mais
peuvent dégrader le confinement, entraîner des transitoires en puissance nocifs pour les éléments de première paroi, voire exciter des modes métastables
(modes de déchirement). Il existe deux grands types doscillations de relaxation :
les dents de scie et les modes localisés de bord.
– Les dents de scie sont associées à des modes de torsion internes. La relaxation est associée à une réorganisation des profils de courant et de
pression via un processus appelé reconnexion. Les surfaces de flux sont
advectées vers une région où la densité de courant est grande devant
la valeur moyenne et se reconnectent pour former un îlot magnétique.
Ce dernier croît jusqu’à une consommation complète du réservoir d’énergie magnétique, ou un arrêt du processus par stochasticité des lignes de
champ ou apparition d’une turbulence. La plupart des décharges de Tokamak sont sujettes au développement de dents de scie. La perte de confinement associée est modérée (elle est prise en compte dans le scénario de
base Iter), mais les relaxations peuvent exciter des modes de déchirement
néoclassiques. La simulation de dents de scie dans le régime de fonctionnement d’Iter, c’est-à-dire avec particules alpha, est un enjeu important.
C’est aussi un domaine actif de recherche en astrophysique (cf. § 3.3).
– Les modes localisés de bord (Edge Localised Modes, ou ELMs) apparaissent lorsque le plasma est en mode H (cf. § 3 Turbulence et transport), et développe des régions de fort gradient de pression au bord
L ES
PLASMAS CHAUDS MAGNÉTISÉS
67
(piédestal). Ce fort gradient de pression induit localement une densité
élevée de courant autogénéré. Les modes de ballonnement et les modes
de torsion externes peuvent donc devenir instables. La relaxation de ces
modes se fait via une réorganisation des profils de courant et pression
au bord. Il est à noter que ces oscillations jouent un rôle favorable dans
le contrôle de l’influx des impuretés. Par ailleurs, la perte de confinement
reste modérée. En revanche, les relaxations induisent des excursions parfois élevées de la puissance déposée sur les éléments de première paroi. Il
est donc important de pouvoir les contrôler. La compréhension des modes
localisés de bord est incomplète. Ceci tient à deux difficultés principales :
le caractère non linéaire des processus de relaxation, et une géométrie
non triviale à l’interface entre lignes de champ fermées et ouvertes (séparatrice).
Contrôle des modes MHD en régime non linéaire
Le contrôle des modes MHD est important en vue du développement de scénarios avancés. Le développement d’une stratégie de contrôle s’appuie sur des
méthodes de génération de courant, l’utilisation de bobinages extérieurs, et/ou
la génération de rotation toroïdale.
Le premier type d’action consiste à affecter la stabilité via le contrôle des profils de courant et/ou de pression d’équilibre à l’aide de génération de courant
et/ou du chauffage.
Une seconde technique consiste à générer un courant modulé en opposition
de phase avec le courant perturbé. Une méthode basée sur des ondes à la
fréquence cyclotronique électronique a été utilisée avec succès pour contrôler
des îlots magnétiques sur les Tokamaks ASDEX-Upgrade, DIII-D et JT60U. Dans
le cas de modes métastables, une action amont peut se faire via la maîtrise de
l’activité MHD ambiante (dents de scie, modes localisés de bord). Un contrôle
des dents de scie a été démontré en utilisant une génération de courant localisée
par l’onde magnétosonique rapide (cf. § 4).
La troisième méthode repose sur le contrôle de la rotation du plasma. En
effet, l’interaction entre un mode de déchirement et une erreur de champ de
même hélicité peut conduire à une disruption. Ces erreurs de champ viennent
des imperfections de la configuration magnétique. La disruption fait suite à un
ralentissement du mode de déchirement par interaction avec l’erreur de champ
qui est statique. Ce scénario peut être évité en forçant une rotation du mode via
un effet d’entraînement par la rotation toroïdale du plasma. Les modes résistifs
de mur sont aussi sensibles à la rotation du plasma pour des raisons similaires.
La rotation du plasma peut être générée à l’aide d’un chauffage par injection
68
LA
FUSION NUCLÉAIRE
dirigée de particules neutres (cf. § 4.1). Une alternative consiste à utiliser une
paroi active. Ceci peut se faire en utilisant des bobines magnétiques de contreréaction localisées à l’extérieur du plasma. Ce système de contrôle a été testé
avec succès sur le Tokamak DIII-D. L’avenir devrait voir le développement de
« murs intelligents », c’est-à-dire des réseaux de bobines de mesure et contreréaction intégrées dans la paroi.
Les méthodes de contrôle actives agissent sur des modes qui sont en régime
non linéaire. La mise au point et l’optimisation de ces méthodes nécessitent la
conduite de simulations MHD qui doivent tenir compte des non-linéarités. Par
ailleurs, les temps de simulations doivent être longs devant le temps de relaxation résistif du courant, soit plusieurs dizaines de secondes. Ce temps est à mettre
en regard du temps d’Alfvén, de l’ordre de quelques microsecondes. Enfin les
singularités de courant dans les problèmes de type reconnexion obligent à manipuler des maillages fins. Ces simulations constituent donc un défi technique.
La mise au point de stratégie optimale de contrôle dans des systèmes complexes
sera un axe de recherche prioritaire dans les années à venir.
Effet des particules alpha sur la stabilité MHD
Les particules alpha issues des réactions de fusion peuvent affecter la stabilité
MHD. Cet effet peut être stabilisant ou déstabilisant. Deux types de mode MHD
sont particulièrement sensibles à une population suprathermique : le mode de
torsion interne et les modes d’Alfvén toroïdaux.
– Une population d’ions rapides stabilise les dents de scie au-dessus d’une
valeur critique du « bêta d’ions chauds » βh (rapport de la pression cinétique des ions chauds à la pression magnétique). Cet effet est couramment observé dans les Tokamaks actuels, les particules rapides étant alors
celles accélérées par les ondes de chauffage radiofréquence. Toutefois,
au-dessus d’un second seuil en βh , le mode de torsion interne devient
instable (appelé alors fishbone). La saturation survient en général après
expulsion de particules rapides. Cette perte est modérée. Le scénario de
base d’Iter devrait être stable vis-à-vis de ces modes.
– Les modes toroïdaux d’Alfvén sont des modes globaux déstabilisés audessus d’une valeur critique de βh , et pour des vitesses suffisantes de particules rapides. Dans les Tokamaks actuels, ces modes peuvent être produits
lors d’un chauffage radiofréquence ou par excitation directe au moyen de
bobinages appropriés qui jouent le rôle d’antenne. Le mode de saturation
de ces modes (saturation non linéaire ou par expulsion de particules rapides) est encore mal connu. Le point de fonctionnement d’Iter est proche
de la limite de stabilité. La réponse exacte à la question de leur stabilité et
L ES
PLASMAS CHAUDS MAGNÉTISÉS
69
de leur effet sur le plasma demandera un effort expérimental et théorique
accru.
2.3 Problèmes communs avec d’autres secteurs
de la physique
Certains des problèmes ouverts mentionnés ci-dessus présentent un dénominateur commun avec d’autres secteurs de la physique, notamment en astrophysique.
Reconnexion
Citons d’emblée le problème de reconnexion qu’on retrouve dans la physique des éruptions solaires et de la magnétosphère, . . . Les ingrédients de base
sont les mêmes : source d’énergie magnétique, champ cisaillé par la convection conduisant à une réorganisation de la distribution de courant et pression,
relaxation parfois violente conduisant à une expulsion d’énergie. Il existe aussi
des différences notables, notamment la topologie du champ magnétique. Ceci
étant, une mise en commun des méthodes numériques pourrait s’avérer fructueuse.
Une autre interface possible porte sur la stabilité des disques d’accrétion magnétisés. Les instabilités qui y prennent place y sont parfois de type échange et
présentent des analogies avec les modes de ballonnement (au sens large) dans
les plasmas de Tokamak. Ces modes pourraient expliquer les viscosités très supérieures aux valeurs collisionnelles observées dans les galaxies.
Dynamo
Une question importante en astrophysique et en géophysique interne est celle
de la dynamo. Cette thématique est à première vue hors contexte, car le champ
magnétique d’un appareil de fusion est de plusieurs teslas. On ne s’attend pas à
ce que les écoulements du plasma induisent une modification sensible du champ
magnétique d’équilibre. Toutefois, il n’est pas exclu que les modifications locales du champ magnétique par effet dynamo soient suffisantes pour affecter
la stabilité. Par ailleurs, il existe au moins une classe d’appareils, les Reversed
Field Pinch, dont le fonctionnement même repose sur l’effet dynamo. Il existe
déjà quelques contacts entre communautés fusion et dynamo stellaire, qui pourraient s’intensifier à l’avenir. Signalons à cet égard qu’il existe aussi en France
une communauté fort dynamique travaillant sur des expériences de dynamo en
laboratoire. Par ailleurs, les systèmes étudiés dans le domaine de la dynamo
70
LA
FUSION NUCLÉAIRE
stellaire sont souvent en régime turbulent. Par exemple, la région d’interface
(« tachocline ») entre le cœur du Soleil en rotation solide et la couche de convection en rotation différentielle présente une analogie avec la région du piédestal
en mode H. La turbulence MHD est donc un sujet qui est à l’interface entre les
questions de stabilité macroscopique et de transport turbulent, traité dans la
section suivante.
3
Turbulence et transport
Résumé
– La question du confinement est centrale dans les plasmas de fusion. Les
pertes de chaleur et de particules sont déterminées par un transport turbulent généré par des micro-instabilités.
– Un principe de similitude montre que le confinement peut être décrit essentiellement par trois paramètres sans dimension. L’extrapolation vers Iter
se fait principalement sur l’un d’entre eux (rayon de Larmor normalisé à la
taille du plasma). Cette dépendance a été déterminée par des expériences
dédiées, puis confirmée par des simulations de turbulence. La dépendance
avec les deux autres paramètres (collisionnalité et bêta) reste à affiner.
– Les modèles de transport de « premiers principes » prédisent des profils en
accord avec l’expérience à 30 % près. Cette précision doit être améliorée
à l’aide de codes de simulations de turbulence. À court terme, l’objectif est
d’améliorer les modèles de transport existants. À long terme, les simulations
de turbulence pourraient être utilisées directement pour prédire le confinement.
– Dans les régimes à faible collisionnalité d’Iter, l’interaction entre particules
et champ magnétique perturbé est résonnante. Une théorie cinétique doit
donc être utilisée pour calculer la réponse du plasma. Ceci ouvre un champ
nouveau d’exploration, qui est celui de la turbulence gyrocinétique. Cette
thématique est à l’interface entre plusieurs communautés, notamment en mathématiques appliquées, astrophysique et physique des plasmas de fusion.
La modélisation d’une turbulence gyrocinétique requiert un effort vigoureux
dans le domaine des simulations numériques (cf. chapitre 6).
– L’axe de recherche principal en matière d’expérimentation reste celui
du contrôle des régimes avec confinement amélioré. Expérience et théorie montrent que le transport peut être significativement réduit par des cisaillements adéquats de vitesse et/ou de champ magnétique. Cette situation
conduit à l’apparition de barrières de transport. L’objectif à court terme reste
L ES
PLASMAS CHAUDS MAGNÉTISÉS
71
le développement de méthodes de contrôle en temps réel des profils de pression et de courant afin de maîtriser la position et la hauteur de ces barrières.
Cet effort devrait s’accompagner en parallèle de simulations de turbulence
ainsi que d’imagerie des fluctuations du plasma.
3.1 Principaux résultats
Transport turbulent
Le confinement dans un plasma de Tokamak est essentiellement contrôlé par
les pertes diffusives de particules et de chaleur. Les coefficients de diffusion sont
calculés à partir des profils mesurés et des flux9 . Les valeurs obtenues sont très
supérieures à celles prédites par une théorie du transport collisionnel. De fait, les
coefficients de transport sont déterminés par une turbulence à petite échelle qui
se développe dans le plasma via l’évolution non linéaire de micro-instabilités
(figure 3.5). Compréhension et contrôle du transport turbulent dans un plasma
magnétisé sont donc un sujet d’étude majeur.
La principale source d’instabilité est du type « échange » (cf. § 2. Stabilité
MHD). Toutefois la MHD conventionnelle ne permet pas de décrire correctement
ces modes, du fait du comportement très différent des électrons et des ions dans
le domaine des basses fréquences. La MHD à deux fluides fournit une description approchée, mais le cadre le plus approprié est celui des théories cinétiques
(équations de Vlasov ou Fokker-Planck). La raison en est l’interaction résonnante
entre onde et particules, processus qui ne peut être décrit correctement par une
théorie fluide. Ces modes, appelés ondes de dérive, existent dans un large domaine de paramètres, y compris à faible bêta. Le seuil d’instabilité s’exprime en
fonction des longueurs de gradient en densité et température. Lorsque la pression du plasma augmente, on retrouve une branche instable de type mode de
ballonnement et la description en terme de MHD retrouve un sens. L’évaluation
des coefficients de transport turbulents associés à une turbulence de dérive a
fait l’objet d’un effort intense de théorie et de modélisation. Les simulations requièrent des temps de calcul considérables, et ne peuvent donc pas être utilisés
de manière routinière dans la préparation ou l’interprétation d’expériences. La
stratégie consiste donc à utiliser un principe de similitude, et à développer des
modèles de transport réduits.
9À
titre d’exemple, le flux thermique φT est relié à la diffusivité thermique χT , densité n et gradient
de température ∇T via la loi de Fourier φT = −nχT ∇T. Le temps de confinement de l’énergie τE se
comporte typiquement comme a2 /χT . En réalité il existe plusieurs flux (particules, moment, chaleur
pour chaque espèce) et écarts à l’équilibre thermodynamique. Les uns sont liés aux autres via une
matrice de transport qui satisfait aux règles de symétrie d’Onsager.
72
LA
FUSION NUCLÉAIRE
Figure 3.5
Trajectoire non perturbée d’un élément fluide le long du champ magnétique d’un Tokamak et lignes de
contour (en encadré) du potentiel électrique perturbé dans une coupe poloïdale. La vitesse perpendiculaire
fluide est une vitesse de dérive électrique, perpendiculaire au champ magnétique et au gradient du potentiel
électrique vE =B×∇φ/B2 . L’écoulement est donc tangent aux lignes de contour. Les lignes de contours fermées
sont appelées cellules de convection ou vortex, par analogie à la turbulence fluide bidimensionnelle. La taille
typique d’un vortex est de quelques rayons de Larmor ionique (c’est-à-dire quelques mm) et le temps de vie est
de l’ordre de τ c ≈20 μs. En première approximation, un élément fluide suit une marche au hasard associée à
un coefficient de diffusion de l’ordre de |vE |2 τ c .
Principe de similitude
La turbulence d’un plasma magnétisé est caractérisée par trois paramètres
sans dimension principaux : le rayon de Larmor normalisé à la taille du plasma
ρq , la fréquence de collision coulombienne normalisée à une fréquence de transit (inverse du temps nécessaire à une particule pour faire le tour du tore) ν∗ , et
le bêta du plasma β 10 . Ce principe de similitude est très important car il permet
de réduire les incertitudes lors de l’extrapolation des résultats actuels vers une
machine de la génération suivante. La loi d’échelle du temps de confinement
utilisée pour la conception d’Iter (loi Iter 98) peut de fait s’exprimer en fonction de ces trois nombres sans dimension, après normalisation à la fréquence
cyclotronique,
BτE ≡ ρ∗−2,7 β −0,9 ν∗0,0
Des expériences d’identité entre machines de géométrie comparable ont démontré la validité du principe11 . Les valeurs de collisionnalité et de bêta obtenues
10 Le nombre de paramètres sans dimension est en fait bien supérieur dans un plasma magnétisé.
On peut toutefois démontrer que ces trois paramètres déterminent le transport turbulent associé aux
ondes de dérive à géométrie fixée, et en l’absence de toute influence de processus de physique
atomique.
11 Par identité on entend des plasmas avec les mêmes valeurs de ρ , β, ν .
∗
∗
L ES
PLASMAS CHAUDS MAGNÉTISÉS
73
dans les machines actuelles sont déjà proches des valeurs attendues dans Iter.
L’extrapolation se fait donc essentiellement sur le rayon de Larmor normalisé,
qui sera dans Iter 2.5 à 3 fois plus petit que dans les Tokamaks de la génération actuelle. Les simulations de turbulence ont donc porté en priorité sur cette
dépendance. La loi de puissance obtenue dans la limite des faibles rayons de
Larmor est un temps de confinement en [ρ∗ ]−3 , ce qui est en bon accord avec
la loi d’échelle Iter 98 (qui varie en [ρ∗ ]−2,7 ). C’est un résultat majeur. En revanche, les dépendances en collisionalité et bêta sont encore mal connues et
font l’objet d’un effort vigoureux sous forme d’expériences dédiées et de calculs.
Les expériences les plus récentes menées à Jet et DIII-D indiquent que le temps
de confinement normalisé se comporte comme BτE ≡ ρ∗−3,0 β 0,0 ν∗−0,35 . Cette loi
d’échelle est favorable à Iter car elle ne dépend pas du paramètre β. Ce résultat
est en adéquation avec les simulations du transport turbulent qui indiquent un
rôle mineur des fluctuations du champ magnétique (dont l’amplitude augmente
avec β), sauf lorsque β approche de la limite de stabilité MHD idéale.
Prédiction du transport
La comparaison à l’expérience des modèles de transport déduits des simulations de turbulence a fait l’objet d’un vaste effort de collaboration internationale
dans le cadre de l’ITPA (« International Tokamak Physics Activity »). Un modèle
de transport s’appuie sur une théorie de champ moyen. Il est généralement
construit en utilisant une théorie quasi linéaire12 et une approximation de « longueur de mélange »13 . Il en résulte des coefficients de diffusion qui dépendent
des paramètres macroscopiques du plasma. Le test consiste à prédire les profils
de densité et température moyens dans un Tokamak en résolvant les équations
de transport dans la direction transverse aux surfaces magnétiques. Ces profils
calculés sont ensuite comparés aux profils expérimentaux. L’erreur est estimée
par une erreur quadratique moyenne entre profils prédits et mesurés. L’évaluation de ces modèles a montré que l’erreur moyenne est de l’ordre de 30 % dans
des plasmas standards. L’erreur est très supérieure dans le cas ou des barrières
12 Les
flux sont des moyennes quadratiques des champs perturbés. Par exemple le flux de particules = nνE est une moyenne sur le spectre spatiotemporel des fluctuations du produit densité n et
de la vitesse de dérive νE . La théorie quasi linéaire consiste à estimer le flux en utilisant l’expression
linéaire de la perturbation de densité en fonction de la vitesse fluctuante. L’expression finale dépend
du carré de la vitesse fluctuante, qui reste inconnue à ce stade.
13 L’approximation de longueur de mélange permet d’estimer l’amplitude de la vitesse fluctuante
en fonction des longueurs de gradient. Dans la version la plus simple, le niveau relatif de fluctuations de densité va comme le rapport d’une longueur de corrélation « typique » à une longueur de
gradient. Cette prescription jointe à la théorie quasi linéaire suffit à déterminer le flux turbulent. En
pratique, les règles de type « longueur de mélange » sont assez complexes et mises au point à partir
de simulations de turbulence.
74
LA
FUSION NUCLÉAIRE
internes de transport se développent. Ce niveau de précision, bien qu’encourageant, n’est pas suffisant14.
Confinement amélioré, barrières de transport
Un fait remarquable est l’existence de processus génériques de stabilisation
d’une turbulence d’ondes de dérive. Les deux principaux ingrédients sont le
cisaillement de vitesse et le cisaillement du champ magnétique (défini comme le
gradient logarithmique du facteur de sécurité). L’effet d’un cisaillement de vitesse
est essentiellement de réduire la taille des cellules de convection (figure 3.6),
et donc les coefficients de transport15 . Un cisaillement magnétique élevé a un
effet similaire. Ceci étant, la configuration optimale correspond à un cisaillement
magnétique nul ou négatif. Cette propriété quelque peu paradoxale provient
de la décroissance du taux de croissance de l’instabilité d’échange lorsque le
cisaillement magnétique devient négatif.
Figure 3.6
Effet d’un cisaillement de vitesse sur une turbulence de modes de ballonnement (d’après P. Beyer et al., LPIIM,
U. Provence).
Une manifestation non moins remarquable de ces processus stabilisants est
l’apparition de barrières de transport, qui sont des régions où le transport turbulent est faible et les gradients élevés. Le premier type de barrière observé
est le mode H, découvert en 1982, qui se développe au bord du plasma16 . Le
temps du confinement est alors typiquement amélioré d’un facteur 2. Le mode H
constitue le scénario de base d’Iter. L’amélioration du confinement est attribuée
au développement d’une couche de cisaillement de vitesse qui conduit à une
suppression localisée de la turbulence17. Le mécanisme de transition n’est pas
connu dans le détail. Le lien entre cisaillement de vitesse et les gradients en est
14 De
fait ces modèles n’ont pas été utilisés pour le dimensionnement d’Iter. En revanche, ils
apportent des informations précieuses en termes de cohérence des choix de conception.
15 Dans une estimation de type marche au hasard, le coefficient de diffusion va comme le carré
de la taille des tourbillons et l’inverse de leur temps de vie.
16 Une barrière de mode H est appelée aussi « barrière de transport externe ». Le mode de
fonctionnement standard est appelé mode L.
17 Cisaillement de vitesse et baisse localisée des fluctuations sont observés expérimentalement.
L ES
PLASMAS CHAUDS MAGNÉTISÉS
75
Figure 3.7
Diagramme schématique donnant la densité de flux de chaleur (ou de particules) en fonction d’un gradient de
température (ou de densité) en présence d’un cisaillement vitesse.
probablement la pièce maîtresse. Ce lien entraîne en effet un processus d’amplification dans lequel un cisaillement de vitesse conduit à une baisse de transport
turbulent, donc une augmentation des gradients qui renforce le cisaillement. Ce
processus peut être illustré par une courbe schématique « en S » donnant le
flux (par exemple flux de chaleur) en fonction d’un gradient (de température)
(figure 3.7). Dans ce schéma, une bifurcation apparaît au-dessus d’une valeur
critique du flux. Le prix à payer est donc un seuil en puissance de chauffage, qui
augmente avec la densité, le champ magnétique et la taille du plasma. L’avantage de ce cercle vertueux est une robustesse qui prend la forme d’un phénomène d’hystérésis (puissance de transition inverse inférieure à la puissance
de seuil). Puissance de seuil et hystérésis sont observées expérimentalement. La
puissance de seuil est exprimée sous forme adimensionnelle, comme pour le
temps de confinement. La puissance de chauffage dans Iter devrait être largement au-dessus du seuil prédit.
Plus récemment sont apparues des barrières internes de transport. En général ces barrières sont produites en modifiant le profil de facteur de sécurité (figure 3.8, à comparer à la figure 3.1). L’inversion ou l’annulation du cisaillement
magnétique explique l’apparition de ces barrières. Ceci étant, une fois la barrière formée, le processus d’amplification du cisaillement de vitesse déjà évoqué
contribue à sa robustesse. Ce type de barrières est attractif car il s’accompagne
en général d’une forte fraction de courant autogénéré (bootstrap) puisque celuici augmente avec le gradient de pression. C’est donc une voie prometteuse vers
des plasmas stationnaires dans un réacteur. Les scénarios dits « avancés » dans
Iter devraient faire appel à des barrières internes. Les barrières internes sont
caractérisées par un seuil en puissance de chauffage, comme pour les barrières
76
LA
FUSION NUCLÉAIRE
Figure 3.8
Barrière interne dans le Tokamak Jet : profils expérimentaux des températures ionique (triangles) et
électronique (carrés), et profil de facteur de sécurité (vert).
externes. Toutefois l’expérience montre que ce seuil en puissance est bas lorsque
le profil de facteur de sécurité est optimisé.
3.2 Problèmes de physique ouverts en turbulence
Modélisation du transport
Un objectif central est l’amélioration du pouvoir prédictif des modèles de
transport. Les modèles construits à partir d’une théorie quasi linéaire et d’une
approximation de longueur de mélange ont un pouvoir de prédiction limité.
Deux raisons semblent expliquer les désaccords entre prédiction et mesure.
D’une part ces modèles ont été élaborés sur la base d’une description fluide.
D’autre part, le caractère intermittent de la turbulence n’y est pas pris en compte.
Les développements actuels dans ce domaine répondent à ces déficiences. On
assiste d’une part à l’émergence de codes cinétiques (ou plus précisément « gyrocinétiques » car le mouvement rapide de giration cyclotronique y est éliminé
par moyenne sur la phase cyclotronique). Ces codes permettent de tenir compte
de l’interaction résonante entre ondes et particules. Leur développement est
un véritable défi numérique du fait de leur dimensionnalité élevée (5D), mais
aussi de la physique très riche du comportement non linéaire des ondes de
dérive en régime cinétique. On assiste d’autre part à un effort vigoureux de
L ES
PLASMAS CHAUDS MAGNÉTISÉS
77
compréhension des processus conduisant à un comportement intermittent de la
turbulence. Cette intermittence résulte d’une dynamique de structures. Les structures les plus importantes identifiées à ce jour sont les écoulements zonaux,
qui sont des fluctuations de vitesse orientées dans la direction poloïdale. Ces
écoulements, qui ne participent pas au transport anormal puisqu’ils n’ont pas
de composante transverse aux surfaces magnétiques, jouent un rôle régulateur
très important. Leur dynamique fait donc l’objet d’une attention particulière.
Du point de vue expérimental, l’intermittence a été mise en évidence dans les
régions d’interface plasma-paroi par l’analyse de séries temporelles à l’aide
de mesures de fluctuations de densité par sondes de Langmuir. En revanche, il
n’existe pas d’observation directe de structures turbulentes de type écoulement
zonal. En effet les mesures bidimensionnelles de fluctuations n’en sont qu’à leurs
balbutiements18 .
La stratégie actuelle face à ce problème complexe consiste à progresser simultanément sur trois fronts (chapitre 6) :
– l’amélioration des modèles de transport existants et leur intégration dans
les outils numériques de modélisation intégrée. Le développement de modèles de transport passe par une description statistique de la turbulence tenant compte des phénomènes d’auto-organisation (dynamique des structures) ;
– la prédiction directe du confinement à l’aide de codes de simulation de
turbulence plasma. Cette approche est similaire à ce qui se fait en climatologie. Une difficulté est la mise au point d’équations fluides permettant
de reproduire partiellement les effets cinétiques ;
– le développement de codes cinétiques complets afin d’avoir la description la plus précise possible du transport turbulent dans un régime où les
interactions résonnantes onde/particule jouent un rôle important.
Barrières de transport et contrôle
La physique détaillée décrivant l’apparition et le maintien des barrières de
transport est encore mal connue, et constitue un enjeu majeur pour les années à
venir. Ceci est particulièrement vrai pour la transition vers le mode H qui se fait
dans une région d’interface entre plasmas de cœur et de bord, lieu aussi d’un
changement de topologie magnétique (séparatrice). L’objectif est de prédire les
conditions précises d’établissement du mode H, exprimé actuellement sous la
18 La seule mesure 2D probante à ce jour est une mesure par spectroscopie d’échange de charge
sur faisceau de neutres. Des diagnostics utilisant l’émission cyclotronique du plasma ou la réflectométrie sont en cours de développement.
78
LA
FUSION NUCLÉAIRE
Figure 3.9
Profils de pression correspondant aux divers scénarios possibles avec et sans barrières.
forme d’une puissance de seuil. Une difficulté supplémentaire vient des modes
MHD de type torsion/ballonnement prenant la forme d’oscillations de relaxation (modes localisés de bord ou ELM, voir § MHD). La recherche de régimes
de fonctionnement avec confinement amélioré est donc un axe majeur d’expérimentation et de théorie. La tendance actuelle est de combiner barrières externes
et internes. La figure 3.9 illustre les différents types de profils de pression obtenus suivant les différents scénarios. Les simulations de turbulence sont encore
loin de reproduire de manière satisfaisante la dynamique complète de ces barrières, bien que les principales caractéristiques en aient été reproduites. Il faut
donc s’attendre à ce que ce sujet évolue rapidement dans un avenir proche.
Un second objectif est le développement de méthodes de contrôle du transport. Un axe de recherche porte sur la maîtrise des profils de vitesse et de
courant, dont on a vu qu’ils constituent des outils génériques de contrôle de la
turbulence. Un large effort porte actuellement sur les systèmes de contrôle en
temps réel. Cet activité recouvre des objectifs très divers tels que la diminution
des temps d’acquisition et de traitement des mesures, le développement d’outils
numériques de reconstruction de l’équilibre utilisables en temps réel, l’adaptation des moyens de contrôle (chauffage, génération de courant, . . .) ou l’optimisation des matrices de contre-réaction. Une seconde option consiste à agir
L ES
PLASMAS CHAUDS MAGNÉTISÉS
79
directement sur les fluctuations. Ce type de technique consiste à mesurer les fluctuations du plasma à l’aide de sondes, puis à rétroagir sur le potentiel électrique
(polarisation). Des méthodes de ce type ont déjà été testées avec succès sur des
machines linéaires (LPMIA-U. Nancy, LPIIM-U. Provence), et plus récemment sur
le Tokamak Castor (République Tchèque).
Mesures de fluctuations et simulations de turbulence
Ce programme ambitieux de modélisation et d’expérimentation n’a de sens
que s’il existe des données expérimentales permettant de tester les modèles. Il
suppose donc l’existence d’un parc de tokamaks en opération d’ici le démarrage
d’Iter. Par ailleurs, le test des modèles de transport ne peut se faire qu’avec des
mesures ayant une excellente résolution temporelle et spatiale, de sorte que des
régimes transitoires ou des expériences de modulation puissent être simulés. Enfin la compréhension des mécanismes régissant le transport turbulent nécessite
des mesures de fluctuations du plasma. Il est à souligner ici que les simulations
numériques de turbulence ont fait des progrès notables ces dernières années,
conduisant à plusieurs prédictions sur l’existence et la nature des structures régulant la turbulence. Une vérification expérimentale de ces prédictions passe
par la mise au point de mesures bidimensionnelles résolues en espace et temps
permettant une cartographie des fluctuations du plasma.
3.3 Problèmes communs avec d’autres secteurs
de la physique
Turbulence fluide
Les problèmes de la turbulence et du transport associé ont été largement
abordés dans le contexte de la turbulence fluide. L’instabilité d’échange présente des similarités avec la thermoconvection (Rayleigh-Bénard) et l’instabilité
de Rayleigh-Taylor, très étudiées en mécanique des fluides. La similarité la plus
frappante est celle entre plasma magnétisé et fluide tournant. Ceci tient à la correspondance entre la force de Lorentz et la force de Coriolis, où la fréquence de
rotation remplace la fréquence cyclotronique (à un facteur 2 près). Une conséquence est l’aspect quasi bidimensionnel des écoulements dans les deux cas.
L’archétype d’un fluide turbulent en milieu tournant est la turbulence atmosphérique. De fait, les ondes de Rossby et les ondes de dérive sont décrites par
la même équation dans l’approximation la plus simple (équation de CharneyHasegawa-Mima). Les deux descriptions diffèrent sensiblement lorsque toute la
physique est prise en compte, ainsi que la géométrie tridimensionnelle. Il reste
cependant vrai que les deux domaines de recherches présentent de nombreuses
80
LA
FUSION NUCLÉAIRE
similarités, notamment quant à la problématique de la modélisation prédictive
(problème de la concentration du gaz carbonique et de l’effet de serre induit
par exemple).
L’étude de la turbulence plasma a bénéficié dans le passé des progrès réalisés
dans le domaine de la turbulence fluide dans son ensemble. De fait la plupart
des méthodes numériques utilisées pour simuler une turbulence plasma en régime fluide ont été mises au point dans le contexte de la turbulence fluide. On
peut aussi citer certaines descriptions statistiques (Direct Interaction Approximation, Eddy Damped Quasi-Normal Markovian approximation, . . .), dont l’application reste toutefois délicate du fait du caractère inhomogène et anisotrope
d’une turbulence de plasma de fusion. Les techniques conduisant aux modèles
de transport présentent des analogies avec la description « K-ε » couramment
utilisée en mécanique des fluides pour estimer les viscosités turbulentes. Enfin les
lois d’échelle constituent un sujet d’étude commun.
Astrophysique
Le transport turbulent dans les plasmas magnétisés tient aussi une place importante en astrophysique. La similarité des problèmes de turbulence plasma
avec les questions de thermoconvection a déjà été signalée. De fait, ce problème
est à l’évidence crucial pour la structure interne du Soleil. Par ailleurs, une viscosité turbulente est usuellement invoquée dans les modèles de formation stellaire
ou de galaxie (disques d’accrétion magnétisés). Les instabilités fluides usuelles
(Kelvin-Helmholtz) ne suffisent pas toujours à justifier le niveau de fluctuations
permettant d’expliquer les valeurs requises de viscosité. Il est donc fait appel en
général à une turbulence plasma, dont la nature est encore mal connue. Cette
question entre dans la thématique plus générale de la « turbulence MHD ». La
question de turbulence MHD présente un lien étroit avec celle des plasmas de
fusion à fort bêta. L’importance des effets électromagnétiques dans ce domaine
de paramètres a déjà été mentionnée. Deux phénomènes caractérisent ces régimes turbulents : l’effet dynamo (déjà mentionné) et la reconnexion turbulente.
Cette dernière est caractérisée par l’apparition de couches étroites de courant,
qui peut conduire à des singularités en temps fini. L’ensemble de ce sujet est très
riche et constitue un domaine de recherche fort actif.
Turbulence en régime cinétique
L’approche fluide n’est pas appropriée au régime faiblement collisionnel, où
une description cinétique du plasma doit être utilisée. En l’absence de collisions, le cadre formel général de l’interaction ondes/particules est celui des systèmes hamiltoniens. La physique des plasmas est traditionnellement très active
L ES
PLASMAS CHAUDS MAGNÉTISÉS
81
dans ce domaine, qui présente aussi des connexions avec d’autres domaines
de la physique, par exemple les systèmes gravitationnels19 . L’apport de la physique des plasmas est considérable dans le domaine de la transition vers le
chaos hamiltonien (théorème Kolmogorov-Arnold-Moser), et du transport associé (transport quasi linéaire par exemple). Il a été montré par exemple que
les systèmes hamiltoniens stochastiques sont sujets sous certaines conditions à
un transport « anormal », au sens de « non diffusif ». Ce résultat est à mettre
en regard de l’hypothèse de transport diffusif sous-jacente à l’ensemble des modèles de transport couramment utilisés. La description de l’interaction résonnante
ondes/particules (résonance Landau) a aussi fait l’objet de nombreux travaux.
De fait, les instabilités décrites précédemment (échange notamment) prennent un
caractère cinétique en régime sans collision, l’échange d’énergie entre ondes et
particules étant contrôlé par les résonances Landau.
4
Chauffage et génération de courant
Résumé
– L’injection de particules neutres rapides est un chauffage très efficace, avec
une bonne efficacité de génération de courant au centre. En revanche, aucune génération de courant n’est observée hors de l’axe magnétique. Il permet aussi une génération de rotation dans les plasmas actuels, mais a priori
pas extrapolable à un réacteur.
– L’onde magnétosonique rapide a une très bonne efficacité de chauffage
sur les ions ou les électrons suivant le scénario, qui permet aussi de générer
du courant. La génération de rotation toroïdale du plasma est observée et
bien comprise. L’avantage est que la méthode est extrapolable au réacteur.
– L’onde quasi électrostatique à la fréquence hybride basse est la meilleure
méthode pour générer du courant dans les machines actuelles, extrapolable
au réacteur pour la périphérie du plasma. Le profil de densité de courant est
assez large et peu sensible à la présence d’électrons piégés. Cependant la
présence des particules α dans un réacteur peut être délétère si la fréquence
utilisée est trop basse. La compréhension générale de l’absorption est encore
très partielle, malgré les importants développements théoriques, et les nombreuses données expérimentales. Cette technique n’est pas encore envisagée
pour Iter.
– Les ondes à la fréquence cyclotronique électronique permettent un contrôle
très précis du chauffage des électrons ou de la génération de courant, contrebalançant une efficacité modeste. C’est une méthode très performante de
19 Les trajectoires non perturbées dans un Tokamak sont intégrables et descriptibles par un système de variables angulaires et d’action, d’où l’analogie avec les systèmes Keplériens.
82
LA
FUSION NUCLÉAIRE
contrôle des modes MHD de type « déchirement néoclassique », évitant ainsi
une dégradation des performances du plasma. L’efficacité de génération de
courant est très sensible à la présence de particules piégées, donc pas envisageable au bord du plasma.
– L’interaction antenne-plasma constitue une des difficultés techniques majeures, lorsqu’il faut approcher l’antenne très près du plasma si l’onde présente une coupure à basse densité (onde magnétosonique, onde hybride).
La modélisation de l’interaction nécessite de décrire le champ proche des
structures de manière cohérente avec les propriétés du plasma. L’onde à la
fréquence cyclotronique électronique ne présente pas cette difficulté.
L’injection de particules neutres de grande vitesse et les ondes radiofréquence
constituent les deux grandes voies pour chauffer et générer du courant dans un
plasma de Tokamak. Par nature, la première méthode représente non seulement
une source externe de quantité de mouvement, mais également une source locale
de particules, ce qui est certainement une différence importante avec les ondes
radiofréquence, notamment pour amorcer une barrière interne de transport, par
une modification locale du champ électrique radial résultant d’une évolution du
gradient de densité.
4.1 Les principales méthodes de chauffage et de génération
de courant
L’injection de particules neutres rapides
À l’heure actuelle, la source de chauffage additionnel la plus communément
utilisée est certainement l’injection de particules neutres rapides. Le principe
physique repose sur l’accélération d’ions à des énergies supérieures à celles des
particules du plasma, qui sont neutralisés peu avant leur arrivée dans celui-ci
pour pouvoir pénétrer le bouclier magnétique. Une fois au cœur du plasma, ces
particules neutres s’ionisent par collision, et sont alors confinées par le champ
magnétique. Elles transfèrent leur énergie cinétique au plasma par collisions
successives. La physique d’ionisation des neutres et du ralentissement collisionnel
est bien connue et vérifiée expérimentalement. Cette méthode est donc très fiable
et son fonctionnement est largement indépendant du plasma.
La technologie de la plupart des injecteurs de neutres actuellement utilisés
repose sur l’emploi d’une source d’ions positifs. L’énergie d’injection est alors
limitée aux alentours de 100 keV, le rendement de neutralisation d’un ion positif
décroissant fortement au-delà de 150 keV. L’énergie critique dans le plasma en
L ES
PLASMAS CHAUDS MAGNÉTISÉS
83
dessous de laquelle les ions injectés transfèrent préférentiellement leur quantité
de mouvement par collision aux ions thermiques, est d’une centaine de keV pour
un plasma ayant une température de 10 keV. Par conséquent, l’injection de particules neutres chauffe surtout les ions dans les plasmas actuels. Par ailleurs, l’injection de particules neutres rapides constitue un moyen privilégié pour mettre
en rotation le plasma, dans la direction toroïdale. En orientant le faisceau le
long de cette direction, l’effet conjugué du transfert d’impulsion et de la modification locale du gradient de densité par l’apport de matière permet d’amorcer
ce mécanisme particulièrement bénéfique pour la stabilisation de la turbulence
et le contrôle des modes MHD. Il s’agit d’un des ingrédients majeurs pour les
scénarios avancés dans les Tokamaks d’aujourd’hui.
Les ondes radiofréquence
Les ondes radiofréquences offrent une très large palette d’actions sur le
plasma, que ce soit pour chauffer celui-ci, générer du courant ou même de
la rotation. L’avantage principal réside dans le fait que la source de puissance
peut être placée à très grande distance du plasma (centaines de mètres), celle-ci
étant amenée au réacteur grâce à des guides d’ondes à faibles pertes, dont la
technologie est aujourd’hui bien maîtrisée.
Parmi les ondes susceptibles de se propager et d’être absorbées par le
plasma, on retiendra les trois principales pour leurs applications potentielles
dans un plasma de réacteur, par ordre de fréquence croissante : l’onde magnétosonique rapide dans le domaine de la fréquence cyclotronique ionique
(ω/2π = 10−100 MHz, λ ∼ 1 m), l’onde lente quasi électrostatique à la fréquence hybride basse (ω/2π = 1−10 GHz, λ ∼ 1−10 cm), et l’onde électromagnétique à la fréquence cyclotronique électronique (ω/2π = 10−100 GHz,
λ ≤ 1 mm). Toutes trois ont fait et font toujours l’objet d’études très approfondies
sur de très nombreuses machines de tailles très diverses, ainsi que d’efforts importants de modélisation. Ces derniers sont d’une difficulté globalement décroissante avec la fréquence, la longueur d’onde devenant alors petite par rapport à
la taille de la machine et des gradients dans le plasma.
Le principe général d’utilisation des ondes radiofréquence est quasi universel : l’antenne au bord du plasma est chargée d’exciter une perturbation oscillante propagative perpendiculairement aux surfaces magnétiques. Les paramètres choisis doivent permettrent à l’onde de rencontrer une résonance le long
de son cheminement, qui peut être soit cyclotronique (couplage au mouvement
de giration des ions ou des électrons, rôle important de la polarisation de l’onde
dans ce cas, pour que dans le repère local de la particule, le champ électrique
de l’onde contribue à l’accélérer), ou cinétique (le champ électrique de l’onde
est aligné avec la ligne de champ). En ce point, la vitesse de phase de l’onde
84
LA
FUSION NUCLÉAIRE
tend vers zéro, et celle-ci perd alors sa structure propagative permettant ainsi
un échange irréversible de quantité de mouvement entre l’onde et le plasma.
La puissance portée par l’onde est alors cédée à la catégorie de particules du
plasma en jeu dans ce mécanisme. On peut donc agir sélectivement sur différentes populations constitutives du milieu, indépendamment de ses caractéristiques, ce qui est un atout pour un contrôle très ciblé des propriétés du plasma.
Onde magnétosonique rapide
La physique de l’absorption de l’onde magnétosonique rapide est complexe.
En effet, à l’harmonique fondamental, par effet d’écran, le champ électronique
de l’onde devient évanescent au voisinage de la résonance, ce qui rend le scénario inopérant. Pour contourner cette difficulté, on utilise la présence en faible
quantité d’ions de masse différente (quelques %), pour lesquels la condition de
résonance correspond à un harmonique plus élevé. Dans ce cas, pour ces ions,
le champ de l’onde n’est pas totalement écranté et conserve une valeur finie, ce
qui permet un couplage résonnant très efficace. C’est le scénario du chauffage
minoritaire, qui permet de produire une population d’ions suprathermiques, capable de chauffer le plasma par collisions successives. L’onde est alors presque
totalement absorbée en un seul passage. Lorsque la densité d’ions minoritaires
augmente (20–30 %), le mécanisme résonnant devient progressivement moins
efficace, et la fraction cédée aux ions diminue substantiellement, alors que celle
allant vers les électrons augmente. Dans ce régime, dénommé conversion de
mode, l’onde n’est alors plus absorbée en un seul passage, ce qui rend sa description très complexe.
Il a été possible de générer du courant au centre du plasma en régime minoritaire. On est cependant encore loin d’avoir exploré toutes les potentialités de
l’onde en ce domaine, et de nombreuses expériences seront nécessaires pour
qualifier le mécanisme. Il a aussi été possible de générer de la rotation toroïdale
au voisinage de la résonance, et point important, de contrôler sa localisation en
jouant sur le phasage de l’antenne. Il s’agit d’un résultat très prometteur, dans
la mesure où cette méthode permet d’envisager une extrapolation au réacteur,
alors que l’injection de particules neutres rapides risque d’être inefficace pour
contrôler ce paramètre. Le fait que la modélisation puisse reproduire très fidèlement les effets physiques observés est un élément d’autant plus encourageant
que la suite de mécanismes en jeu, faisant intervenir notamment les effets de
trajectoires des ions piégés20, est particulièrement complexe (figure 3.10).
20 Une particule piégée est une particule chargée qui rebrousse chemin lors de son mouvement le
long des lignes de champ, du fait de la force associée au gradient du module du champ magnétique.
Cette force est répulsive lorsque le module du champ augmente. Le piégeage survient lorsque la
vitesse initiale le long du champ magnétique est faible. Une particule piégée reste localisée dans la
L ES
PLASMAS CHAUDS MAGNÉTISÉS
85
Figure 3.10
Chauffage par l’onde magnétosonique rapide, scénario minoritaire. L’excellent accord entre le niveau
expérimental de neutrons produits par le plasma et celui calculé souligne la qualité de la modélisation de ce
type de scénario avec les outils actuels basés sur des codes d’ondes « full-wave » couplés à des codes
cinétiques de type Fokker-Planck (L.-G. Eriksson, et al., Jet).
Un autre scénario attractif pour le réacteur est le régime où toute résonance
est absente dans le plasma. Dans ce cas, l’onde est absorbée par les électrons
(figure 3.11). Si le plasma n’est pas assez chaud et dense, comme dans la plupart des régimes rencontrés dans les machines actuelles, l’absorption nécessite
plusieurs passages. Cette méthode est principalement envisagée pour générer
du courant dans la région centrale du plasma, là où la densité est la plus élevée et la température la plus grande. On peut ainsi envisager de contrôler la
valeur centrale du facteur de sécurité, paramètre très important pour éviter le
déclenchement d’instabilités MHD.
Onde à la fréquence cyclotronique électronique
L’onde à la fréquence cyclotronique électronique présente une capacité remarquable de localisation du dépôt de puissance. Cette méthode a été utilisée
pour contrôler le développement d’îlots magnétiques. Ce contrôle nécessite une
largeur de dépôt de puissance inférieure à la taille radiale de l’îlot, soit quelques
région de champ magnétique faible d’un Tokamak, c’est-à-dire du côté extérieur. Les particules non
piégées sont dites « passantes » et constituent la population majoritaire.
86
LA
FUSION NUCLÉAIRE
Figure 3.11
Relation de dispersion de l’onde magnétosonique rapide en régime de conversion de mode (20 % d’ions
minoritaires). La conversion de mode après la zone d’évanescence est particulièrement bien visible sur le
diagramme donnant l’intensité de la composante du champ électrique de l’onde polarisée dans le sens de la
rotation des ions. L’absorption au niveau de la conversion de mode est très localisée, en raison de la
croissance très rapide de l’indice perpendiculaire de l’onde avec la position dans le plasma.
centimètres. Compte tenu de la longueur d’onde petite devant les longueurs de
gradient, il est suffisant de décrire la propagation dans le cadre de l’approximation quasi optique WKB. Une excellente description des observations expérimentales est obtenue en couplant cet outil numérique avec un code cinétique
Fokker-Planck (Tokamak DIII-D). La localisation du dépôt de puissance de l’onde
cyclotronique électronique est cependant bien moins bonne que prévue dans le
Tokamak TCV, à très fort niveau de densité de puissance absorbée. Le rôle du
transport radial des électrons rapides a été évoqué afin de réconcilier modélisation et expérience. Ce résultat amène à s’interroger sur les réelles capacités de
générer du courant de manière très localisée, au voisinage du bord du plasma,
dans une région où la turbulence est certainement importante.
Onde à la fréquence hybride basse
L’intérêt principal de l’onde hybride tient à la génération non inductive de
courant entre mi-rayon et le bord du plasma. Son avantage réside dans une
efficacité très élevée par rapport à toutes les autres méthodes connues à ce jour.
L ES
PLASMAS CHAUDS MAGNÉTISÉS
87
Ceci tient au mécanisme microscopique qui résulte d’une résonance cinétique le
long des lignes de champ. Cette méthode est moins sensible que les autres à la
présence de particules piégées, puisque celle-ci favorise au contraire la fraction
circulante des particules chargées. Cette méthode a ainsi permis d’obtenir des
records de durée à forte puissance injectée sur Tore Supra (plus de six minutes de
plasma). Elle a aussi été utilisée afin de modifier fortement le profil de courant
dans la phase de montée de courant sur Jet, afin d’amplifier et de maintenir
un profil de courant creux favorable à l’établissement de barrières internes de
transport.
Interaction antenne-plasma
Les ondes de chauffage, avant d’être absorbées, doivent être excitées depuis
l’extérieur de la machine et acheminées jusqu’à l’endroit où elles pourront interagir efficacement avec le plasma. Les ondes cyclotroniques électroniques ont
un comportement quasi optique : produites sous forme de faisceaux gaussiens
à un générateur déporté de la machine, elles se propagent jusqu’au plasma
central selon l’optique géométrique. En cas de faible absorption elles subissent
éventuellement des réflexions multiples sur l’enceinte à vide. D’autres ondes (hybride, ondes cyclotroniques ioniques, ondes de Bernstein ioniques) se propagent
convenablement dans le plasma mais sont évanescentes dans le vide, ce qui impose de les exciter dans l’immédiate proximité du plasma. Malgré cela, une
fraction notable de la puissance, qui dépend du plasma et varie donc dans
le temps, peut être réfléchie vers les générateurs, ce qui a de fortes implications
technologiques. Aux basses fréquences, les longueurs d’onde sont de l’ordre des
dimensions de la machine, et en cas de faible absorption par passage, il peut
se former par multi-réflexions des modes de cavité. Le couplage est alors très
dépendant des conditions plasma. Les structures de couplage sont en général
des multipôles HF (grills multijonctions, réseaux phasés de rubans RF) dont les
différentes entrées sont couplées entre elles via le plasma. On caractérise électriquement ces multipôles par une matrice d’impédance d’entrée, qui généralise
la loi d’Ohm.
4.2 Les problèmes de physique ouverts en chauffage
et génération de courant
Injection de particules neutres rapides
La possibilité de générer du courant par injection de neutres rapides a été
étudiée en détail sur plusieurs machines, l’enjeu étant particulièrement important
pour la prochaine étape concernant la fusion magnétique. Lorsque le faisceau
88
LA
FUSION NUCLÉAIRE
de particules neutres est orienté dans le sens du courant plasma, une bonne
efficacité a été trouvée à condition que la puissance soit essentiellement déposée
au centre du plasma. En revanche, bien que les effets prédits sur le profil de
densité de courant soient importants lorsque le dépôt se trouve hors de l’axe
magnétique, aucune modification significative n’est observée expérimentalement
(JT60-U, ASDEX-Upgrade). Ce désaccord entre la modélisation et l’observation
n’a pas encore d’explication plausible.
Dans Iter, ainsi que dans les réacteurs futurs, la densité sera élevée (de l’ordre
de 1020 m−3 sur la majeure partie du plasma). Par ailleurs, la taille sera nettement supérieure à celle des plasmas actuels. Il faut donc augmenter l’énergie
d’injection des neutres afin que ceux-ci puissent pénétrer au centre du plasma.
Les énergies envisagées sont alors de l’ordre du MeV, ce qui élimine de fait les
techniques actuelles basées sur l’emploi de sources d’ions positifs. Il ne reste plus
que celle à base d’ions négatifs, le rendement de neutralisation étant quasiment
indépendant de l’énergie cinétique des ions rapides dans la gamme 100 keV–
1 MeV. Cette méthode est déjà testée avec succès sur le Tokamak japonais JT60U, avec une énergie d’environ 400 keV. Avec une telle énergie, le transfert de
quantité de mouvement se fait essentiellement sur la population électronique, ce
qui est moins avantageux que dans les scénarios actuels. Par ailleurs, l’intensité
du transfert d’impulsion sera bien plus faible. En conséquence, le contrôle du
cisaillement de rotation toroïdale du plasma pour stabiliser la turbulence reste
a priori problématique avec cette méthode. L’injection de neutres rapides avec
source d’ions négatifs est principalement envisagée pour générer du courant au
centre du plasma. L’efficacité (η = ne R0 ICD /P, où ne est la densité linéique, R0
le grand rayon plasma et ICD le courant non inductif généré) pour un système
optimisé est de l’ordre de 0,4 × 1020 AW−1 m−1 . Cette valeur est insuffisante,
de sorte que l’injection de particules neutres ne saurait être la seule source de
courant non inductif.
Onde magnétosonique rapide
En régime de conversion de mode, l’onde peut être considérée comme un
quasi-mode de cavité du fait de ses multiples allers et retours. Cette caractéristique nécessite l’emploi exclusif de code d’onde de type « full-wave » capable à
la fois de décrire des modes de grande taille, mais aussi la conversion de mode
vers une onde de Berstein de longueur d’onde bien plus courte, au voisinage
de la résonance. Il s’agit d’un véritable défi numérique qui fait l’objet d’efforts
théoriques très importants. L’enjeu est non seulement d’évaluer le lieu et la largeur d’absorption, mais aussi sur quelle population celle-ci est dominante. De
récents travaux montrent l’importance de prendre en compte dans ces calculs
des électrons suprathermiques.
L ES
PLASMAS CHAUDS MAGNÉTISÉS
89
Onde à la fréquence cyclotronique électronique
Le chauffage à la fréquence cyclotronique électronique présente certains inconvénients qui peuvent devenir rédhibitoires pour un réacteur. Intrinsèquement,
l’efficacité de génération de courant est faible par rapport à d’autres méthodes,
puisque l’échange de quantité de mouvement concerne principalement la direction perpendiculaire à la ligne de champ. Dans ces conditions, la fraction
de puissance fusion qui devra être recyclée peut atteindre des valeurs considérables, si un usage important est nécessaire. Mais la génération non inductive
de courant avec l’onde à la fréquence cyclotronique électronique chute dramatiquement lorsque l’ellipse de résonance dans l’espace des vitesses est proche de
la frontière entre les électrons circulants et piégés, l’énergie cinétique transférée
aux électrons par l’onde contribuant à favoriser leur piégeage. On peut cependant envisager d’utiliser favorablement l’effet Ohkawa, en injectant l’onde dans
la direction opposée à celle du courant que l’on souhaite générer, si la nécessité de contrôler le profil de courant à la périphérie du plasma est avérée, pour
contrôler les modes localisés de bord (ELMs) par exemple.
Onde à la fréquence hybride basse
Cette méthode de génération de courant est peu sensible à la population de
particules piégées. Toutefois il existe d’autres facteurs limitatifs. Les particules
alpha peuvent absorber l’onde à la fréquence hybride basse. Il n’existe pas actuellement de consensus sur la fraction relative absorbée par chacune des deux
populations, le niveau exact dépendant fortement de la densité de particules
alpha au bord du plasma. Comme il n’existe pas de modèle précis, la seule
solution pour réduire l’absorption des particules alpha avec une confortable
marge de sécurité est d’augmenter la fréquence à 5 GHz, ce qui ne va pas sans
poser des problèmes techniques sérieux, tant au niveau des générateurs que de
l’antenne.
La propagation de l’onde hybride reste encore à clarifier. Parmi les nombreux
mécanismes envisagés qui peuvent conduire à augmenter significativement l’indice de réfraction au cours de sa propagation, aucun n’a pu être formellement
identifié comme le processus dominant. Par défaut, les couplages de mode résultant de la courbure toroïdale du plasma sont considérés comme prépondérants.
Les plasmas obtenus actuellement ne sont pas assez chauds pour favoriser l’absorption en un seul passage et simplifier, de fait, l’interprétation des données.
Les simulations prédisent généralement des dépôts de puissance trop étroits par
rapport à la réalité expérimentale, l’écart ne pouvant être simplement expliqué
par la présence d’un transport radial exacerbé pour les électrons les plus rapides
pouvant résulter d’une turbulence électromagnétique. Diverses pistes théoriques
sont explorées, notamment le transport induit par les ondes, ce qui nécessite
90
LA
FUSION NUCLÉAIRE
des développements cinétiques très lourds pour décrire ce type de mécanisme.
D’autres mécanismes, comme les instabilités paramétriques au bord du plasma,
sont des candidats sérieux. D’une analyse fine des dépendances paramétriques,
on peut espérer clarifier une situation plutôt confuse. Ainsi, le rôle joué par la
température volumique moyenne reste toujours controversé, alors que l’enjeu
pour le réacteur est considérable.
La modélisation de la propagation de l’onde hybride est basée comme pour
l’onde à la fréquence cyclotronique électronique, sur une description quasi optique. Cependant, dans les régimes actuellement rencontrés, les hypothèses sousjacentes à l’approximation WKB sont souvent violées, et une approche full-wave
est envisagée, afin de lever toute ambiguïté quant à l’interprétation.
De manière générale, l’étude de la génération de courant pour un Tokamak
comme Iter nécessite de développer de nouveaux outils adaptés à la physique
qui sera en jeu. Ainsi, un calcul autocohérent du courant autogénéré (bootstrap) et des autres sources externes de courant est absolument nécessaire pour
avoir une description réaliste. Par ailleurs, la description de la génération de
courant près du bord du plasma reste très sommaire et ne prend pas en compte
l’augmentation significative de la collisionalité dans cette région, ainsi que de la
présence d’une forte turbulence locale. Les codes Fokker-Planck 3-D (2-D dans
l’espace des vitesses et 1-D pour la dimension radiale, cf. figure 3.12) basés sur
l’hypothèse que les électrons sont en mesure d’effectuer une orbite entière dans
un plan poloïdal avant d’être défléchis par collision ne sont plus valables, et une
description 4-D est alors nécessaire. De ce point de vue, la modélisation de la
génération de courant au bord du plasma constitue un véritable défi, tant pour
la physique que pour les aspects numériques.
Interaction antenne-plasma
Les bases physiques du couplage d’ondes sont assez bien établies : les codes
numériques simulant ces phénomènes reproduisent raisonnablement les mesures
HF. Ils sont de deux types : des logiciels commerciaux aux éléments finis, qui
offrent une bonne description géométrique des antennes mais une prise en
compte sommaire du plasma, et des codes d’antenne spectraux qui reproduisent
bien le plasma, mais dans une géométrie simplifiée. Pour concevoir les antennes
d’Iter, les ingénieurs RF souhaiteraient faire converger les deux approches, ce
qui impose un travail numérique conséquent. Il serait également souhaitable de
traiter de manière autocohérente couplage et absorption des ondes, surtout en
cas de modes de cavité, ou lorsqu’on utilise les ondes pour amorcer le plasma.
Actuellement les deux problèmes sont largement dissociés.
L ES
PLASMAS CHAUDS MAGNÉTISÉS
91
Figure 3.12
Effet combiné de l’accélération des électrons par l’onde à la fréquence hybride basse et des particules
piégées. Sur la figure de gauche est représentée la distribution maxwellienne initiale (régime thermique). Les
deux traits bleus délimitent la région centrale où les particules sont piégées, de celles qui sont circulantes. La
figure de droite montre la distorsion de la fonction de distribution sous l’effet de l’interaction résonnante
onde-particule. Le domaine où l’onde agit sur les électrons est compris entre les deux courbes pointillées. Plus
le dépôt de puissance est périphérique, plus le domaine des particules piégées s’élargit, et le courant généré
diminue, à puissance constante.
Les ondes excitées par les antennes peuvent subir une absorption parasite
au bord du plasma. La puissance ainsi perdue est susceptible de détériorer des
composants internes de la machine, à commencer par les antennes elles-mêmes,
qui sont très proches du plasma. Une grande variété de processus parasites
sont envisageables, dont certains ont été mis en évidence expérimentalement :
absorption Landau périphérique (hybride), gaines RF (ondes cyclotroniques ioniques), excitation d’instabilités paramétriques (ondes de Bernstein ioniques),
effets pondéromoteurs. . . Malgré leur importance cruciale pour la fiabilité d’Iter
et le contrôle du plasma de bord, la physique de ces phénomènes HF périphériques reste assez sommaire. Elle impose de simuler des champs proches à
proximité des coupleurs avec une précision au moins centimétrique, ce qui est
très exigeant pour les codes d’antenne.
4.3 Liens avec d’autres secteurs de la physique :
les procédés plasmas
Au cours de ces dernières années la pénétration des procédés plasmas dans
l’industrie a augmenté de façon extrêmement rapide. Les technologies plasmas
92
LA
FUSION NUCLÉAIRE
sont devenues indispensables, aussi bien dans les domaines innovants comme
la micro-électronique, les nouveaux matériaux, les nanotechnologies et l’industrie spatiale, que dans les domaines plus classiques tels que la dépollution, la
sidérurgie ou la chimie.
Une tendance forte de ces dernières années, particulièrement aux États-Unis,
est de voir s’estomper la sectorisation entre plasmas chauds et plasmas froids.
Cette convergence est d’ordre méthodologique : la physique des nouveaux réacteurs haute densité à plasma froid est essentiellement de nature collective et
les outils théoriques qui doivent être mis en oeuvre pour étudier le confinement
et le chauffage sont empruntés aux méthodes développées ces dernières décennies en fusion thermonucléaire par confinement magnétique. Le succès de ces
programmes passe par la compréhension et la maîtrise de nombreux problèmes
de physique des plasmas liés aux instabilités, au chaos et à la turbulence ; instabilités, chaos et turbulence qui constituent aussi, depuis quelques années, des
thématiques émergentes en physique des réacteurs industriels.
Les nouvelles technologies de l’information reposent sur des dispositifs dont
la majeure partie des étapes de fabrication ne peut être accomplie que grâce
à des réacteurs radiofréquences plasma en gaz réactifs. Ces systèmes sont essentiellement construits autour de décharges plasmas, DC, RF ou micro-ondes,
optimisées pour la production d’un flux d’ions et ce flux est mis à profit dans les
opérations de gravure submicronique et de dépôt.
Au niveau technologique les problèmes sont similaires à ceux rencontrés dans
les plasmas thermonucléaires :
– couplage de la puissance sur la charge non linéaire du plasma ;
– contrôle des instabilités ;
– conception des structures de chauffage, de confinement et d’accélération (électrodes, bobines, antennes), et relèvent de l’ingénierie électrique.
Au niveau physique, ces systèmes mettent en jeu les mêmes processus :
ionisation, confinement et chauffage du plasma.
Plus spécifiquement la recherche et le développement sont actuellement centrés
sur quatre types différents de réacteurs :
– les réacteurs capacitifs qui constituent actuellement l’essentiel des lignes de
productions (par exemple plus de la moitié des opérations de fabrication
d’un Pentium est effectuée dans de tels réacteurs) ;
L ES
PLASMAS CHAUDS MAGNÉTISÉS
93
– les réacteurs inductifs, appelés à remplacer à terme les réacteurs capacitifs, permettent de gagner un ordre de grandeur sur la densité du plasma,
c’est-à-dire sur la vitesse des procédés ;
– les réacteurs hélicons développent un taux d’ionisation beaucoup plus
élevé que les précédents et sont actuellement activement étudiés ;
– les réacteurs à résonance cyclotronique électronique sont moins adaptés
au traitement industriel des matériaux mais présentent des performances
plasma supérieures aux trois types précédents.
Le développement industriel des nanotechnologies et la persistance de la loi de
Moore en micro-électronique sont conditionnés par la mise au point et la maîtrise de nouveaux réacteurs plasma présentant donc des performances : taux
d’ionisation, vitesse de gravure et de dépôt, stabilité et homogénéité du plasma,
contrôle du flux et du potentiel des ions, répondant à des spécifications de plus
en plus exigeantes. La mise au point de ces réacteurs radiofréquences passe
donc par la compréhension des mécanismes de chauffage et de confinement
du plasma ; l’utilisation des hautes fréquences et des basses pressions renouvelle complètement ces problématiques classiques : en effet, le calcul du dépôt
d’énergie doit prendre en compte la taille finie du réacteur au regard de la
longueur d’onde et du libre parcours moyen. Les conditions aux limites étant
déterminées par la taille de la gaine, les modèles de décharges débouchent sur
la formulation de problèmes d’électrodynamique non linéaires. Les outils mis au
point dans le domaine des plasmas chauds sont particulièrement bien adaptés
à l’étude de ces modèles non linéaires de réacteurs ; ces mêmes outils, en particulier la théorie de la turbulence faible, permettent de comprendre et de décrire
les phénomènes de chauffage stochastique dans ces mêmes réacteurs lorsque les
dimensions du réacteur sont de l’ordre de grandeur du libre parcours moyen !
5
Diagnostics
Résumé
Les diagnostics, ensemble du système de mesure des paramètres du plasma
et du Tokamak, sont assez bien définis pour Iter, mais il reste de nombreuses études de R&D à effectuer pour certains composants (capteurs dans
la chambre à vide, miroirs, fenêtres, fibres, câbles), liées à l’environnement
spécifique d’Iter (rayonnement, thermique, durée des plasmas). Quelques
paramètres à mesurer nécessitent aussi le développement de diagnostics actuellement à l’état de projet ou de prototype.
94
LA
FUSION NUCLÉAIRE
5.1 Les principales techniques de mesure
Les Tokamaks nécessitent un ensemble complet de diagnostics pour caractériser aussi bien le plasma que les composants lui faisant face. Ces mesures sont
nécessaires à la sécurité et la protection de la machine, au contrôle du plasma
et à l’évaluation des paramètres physiques.
Les diagnostics peuvent être présentés selon différents éclairages :
– ingénierie et priorisation : diagnostics de sécurité et de contrôle du
plasma, caractérisation de base, diagnostics plus spécifiques à un programme ;
– de ce qu’ils mesurent : forme du plasma, densité, température, impuretés, etc. ;
– de la technique de mesure : mesures magnétiques, optiques, microonde, etc. ;
– de la physique associée : mesure active ou passive, de particules ou
d’onde électromagnétique, etc.
Dans un Tokamak, les diagnostics peuvent être classés selon trois catégories
selon leur usage : les diagnostics indispensables à la sécurité et au fonctionnement de la machine ; les diagnostics permettant une caractérisation du plasma ;
les diagnostics plus spécifiques à un programme particulier. Cette classification
n’est pas stricte et de nombreux diagnostics de sécurité contribuent à la caractérisation du plasma. Pour Iter, les diagnostics ont été classés dans une de ces
trois catégories.
En dehors des mesures à l’extrême bord du plasma, il n’est bien sûr pas
question d’introduire un objet dans le plasma, et les diagnostics sont basés sur
les informations naturellement émises par le plasma (diagnostic passif) ou en
réaction à une stimulation (diagnostic actif).
D’un point de vue physique, on peut distinguer les mesures par sondes (électrodes ou bobines au bord ou proche du plasma), les mesures du rayonnement
électromagnétique du plasma (des ondes radio aux X durs ou gamma), la transmission ou diffusion d’ondes ou les mesures de particules émises par le plasma.
Les mesures magnétiques permettent de caractériser la forme et le courant du
plasma, ainsi que les perturbations MHD. Ceci se fait par un ensemble de bobines ou de boucles (diamagnétiques, de Rogowski), ou de capteurs de courant
de halo.
L ES
PLASMAS CHAUDS MAGNÉTISÉS
95
Les mesures neutroniques permettent de mesurer le simple flux de neutrons et
de caractériser l’activation des composants, mais aussi, par un système de caméras tomographiques ou de chambres à microfission, de déterminer les profils
radiaux de sources de neutrons et des particules α.
Les diagnostics optiques sont principalement la diffusion Thomson pour la
mesure des profils de densité et température électronique, ainsi que l’interférométrie et la polarimétrie pour les profils de densité, champ électrique et facteur
de sécurité. Dans Iter, plusieurs systèmes sont prévus pour la diffusion Thomson,
au cœur du plasma, au bord, et au voisinage du point X.
Les diagnostics spectroscopiques caractérisent les différentes espèces du
plasma, impuretés lourdes et légères, du bord au centre, nécessitant une bonne
résolution spatiale et/ou temporelle et/ou en longueur d’onde. Une dizaine de
diagnostics sont prévus, définis selon le paramètre à mesurer et la (les) résolution(s) souhaitée(s) : moniteur d’impuretés, spectroscopie des alpha, recombinaison d’échange de charge, spectromètre X à cristal, analyseurs de neutres,
mesure par effet Stark.
Les diagnostics micro-onde ont connu un important développement ces dix
dernières années grâce aux progrès des composants tirés par la technologie de
l’information (satellites, téléphonie mobile, . . .). Ces diagnostics mesurent avec
une bonne résolution spatiale et temporelle les densités et température électronique.
Les diagnostics dits « opérationnels » ne caractérisent pas directement le
plasma, mais sont néanmoins importants pour le fonctionnement et la sécurité
de la machine et peuvent donner des informations importantes sur le plasma :
caméras visible et IR, thermocouples, jauges de pression, analyseurs des gaz
résiduels, sondes de Langmuir.
Pour tous ces diagnostics, la mesure est rarement directe et il faut interpréter.
Jusqu’à une période récente, chaque diagnostic était construit pour déterminer
un ou plusieurs paramètres, et plusieurs diagnostics mesuraient les mêmes paramètres afin de bénéficier d’une redondance. Aujourd’hui on évolue plutôt vers
une image du plasma qui soit la plus compatible possible avec l’ensemble des
données brutes issues de tous les diagnostics.
5.2 Les diagnostics dans Iter
La plupart des techniques de mesure nécessaires pour les diagnostics d’Iter
(figure 3.13) sont bien connues, et parfaitement validées sur les Tokamaks actuels. Néanmoins quelques problèmes spécifiques se posent, soit parce que les
96
LA
FUSION NUCLÉAIRE
Figure 3.13
Identification de quelques composants de diagnostics d’Iter et les principaux effets physiques induits par les
radiations22 .
paramètres sont différents, soit à cause de l’environnement Iter qui empêche de
copier telle quelle une technique déjà validée.
La principale différence entre un Tokamak type Iter et les Tokamaks actuels
est l’environnement dans lequel certains des composants de diagnostics majeurs
devront être installés et fonctionner. Les niveaux de flux de tous les rayonnements
ayant une influence et potentiellement dommageables (neutrons, gammas, photons et particules) seront plus élevés qu’actuellement, dans certains cas supérieurs d’un à deux ordres de grandeur. De plus, les durées de tirs plasma seront
bien plus longues que dans la plupart des Tokamaks actuels23 et les niveaux de
flux élevés seront donc subis sur des durées plus longues. La fluence neutronique
sera ainsi jusqu’à 10 000 fois plus importante que sur Jet.
Ces niveaux de rayonnement signifient que la conception des diagnostics doit
tenir compte d’une gamme de phénomènes sans importance dans les diagnostics
construits jusqu’à présent. Par exemple, sous rayonnement gamma, la conductivité d’isolants en céramique augmente à cause de la génération de porteurs
de charge dans le matériau (RIC : Radiation Induced Conductivity). Ceci doit
donc être pris en compte dans la conception de tous les diagnostics qui utilisent
23 Tore Supra est une exception notable car les décharges y sont longues, mais il n’y a pas de
problème de radiation car pas de tritium dans le plasma.
L ES
PLASMAS CHAUDS MAGNÉTISÉS
97
des câbles à l’intérieur de la chambre à vide, par exemple les capteurs magnétiques (bobines, boucles). De même, il a été observé que lorsqu’un câble isolé
est irradié, un faible courant électrique peut exister entre l’âme et la gaine par
un phénomène de RIEMF (Radiation Induced Electro-Motive Force). C’est particulièrement important dans le dessin des bobines utilisées pour déterminer la
forme et la position du plasma à partir de mesures magnétiques. S’il y a des asymétries dans une bobine, cet effet peut conduire à une tension différentielle et
donc à une erreur dans la mesure. D’autres effets ont été identifiés et doivent être
mieux documentés : la dégradation électrique RIED (Radiation Induced Electrical
Degradation) et la conductivité surfacique transitoire (TSC).
Pour de nombreux diagnostics, le premier composant optique face au plasma
est un miroir, et la durée de vie de ces premiers miroirs est un paramètre clef.
Les niveaux élevés de flux de particules énergétiques peuvent conduire à une
érosion. Un travail expérimental intensif a montré que, dans une situation où
l’érosion sera le principal mécanisme de dégradation, il sera possible de définir
des miroirs ayant une durée de vie adéquate, en choisissant soigneusement le
matériau. D’autre part, l’érosion des parois en contact avec le plasma entraînera
des dépôts sur les miroirs. Ceci peut conduire à une réduction significative de la
durée de vie des miroirs. Plusieurs techniques d’atténuation de ce phénomène
devront être mises en œuvre, telles que l’installation de volets ou diaphragmes,
ainsi que des techniques de nettoyage (par laser ou plasma).
De nombreux diagnostics utilisent des composants optiques en transmission,
comme par exemple de la silice fondue pour certains hublots. Sous irradiation
par les neutrons et gammas, deux effets peuvent se produire : l’absorption et la
radioluminescence. De plus, l’absorption a deux composantes : une composante
permanente et une composante rapide. Quant à la radioluminescence, elle peut
générer un signal qui pourrait dominer le signal de mesure, particulièrement
lorsque ce dernier est très faible, par exemple pour les diagnostics de diffusion
Thomson. Les fibres optiques sont un moyen pratique de transporter le signal et
peuvent simplifier le diagnostic. Néanmoins, étant donné que la longueur de la
fibre doit être importante, ces effets optiques induits par les radiations peuvent
limiter leur emploi.
D’autres effets peuvent être importants. Par exemple, l’échauffement de surface dû au rayonnement du plasma et l’échauffement massif dû à l’absorption
des neutrons. L’absorption nucléaire peut aussi provoquer des changements dimensionnels et une transmutation du matériau.
Bien que le champ poloïdal à l’intérieur de la chambre à vide soit du même
ordre de grandeur que sur les Tokamaks actuels (∼1 T), et que sa variation
temporelle soit plus lente (∼1 s), la dimension du système magnétique et des bâtiments implique qu’à l’emplacement de l’instrumentation le champ magnétique
98
LA
FUSION NUCLÉAIRE
est plutôt élevé (jusqu’à 0,2 T au bord du cryostat et 0,05 T dans le hall des
diagnostics). Cela nécessitera un écrantage adapté du champ magnétique pour
certains composants.
Bien que de nombreux progrès aient été faits, des développements sont nécessaires afin que les mesures respectent les exigences souhaitées. Plusieurs domaines clefs dans le champ des effets des rayonnements nécessitent encore un
effort de développement. Par exemple, de nombreuses données RIEMF existent
pour les câbles à isolant minéral (utilisés pour les mesures magnétiques), ce qui
a permis de faire une conception en choisissant judicieusement le matériau du
câble (élimination des émetteurs bêta potentiels) ainsi que la géométrie (bobinage et isolant) pour éviter les asymétries. Néanmoins, des mesures directes de
RIEMF sur des bobines magnétiques ont fourni des valeurs élevées inattendues
de courant, apparemment induit par les radiations à travers les terminaisons
des bobines. Plusieurs hypothèses ont été avancées, nécessitant une investigation poussée.
Alors que des concepts de miroirs face au plasma (activement refroidis)
existent, pour les miroirs dans la région du divertor, ou éventuellement dans des
conduits, le dépôt semble être le mécanisme limitant. Des méthodes de nettoyage
et/ou de protection doivent donc être développées. Tous les miroirs nécessitent
quand même une phase de R&D pour optimiser le matériau et le traitement de
surface éventuel en fonction de leur environnement et de la facilité de maintenance (durée de vie, remplacement, nettoyage).
Des solutions semblent pouvoir exister pour les fenêtres, qui ne sont pas directement face au plasma, mais placées après un ou plusieurs miroirs de renvoi.
Néanmoins, il reste des difficultés à résoudre, en particulier dans le domaine
de la transmission UV. Pour les diagnostics utilisant des lasers de forte puissance, même un très faible niveau d’absorption peut être une difficulté sérieuse et
des mesures précises de caractérisation de l’absorption rapide sous irradiation
sont nécessaires. Pour les fibres, la problématique de transmission est proche,
avec des solutions intéressantes telles que la thermalisation à température élevée
(∼200 ◦ C). Des études sont à effectuer.
Les capteurs nécessitant un développement sont des capteurs magnétiques
compacts pour la mesure en continu, des détecteurs et spectromètres à neutrons
compacts et efficaces, des bolomètres et des détecteurs X mous résistants aux
radiations. Dans chacun de ces exemples, des candidats existent mais un travail
de développement est nécessaire avant de pouvoir valider une implantation sur
Iter.
Pour résoudre certains des problèmes de mesure, de nouvelles techniques
sont nécessaires : par exemple, pour mesurer les particules alpha (confinées ou
L ES
PLASMAS CHAUDS MAGNÉTISÉS
99
non), l’érosion des plaques de divertor, ainsi que la redéposition de couches
ou de poussières. Dans d’autres cas, les techniques actuelles semblent très difficiles à adapter aux conditions d’un réacteur et de nouvelles techniques seraient
nécessaires : par exemple, la mesure de la position et de la forme du plasma
durant des temps très longs, les mesures d’impuretés légères et plus particulièrement des cendres d’hélium, et les mesures du champ électrique interne (profil
radial).
Dans d’autres cas, des techniques ont été identifiées qui pourraient rendre la
mesure d’un paramètre important plus facile. Un bon exemple est la réflectométrie par onde rapide qui pourrait mesurer le rapport isotopique du plasma
(rapport nD /nT des concentrations de deutérium et tritium), avec une résolution
spatiale et temporelle, mais cela nécessite un développement.
Les diagnostics de spectroscopie de recombinaison par échange de charge
pour la mesure d’impuretés légères, la température ionique et la rotation du
plasma nécessitent un faisceau de neutres conventionnel, mais ceci a un coût
important et nécessite un accès de grande taille sur un queusot. Un faisceau
intense d’impulsions courtes nécessiterait moins de puissance et moins de place,
donnerait un diagnostic amélioré, mais cela nécessite du développement.
CHAPITRE
4
Interaction laser-plasma
et laser petawatt
ARNOLD MIGUS ET DENIS PESME
I NTERACTION LASER - PLASMA ET
1
LASER PETAWATT
103
Interaction laser-plasma
1.1 Physique mise en jeu
La physique de l’interaction laser-plasma couple trois catégories de phénomènes entre eux :
– des processus de type « hydrodynamique », caractérisés par des échelles
spatiales de l’ordre du mm et des échelles de temps de l’ordre de la nanoseconde ;
– des processus de type « optique non linéaire », que sont les instabilités paramétriques, caractérisés par des échelles spatiales de l’ordre de quelques
μm et des échelles de temps de l’ordre d’une fraction de picoseconde ;
– ces deux premières catégories de processus sont décrites à l’aide d’équations dites de type « fluide », au sens où ils sont décrits par des équations
aux dérivées partielles dont les seules variables sont le temps et l’espace ;
– des processus de type « cinétique », propres à la physique des plasmas
parce que mettant en jeu des mécanismes d’interaction ondes-particules,
caractérisés par des échelles spatiales submicrométriques (la longueur de
Debye) et des échelles de temps de l’ordre de quelques femtosecondes
(l’inverse de la fréquence plasma électronique). Cette troisième classe de
processus nécessite une description de type « cinétique » (du type équation
de Vlasov pour une description analytique, et à l’aide de codes PIC pour
la simulation numérique), dans laquelle les variables sont les positions, les
vitesses et le temps.
Présentons succinctement de quelle façon ces trois catégories de processus sont
intimement liées entre elles, en commençant par les mécanismes à la base de
l’interaction laser-plasma, les instabilités paramétriques. Dans les deux schémas
de fusion par laser – attaque directe ou indirecte – les faisceaux laser doivent se
propager dans des plasmas sous denses de grandes dimensions (plusieurs milliers de longueurs d’onde des faisceaux laser) avant de déposer leur énergie au
voisinage de la densité critique. Les valeurs très élevées des flux de lumière quasi
cohérente (la cohérence des faisceaux laser ne pouvant qu’être partiellement réduite) sont très favorables à l’excitation d’instabilités paramétriques analogues
à celles rencontrées en optique non linéaire. Comme dans ce domaine, elles
peuvent être de deux types :
– les unes sont liées à la non-linéarité de l’indice et provoquent essentiellement une redistribution de l’intensité du faisceau par filamentation ou
104
LA
FUSION NUCLÉAIRE
autofocalisation de la lumière : ces mécanismes sont de nature semblable
à ceux provoqués par l’effet Kerr ; ces instabilités peuvent provoquer la
déflexion et l’éclatement des faisceaux laser, ce qui perturbe en particulier
la position des zones de dépôt d’énergie sur la paroi du holraüm dans le
cas de l’attaque indirecte ;
– les autres peuvent être considérées comme une diffusion du rayonnement
sur les fluctuations de densité générées par des ondes devenues instables
en présence du rayonnement laser. Dans cette deuxième catégorie, deux
instabilités jouent un rôle particulier :
– la diffusion Raman stimulée, correspondant à l’excitation d’ondes de
densité électroniques, de fréquence proche de la fréquence plasma,
– la diffusion Brillouin stimulée, mettant en jeu des ondes acoustiques
ioniques de fréquence beaucoup plus basse.
Ces deux instabilités peuvent provoquer la rétrodiffusion des faisceaux laser
incidents, ce qui correspond à la perte d’une fraction de l’énergie laser.
Les conditions de développement linéaire de ces instabilités s’obtiennent à
partir du facteur de gain linéaire. Ce dernier représente la prédiction d’ordre
zéro du niveau de développement de ces instabilités, et il dépend fortement
des paramètres hydrodynamiques du plasma : les valeurs locales des densités
électroniques, des températures électroniques et ioniques, d’une part, et, d’autre
part, la taille des gradients spatiaux de ces quantités ainsi que du flot d’écoulement. C’est de cette façon que les instabilités paramétriques sont couplées avec
l’hydrodynamique du plasma, l’hydrodynamique étant elle-même couplée en
retour avec l’interaction laser plasma via les mécanismes d’absorption par le
plasma de l’énergie des faisceaux laser et via le dépôt de moment induit par
les différents processus de diffusion des faisceaux. Il existe donc une première
boucle de rétroaction non linéaire : hydrodynamique ↔ instabilités paramétriques.
Par ailleurs, ces instabilités paramétriques, que l’on peut donc décrire à
l’ordre le plus bas de façon « fluide », sont en mesure d’induire des effets de
type « cinétique » : les ondes longitudinales générées par le développement de
ces instabilités peuvent en effet atteindre des amplitudes suffisamment élevées
pour piéger des particules du plasma et mener ainsi à des fonctions de distribution éloignées de l’équilibre. Ces effets cinétiques ont plusieurs conséquences :
d’une part ils peuvent donner naissance à des populations électroniques très
énergétiques, qui sont en mesure de préchauffer la cible et, de là, réduire sa
compression (un tel préchauffage est l’un des risques majeurs de l’instabilité
de diffusion Raman stimulée) ; d’autre part, ils peuvent modifier la valeur de
l’amortissement des ondes mises en jeu et donner lieu à des effets de décalage
I NTERACTION LASER - PLASMA ET
LASER PETAWATT
105
de fréquence non linéaire, ce qui a des conséquences immédiates sur l’évolution
non linéaire des instabilités paramétriques. Il existe donc une deuxième boucle
de rétroaction non linéaire : instabilités paramétriques ↔ effets cinétiques.
D’une façon générale, les différents processus mis en jeu dans l’interaction
laser-plasma sont couplés non linéairement entre eux, et leur couplage peut
être non local en espace, ce qui a d’importantes conséquences pour ce qui
concerne leur simulation numérique. En effet, le couplage entre les instabilités
de filamentation et l’instabilité de diffusion Brillouin vers l’avant peut donner lieu,
dans le cas de faisceaux lissés spatialement, à ce que l’on appelle « le lissage
induit par le plasma », par lequel le faisceau devient plus incohérent en temps et
en espace au cours de sa propagation dans le plasma. Ainsi, si ce lissage induit
par le plasma se produit du côté entrant de l’onde laser dans le plasma, il est
en mesure de modifier significativement l’interaction laser-plasma plus en avant
dans la propagation des ondes incidentes. On ne peut donc pas se contenter
d’analyses locales simples des mécanismes d’interaction laser-plasma.
En conclusion, l’interaction laser-plasma met directement en jeu toute la physique non linéaire des plasmas chauds, caractérisée par des processus de nature
très différente (hydrodynamique, optique non linéaire, effets cinétiques), et des
échelles spatiales et temporelles s’étalant sur plus de trois ordres de grandeur.
Ces différents processus sont couplés entre eux par des boucles de rétroaction
non linéaire, les couplages pouvant ne pas être locaux spatialement. De plus,
ces différentes instabilités peuvent être présentes simultanément et interagir entre
elles, ce qui rend considérablement difficile la prédiction de leur évolution non
linéaire.
Mentionnons ici une autre caractéristique très importante de l’interaction
laser-plasma : le caractère partiellement aléatoire du champ transverse caractérisant les faisceaux laser au sein du plasma, ces faisceaux ayant été volontairement rendus partiellement incohérents. Au point de vue expérimental, les
résultats concernant l’interaction laser-plasma ont en effet longtemps été obscurcis par la mauvaise qualité optique des faisceaux. Aujourd’hui, le lissage
optique (réalisé à l’aide de lames de phases aléatoires, éventuellement combiné
à une incohérence temporelle des faisceaux laser) permet de disposer de faisceaux dont les caractéristiques sont mieux connues au prix d’une plus grande
complexité, puisque phases et amplitudes sont alors des quantités fluctuantes en
temps et en espace. L’une des caractéristiques essentielles des faisceaux lissés est
qu’ils comportent de nombreux maxima locaux d’intensité dans le volume où ils
sont focalisés : ces « points chauds » sont appelés des « grains de tavelure » (speckles en anglais) dans le contexte des faisceaux lissés. Les dimensions spatiales
de ces grains de tavelure sont déterminées par les caractéristiques des lentilles
de focalisation. Ils sont répartis de façon aléatoire en espace, et leur intensité,
elle aussi aléatoire, est répartie selon une loi de distribution qui est connue (loi
106
LA
FUSION NUCLÉAIRE
de Rayleigh). Ainsi on peut considérer, dans une première approche, qu’un
faisceau laser incident est constitué d’un « fond » moyen, dont l’intensité est de
l’ordre de l’intensité moyenne, et de grains de tavelure dont l’intensité peut être
plusieurs fois l’intensité moyenne (pour les plasmas actuels de petite dimension,
l’intensité du grain de tavelure le plus intense est typiquement dix fois l’intensité
moyenne).
Signalons enfin que l’importance des enjeux de l’interaction laser-plasma a
été un facteur très important pour le développement d’outils de diagnostics expérimentaux extrêmement performants (indépendamment des modélisations et
des simulations numériques sur lesquelles nous allons revenir). On doit citer
en particulier les diagnostics de diffusion Thomson sur les ondes de plasma
électroniques et acoustiques ioniques, thermiques et cohérentes, avec résolution
spatiale, temporelle et spectrale, déflectométrie, qui permettent d’avoir accès au
développement local des ondes longitudinales excitées par les différentes instabilités avec une bonne résolution temporelle.
1.2 État de l’art actuel
La théorie et la simulation numérique ont joué un rôle très important dans la
conception et l’interprétation des expériences. La modélisation et les simulations
numériques n’ont cependant pas encore atteint un niveau où elles seraient en
mesure d’évaluer quantitativement les effets de ces instabilités pendant la durée
de l’impulsion laser dans un plasma de grande dimension, du type de ceux qui
seront mis en jeu dans les expériences de fusion.
Nous avons déjà indiqué à la section précédente les origines de notre incapacité prédictive :
– les mécanismes physiques mis en jeu sont aussi de nature très différente ;
– ils sont caractérisés par une très grande disparité d’échelles temporelles et
spatiales ;
– ils sont couplés entre eux par des boucles de rétroaction ;
– lesquelles peuvent être non locales en espace.
Aucun code numérique n’est pour l’instant (et cela restera encore vrai pendant
plusieurs années) en mesure de simuler simultanément toutes ces échelles et
tous ces mécanismes physiques. Ces traits caractéristiques de l’interaction laserplasma font qu’on ne peut pas espérer obtenir des prédictions quantitatives à
I NTERACTION LASER - PLASMA ET
LASER PETAWATT
107
partir de seules simulations. Il est donc absolument indispensable d’effectuer simultanément beaucoup de modélisations, en cherchant à intégrer, d’une façon
simplifiée, dans les codes capables de traiter des grands systèmes, les mécanismes physiques qui se développent à des échelles spatiales plus fines.
Ce constat concernant notre faible capacité de prédiction quantitative étant
fait, résumons ce qui peut être considéré comme étant bien compris d’une part,
et d’autre part les scénarios de saturation non linéaire qui semblent être actuellement les plus plausibles :
1. les mécanismes linéaires sont maintenant bien compris : effets de longueur finie, effets d’inhomogénéité du plasma, effets de l’incohérence des
faisceaux laser ou des fluctuations du plasma. Toutefois, pour faire le lien
avec les recommandations qui vont suivre concernant l’enseignement, il y
a lieu de dire ici que tous ces mécanismes linéaires représentent maintenant une zoologie extrêmement subtile et complexe, en particulier tout ce
qui a rapport aux effets liés à l’inhomogénéité du plasma. Par ailleurs,
il est évidemment nécessaire pour interpréter les expériences d’effectuer
correctement l’analyse linéaire ;
2. les effets non linéaires de type « fluide » sont déjà bien pris en compte :
génération d’harmoniques, de sous-harmoniques, modification de l’hydrodynamique provenant du transfert de moment associé aux ondes longitudinales excitées, couplage non linéaire de ces ondes longitudinales
entre elles. Ces effets non linéaires de type fluide n’apparaissent pas suffisants pour interpréter correctement les expériences actuelles ;
3. si l’on compare en effet les résultats expérimentaux avec les prédictions
théoriques et les simulations numériques, on peut résumer la situation actuelle (tout du moins pour ce qui concerne les régimes de gain linéaire modéré (quelques unités)) de la façon suivante : les résultats expérimentaux
obtenus avec des plasmas de température modérée (de l’ordre du keV)
mènent à des réflectivités dues aux instabilités paramétriques (les instabilités de diffusion stimulée Brillouin et Raman) qui sont nettement inférieures
aux prédictions théoriques ou numériques. Par ailleurs, les résultats expérimentaux obtenus avec des plasmas chauds (plusieurs keV) mènent au
contraire à des réflectivités Raman supérieures aux prédictions théoriques
simples ;
4. l’interprétation de ces désaccords semble être la suivante :
– la réflectivité globale, bien que petite (de l’ordre de quelques pour
cents), provient du développement des instabilités paramétriques
dans les grains de tavelure les plus intenses, de sorte qu’elle est
déterminée par les mécanismes de saturation non linéaire limitant
leur développement dans ces grains de tavelure ;
108
LA
FUSION NUCLÉAIRE
– il est nécessaire de prendre en compte les effets cinétiques pour décrire l’évolution non linéaire de ces speckles les plus intenses. Le
consensus actuel est que les effets cinétiques, dans le cas de l’instabilité Brillouin, réduisent la réflectivité du plasma d’une part en rendant
incohérent le couplage entre les ondes transverses et les ondes acoustiques ioniques, et d’autre part en limitant de façon non linéaire le
facteur de gain par l’effet d’inhomogénéité spatiale induit par ces effets cinétiques. Dans le cas de l’instabilité Raman, les effets cinétiques
peuvent réduire la réflectivité du plasma par des mécanismes semblables à ceux de l’instabilité Brillouin dans le cas d’un plasma de
température modérée, ou au contraire augmenter sa réflectivité en
permettant des nouveaux modes d’oscillations longitudinales dans le
cas de plasmas chauds.
Il y a lieu de signaler ici que les consensus qui ont amené à la mise
au point de scénarios de saturation non linéaire des différentes instabilités
sont le résultat d’une excellente coordination entre expérimentateurs, théoriciens/modélisateurs, et simulateurs.
1.3 Domaines à développer : études fondamentales,
stratégie de développement de codes de prédiction
globale, coordination de l’effort
La nécessité absolue d’être en mesure de développer des outils prédictifs, vu
l’enjeu du problème et l’extrême complexité de la physique de l’interaction laserplasma, requiert un effort très vigoureux. Cet effort devrait se développer selon
les trois axes suivants :
– maintien des études fondamentales concernant les mécanismes de saturation non linéaire de la croissance des instabilités paramétriques :
modélisation des effets cinétiques dans des codes de type « fluides », prise
en compte des non-linéarités des ondes longitudinales excitées par les instabilités Brillouin et Raman, etc.
– stratégie de développement de codes numériques prédictifs via l’analyse
mésoscopique : l’analyse mésoscopique consiste à étudier tout d’abord
finement les processus physiques se développant sur de courtes échelles
spatiales, et à les modéliser ensuite de façon à les prendre en compte de
façon simplifiée dans les codes utilisés pour étudier les échelles spatiales
supérieures :
– étude des effets cinétiques dans des systèmes petits à l’aide de codes
de type PIC a vec collisions,
I NTERACTION LASER - PLASMA ET
LASER PETAWATT
109
– modélisation des effets cinétiques dans des codes de type « fluide »,
– description locale réduite dans laquelle on calcule la réflectivité d’une
tranche de plasma de grande taille (mais dans laquelle les paramètres hydrodynamiques varient peu) à l’aide de simulations de type
fluide multidimensionnelles. On cherche ensuite à exprimer de façon
simple cette réflectivité à l’aide des quelques paramètres macroscopiques caractérisant localement le plasma et le faisceau incident,
– description globale : on calcule la réflectivité globale d’un plasma
de grande taille par intégration successive des réflectivités locales
calculées en fonction des paramètres macroscopiques caractérisant
localement le plasma et le faisceau incident ;
– visibilité et coordination de l’effort : la stratégie précédente nécessite
donc des activités assez différenciées entre d’une part une recherche de
type fondamental consistant en l’analyse et la modélisation d’effets microscopiques et d’autre part en l’intégration de ces modélisations dans
un ou plusieurs codes globaux s’approchant de plus en plus d’une description complète. Ces modélisations et ces codes doivent être par ailleurs
validés par l’analyse des expériences passées et futures. Au total l’objectif consistant à être en mesure de disposer de codes prédictifs représente donc un effort extrêmement important nécessitant une coopération et une coordination entre les différentes équipes expérimentateursthéoriciens/modélisateurs-simulateurs. Cette coordination doit naturellement s’accompagner d’une bonne visibilité et d’une reconnaissance du
domaine en tant que tel au sein de la communauté de la fusion par laser.
1.4 Enseignement
Nous avons souligné à plusieurs reprises que l’interaction laser-plasma
couple de façon non linéaire pratiquement tous les processus physiques propres
aux plasmas chauds, depuis l’hydrodynamique jusqu’aux effets cinétiques, en
passant par les couplages d’ondes. Ce domaine représente donc une motivation très forte pour que soit dispensé un enseignement solide en physique des
plasmas chauds, motivation déjà partagée par l’ensemble de la communauté fusion. Par ailleurs, l’interaction laser-plasma ne doit plus être considérée comme
un simple cas particulier d’un cours général sur les couplages d’ondes non linéaires dans les plasmas, tant le sujet s’est maintenant développé en tant que
tel, avec toute sa spécificité et sa zoologie d’effets particuliers, que nous avons
signalées (instabilités absolues/convectives, effets de longueur finie, d’inhomogénéité, d’incohérence, couplages non linéaires entre les différentes instabilités, effets cinétiques dans le couplage non linéaire d’ondes, effets non locaux,
etc.). Il est donc nécessaire qu’en plus d’un tronc commun solide sur les plasmas
110
LA
FUSION NUCLÉAIRE
chauds, soit dispensé un cours spécifique bien construit et doté de suffisamment d’heures d’enseignement.
1.5 Coordination et structuration de la communauté
La communauté française des interactionnistes s’est déjà coordonnée d’ellemême et organise des rencontres biannuelles de « remue-méninges » au cours
desquelles chaque équipe présente ses travaux aux autres. Il y a donc simplement lieu de veiller à ce que cette coordination se maintienne. En revanche, les
interactionnistes semblent souffrir d’un manque de reconnaissance de la part du
reste de la communauté de la fusion inertielle, sans doute dû à la difficulté du
sujet et au manque de formation de base dans ce domaine de cette communauté. Il serait donc souhaitable que sous l’égide de l’ILP, par exemple, aient
lieu des séminaires d’intérêt général de façon à sensibiliser l’ensemble de la
communauté aux enjeux de l’interaction laser-plasma. Des ateliers transcommunautés, seraient aussi sans doute bénéfiques pour l’ensemble des physiciens
d’autres disciplines confrontés à des problématiques similaires (génération de
courant dans les tokamaks, modification ionosphérique). Enfin, le moment est
sans doute venu de chercher à structurer la communauté européenne autour de
l’interaction laser-plasma en organisant des écoles d’été de type « Les Houches »
sur ce sujet.
2
Allumage rapide et laser petawatt
2.1 Présentation générale
La France va voir se construire sur son territoire deux équipements scientifiques d’une ampleur et d’une ambition hors norme au plan international. Il
s’agit d’Iter à Cadarache et du Laser Mégajoule (LMJ) en Aquitaine, tous deux
consacrés à comprendre et maîtriser les plasmas chauds thermonucléaires. Programme international civil, Iter confine le combustible par des méthodes magnétiques. Programme de la défense, le LMJ, en cours de construction, qui utilise
des lasers pour imploser le combustible et produire de l’énergie par confinement
inertiel, va aussi être ouvert au civil. Cette ouverture est déjà une réalité, mise en
œuvre dans un premier stade sur le prototype opérationnel du LMJ, la ligne d’intégration laser ou LIL. Elle constitue une formidable opportunité de recherches,
génératrice de concepts innovants en science fondamentale, de développements
technologiques et d’activités à fortes valeurs ajoutées, ainsi que de perspectives
prometteuses dans le domaine de l’énergie du futur.
I NTERACTION LASER - PLASMA ET
LASER PETAWATT
111
La LIL est l’installation prototype qui a pour mission première de valider et
qualifier en vraie grandeur la chaîne laser de base du LMJ. Elle est constituée
d’une structure laser élémentaire du Laser Mégajoule (LMJ) comportant 8 faisceaux qui, à terme1, délivrera en configuration standard une énergie de 60
kilojoules dans l’ultraviolet. La construction et le fonctionnement d’une capacité
additionnelle de très grande puissance dite « laser petawatt sur la LIL » qui fait
l’objet du projet Petra présenté ici, permettront à la France et l’Europe de développer un programme original et exceptionnel sur le plan international dans le
domaine des lasers ultra-intenses et de l’interaction avec la matière irradiée sous
très forte densité d’énergie. Les motivations du projet PW-LIL sont principalement
de deux ordres :
– mettre à disposition de la communauté scientifique un outil exceptionnel
en termes de haute énergie et ultra-haute intensité ;
– lui permettre de réaliser des expériences « intégrées » d’allumage rapide
de fusion.
Les spécifications prioritaires du projet impliquent l’addition à la LIL d’un faisceau laser énergétique ultra-intense, émettant des impulsions ultrabrèves (0,5 ps
à qq. 10 ps ; 1 picoseconde = 10−12 s, soit le millionième de millionième de
seconde) et énergétique (jusqu’à 3,5 kJ), ce faisceau alimentant l’enceinte expérimentale de la LIL.
Les possibilités technologiques et les avancées des recherches dans le domaine de l’interaction laser-matière permettent aujourd’hui de préciser l’intérêt de disposer d’un faisceau laser d’ultra-haute intensité (UHI) et de haute
puissance (PW) auprès de la LIL et du futur LMJ. Une telle installation offrira
des possibilités expérimentales sans équivalent dans le monde scientifique. Les
études d’interaction d’une impulsion laser UHI avec une cible solide ou gazeuse, aujourd’hui couramment abordées sur les installations 10–100 TW et
bientôt envisagées sur les installations de type PW, pourront en effet être étendues aux interactions avec une plus grande variété de cibles, de matériaux et de
paramètres, en particulier les plasmas de grandes dimensions produits par les
faisceaux de la LIL puis du LMJ, ainsi que les cibles comprimées dans le cadre
1 Elle
sera l’installation laser la plus puissante au monde, mis à part le NIF aux États-Unis qui
devrait démarrer en même temps. Dans une première phase, quatre faisceaux sont installés dans
une configuration regroupée, dite « quadruplet », qui correspond à la chaîne de base du LMJ. Puis
dans un second temps, quatre autres faisceaux seront disposés autour de la chambre, en quatre
faisceaux indépendants, dits en configuration « éclatée » (ou Octalil). In fine, le quadruplet initial
pourra lui aussi être redistribué en configuration éclatée, afin d’obtenir une distribution isotrope
des huit faisceaux (directions voisines de celles des diagonales d’un cube) pour laquelle la chambre
d’expériences à été préparée. Un quadruplet a été qualifié à la fin de l’année 2004, et les premières
expériences d’interaction ont été réalisées.
112
LA
FUSION NUCLÉAIRE
des études sur la fusion par confinement inertiel (FCI). Les éclairements lumineux
supérieurs à 1020 W/cm2 accessibles actuellement sur des surfaces de l’ordre
de 10 microns carrés pourront être atteints sur de plus grandes surfaces, ce qui
est nécessaire pour la construction de nouvelles sources de rayonnement énergétique (laser X, laser gamma (γ ), accélérateurs d’électrons et réactions nucléaires)
et pour les études sur la matière soumise à des conditions thermodynamiques
extrêmes.
L’application fondamentale du couple LIL-Multi-PW concerne « l’allumage rapide » d’une cible de DT précomprimée dans une configuration expérimentale
intégrée ; ce schéma d’interaction, qui relaxe certaines des contraintes inhérentes aux concepts de FCI conventionnels à point chaud central (attaques directe et indirecte), est actuellement considéré par la communauté scientifique
comme une solution prometteuse pour la production d’énergie par fusion inertielle (EFI).
Les éclairements supérieurs à 1021 W/cm2 qui seront atteints conduiront à
l’obtention, au sein de la matière irradiée, de champs électriques mille fois supérieurs à ceux qui maintiennent les électrons au voisinage des noyaux atomiques.
Les électrons éjectés seront portés à des vitesses proches de celle de la lumière.
Dans de telles conditions, la barrière relativiste sera franchie de plusieurs ordres
de grandeur. La théorie quantique relativiste prédit des processus et des mécanismes nouveaux, et donc jamais étudiés en laboratoire, mais supposés exister
dans les étoiles jeunes et dans l’Univers.
2.2 Les enjeux scientifiques
Bien que ce dossier ait été déjà expertisé en 2003 par un comité scientifique
international, nous rappelons brièvement ci-après, par souci d’être complet, les
domaines de la physique où le laser MultiPW auprès de la LIL donnera une
contribution importante. Le document d’accompagnement en anglais est plus
explicite et a une bibliographie à jour.
2.2.1 Le projet Phare : physique de l’allumage rapide
pour l’énergie
Dans le schéma de base de la FCI, une microbille de deutérium-tritium (DT),
est comprimée par la poussée d’un matériau (ablateur), mis en vitesse par la
détente d’un plasma éclairé uniformément. Au maximum de compression, un
« point chaud » initie les réactions de fusion qui se propagent dans la partie
froide et dense du combustible, entraînant un important dégagement d’énergie
thermonucléaire.
I NTERACTION LASER - PLASMA ET
LASER PETAWATT
113
Le dimensionnement du Laser Mégajoule a été défini sur la base de ce
schéma, avec l’objectif suivant : obtenir un gain de cible de l’ordre de 10
(rapport de l’énergie thermonucléaire dégagée à l’énergie investie) dans un
schéma d’implosion par attaque indirecte, consistant à convertir préalablement
le rayonnement laser en rayonnement X dans une cavité renfermant la cible sous
forme d’un microballon.
L’irradiation directe du microballon par des faisceaux laser est l’autre voie
pour comprimer le mélange fusible et obtenir l’allumage par point chaud puis
sa combustion. Des mesures conservatoires (essentiellement la disposition des
faisceaux autour de la chambre d’interaction) ont été prises dans la conception
du LMJ pour pouvoir la mettre en œuvre.
Vis-à-vis des applications énergétiques de la FCI, c’est-à-dire de l’énergie
par fusion inertielle (EFI), et compte tenu des difficultés pour produire une compression parfaitement symétrique indispensable pour assurer l’ignition selon les
schémas décrits ci-dessus, l’allumage rapide apparaît comme un schéma extrêmement séduisant et prometteur ; il consiste à découpler les phases de compression du microballon et d’inflammation du DT et combine impulsions de forte
énergie nanosecondes (ns) et de forte intensité picosecondes (ps). Encore faut-il
le valider en commençant par les mécanismes de base.
Ce schéma d’allumage rapide soulève donc aujourd’hui des problèmes nouveaux qui nécessitent des recherches approfondies en physique fondamentale :
– la mise en condition de la cible (énergie et degré de symétrie nécessaires) :
il s’agit de réaliser les conditions de température et de masse surfacique
du cœur comprimé susceptibles d’absorber de manière efficace l’énergie des électrons et ions accélérés par le laser, et d’initier efficacement la
combustion ;
– la production et la propagation guidée des particules (électrons ou ions)
suprathermiques : il faut mieux connaître le rendement de conversion de
l’énergie laser en énergie électronique et comprendre la propagation canalisée des particules chargées et le rôle des champs magnétiques ainsi
générés, les mécanismes gérant le transport électronique en matière dense
et chaude : il s’agit d’étudier la propagation de courants extrêmement intenses, au-dessus de la limite d’Alfven, dans la matière à forte densité et
de préciser le rôle des champs électrique et magnétiques sur l’efficacité du
transport ;
– le dépôt d’énergie par ces particules conduisant à l’allumage : il s’agit de
maîtriser la propagation des particules alpha et l’expansion de l’onde de
combustion.
114
LA
FUSION NUCLÉAIRE
En conclusion, l’association PW-LIL permettra de tester de manière unique2 la
phénoménologie de l’allumage rapide, soit en géométrie d’attaque directe soit
en géométrie d’attaque indirecte, d’étudier (et de quantifier) les phénomènes
impliqués dans ce processus.
2.2.2 Sources secondaires et diagnostics
Connaître les plasmas denses et chauds (tels que ceux rencontrés en astrophysique au cœur des étoiles ou lors des expériences de FCI) signifie concrètement avoir accès aux grandeurs thermodynamiques essentielles (température
et densité électroniques). Il convient pour cela de disposer de sources de rayonnement ou de particules énergétiques qui soient suffisamment brillantes, courtes
et spécifiques pour pénétrer dans les plasmas denses, se distinguer du fond de
rayonnement et réaliser des mesures instantanées.
Les études menées sur les installations laser multiterawatt (ps et subps) actuelles montrent qu’on sait produire de façon efficace :
– des rayons X dur et γ (du keV à plusieurs dizaines de MeV) ;
– des lasers à rayons X (dans la gamme 5–25 nanomètres (nm)) ;
– des faisceaux d’électrons relativistes de courant très élevé (jusqu’à
1014 A/cm2 ) ;
– des faisceaux de neutrons, positrons, protons et ions lourds d’énergie audelà du MeV.
Les techniques associées : radiographie, imagerie, interférométrie, diffusion
Thomson sont connues depuis de nombreuses années dans le domaine optique. Substituer aux sources correspondantes des sources plus pénétrantes, plus
brillantes et de plus faible durée, telles que celles générées, directement ou indirectement, par l’interaction laser PW-matière, améliorera sensiblement les performances des diagnostics et donnera accès à une meilleure compréhension de
la matière dans des conditions « extrêmes ». Les développements récents en radiographie par protons et la mesure des champs électriques internes au plasma
par déflection de protons et d’ions légers sont particulièrement importants pour
les diagnostics de cible comprimés. Trois caractéristiques uniques des rayonnement et des particules produites par un laser PW sont particulièrement intéressantes pour le diagnostic des plasmas denses et chauds : les sources seront plus
énergétiques (photons plus « durs » particules plus énergétiques, et donc plus
2 En
dehors des États-Unis.
I NTERACTION LASER - PLASMA ET
LASER PETAWATT
115
pénétrantes), les sources seront plus brillantes et plus intenses que le rayonnement propre de la matière étudiée, la durée de l’émission sera plus brève que
les temps caractéristiques d’expansion du plasma, supprimant ainsi l’effet de
« flou ».
Les connaissances, tant théoriques qu’expérimentales, acquises ces dernières
années, permettent de dimensionner et de caractériser ces sources de rayonnement et de particules à l’échelle des 100 TW. Le changement d’échelle au
niveau du petawatt reste encore à être validé. Mais, outre l’intérêt scientifique
explicité plus haut d’un tel faisceau PW sur la ligne d’intégration laser (LIL),
cette approche devrait s’avérer primordiale à terme pour les futures expériences
scientifiques sur le LMJ.
2.2.3 Matière à haute densité d’énergie
L’obtention de « grands » milieux à la fois denses et chauds (ou tièdes) sera
une caractéristique unique du tandem PW-LIL. La physique abordée dans ce
domaine est, bien sûr, corrélée avec les précédents avec des retombées dans
d’autres domaines scientifiques comme la géophysique, les sciences de la Terre
et des planètes telluriques, et l’astrophysique. Les défis présentés par ces études
se concentrent dans la production d’états de la matière inédits de manière parfaitement contrôlée. Au plan expérimental, c’est encore la conjonction d’un laser
en impulsions longues (LIL) avec un laser picoseconde (Multi-PW) qui est le point
crucial. Les domaines suivants seront plus particulièrement étudiés :
– les propriétés thermodynamiques de la matière dense à basse (10 eV) et
haute (1keV et plus) température : il s’agit des études d’équation d’état
des matériaux d’intérêt pour l’EFI et pour la physique des planètes, et
de l’étude des instabilités hydrodynamiques qui pourront être abordées
avec de nouveaux moyens incluant la radiographie avec des particules
chargées ;
– l’étude de l’émission (émissivité) et l’absorption (opacité) des plasmas dans
des conditions thermodynamiques extrêmes de la matière comprimée ;
– la cinétique atomique hors d’équilibre : il s’agit d’étudier les effets instationnaires sur la dynamique d’ionisation. En effet, avec un laser PW, la
durée de l’impulsion est plus brève que les temps d’expansion hydrodynamique mais comparable aux cinétiques d’ionisation ;
– la génération et la mise en œuvre de sources secondaires très pénétrantes
telles que les sources d’électrons rapides ou d’ions légers rapide : les
premières études devraient aborder l’étude du chauffage isochorique des
cibles afin d’obtenir des températures élevées tout en maintenant une forte
116
LA
FUSION NUCLÉAIRE
densité. De même, des sources secondaires de particules seront utilisées
pour caractériser le pouvoir d’arrêt des électrons et des ions dans la matière comprimée. Pour ce dernier point, il s’agira de mesures tout à fait
complémentaires de ce qui pourra se faire dans une installation telle que
GSI-Darmstadt où un laser 1 PW sera couplé à un accélérateur d’ions
lourds.
2.2.4 Matière portée à des conditions extrêmes
L’accès, grâce au laser PW, à des domaines « frontières de la physique » sera
un vecteur d’ouverture vers d’autres communautés scientifiques, surtout celles qui
n’ont pas accès aux « manipulations » expérimentales en raison de l’inaccessibilité de leur objet d’étude (galaxies ou autres objets astrophysiques) ou en raison
de la faiblesse des forces mises en jeu (la gravitation par exemple). En effet,
avec le laser Multi-PW on pourra accéder à des densités de puissance records,
supérieures à 1021 W/cm2 , correspondant à des énergies d’oscillation des électrons qui sont nettement du domaine relativiste ou ultra-relativiste. La matière est
alors soumise à des conditions extrêmes dont des manifestations sont :
– la génération de champs magnétiques extrêmement élevés supérieurs à
109 G similaires à ceux qui doivent participer à l’évolution des naines
blanches et des étoiles à neutrons. Des champs magnétiques de cette intensité ne peuvent pas être produits autrement en laboratoire et devraient
attirer des communautés autres que celles gravitant autour de la physique
des plasmas ;
– des pressions très fortes (plusieurs Gbar), similaires à celles rencontrées
aux confins des trous noirs, sièges d’accélération très importante (1024 G).
Ce thème d’exploration se situe réellement à la frontière de la physique
des plasmas, de l’électrodynamique quantique, de la relativité générale et
de la physique des particules élémentaires.
2.2.5 Autres retombées scientifiques
L’apparition de nouveaux instruments entraîne toujours de nouvelles idées,
de nouvelles applications. Des communautés scientifiques autres que celles du
premier cercle des lasers intenses et plasmas ont participé aux réflexions prospectives sur l’utilisation scientifique du LMJ. Il a été ainsi noté que les états de la
matière produits par interaction combinée des impulsions nanosecondes (LIL) et
picosecondes (PW) sont très exotiques du point de vue des différents domaines
de physique abordables. On en donne trois exemples ci-dessous (liste non exclusive).
I NTERACTION LASER - PLASMA ET
LASER PETAWATT
117
Pour la physique de la matière condensée l’attractivité de l’association LIL-PW
est liée à l’exploration du diagramme thermodynamique hors des chemins usuels
(lors de la détente adiabatique d’un plasma créé par interaction laser-solide à
la densité du solide et à des températures du keV).
Dans le domaine de la physique nucléaire, la matière, portée à l’état de
plasma dense, peut être le siège de réactions de fission et de fusion qui génèrent
un nombre important de particules (ions et électrons suprathermiques, neutrons
et photons). Ces dernières vont interagir avec leur milieu et le modifier. Ces
phénomènes, tels que, par exemple, le processus NEET (Nuclear Excitation by
Electronic Transition), peuvent être reproduits en laboratoire lorsque des particules analogues, créées par interaction laser PW-solide, sont « injectées » dans
un plasma précomprimé. Du fait des volumes macroscopiques de plasma produits par le laser Multi-PW et de la forte brillance des sources secondaires de
particules générées, l’étude des faibles sections efficaces de réaction sera enfin
à notre portée, en physique subatomique.
Dans le domaine de l’astrophysique on peut modéliser à l’échelle du laboratoire les processus prévus dans les étoiles et le milieu interstellaire : instabilités des fronts de chocs, accélération des particules dans les champs aléatoires,
transition de phases dans le centre des étoiles, connaissance de l’opacité de
divers matériaux, conditions thermodynamiques « exotiques » (quelques g/cm3 ,
quelques keV), etc.
2.3 Stratégie régionale, nationale et européenne
2.3.1 Un environnement très compétitif
Des lasers petawatts de haute énergie sont construits ou en projet dans de
nombreux endroits de par le monde, au CLF du Rutherford Appleton Laboratory
en Angleterre, au GSI Darmstadt, ailleurs en Europe (PALs à Prague, à Jena,
au LOA à Palaiseau), aux États-Unis (Livermore, Rochester, AnnArbor, Sandia,
etc.). Le Lawrence Livermore National Laboratory et l’université de Rochester
planifient des additions petawatt à leurs installations respectives, NIF et Omega.
Au Japon, en préparation du projet FIREX consacré à la démonstration de l’allumage rapide, un laser petawatt a été déjà couplé à l’installation Gekko 12.
C’est dans ce contexte extrêmement compétitif que la combinaison des impulsions très énergétiques de la LIL avec les impulsions du laser petawatt rendront
cette installation ambitieuse absolument unique en Europe et au premier rang
mondial avec ses concurrents aux États-Unis et au Japon.
118
LA
FUSION NUCLÉAIRE
2.3.2 La situation française
Du fait du niveau d’investissement relativement élevé de ce type d’installation
laser, une coordination s’est progressivement mise en place, depuis bientôt une
dizaine d’années, entre les grands organismes de la recherche française impliqués dans ce domaine : le CEA et le CNRS. Elle a donné lieu, jusqu’en 1999,
à des collaborations expérimentales sur les installations du CEA à Limeil Brévannes, en particulier avec le laser pionnier en matière de laser « petawatt », le
laser P102. Jusqu’à récemment, la plupart des physiciens des plasmas chauds
par laser se situent en Île-de-France, se partageant principalement entre l’École
polytechnique (Luli et CPHT) et son groupement d’utilisateurs académiques, et la
DIF au CEA-Bruyères-le-Châtel.
Le CNRS et le CEA ont décidé en 1998 de joindre leurs efforts avec l’École
polytechnique (et la DGA) dans l’opération de Jouvence du Luli (projet Luli
2000). Ce programme comporte un volet de chaîne « petawatt », dit programme
Pico 2000 au niveau de 400 joules en 400 fs, laser couplé à un ou des faisceaux
nanoseconde et kilojoule. L’ensemble couplé nanoseconde et petawatt sera opérationnel au cours de l’année 2007. Remarquons cependant qu’il s’agit d’une
technologie ancienne qui limite l’énergie émise à 0,5 kJ, soit pratiquement un
ordre de grandeur de moins par rapport à ce que pourra produire le laser PW
sur la LIL.
On doit aussi mentionner, dans la classe des lasers à base de titane saphir,
plusieurs installations fonctionnent actuellement en régime d’impulsions ultrabrèves (de 20 à 100 fs), avec une puissance de quelques dizaines de terawatt,
au Laboratoire d’optique appliquée à Palaiseau et au CEA-Saclay par exemple.
Le LOA affiche cependant depuis peu un projet extrêmement ambitieux défendu
auprès de l’ESFRI, dit ELI pour Extreme Light Infrastructure, de passage au niveau de la fraction d’exawatt en régime d’impulsions très courtes (jusqu’à 2 kJ
en 15 fs à une longueur d’onde de 2 μm).
En conclusion, on peut noter que les équipes académiques françaises sont par
tradition très actives dans ce domaine. Une des origines de cette situation réside
dans les programmes du CEA/Dam qui ont engendré des besoins continus de
formation et de support amont en physique des plasmas chauds. Actuellement,
on note que cette communauté se révèle particulièrement dynamique, ce qui se
traduit par une progressions dans des outils de grande qualité et très onéreux,
mais paradoxalement, par aussi un vieillissement de la population. Les nouveaux
besoins, suite au programme LMJ, ne font que qu’accentuer cette nécessité de
renforcer la communauté, par exemple avec l’UMR de Bordeaux. La coordination et structuration des activités des installations et populations scientifiques des
I NTERACTION LASER - PLASMA ET
LASER PETAWATT
119
pôles existants (le francilien) et en construction (l’aquitain) ont justifié la création
de l’Institut laser plasma (ILP).
2.3.3 La situation européenne
En Europe, et en dehors de la France, on trouve deux projets de la classe
petawatt reposant sur la technologie verre-néodyme, sous la responsabilité du
Rutherford Appleton Laboratory (RAL) et du Gesellschaft für Schwerionen (GSI)
à Darmstadt. Ces deux programmes reposent sur la récupération des chaînes
amplificatrices des lasers Nova et Phebus. Ces lasers sont donc limités, de par
leur technologie et comme l’a été le premier laser PW sur Nova, à des énergies
subkilojoule.
La chaîne PW sur Vulcan au RAL est dans sa phase de première exploitation, alors que le laser PW de GSI est construit parallèlement à celui du Luli.
Cependant, contrairement à LULI2000, le laser petawatt du RAL n’est couplé à
aucun autre faisceau de haute énergie alors que celui du GSI le sera avec un
faisceau d’ions lourds. La justification des ces programmes est l’allumage rapide
des cibles thermonucléaires, avec des lasers pour le RAL ou des ions lourds pour
le GSI.
En conclusion, on doit noter que les programmes européens, TMR puis IHP,
et maintenant du 6e PCRD, ont permis à la communauté des scientifiques européens de collaborer activement dans le domaine des plasmas chauds créés par
laser et d’initier de nouvelles recherches dans des champs connexes, que ce soit
en astrophysique, géophysique, matériaux sous chocs, etc.
Il faut cependant mettre en avant le dossier qui porte toute une communauté
en Europe, qui est le projet HiPER d’installation dévolue à la démonstration en
grandeur réelle de l’allumage rapide. Il s’agit de coupler un laser de 200 kJ en
régime nanoseconde avec des lignes petawatts totalisant de l’ordre de 60 kJ en
quelques picosecondes de durée. Le projet Petra (PW-LIL) se positionne donc
comme un démonstrateur scientifique et technologique incontournable d’une
roadmap européenne où se positionnerait en phase terminale une expérience
d’ignition.
2.3.4 La situation internationale hors de l’Europe
Hors Europe, on trouve des programmes majeurs de laser petawatt, ciblé
majoritairement pour l’allumage rapide, dans deux pays, le Japon et les USA,
en attendant la Chine.
120
LA
FUSION NUCLÉAIRE
Le programme du Japon
Au Japon à l’ILE de l’université d’Osaka, un programme de ligne petawatt reposant sur les principes démontrés à Livemore sur Nova, et le même que celui
mis en application au RAL, est désormais opérationnel. Il produit une impulsion
limitée à 0,5 petawatt, mais est couplé aux douze faisceaux du laser à haute
énergie (quelques dizaines de kilojoules)
Les études se consacrent majoritairement sur l’allumage rapide, vu la mission de ce laboratoire qui est l’énergie par fusion inertielle. Des expériences récentes réalisées par un consortium regroupant des scientifiques des États-Unis,
du Royaume-Uni et du Japon ont démontré un effet de renforcement d’un facteur 10 sur la production des neutrons par l’utilisation de ce laser.
Il s’agit pour l’instant de l’étape de démonstration en vue de faire approuver
le projet FIREX (pour Fast Ignition Realization Experiment) dont l’objectif est la
démonstration de l’allumage rapide. La première phase de ce projet qui est en
cours de construction et qui serait mis en service à partir de fin 2007, consiste
en un laser de 10 kJ en 10. La deuxième phase, FIREX2, consiste à passer du
couplage à Gekko 12 à un couplage avec un laser à 92 faisceaux de façon
à obtenir une compression à ρR = 0,8 gcm2 et une démonstration de l’autoallumage et du « break-even » pour 2013.
Le programme petawatt aux États-Unis
De nombreux projets petawatt existent actuellement aux États-Unis : University
of Nevada, Sandia (machine Z-pinch) à partir du Beamlet qui était le prototype
du NIF, laboratoire de General Atomics à San Diego. Le programme majeur
financé qui s’apparent à celui du PW sur la LIL est celui du Laboratory for Laser
Energetics à Rochester (LLE), qui repose sur les mêmes technologies que le LMJ.
Projet Omega EP
Le projet Omega EP de Rochester (EP pour Extended Performance), repose sur
le laser Omega proprement dit qui fonctionne avec ses 60 faisceaux de 0,5 kJ,
soit un total de 30 kJ à 0,35 μm. Il consiste en l’extension des capacités de
cette installations par des impulsions courtes PW obtenus grâce à l’adjonction
de faisceaux du type NIF, donc similaires à ceux de la LIL et du LMJ. Néanmoins,
si ce programme s’apparente de très près à celui du PW sur la LIL, il en diffère.
Par exemple, n’ayant pas à faire les investissements pour les maintenances des
équipements du NIF, Rochester a préféré développer une nouvelle conception de
I NTERACTION LASER - PLASMA ET
LASER PETAWATT
121
la mécanique avec des faisceaux indépendants sur rails posés au sol. Bien qu’il
soit intéressant à considérer pour la LIL, ce schéma n’est directement applicable
sur la LIL. La construction doit s’étager jusqu’à fin 2007. Notons que le projet
OMEGAEP se veut aussi être un démonstrateur technologique pour des chaînes
multi-petawatt sur le NIF.
CHAPITRE
5
La physique atomique
pour la fusion
JACQUES BAUCHE, PASCALE MONIER-GARBET, ROLAND STAMM ET GILLES ZERAH
LA
1
PHYSIQUE ATOMIQUE POUR LA FUSION
125
Contrôle du flux d’énergie à la paroi au moyen
d’un scénario fortement radiatif
Dans un plasma de fusion par confinement magnétique, les voies principales
de perte d’énergie sont la conduction thermique, le rayonnement électromagnétique émis par les ions présents dans le plasma ainsi que le transfert d’énergie
avec les neutres lors des échanges de charges. Il est à noter que les pertes par
rayonnement sont des pertes d’énergie de la population électronique. La modification de l’énergie ionique n’intervient alors que par le processus d’équipartition
entre électrons et ions. Du fait des caractéristiques du transport parallèle dans
le plasma périphérique, les pertes par conduction donnent lieu à un dépôt de
puissance très localisé dans le divertor, au voisinage du point où les plaques
de neutralisation interceptent la séparatrice magnétique. Dans Iter, si la totalité de la puissance injectée était perdue par conduction, cela donnerait lieu à
un flux d’énergie à la paroi inacceptable pour les matériaux face au plasma.
Les pertes dues au rayonnement, au contraire, conduisent à un flux d’énergie
sur une grande surface de paroi. On cherche donc à augmenter les pertes par
rayonnement, en injectant une impureté. Dans Iter, 75 % de la puissance totale
devra être perdue sous forme de rayonnement en régime stationnaire, de façon
à limiter le flux d’énergie déposé sur les plaques de neutralisation à 10 MW/m2 .
Le mode H, qui est le mode d’opération de référence pour Iter, pose de plus le
problème du dépôt de puissance transitoire, et très intense, dû aux événements
de relaxation MHD que l’on désigne par ELMs. Pour les transitoires dans Iter,
on calcule que la valeur maximale admissible du flux d’énergie à la paroi, du
point de vue de l’érosion, est d’un facteur d’environ deux fois plus faible que
ne l’indiquent les extrapolations des expériences actuelles. Ainsi, les scénarios
de mode H fortement radiatifs avec injection d’impuretés sont explorés dans le
double but de diminuer la puissance conduite dans le divertor en régime stationnaire, et de générer un régime d’ELMs plus modérés.
Le problème essentiel est alors celui du maintien du bon confinement du
plasma, et celui du maintien du mode H lui-même. En effet, le mode H n’existe
qu’au-delà d’une valeur seuil du flux d’énergie qui traverse la séparatrice magnétique par conduction thermique. Si le rayonnement des ions impuretés a lieu
à l’intérieur de la séparatrice, alors le flux d’énergie qui traverse la séparatrice
par conduction est diminué, et peut passer en dessous du seuil, conduisant à
la perte de la barrière de transport caractéristique du mode H. De façon générale, le rayonnement des impuretés, s’il a lieu au voisinage de la barrière
de transport, conduit à une dégradation des propriétés de cette barrière, du
fait de la baisse locale de la température du plasma, et ainsi à une diminution
de l’énergie stockée dans le plasma pour une puissance totale donnée. Pour
cette raison, un scénario radiatif ne peut être envisagé que si la puissance totale
126
LA
FUSION NUCLÉAIRE
injectée dans le plasma est largement supérieure au seuil d’existence du mode
H. Dans ce cas, on peut alors accepter de perdre une partie de cette énergie
du plasma par rayonnement. D’autre part, l’affaiblissement de la barrière de
transport conduit à un régime d’événements de relaxation (dit régime d’ELMs
de Type III) qui serait acceptable pour le dépôt de puissance dans le divertor. Ce
régime de fonctionnement, avec un flux d’énergie à la paroi, acceptable aussi
bien en régime stationnaire que pendant les événements transitoires, a déjà été
obtenu expérimentalement. La perte d’énergie stockée dans le plasma, liée à la
dégradation de la barrière de transport par le rayonnement, pourrait être compensée par un courant plasma plus élevé. Une telle solution « intégrée » semble
une alternative possible pour le fonctionnement d’Iter.
Dans ces régimes dits « radiatifs », le choix de l’impureté injectée est crucial.
En effet, ce sont les caractéristiques de physique atomique de l’espèce choisie
qui déterminent en grande partie la faisabilité du scénario. Pour un plasma cible
donné, les propriétés de physique atomique de l’impureté choisie déterminent
d’abord le lieu d’ionisation des atomes neutres, puis la distribution des différents états d’ionisation vers le plasma central et enfin la localisation précise du
maximum de l’émission du rayonnement électromagnétique. L’impureté doit être
choisie de telle sorte que son rayonnement soit maximal dans la région au bord
du plasma où l’on veut diminuer la température. Au contraire, la pénétration des
ions impuretés dans le plasma central doit être limitée. Pour les impuretés de petit
numéro atomique, c’est la dilution du mélange deutérium-tritium qui conduirait
à une diminution de la réactivité du plasma. Pour les impuretés de numéro atomique plus élevé, la présence d’électrons liés dans des atomes fortement ionisés
conduit à une puissance rayonnée beaucoup trop élevée et se traduit par un
« collapse radiatif ». À ce titre une concentration inférieure à 10−4 de tungstène
est impérative.
2
Spectroscopie
2.1 Spectroscopie passive
« La spectroscopie est le langage des atomes », disait Pierre Jacquinot. Il
importe aux physiciens des plasmas chauds de tirer le maximum d’informations
des spectres d’émission et d’absorption de rayonnement électromagnétique. Le
rôle majeur de la spectroscopie dans les recherches sur la fusion est de fournir
des diagnostics sur l’état interne des plasmas.
Les régions spectrales où les raies sont les plus intenses sont dans les domaines
des rayons X durs (1 à 10 Å) et mous (10 à 100 Å). Chaque raie correspond à
LA
PHYSIQUE ATOMIQUE POUR LA FUSION
127
la transition d’un atome d’un niveau vers un autre.
E2
émission ↓ (hν = E2 − E1) ↑ absorption
E1
Dans un enregistrement spectrométrique, par photomultiplicateur ou par galette électronique CCD, chaque raie apparaît comme un pic en émission ou un
creux en absorption. Son profil et sa largeur dépendent de différentes causes
d’élargissement : largeur instrumentale, effet Doppler, effet Zeeman dû aux
champs magnétiques, effet Stark dû aux champs électriques, effets des collisions
entre ions et entre ions et électrons, etc.
Par définition, les plasmas de Tokamaks émettent et peuvent absorber principalement des raies des atomes d’hydrogène et d’hélium dans l’ultraviolet et le
visible (100 à 10000 Å), qui sont assez peu nombreuses et bien connues. Mais
les ions métalliques arrachés aux parois produisent de très grands nombres de
raies X. En interprétant le spectre émis par ces atomes, on a un diagnostic de
température et de densité des ions du plasma.
2.2 Effets des champs magnétiques et électriques
sur les profils de raies
Dans un Tokamak, le champ magnétique de confinement est suffisamment
intense pour que les niveaux d’énergie des atomes et ions émetteurs soient fortement perturbés, et que les raies spectrales se séparent en composantes Zeeman.
Si on observe une région où le champ magnétique est uniforme, on peut alors
obtenir le module et la direction de ce champ.
Si un plasma est suffisamment dense, ou bien si on observe des raies de
grand nombre quantique principal, le spectre est affecté par l’effet Stark dû
au microchamp créé par les particules chargées qui entourent l’émetteur. Une
modélisation des propriétés statistiques de ce microchamp fluctuant permet alors
de remonter à la densité des particules chargées.
2.3 Plasmas par confinement inertiel
Un autre moyen pour créer des plasmas chauds consiste à produire l’impact
d’un faisceau laser de grande puissance sur une surface solide. C’est le procédé
utilisé en fusion inertielle, où la surface solide est, par exemple, un microballon de silice contenant de l’hydrogène. Le plasma créé contient des atomes plus
128
LA
FUSION NUCLÉAIRE
lourds que l’hydrogène. Plus généralement, tout élément chimique peut être soumis en laboratoire à l’impact d’un faisceau laser de puissance. De cette façon
ont été obtenus les spectres d’un grand nombre d’ions atomiques que l’on n’aurait jamais imaginé pouvoir observer sur Terre.
Les techniques de fabrication de lasers infrarouges ou visibles de grande
puissance instantanée, c’est-à-dire à impulsions de très courtes durées (des nanosecondes ou des picosecondes) se sont multipliées. Souvent, on accroît l’intensité du faisceau laser de départ en lui faisant traverser successivement plusieurs
amplificateurs à cristaux dopés, et éventuellement des dispositifs doubleurs ou
tripleurs de fréquence. Une des méthodes les plus remarquables est celle du
« laser X », où l’amplification d’un faisceau X est réalisée par la traversée d’un
plasma métallique créé par un impact laser infrarouge.
Pour l’enregistrement et l’analyse expérimentale de ces spectres X, de nouveaux cristaux et de nouveaux montages ont été conçus. Certaines raies peuvent
être assez bien séparées les unes des autres, et identifiées individuellement.
D’autres apparaissent « soudées » en larges bandes, appelées faisceaux de
transitions. Il faut quand même les caractériser. Pour analyser un milieu aussi
complexe et inabordable qu’un plasma chaud, le nombre de diagnostics disponibles ne sera jamais suffisant !
2.4 Spectroscopie active
Les méthodes de spectroscopie active font souvent appel à un faisceau énergétique de neutres qui interagit avec les particules du plasma. Les photons qui
sont émis lors de l’interaction sont observés sur une ligne de visée faisant un
angle avec le faisceau de neutre, ce qui fournit une résolution spatiale pour
l’étude du plasma. La méthode active qui utilise un faisceau de neutres énergétiques subissant une réaction d’échange de charge avec les ions est appelée
spectroscopie de recombinaison d’échange de charge. Les réactions d’échange
de charge des neutres avec les ions du plasma peuvent être utilisées pour avoir
des informations sur les populations ioniques. Cette spectroscopie utilise en particulier les échanges de charge avec les ions complètement ionisés d’impuretés
comme le carbone ou l’oxygène. Ces ions qui sont sans spectre de raie avant recombinaison, émettent dans leur état hydrogénoïde un ensemble de raies spectrales intenses et localisées sur la ligne du faisceau. Les lignes de visée s’étendent
jusqu’au cœur du plasma, permettant alors de reconstituer le profil de température de l’ion.
L’effet Stark motionnel utilise le champ électrique vxB ressenti par un neutre
rapide du faisceau pour mesurer le champ magnétique local. Les composantes
LA
129
PHYSIQUE ATOMIQUE POUR LA FUSION
Stark de la raie de Balmer alpha du deutérium sont très bien séparées et identifiées, et l’utilisation de leur polarisation permet une mesure précise du module
et de la direction du champ magnétique. Un spectre d’effet Stark motionnel
observé sur Tore Supra avec un champ magnétique sur l’axe de B ∼ 3,23 T
est montré sur la figure ci-dessous, et correspond à des neutres dont l’énergie
primaire est de 50 keV. Le spectre observé est une superposition des spectres
Stark correspondant à trois valeurs d’énergie des neutres du faisceau. Le calcul
(trait continu sur la figure) reproduit approximativement le spectre Stark de la
composante d’énergie à 50 keV.
Intensité [u. a.]
3
2
M S E :T S # 3 0 3 2 3
C a lc u l
b)
C II lin e
E
1
0
6570
6585
6600
6615
6630
Δ λ [Å ]
Figure
Spectre d’effet Stark motionnel observé sur Tore Supra (choc 30323) avec un champ magnétique sur l’axe de
B ∼ 3,23 T, et une énergie primaire de faisceau de 50 keV. Le calcul (trait continu sur la figure) reproduit
approximativement le spectre Stark de la composante d’énergie à 50 keV.
Signalons aussi les techniques de fluorescence induite par laser, où un faisceau laser accordé sur une transition d’un système atomique présent dans le
plasma stimule l’émission d’un groupe d’atome. En utilisant un balayage en fréquence du laser, on peut obtenir avec précision la fonction de distribution des
vitesses des émetteurs.
2.5 Mesures spectroscopiques dans le plasma de bord
Dans un Tokamak du futur, une fraction importante de la puissance émise résultant du chauffage par les particules alpha devra être rayonnée par les impuretés pour assurer un fonctionnement durable du divertor. Une mesure précise
de ce rayonnement devra être effectuée directement dans le divertor en utilisant de multiples lignes de visée spectroscopiques. Des réseaux de bolomètres
permettront de contrôler localement le dépôt de puissance. À cause de l’interaction du plasma avec les parois, et d’injections spécifiques, beaucoup d’éléments sont observés dans les Tokamak. Leur diagnostic sera réalisé en mesurant
130
LA
FUSION NUCLÉAIRE
leur spectre de raies dans des gammes de fréquence allant de l’infrarouge au
rayonnement X. L’analyse du spectre permet d’identifier et mesurer les éléments
présents, de diagnostiquer les températures et les mouvements d’ensemble de
ces particules émettrices.
L’effet Zeeman-Doppler est utilisé pour déterminer les différentes fractions de
population de deutérium neutres qui émettent dans le plasma de bord. Au moins
deux populations sont régulièrement observées. La première est une population
relativement froide issue de la dissociation par impact électronique de molécules désorbées de la paroi. Une autre population beaucoup plus chaude (20–
100 eV) provient des réactions d’échange de charge entre les ions énergétiques
provenant du cœur et les neutres présents au bord. Dans les plasmas de bord
des machines de fusion, la fonction de distribution des vitesses est souvent directement accessible sur le profil Doppler de la raie, et la mesure de la largeur
de raie fournit la température si le plasma est proche de l’équilibre thermodynamique.
2.6 Développements associés
Les installations de faisceaux lasers de puissance sont souvent de « grands
instruments », comme celui du Luli de l’École polytechnique. De nombreuses
équipes peuvent utiliser simultanément chacune des impulsions émises par le laser. Ainsi, des expériences d’astrophysique sont apparues dans les laboratoires
où l’on peut simuler les conditions qui règnent dans certains plasmas de l’espace, par exemple les ondes de choc radiatives. Sur ces instruments, on mène
aussi des recherches sur de nouvelles méthodes d’accélération de particules. En
outre, les harmoniques d’ordres élevés du faisceau laser principal ont des longueurs d’onde des dizaines de fois plus courtes, ce qui ouvre des perspectives
sur de nouveaux domaines d’expérimentation en physique atomique et moléculaire.
3
Interprétations théoriques
3.1 Structure et évolution des plasmas
Les spectres électromagnétiques d’un plasma chaud donnent aux physiciens
des informations précieuses sur son état interne. Dans l’idéal, ces informations
seraient, à tout instant et en tout point du plasma, la densité volumique et la
distribution des vitesses des atomes occupant tous les niveaux des ions de tous
les degrés d’ionisation de tous les éléments chimiques présents, ainsi que la
densité et la distribution des vitesses des électrons libres. Dans la pratique, le
spectroscopiste ne peut enregistrer, par exemple, que la lumière qui arrive, à un
LA
PHYSIQUE ATOMIQUE POUR LA FUSION
131
seul instant, d’un petit élément de volume du plasma ou de tous les éléments se
trouvant dans une certaine direction. Mais la complexité du plasma reste telle
que la mécanique statistique semble être tout indiquée pour l’interprétation.
En fait, la physique atomique est aussi une méthode efficace. Dans une hypothèse de régime quasi stationnaire, où la densité et la température du gaz
d’électrons libres sont supposées constantes, mais où le milieu est trop peu dense
pour réabsorber la lumière qu’il émet spontanément, il faut considérer explicitement les principaux processus atomiques. Ce sont des processus d’émission ou
d’absorption des photons ou des électrons par les ions, spontanés ou induits par
des collisions entre particules. L’équation de base, pour chacun des niveaux i
des ions du plasma, est celle de l’égalité du nombre d’atomes qui le quittent
à chaque seconde et du nombre d’atomes qui y arrivent. Les inconnues de ce
modèle collisionnel-radiatif d’équations linéaires sont les densités volumiques
Ni de tous les niveaux. Mais, même en négligeant l’infinité des niveaux de plus
grandes énergies, dont les densités sont extrêmement faibles, il en reste plusieurs
millions, ce qui exclut de résoudre un tel système d’équations. Il faut utiliser
des méthodes dites « globales », en écrivant moins d’équations collisionnellesradiatives, chacune concernant des ensembles de niveaux, à l’intérieur desquels
les densités Ni suivent une certaine loi exponentielle décroissante en fonction de
l’énergie.
Des résultats obtenus pour les densités Ni, on déduit facilement la distribution ionique du plasma, c’est-à-dire les pourcentages d’atomes des ions des
différents degrés d’ionisation de chaque élément, puis les spectres de la lumière émise ou absorbée (autrement dit, l’émissivité ou l’opacité), qu’on peut
éventuellement comparer à des résultats expérimentaux. Les calculs du modèle
collisionnel-radiatif peuvent aussi être effectués, mais plus difficilement, sans
l’hypothèse quasi stationnaire, et (ou) en introduisant les processus de réabsorption des photons par excitation des niveaux ou par photoionisation (ionisation par photons), et ceux de bremsstrahlung (rayonnement de freinage). Ces
processus interviennent aussi dans le très difficile problème du transfert radiatif
(transfert d’énergie entre atomes sous forme de photons). Ce problème crucial
est loin d’être résolu. D’une part, il faut tenir compte des profils des raies :
des études théoriques approfondies des profils ont été menées sur les raies des
atomes d’hydrogène et d’hélium, mais celles sur les atomes plus lourds restent à
faire. D’autre part, c’est un problème mathématique complexe dans l’espace à
trois dimensions.
3.2 Effets des fluctuations turbulentes
La mesure des fluctuations de densité du plasma est aujourd’hui réalisée par
la spectroscopie d’émission de faisceau, qui utilise un faisceau de neutre de
132
LA
FUSION NUCLÉAIRE
deutérium dont l’excitation collisionnelle du niveau n = 3 mène à l’émission de
la raie Balmer alpha. Grâce à une résolution spatiale et temporelle durant l’analyse de l’intensité de cette raie, on peut remonter aux fluctuations de densité du
plasma avec l’aide d’un modèle collisionnel-radiatif. En utilisant simultanément
un grand nombre de lignes de visée, on peut alors visualiser à deux dimensions
la turbulence du plasma de bord.
Le profil de raie peut lui-même être affecté par les fluctuations des variables
fluides du plasma. Le profil Doppler de raie est obtenu en moyennant les contributions de toutes les particules émettrices le long de la ligne de visée. On peut
montrer que ce profil dépend de la fonction de distribution de la variable fluide,
en particulier dans les régions à grand déplacement de fréquence. La forme du
profil de raie peut donc être utilisée pour avoir des informations sur la nature de
la turbulence dans les plasmas.
3.3 Développements associés
D’autres disciplines indispensables à la compréhension de l’évolution des
plasmas sont la mécanique des fluides et la magnétohydrodynamique. Les données de physique atomique qui leur sont nécessaires sont précisément celles de
la distribution ionique dont il est question ci-dessus. L’astrophysique a beaucoup
profité de ces méthodes théoriques. En utilisant des hypothèses raisonnables
pour les profils des raies des ions métalliques – peu abondants mais essentiels
– les astrophysiciens peuvent calculer l’équilibre collisionnel-radiatif des étoiles.
Pour ce qui concerne l’intérieur du Soleil, il s’agit des études d’hélioséismologie. Il a été possible d’interpréter quantitativement les pulsations périodiques
des étoiles variables appelées céphéides. Les calculs d’ondes de choc radiatives
sont nécessaires pour comprendre les phénomènes d’explosions de supernovas.
Les retombées amont des études théoriques des plasmas sur la physique atomique ne sont pas négligeables. Il faut citer le développement de l’identification
et de l’interprétation théorique de dizaines de milliers de niveaux d’énergie,
dans des ions atomiques auparavant totalement inconnus. Là encore, l’astrophysique y gagne, puisque des éléments aussi peu abondants sur Terre que
les terres rares ont ainsi pu être détectés, faiblement ionisés, dans des spectres
d’étoiles dites « particulières ». Outre la contribution importante de ces études
de classification à l’approfondissement de la connaissance des éléments de tout
le tableau périodique des éléments, il faut aussi citer l’aide apportée à la sélection des raies des éléments susceptibles de produire – et non de subir – des
rayonnements laser.
Encore plus en amont, la mise au point des modèles collisionnels-radiatifs
a résulté de connaissances plus globales des spectres de niveaux et de raies
LA
PHYSIQUE ATOMIQUE POUR LA FUSION
133
atomiques, donc de l’application des propriétés des distributions statistiques.
Pour acquérir une compréhension de la physique des atomes, il ne suffit pas
de calculer sur ordinateur des milliards de valeurs d’énergies de niveaux et de
raies, aussi exacts et pertinents soient-il. Il faut aussi y détecter des phénomènes.
Des propriétés des largeurs de faisceaux de transitions, du mélange de configurations relativistes ou non relativistes, de prépondérance des niveaux de valeurs
de moments cinétiques paires, de cicatrices de symétries, etc., ont pu être caractérisées sans recourir à un ordinateur. On évite ainsi que les arbres cachent
la forêt. . .
En conclusion, les « épopées » Iter et LMJ, d’une grandeur hors du commun,
exigeront la coopération de jeunes chercheurs et chercheuses compétents en
physique atomique (et en optique) expérimentale et théorique. De petites équipes
existent déjà. Des renforts pourront arriver des écoles et des universités, avec le
concours indispensable des établissements du CEA aux étapes des stages et des
thèses de doctorat.
CHAPITRE
6
La simulation numérique
OLIVIER PIRONNEAU ET XAVIER GARBET
LA
SIMULATION NUMÉRIQUE
137
Résumé
Pour la fusion magnétique
– La simulation des plasmas de fusion se décline entre deux types d’activité :
la modélisation intégrée et la modélisation de premiers principes.
– L’objectif majeur de la modélisation intégrée est de concevoir un « simulateur » de Tokamak permettant de préparer et d’interpréter les expériences.
Ce type d’outil recouvre le calcul de la topologie magnétique d’équilibre et
de sa stabilité MHD, l’évaluation des dépôts de matière et de puissance,
le calcul des termes de pertes radiatives et la résolution des équations de
transport.
– La modélisation de premiers principes a pour but ultime de calculer sans
paramètres ajustables un plasma de fusion. La thématique recouvre les
chauffages ou diagnostics par ondes, la MHD non linéaire, le transport turbulent et l’interaction plasma-paroi. La difficulté vient de la large gamme
d’échelles spatiales et temporelles qui interviennent dans une physique souvent non linéaire.
– Les besoins portent à la fois sur les effectifs de l’ordre de 200 professionnels au moins en Europe et l’accès à des calculateurs performants, dont les
puissances de calcul devraient se situer dans le domaine du multi-teraflops.
Pour la fusion par confinement inertiel
– Les méthodes numériques du CEA/Dam sont réutilisables sans modification, au moins pour l’ignition et pour les bilans sur les produits de la fusion.
– Les études liées à la sécurité des installations et aux bilans thermiques des
futurs réacteurs devront en revanche être développées spécifiquement ; il est
raisonnable de penser qu’elles sont faisables. Il reste que s’il était décidé
de valider numériquement un réacteur à fusion « virtuel », ce serait un travail énorme, un très grand programme de recherche en quelque sorte et il
faudrait qu’il soit au moins européen.
– Les incertitudes sont surtout sur les études de résistance des matériaux.
1
La simulation
La simulation numérique est un moyen complémentaire à l’expérience et au
calcul analytique pour résoudre des équations dont on ne peut trouver la solution. La simulation est moins coûteuse et plus rapide que l’expérience ; elle est en
pleine évolution. Ainsi, en aéronautique, où la simulation était impossible dans
138
LA
FUSION NUCLÉAIRE
les années 1970, vingt ans plus tard un avion pouvait être mis au point entièrement sur ordinateur et testé en soufflerie seulement en phase finale. La simulation
numérique a pénétré la plupart des domaines de l’ingénierie. En électromagnétisme le succès est complet ; en géologie c’est moins clair mais principalement
à cause des incertitudes sur les paramètres des sols ; en météorologie où les
incertitudes sur les données limitent la qualité des simulations, il y a une limite
théorique due à la stabilité des équations de la mécanique des fluides ; en économie ce sont les modèles qui sont en cause, alors qu’en chimie les difficultés
résident dans les grandes disparités d’échelles. Tous ces exemples permettent
de se faire une idée des chances de succès de la simulation pour la fusion en
se posant les mêmes questions sur la validité des modèles, leurs stabilités et la
disparité des échelles. Les calculs à faire pour les plasmas sont énormes, mais
on rappelle que la puissance des ordinateurs double tous les dix-huit mois (loi
le Moore) ainsi que la progression des méthodes numériques ce qui donne un
facteur 5 tous les deux ans.
2
Fusion magnétique
La simulation d’un plasma de fusion requiert la description d’un grand
nombre de phénomènes physiques. Chacun constitue un domaine de spécialisation en soi. Les principaux sous-ensembles sont le calcul de la topologie magnétique d’équilibre et de sa stabilité MHD, l’évaluation des dépôts de matière
et de puissance (chauffage par ondes, injection de particules neutres et réactions de fusion), le calcul des termes de pertes radiatives, et la résolution des
équations de transport tenant compte des processus de relaxation MHD et de
la diffusion turbulente. Ce vaste programme comprend aussi la description de
l’interaction entre plasma et paroi, qui couvre des processus complexes de physique atomique, de physique des matériaux et des conditions aux limites non
triviales sur les éléments de paroi. La modélisation numérique dans le domaine
de la fusion par confinement magnétique progresse suivant deux voies parallèles. La première approche a pour but l’élaboration d’un « simulateur » de Tokamak permettant de préparer et d’interpréter les expériences, et de concevoir
les Tokamaks du futur (voir le paragraphe « Modélisation intégrée » ci-dessous).
Ce type d’outil doit être suffisamment fiable et accessible pour qu’un grand
nombre de physiciens puissent l’utiliser avec un minimum de formation. Par
ailleurs le temps de calcul doit rester raisonnable (quelques heures CPU maximum) pour permettre des études de sensibilité et d’optimisation. La deuxième approche (cf. 2.2. Modélisation dite de « premiers principes » ci-dessous) consiste
à prédire avec la meilleure précision possible des phénomènes tels que le transport turbulent, l’évolution non linéaire d’instabilités MHD, la propagation d’onde
dans un milieu très inhomogène (voire fluctuant), et l’interaction plasma-paroi.
La large gamme d’échelles spatiales et temporelles mises en jeu implique une
LA
SIMULATION NUMÉRIQUE
139
grande complexité de programmation et des temps de calcul élevés. Ces outils ne peuvent donc être développés et utilisés que par un nombre relativement
faible d’experts.
2.1 Modélisation intégrée
La modélisation intégrée consiste à coupler des modules décrivant les phénomènes physiques essentiels afin de constituer un « simulateur » de plasma de
Tokamak. Ces outils numériques offrent usuellement deux options de calcul, interprétative ou prédictive. La version interprétative est essentiellement un outil
de test de cohérence des données, qui consiste à trouver le meilleur compromis entre les diverses mesures (densité, température, champ magnétique, . . .)
et les contraintes fournies par l’équilibre magnétique (les concentrations et températures doivent être constantes sur les surfaces magnétiques). L’utilisation des
modules calculant les dépôts de puissance et les pertes donnent ensuite accès
aux coefficients de transport. L’approche prédictive consiste au contraire à utiliser des coefficients de transport pour calculer les profils. Dans cette approche,
le transport turbulent et les processus de relaxation MHD sont décrits par des
modèles suffisamment simples pour que le temps de calcul reste raisonnable.
Un modèle de transport correspond en essence à une description de champ
moyen, c’est-à-dire à une matrice de transport reliant les flux aux gradients. Les
éléments de cette matrice sont des coefficients de transport turbulent exprimés
en fonction des paramètres macroscopiques du plasma. La construction de ces
coefficients de diffusion s’appuie en général sur une théorie quasi linéaire et
des règles de type « longueur de mélange ». Les relaxations MHD sont généralement introduites par une condition d’apparition déduite du diagramme de
stabilité, et des règles sur le mode de relaxation, par exemple une augmentation
des coefficients de transport. Un code prédictif nécessite aussi l’implémentation
de conditions aux limites, souvent contraintes par des données expérimentales
sur la séparatrice. Toutefois, un calcul complet suppose d’inclure une description
de l’interaction plasma-paroi afin de s’affranchir de cette contrainte, et d’assurer une cohérence d’ensemble. Ces codes, dits « de bord », sont assez volumineux car ils doivent tenir compte de nombreux phénomènes de physique atomique et moléculaire (ionisation, échange de charge, recombinaison, modèles
collisionnels-radiatifs) et de physique des matériaux (pulvérisation, réflexion des
ions incidents, recombinaison). En règle générale, une méthode Monte-Carlo est
utilisée pour décrire la dynamique des particules neutres, alors que le plasma est
usuellement décrit par des équations fluides. Il faut ajouter à cela la physique de
gaine à l’interface entre plasma et plaques de divertor, qui fixent les conditions
aux limites entre plasma et paroi. Le transport dans les codes de bord est en
général décrit par des modèles très simplifiés.
140
LA
FUSION NUCLÉAIRE
Les enjeux dans ce domaine portent sur la comparaison et la rationalisation
des divers modules et outils existants, le choix des formats d’échange de données, le test des outils sur les données expérimentales existantes, notamment la
base de données internationale ITPA (International Tokamak Physics Activity), et
la préparation des scénarios d’Iter. Par ailleurs, il importe d’inclure les résultats
ou outils numériques en cours de développement dans le cadre de la modélisation dite « de premiers principes ». Il s’agit donc là d’un programme ambitieux,
qui requiert une bonne coordination des efforts en Europe. Ce souci de coordination a donné lieu à la création d’une action programmatique européenne de
modélisation intégrée (Integrated Transport Modeling Task Force).
2.2 Modélisation dite « de premiers principes »
La modélisation intégrée présente le défaut d’utiliser des modèles parfois heuristiques, notamment dans le domaine du transport. Par ailleurs, les processus
non linéaires prenant place dans un plasma de fusion magnétisé sont encore
mal compris. Il en résulte un effort vigoureux de simulation « amont » dans les
domaines du chauffage ou diagnostics par ondes, stabilité MHD, transport turbulent et de l’interaction plasma-paroi.
Les chauffages par ondes soulèvent plusieurs questions difficiles. Le cadre
simplifié de description de la propagation d’une onde dans un plasma est l’utilisation d’une approche WKB et d’un tenseur diélectrique calculé à partir des
équations fluides. Il y a résonance lorsque le nombre d’onde perpendiculaire
au champ magnétique d’équilibre devient infini sur une surface dans le plasma.
Une onde peut aussi être réfléchie par une couche de coupure ou au niveau
d’une caustique, correspondant dans les deux cas à une surface où l’indice perpendiculaire devient nul. L’absorption résonnante se fait via un couplage à une
autre onde (conversion de mode) ou par interaction résonnante onde/particule.
Cette description se heurte à deux difficultés. D’une part, la propagation d’onde
se fait dans un milieu hétérogène, voire fluctuant, où l’approximation WKB peut
tomber en défaut (notamment dans les zones de coupures et de caustiques). Par
ailleurs le caractère résonnant onde/particule impose l’utilisation d’une description cinétique du plasma pour le calcul du tenseur diélectrique. Certains problèmes tels que le chauffage à la fréquence cyclotronique ionique nécessitent
donc l’utilisation de codes full wave, qui résolvent les équations de Maxwell
complètes en tenant compte de la réponse cinétique du plasma. Des calculs de
ce type sont aussi nécessaires pour modéliser les diagnostics fonctionnant sur le
principe de la réflectométrie (réflexion d’une onde sur une couche de coupure).
La physique des méthodes de chauffage requiert aussi une description des populations de particules rapides générées par interaction résonnante onde/plasma.
Le problème se ramène à la résolution d’une équation de Fokker-Planck dans un
espace à trois dimensions (2 dimensions de vitesse et une coordonnée spatiale
LA
SIMULATION NUMÉRIQUE
141
de surface de flux). Ces calculs permettent aussi de calculer les coefficients de
transport collisionnels. Le développement de codes Fokker-Planck 3D rapides et
fiables, prenant en compte notamment les effets néoclassiques comme le courant
autogénéré (bootstrap) ou les effets de transport induits par les ondes RF constitue donc un axe de développement important. Par ailleurs, les effets d’orbites
larges concernant la dynamique des ions devront pouvoir être pris en compte
par les outils cinétiques performants sur le plan numérique afin de décrire avec
précision des effets physiques importants pour le contrôle potentiel de la turbulence, comme la rotation toroïdale induite par les ondes RF. Mentionnons pour
finir le couplage de la puissance entre antennes et plasma qui est un problème
difficile, du fait des effets de gaine haute fréquence et de la physique complexe
des plasmas de bord. Une modélisation bien plus réaliste de l’antenne est également souhaitable dans le cadre des développements de codes d’onde de type
full-wave.
Dans le domaine de la stabilité MHD, l’objectif principal dans les années à
venir est la description des effets non linéaires et de l’effet des particules α issues
des réactions de fusion. La difficulté vient ici de la disparité des échelles spatiales
et temporelles. Le temps caractéristique d’une instabilité MHD idéale est un temps
d’Alfven, de l’ordre de la microseconde. Il faut mettre cette valeur en regard
d’une échelle temporelle d’évolution résistive, typiquement 109 fois plus grande.
Bien que la plupart des instabilités MHD soient macroscopiques, elles tendent à
développer des couches de courant d’épaisseur faible devant la taille des modes,
notamment lors des processus de reconnexion. Les défis sont donc relatifs aux
schémas numériques et la discrétisation spatiale (par exemple, l’utilisation de
maillages adaptatifs). Du point de vue de la physique, une difficulté vient de
l’implémentation des particules rapides, qui ne peuvent être décrites par des
équations fluides du fait de leur interaction résonante avec les modes MHD.
La tendance est le développement de codes hybrides où certaines espèces sont
décrites avec des équations fluides, et d’autres par des équations cinétiques.
Ce type de développement est crucial en vue de la modélisation des plasmas
d’Iter, dans lesquels la pression des particules α pourrait affecter les instabilités
existantes, voire exciter de nouvelles instabilités telles que les modes toroïdaux
d’Alfven.
La simulation du transport turbulent est l’objet d’un effort intensif, du fait de
ses implications en termes de prédiction du confinement. On distingue deux approches, suivant le choix de description de la réponse du plasma au champ électromagnétique fluctuant, qui peut être fluide ou cinétique. En principe, la description fluide n’est pas adaptée à une situation où l’interaction ondes/particules est
résonante, ce qui est le cas d’un plasma de fusion faiblement collisionnel. Toutefois, cette approche présente l’avantage d’une grande fiabilité des méthodes
numériques mises au point dans le contexte de la turbulence en mécanique des
fluides. Le principal défi de cette voie est la mise au point de règles de fermeture
142
LA
FUSION NUCLÉAIRE
dans les équations permettant de reproduire certains effets cinétiques (notamment l’amortissement dû aux résonances Landau). L’approche cinétique est plus
précise mais présente l’inconvénient d’une dimensionnalité élevée (espace des
phases à 6 dimensions). Les temps de giration cyclotronique étant plus petits
que les échelles de temps caractéristiques des fluctuations, il est possible de
s’affranchir du mouvement cyclotronique rapide et réduire le nombre de dimensions d’une unité. Dans cette opération, on peut montrer que le flux du champ
magnétique au travers de la trajectoire cyclotronique est un invariant du mouvement (invariant adiabatique). Les trajectoires peuvent donc être décrites par
quatre variables dynamiques, paramétrées par l’invariant adiabatique. Le problème est donc ramené à 5 dimensions. Il en résulte une équation cinétique
décrivant l’évolution de la fonction de distribution pour chaque espèce, appelée équation gyrocinétique. La résolution de cette équation reste un problème
éminemment difficile. Deux voies ont été suivies jusqu’ici. La première consiste
à suivre l’évolution pondérée de macro-particules et à construire la fonction de
distribution associée par comptage dans l’espace des phases (Particle In Cell).
La seconde approche consiste à résoudre l’équation gyrocinétique par des méthodes type différences ou volumes finis. Une méthode intermédiaire utilise un
schéma semi-lagrangien et a été largement développée en France. Le développement de codes gyrocinétiques est en cours et constituera certainement un axe
de recherche important dans les années à venir. Ces codes utilisent le calcul
massivement parallèle du fait des puissances de calcul considérables requises.
Mentionnons pour finir les codes d’interaction plasma/paroi, dont l’amélioration est un enjeu important des années à venir. Une description sommaire en
a été donnée dans les chapitres 7 et 8. Deux types de développement semblent
indispensables. Les plasmas chauds d’Iter sont dans un régime faiblement collisionnel, pour lequel l’utilisation d’équations fluides est inadéquate. Cette problématique est semblable à celle évoquée pour la turbulence et les effets de particules rapides en MHD. Il apparaît donc nécessaire de développer des codes
cinétiques pour décrire la partie plasma du problème. De plus, l’utilisation de
coefficients de transport simplifiés pour décrire le transport perpendiculaire au
champ magnétique d’équilibre est discutable, tout particulièrement dans une
région où le caractère balistique du transport ne peut être ignoré. Il semble
donc nécessaire de mieux décrire le transport turbulent. Une possibilité est de
résoudre le problème complet ab initio, c’est-à-dire sans séparation d’échelle.
Enfin, le couplage entre codes de bord et de centre devra être amélioré. Dans
l’état actuel, les codes de bord sont intrinsèquement 2D, tandis que les codes de
transport sont à une dimension dans les régions centrales. Une simulation complète ab initio de cette région du plasma pose l’intéressante question du comportement de la turbulence au voisinage de la séparatrice, à l’interface entre
régions de lignes de champ ouvertes et fermées. C’est aussi une région où se
développent des écoulements fortement cisaillés, dont l’effet sur la turbulence est
stabilisant. De fait, c’est le lieu d’apparition des barrières de transport externes
LA
SIMULATION NUMÉRIQUE
143
(mode H). Une simulation complète des plasmas de bord représenterait donc un
progrès significatif.
2.3 Les verrous et les besoins
La réalisation du programme décrit ci-dessus nécessitera un effort en termes
d’effectifs et de moyens de calcul. Pour ce qui est de la modélisation intégrée,
le point le plus sensible semble être le manque d’experts, tandis que la théorie
et la modélisation de premiers principes a besoin à la fois de personnel et de
moyens de calcul performants.
En matière de modélisation intégrée, le verrou principal est celui du nombre
réduit de développeurs (au sens de professionnels en écriture de code) et d’experts en modélisation intégrée. L’autre point important est d’assurer une bonne
coordination des efforts, et donc une mobilité accrue des chercheurs impliqués.
Il est en effet essentiel de structurer l’organisation du travail autour des développements numériques, afin d’assurer une gestion transparente des codes et de
leur documentation, gage indispensable à la pérennité de ces outils. La complexité du noyau physique à traiter, la finesse de la description et l’optimisation
des algorithmes (place mémoire et rapidité de convergence) sont autant de défis
qu’il faudra relever simultanément afin d’aboutir à une modélisation crédible.
À travers ces développements, l’enjeu n’est pas seulement la production d’outils
de calculs, mais l’établissement d’une véritable culture durable de la modélisation. Des développements abordés avec cette méthodologie sont d’ores et déjà
en cours et très prometteurs, mais à cet égard, il est probable que des enseignements très fructueux puissent être tirés d’autre secteurs de la physique ou de
l’industrie utilisant des outils similaires (météorologie, fusion inertielle ou fission
nucléaire par exemple). L’estimation actuelle du nombre nécessaire de professionnels en Europe tourne autour de 50 développeurs et autant de physiciens
experts en modélisation intégrée.
Le développement de codes « premiers principes » requiert des experts de
haut niveau, et des ressources de calcul appropriées. Il existe très peu de spécialistes dans ce domaine exigeant, qui requiert à la fois une maîtrise des méthodes
numériques avancées et des connaissances en physique des plasmas magnétisés. On estime qu’une centaine de personnes en Europe constitue la taille minimale pour ce type d’activité. Un effort de formation et recrutement semble donc
nécessaire. Cet effort doit impliquer les communautés de mathématiques appliquées et de physique des plasmas dans un cadre pluridisciplinaire. Concernant
les moyens numériques et l’organisation, il est intéressant d’analyser la stratégie adoptée par les États-Unis. Le DOE (Department of Energy) a lancé une
144
LA
FUSION NUCLÉAIRE
initiative de modélisation appelée SciDAC (Scientific Discovery through Advanced Computing), qui recouvre ses principales thématiques (sciences de l’énergie,
biologie et sciences environnementales, fusion, physique nucléaire et des hautes
énergies). Le programme scientifique en matière de fusion magnétique, appelé
FSP (Fusion Simulator Project), est essentiellement celui qui vient d’être décrit, et
bénéficie d’un soutien financier pour le développement de codes. Par ailleurs,
la fusion possède son propre centre de calcul, le NERSC, dont la machine principale est un IBM SPRS/6000 (6080 processeurs, 1,5 Gflops par processeur,
35 terabytes de mémoire disque cache). Il n’existe pas d’organisation équivalente en Europe, bien qu’il soit envisagé de créer un centre similaire au sein de
l’EFDA. Le CEA-Cadarache utilise actuellement les moyens centralisés de la direction des Sciences de la matière du CEA, au CCRT (Bruyères-le-Châtel), dont
la machine principale est un HP SC128/SC72 (800 processeurs, 2,5 Gflops par
processeur, 10 terabytes de mémoire disque cache). À titre indicatif, la seule activité gyrocinétique du CEA-Cadarache consomme 110 000 heures monoprocesseur par an. Une réflexion sur les besoins futurs a été entamée aux États-Unis
dans le cadre du SciDAC/FSP. Un effort de prospective similaire a été initié au
Japon et en Europe. On peut citer quelques chiffres indicatifs (en provenance
du FSP) qui expriment les besoins en ressources de calcul. Les simulations de
magnétohydrodynamique des plasmas en ignition approcheront la centaine de
Tflops. La résolution de certains problèmes de propagation/absorption d’ondes
de chauffage additionnel requiert un nombre d’opérations d’une centaine de
Tflops.heure. La résolution de la dynamique des électrons sur l’échelle du temps
de confinement nécessite entre 1 000 et 10 000 Tflops.heure. Il faut également
souligner les besoins concomitants en matière de stockage de données et de rapidité des réseaux d’échanges liés aux quantités de données traitées. Enfin il faut
mentionner la nécessité de développer des méthodes de visualisation avancées
(réalité virtuelle, rendu volumique, . . .) en particulier dans les problèmes gyrocinétiques où les phénomènes physiques sont décrits dans un espace à quatre
dimensions.
3
Fusion par confinement inertiel
Les accords internationaux pour l’arrêt des explosions nucléaires poussent très
fortement les développements de la simulation puisqu’il ne reste que ce moyen
pour se convaincre que les armes seront efficaces en cas de besoin. Il se trouve,
on peut s’en féliciter, que le déclenchement des réactions de fusion par faisceaux
lasers (ou autre) d’un mélange DT (deuterium-tritium) est un problème assez
voisin de celui de l’explosion du mélange présent dans la bombe H. Dans les
deux cas l’élévation de la température est obtenue par compression et implosion
du mélange. On a donc déjà une idée assez précise sur les possibilités de la
simulation. Disons tout de suite que les perspectives sont excellentes mais qu’il y
LA
SIMULATION NUMÉRIQUE
145
a encore un problème de disparité d’échelle et que celui-ci devrait se résoudre
entre autre en utilisant des ordinateurs plus puissants.
Le Laser Mégajoule (LMJ) est un grand instrument construit par le CEA/Dam
principalement pour calibrer les résultats de la simulation numérique. Une microbille de DT, placée dans une enceinte de matériau de Z élevé, est chauffée
par plusieurs lasers de puissance. On a retenu le dispositif dit « de l’attaque
indirecte » où le rayonnement laser est converti en rayons X. L’objectif principal du CEA est de prédire correctement par la simulation la phase d’allumage
c’est-à-dire de la compression au déclenchement des réactions nucléaires.
Figure 6.1
En haut, vue en coupe du bâtiment abritant la chambre d’expériences du Laser Mégajoule. L’ensemble de
l’installation, avec ses deux halls laser de part et d’autre de ce bâtiment, est long de près de 300 mètres. En
bas, schéma de principe du LMJ (image CEA).
146
LA
FUSION NUCLÉAIRE
3.1 La modélisation
Ni la technologie ni les plans d’un réacteur à fusion viable ne sont encore disponibles. On peut cependant entrevoir quelques solutions et donc aussi certains
problèmes technologiques et l’aide potentielle de la simulation numérique pour
les résoudre. Si le principe retenu est celui de l’ignition périodique de microbilles
contenant un mélange DT dans une enceinte remplie d’hélium et chauffée par
d’intenses rayons lasers, alors chaque ignition est un problème très voisin de
celui du LMJ.
Les trois problèmes de fond sont le rendement théorique, la sécurité et la
rentabilité :
– pour le rendement il faut être capable de simuler l’interaction laser-matière
qui aboutit à la compression du DT pour savoir comment se produira la fusion et quels sont les produits de la fusion pour savoir comment enclencher
la salve suivante ;
– pour la sécurité il faut connaître aussi les produits de la fusion, savoir mesurer les endommagements sur les matériaux, évaluer l’usure des systèmes
laser ;
– pour la rentabilité, il s’agit plutôt d’études thermiques semblables à celle
qu’on fait actuellement pour les centrales à fission.
Comme les moyens de calcul le permettent, la modélisation se fait à partir des
équations fondamentales de la physique, principalement les équations aux dérivées partielles de la mécanique des milieux continus pour la phase de compression du DT, de la neutronique et du rayonnement pour la phase plasma et des
approximations laser-matière pour le chauffage de l’hélium.
Les matériaux évoluent dans des régimes peu habituels qui nécessitent des
recherches particulières pour déterminer leurs « lois de comportements ». Certaines caractéristiques thermodynamiques comme les constantes de changement
de phase peuvent être elles-mêmes calculées par ordinateur à l’aide des équations de la chimie ab initio.
L’hydrodynamique (fluide compressible éventuellement élastoplastique) est
formulée soit dans un repère qui suit les fronts de changement de phase (formulation lagrangienne) soit dans un repère fixe dit « eulerien » ; dans les deux cas
il s’agit d’équations quasi-standard de la mécanique des fluides pour lesquelles
on sait assez bien où sont les difficultés.
LA
SIMULATION NUMÉRIQUE
147
L’interaction laser-plasma peut se modéliser à l’aide des équations de la photonique (équations du transport radiatif) et des lois d’énergie et de comportement des matériaux. Plusieurs modèles, de complexité croissante, sont possibles.
Pour la neutronique ont prend des équations de transport couplées à une
équation d’énergie pour les termes sources.
Mais toutes les équations de la physique ne sont pas forcément résolubles numériquement, principalement à cause des diversités d’échelle. Les phénomènes
turbulents par exemple contiennent des échelles tellement différentes qu’on ne
peut mettre assez de points pour tout calculer de manière crédible. On est donc
amené à utiliser des modèles (équations moyennées par exemple), ce qui pose
le problème de leurs validités.
3.2 Les méthodes numériques
La discrétisation des équations aux dérivées partielles de la physique nécessite
de choisir parmi une classe de méthode, les principales étant les méthodes des
différences finies, de volumes finis et d’éléments finis ainsi que les méthodes
particulaires.
Pour la dynamique des gaz où les phénomènes convectifs sont dominants, la
méthode des volumes finis est bien adaptée. On aura donc besoin de découper
l’espace en volumes élémentaires et cette étape de maillage n’est pas simple car
il faut savoir mettre ces volumes élémentaires là où ils sont le plus nécessaires.
Notons que les méthodes mathématiques fondées sur des estimations d’erreur
a posteriori font de grands progrès.
Par ailleurs, il y a, comme nous l’avons dit plus haut, un progrès constant
sur les performances des schémas, et celles-ci se mesurent par des critères tels
que leurs diffusions numériques, leurs stabilités et leurs degrés de consistance.
Les schémas sont de plus en plus précis, rapides et robustes. Sur ce plan on
ne voit pas de limite venir, hors celles – connues – des méthodes employées.
Par exemple, une instabilité de taille inférieure au maillage, mais d’énergie intense, ne pourra pas être détectée à moins de raffiner le maillage. Il faut prévoir
les problèmes et le seul moyen est d’isoler certains cas représentatifs que l’on
analysera par des méthodes analytiques ou semi-analytiques. Il y a donc une
composante de mathématiques appliquées assez importante ; pour certains problèmes comme les instabilités de Richmeyer-Mechkov et de Kelvin-Helmholtz et
la turbulence en général (figure 6.2), la situation n’est pas résolue.
148
LA
FUSION NUCLÉAIRE
Figure 6.2
Simulation d’une instabilité multi-échelles par une méthode AMR avec maillage adaptatif (image CEA).
Pour la neutronique, certaines méthodes (en particulier pour le rayonnement)
nécessitent la résolution d’un grand système linéaire, une tâche particulièrement
difficile pour les ordinateurs de dernière génération.
3.3 Les machines
Une des applications des premiers ordinateurs était déjà la simulation d’explosion thermonucléaire dans les années 1950. Les ordinateurs les plus puissants actuellement sont aux États-Unis et au Japon autour du projet « Earth simulator », le projet ASCI aux États-Unis étant en bonne partie motivé par la
simulation d’explosion nucléaire. Ces ordinateurs sont d’un type nouveau car ils
ont plusieurs milliers de processeurs, ce qui rend leur programmation et leur exploitation assez différentes de celles de la génération antérieure comme le XMP
de la société Cray.
La puissance de ces nouvelles machines se mesurent pour la vitesse en teraflops (10 puissance 12 opérations par seconde sur des nombres réels) et en
terabyte pour le stockage des données. On en est actuellement au teraflop et
la machine à 10 teraflops (figure 6.3) sera disponible très bientôt. Il n’est pas
déraisonnable de penser que la loi de Moore s’appliquera encore pendant une
LA
SIMULATION NUMÉRIQUE
149
Figure 6.3
La machine Tera 10 du CEA.
décennie pour ce type d’architecture avec une amélioration équivalente des algorithmes. On dispose ainsi d’une bonne réserve de puissance pour l’avenir.
La complexité de ces machines massivement parallèles pose de nouveaux
problèmes aux opérateurs et aux utilisateurs :
– il faut pouvoir « reloger » les programmes en cours d’exécution à cause
des pannes et de l’occupation optimale par plusieurs tâches (load balancing) ;
– chaque machine étant spécifique, les outils logiciels sont parfois à développer en local, éventuellement en coopération avec les constructeurs ; par
ailleurs il faut aussi rester indépendant de ces derniers car ils changent
d’une génération à l’autre (ainsi Compaq a racheté Cray et a fusionné
avec HP). L’archivage et la visualisation des données est un vrai casse-tête
vu leurs tailles ;
– les développeurs sont soumis à de fortes demandes car ils sont aussi attractifs pour l’industrie de l’informatique.
150
LA
FUSION NUCLÉAIRE
3.4 L’adéquation de méthodes aux machines
Les nouvelles machines massivement parallèles ont posé deux grands problèmes nouveaux : la parallélisation des algorithmes et la gestion de programmes très complexes. La gestion et la conception de programme très complexes ne peuvent se faire que dans le cadre de la programmation objet et de
l’utilisation de bibliothèques pour cacher les étapes ingrates comme les transferts de données entre processeurs. Un gros programme fait appel de nos jours
à plusieurs langages de programmation : C++, python, java, XML en plus du
fortran traditionnel dans ce métier. Les développeurs doivent avoir la double
compétence mathématiques/informatique.
L’utilisation optimale des ressources pose le problème d’une bonne algorithmique parallèle ; à titre d’exemples de développement, citons la méthode de
décomposition de domaine avec solveurs itératifs de Krylov préconditionnés, les
méthodes de joints, les méthodes multigrilles, etc. Les justifications théoriques
des bonnes propriétés et la programmation de ces méthodes sont l’apanage
d’un petit nombre de spécialistes seulement.
Enfin, certaines optimisations relèvent carrément de l’informatique comme
l’équilibrage des tâches entre processeurs.
3.5 Les résultats
Ce n’est que lorsque le LMJ sera opérationnel que l’on connaîtra la fiabilité
des simulations numériques. Pour l’instant, on dispose de comparaisons avec
l’expérience Nova et avec les données d’expérience dans l’océan Pacifique. Les
comparaisons sont bonnes, et en affinant les modèles, elles seront probablement
encore meilleures, au moins dans la fenêtre d’utilisation recherchée.
3.6 Points durs et besoins
Au-delà de l’ignition, il est pratiquement impossible de décrire les phénomènes dans le détail mais en revanche on peut faire un bilan assez précis des
produits de fusion, des intensités des particules, au moins statistiquement. De
même, l’évaluation des bilans thermiques ne devrait pas poser de problème,
ni même des simulations des échanges de chaleur avec un système caloporteur
à définir. Il semble toutefois que la résistance des matériaux et les usures des
optiques des faisceaux laser soient difficiles à prévoir.
LA
SIMULATION NUMÉRIQUE
151
Conclusion et recommandations
Les codes du CEA/Dam sont réutilisables sans modification, au moins pour
l’ignition et pour les bilans sur les produits de la fusion. Les études liées à la
sécurité des installations et aux bilans thermiques des futurs réacteurs devront en
revanche être développées spécifiquement ; il est raisonnable de penser qu’elles
sont faisables.
Certains changements technologiques comme le passage du laser à l’accélération d’ions ne pose pas non plus de problèmes de fond aux numériciens. Il
reste bien sûr que s’il était décidé de valider numériquement un réacteur à fusion
« virtuel », ce serait un travail énorme, un peu semblable au projet Hermès de
navette spatiale européenne où la simulation était très importante et nécessitait
plusieurs équipes et une collaboration internationale, un très grand programme
de recherche en quelque sorte.
Il faut noter que ce genre de programme difficile place les équipes à la pointe
du domaine, même dans des domaines connexes ; ainsi, le programme de simulation au CEA/Dam place les équipes du centre de calcul à la pointe des
développements du calcul parallèle et de la gestion informatique des données ;
il en est de même du programme ASCI américain.
CHAPITRE
7
Interaction plasma-paroi
PHILIPPE GHENDRIH, ROLAND LAYET ET ANDRÉ GROSMAN
I NTERACTION PLASMA - PAROI
155
Résumé
Le problème du divertor dans une machine de fusion magnétique du niveau
d’Iter est d’abord un problème d’intégration, que ce soit par rapport aux
contraintes imposées par la technologie (extraction de puissance, pompage
des particules) ou le plasma central (taux d’impuretés, pression du plasma,
pression de neutres).
Le point de fonctionnement du divertor est un plasma détaché, stable, et
limité au volume du divertor. La géométrie joue un rôle essentiel dans la
stabilité de cet ensemble.
La réponse du divertor et des composants face au plasma en présence des
ELM (edge localised modes) est le problème de physique majeur qui sera
adressé pendant la première phase de l’expérience divertor dans Iter.
Une optimisation difficile est opérée avec le choix des matériaux. Le premier
divertor d’Iter est défini pour limiter les risques lors de la phase de démarrage.
L’évolution de la technologie des composants, la qualité de production des
composants ainsi que les diagnostics et les moyens de contrôle du plasma
de divertor sont des enjeux essentiels pour les étapes à venir de la fusion par
confinement magnétique.
1
Position du problème
L’interaction plasma-paroi dans la fusion par confinement magnétique met
en jeu l’essentiel des difficultés de la physique rencontrées avec ces plasmas.
Cette problématique se retrouve dans la filière inertielle dans les spécifications
de régularité imposées aux cibles, mais aussi dans le traitement des chambres
d’explosion dès qu’un fonctionnement avec un taux de répétition compatible
avec la production d’énergie sera envisagé.
Le terme « interaction plasma-paroi » se rapporte à l’ensemble des problèmes
du plasma périphérique (transport, stabilité, composition, etc.) ainsi qu’à la physique déterminant l’état des éléments de paroi en interaction avec le plasma. À
ce titre, il est un point d’intégration essentielle entre la physique des plasmas
qui domine le cœur des décharges et les problèmes de physique du solide et
de technologie des matériaux en contact avec le plasma. Le domaine de plasma
qui est étudié dans l’interaction plasma-paroi apparaît donc comme une double
condition limite : la condition limite pour le plasma central ainsi que la condition
limite pour les matériaux. Ces conditions limites se traduisent sous la forme de
156
LA
FUSION NUCLÉAIRE
deux couches limites. Du côté du plasma central, la région de transition se situe
autour de la dernière surface magnétique fermée, la séparatrice. Les surfaces
magnétiques sont fermées et les lignes de champ magnétique infinies dans le
plasma central. Côté plasma de bord, appelé « section à l’ombre du limiteur »
(SOL ou scrape-off layer 1 ), les surfaces magnétiques interceptent la paroi et les
lignes de connexion le long du champ magnétique sont finies. Elles se caractérisent alors par leurs deux points d’intersection avec les éléments de paroi. Au
niveau de ces intersections, la couche limite plasma-paroi prend la forme d’une
onde de choc stationnaire localisée au voisinage immédiat de l’élément solide
que l’on appelle gaine électrostatique (sheath).
Pour schématiser le problème posé par l’interaction plasma-paroi, on peut
retenir que la température du plasma doit être la plus élevée possible au niveau de la séparatrice, typiquement 200 eV, condition limite favorable pour le
plasma central, et la plus basse possible au niveau de la gaine électrostatique,
typiquement 1 eV. Cette gamme de température recouvre le domaine d’énergie de la physique atomique ainsi que celui de la physique moléculaire. Aux
paramètres sans dimension retenus pour décrire le plasma central, il convient
d’ajouter deux paramètres qui caractérisent ces physiques, typiquement la température du plasma normalisée à l’énergie d’ionisation de l’atome d’hydrogène
pour la physique atomique et la température de plasma normalisée à l’énergie de liaison de la molécule d’hydrogène pour la physique moléculaire. Cette
augmentation du nombre de paramètres de contrôle, l’utilisation d’une géométrie sophistiquée, sont constitutifs de la complexité du problème d’interaction
plasma-paroi.
2
Rôle de la région d’interaction plasma-paroi
et contraintes associées
La région d’interaction plasma-paroi joue un rôle très important dans la définition des points d’opération des plasmas dans Iter. En premier lieu, l’opération
sur des durées de plusieurs dizaines de secondes, à haute performance, impose
un régime d’interaction plasma-paroi proche d’un régime stationnaire vis-à-vis
des constantes thermiques des matériaux face au plasma. L’existence de transitoires pendant lesquels le flux d’énergie transféré au divertor peut être considérable modifie les contraintes imposées en imposant des marges plus importantes,
notamment relatives à la durée de vie des composants.
1 SOL (scrape-off layer) : couche limite où la densité et la température décroissent rapidement en
bordure du plasma.
I NTERACTION PLASMA - PAROI
157
Le premier type de contrainte est lié au flux d’énergie à la paroi. Il faut en
particulier maintenir ce flux en dessous de la valeur maximale admissible par
les éléments de paroi. Cette contrainte technologique limite donc le flux d’énergie sortant du plasma au niveau de la gaine électrostatique. Une deuxième
contrainte est associée à l’érosion des éléments de paroi. Cette usure doit rester
dans la limite des valeurs acceptables pour que le rythme de remplacement des
éléments de paroi soit comparable à la durée d’exploitation du dispositif. Ceci
impose des limites à l’énergie des particules sortant de la gaine électrostatique
ainsi qu’au flux de particules frappant la paroi. L’opération d’Iter comprend
deux types de transitoires : les ELM (edge localised modes) et les disruptions. Les
ELM se caractérisent par l’expulsion d’une fraction importante de l’énergie du
plasma sur des temps très courts. En mode confinement appelé mode H (mode
du scénario de référence pour Iter), les ELM prévus sur Iter auront une fréquence
de l’ordre du Hertz. La contrainte est alors que le flux d’énergie associé reste
en dessous des valeurs conduisant à la sublimation des matériaux carbone ou
à la transition solide-liquide pour les autres matériaux. Les disruptions sont des
terminaisons accidentelles du plasma où toute l’énergie est déposée sur les éléments de paroi sur des temps très courts. L’incidence de ces événements est une
diminution de la durée de vie des composants, en raison de la très forte érosion
des matériaux ainsi occasionnée.
Le deuxième type de contrainte est lié à la circulation des particules. Dans le
cas d’un plasma en contact avec des éléments solides, la densité de particules
dans la décharge résulte d’un équilibre dynamique entre le flux de particules
sortant du plasma, et se recombinant au contact du solide, et un flux de neutres
qui, par ionisation à la périphérie du plasma, maintient la densité de ce dernier.
L’obtention des densités requises dans Iter résulte alors de la combinaison de
ce processus d’injection de matière, du processus de recyclage, qui vient d’être
décrit, et du transport des particules soit vers le centre de la décharge soit vers
la paroi.
Le point d’opération d’Iter se situe au voisinage des densités limites des plasmas dans les Tokamaks, densités dites de Greenwald. Le système d’injection de
matière ainsi que le contrôle du transport de particules doit donc permettre d’atteindre ce point de fonctionnement. Le couplage entre injection de particules,
turbulence et propriétés de piquage du profil de densité constitue un champ de
recherche important que l’on retrouve par exemple dans la physique de l’injection de glaçons actuellement en cours de développement sur de nombreux
Tokamaks. Ce processus conditionne également la composition isotopique de la
décharge (rapport entre les concentrations de deutérium et de tritium). Dans le
bilan de particules, une troisième contrainte est de créer des conditions favorables à l’extraction de l’hélium produit par les réactions de fusion au centre
du plasma. La densité d’hélium devant être maintenue à un niveau faible, le
pompage de l’hélium s’accompagne alors d’un très fort pompage du mélange
158
LA
FUSION NUCLÉAIRE
principal deutérium/tritium. Enfin, la région de plasma périphérique doit permettre de contrôler le taux d’impuretés dans la décharge, aussi bien le taux des
impuretés arrachées à la paroi par les processus d’érosion (impuretés légères
de type carbone ou béryllium, ou impuretés lourdes comme le tungstène) que les
impuretés injectées pour augmenter l’énergie rayonnée par le plasma périphérique. La migration incessante des particules consécutive à l’érosion des parois
est due au transport des particules ionisées, suivi par la création de couches
de dépôt des impuretés recyclant à la paroi. Cette migration conduit à trois
contraintes fortes qui sont liées à l’érosion des matériaux de paroi, au piégeage
du tritium dans des couches de redéposition des impuretés et enfin à la création
de poussières à partir des matériaux arrachés aux parois. Ces trois phénomènes
limitent le nombre de chocs possible dans une machine comme Iter.
3
Choix de la géométrie de la région d’interaction
plasma-paroi
La géométrie des composants face au plasma est un des éléments qui permettent de contrôler l’interaction plasma-paroi. Les contraintes d’opération limitent cependant très fortement les possibilités de mise en œuvre. En premier
lieu, il convient de souligner que le volume occupé par la région d’interaction
plasma-paroi est pris au détriment du plasma central et donc des performances
en termes de fusion thermonucléaire. Les configurations retenues doivent donc
minimiser le volume utilisé. Afin d’optimiser le système de pompage de particules et afin de travailler dans une configuration robuste par rapport aux
déplacements du plasma, les géométries concentrant le flux d’énergie sur des
éléments spécifiques, les composants à haut flux se sont imposés. Par ailleurs,
afin d’augmenter la surface effective des composants à haut flux, les lignes de
champ magnétique ont un angle d’incidence très faible par rapport à la surface
des matériaux (incidence rasante). La géométrie « mécanique » des composants
face au plasma est donc adaptée à la géométrie « magnétique ». Deux configurations sont ainsi utilisées dans Iter, la configuration limiteur, où un objet limite
l’extension du plasma en interceptant les surfaces magnétiques, et la configuration divertor où la configuration magnétique perturbée par des champs magnétiques bien adaptés permet d’éloigner la séparatrice de la paroi. Dans ce cas, la
perturbation magnétique crée une ou des singularités de champ magnétique. Il
y a alors un changement de topologie des surfaces magnétiques à une certaine
distance de la paroi. Dans le cas du divertor axisymétrique (ou poloïdal), la
perturbation magnétique crée un point de champ magnétique poloïdal nul, tel
que le paramètre de sécurité diverge logarithmiquement dans son voisinage. Les
lignes de champ magnétique au voisinage de la séparatrice entre surfaces magnétiques fermées et ouvertes se caractérisent alors également par des longueurs
159
I NTERACTION PLASMA - PAROI
Première paroi
e
e
Figure 7.1
Section d’Iter, la région du divertor est composée par les éléments de tungstène, couleur verte, et de CFC,
couleur rouge, situés en bas de la machine. La chambre principale est protégée par une couche de béryllium,
couleur bleue.
de connexion paroi-paroi qui tendent vers l’infini. Les propriétés géométriques
de cette configuration magnétique (cf. figure 7.1), que ce soit la distance entre la
dernière surface magnétique et la paroi ou les grandes longueurs de connexion,
jouent un rôle essentiel dans les propriétés du divertor.
160
4
LA
FUSION NUCLÉAIRE
Transport dans le plasma périphérique
Différents types de transport interviennent dans le plasma périphérique, d’une
part le transport de particules indépendant du champ magnétique, en pratique
les neutres et les photons, et d’autre part le transport du plasma magnétisé. Le
mouvement de particules ionisées le long des lignes de champ magnétique étant
libre, le transport dit « parallèle » est très rapide. Dans la direction transverse
au champ magnétique, le transport reste beaucoup plus faible. L’équilibre entre
ces deux types de transport détermine l’extension de la SOL. Par exemple pour
un transport de type diffusif dans la direction transverse (coefficient de diffusion
D⊥ ) et balistique dans la direction parallèle (à la vitesse du son cs ) sur une distance de connexion L// , on obtient une largeur de la SOL de λ⊥ = (L// D⊥ /cs )1/2 .
Compte tenu des ordres de grandeurs (D⊥ ∼ 1 m2 /s, cs ∼ 105 m/s, L// ∼ 60 m),
on trouve λ⊥ ∼ 25 mm. La SOL apparaît donc comme une couche limite de
l’ordre de 1 % du petit rayon du plasma. Cette distance est comparable au libre
parcourt moyen d’ionisation des atomes neutres dans le plasma, en général supérieure au libre parcours moyen des molécules. Cependant, comme pour le
confinement central, le ou les mécanismes de transport transverse dans la région périphérique sont loin d’être identifiés. Il existe en particulier des résultats
expérimentaux et théoriques qui indiquent que le transport transverse serait de
type balistique avec une succession intermittente d’évènements de transport balistique séparés par des phases de bon confinement transverse. Les implications
de cette description sont en cours d’examen au sein des groupes d’experts ITPA.
Par ailleurs, des écoulements du plasma à grandes échelles sont observés et
semblent contribuer fortement aux migrations des matériaux dans les plasmas.
Un autre élément de complexité dans l’analyse du plasma périphérique est la
composition du plasma. En effet le taux d’impuretés dans cette région est assez élevé de telle sorte qu’une analyse correcte doit inclure l’ensemble des états
d’ionisation des impuretés, que ce soit le carbone, le béryllium ou l’hélium.
Dans la perspective d’Iter, un élément primordial dans les propriétés de transport est l’apparition d’une barrière de transport au voisinage immédiat de la séparatrice. C’est l’existence de cette barrière de transport dans le mode H qui fait
de ce dernier le scénario de référence pour Iter. Cette barrière de transport, située de façon optimale pour améliorer l’énergie du plasma stockée, modifie fortement le comportement du plasma périphérique. En premier lieu, la baisse de
transport qui accompagne le développement de la barrière de transport externe
s’étend dans la SOL de telle sorte que la largeur de la SOL décroît fortement
dans ce régime de confinement. Par ailleurs, le développement de cette barrière de transport génère également des évènements de relaxation de type MHD
que l’on désigne par ELM. Le déclenchement des ELM se traduit par un bouleversement du transport dans le plasma avec en particulier une augmentation
I NTERACTION PLASMA - PAROI
161
très importante du transport transverse pendant la durée de l’ELM. La prise en
compte de ces évènements de relaxations dans les simulations du plasma de
bord est à peine abordée, d’autant que la nature du transport induit et même
son déclenchement restent mal connus. Ces questions sont développées dans le
chapitre 3.
5
États du plasma de divertor
Dans les conditions requises pour Iter la pression sur la séparatrice est de
l’ordre de 1 kPa. Lorsque cette pression est conservée le long des lignes de
champ magnétique, on vérifie que le flux de plasma est proche de 1026 m−2 /s
à la paroi. Si l’on néglige l’énergie portée par le plasma et que l’on ne considère que l’énergie libérée par la recombinaison du plasma dans le matériau,
soit typiquement 13,6 eV par particule, on trouve que le flux d’énergie déposé
(220 MW/m2 ) est supérieur aux limites technologiques fixées pour Iter. Cette
simple considération indique que l’on doit contrôler le plasma de bord pour que
le flux d’énergie se maintienne à la limite technologique. De par la physique
de la gaine électrostatique, l’énergie extraite du plasma par chaque ion traversant la gaine est de γ Te où γ le facteur de transmission de la gaine. Pour que
cette énergie soit inférieure au 13,6 eV d’énergie de recombinaison, on constate
que l’énergie du plasma au niveau de la gaine doit être de l’ordre de 1 eV. Le
contrôle du flux d’énergie vers les éléments de paroi impose donc d’agir sur
l’énergie des particules, sur la pression du plasma et sur le flux de particules.
La modélisation analytique actuelle est basée sur un découplage important
entre transport parallèle et transport perpendiculaire. En se basant sur un temps
de transport parallèle très court, on réduit le problème à une dimension, la
direction parallèle au champ magnétique. On peut alors examiner la stratégie
de réduction du flux d’énergie selon la seule direction parallèle. La variation de
la température le long de la ligne de champ magnétique est fortement liée à
la physique de la conduction parallèle d’énergie. On constate que celle-ci est
très importante pour une température supérieure à 50 eV, de telle sorte que,
dans ce régime où le transport d’énergie est limité par la gaine, la température
varie très peu le long de la ligne de champ. En dessous de 50 eV, des gradients
de température significatifs apparaissent, ce qui permet au plasma d’atteindre
la gamme de température requise pour faire rayonner les impuretés légères, et
ainsi diminuer le flux d’énergie. Dans ce processus, la longueur de la ligne de
champ joue un rôle important, ce qui favorise la géométrie divertor. Par ailleurs,
il est nécessaire de bénéficier d’un taux d’impuretés légères suffisant. Si l’érosion
des composants face au plasma est maîtrisée, il faudra injecter des impuretés
pour maintenir un plasma suffisamment radiatif. Le processus de rayonnement
étant fortement non linéaire, il peut conduire à des bifurcations se traduisant
162
LA
FUSION NUCLÉAIRE
par une baisse brutale de la température du plasma. L’opération du plasma de
divertor radiatif peut alors être d’un contrôle difficile.
Nous avons vu ci-dessus que la réduction du flux d’énergie par rayonnement reste cependant insuffisante si la pression ne baisse pas le long de la ligne
de champ. En pratique, on considère que le mécanisme principal de perte de
pression est lié à la perte d’impulsion lors du processus d’échange de charge
entre neutres et ions. Ce processus n’est efficace que si le flux de neutres est très
important (comparable au flux limite plasma de 1026 m−2 /s). Ce régime n’est
alors possible que si la température du plasma est suffisamment basse pour que
le processus d’ionisation ne limite pas ce flux de neutres. Cette contrainte impose
une température du plasma inférieure à 10 eV. Dans ce régime, le front d’ionisation se détache des éléments de paroi pour progresser vers l’amont de la ligne
de champ. Le plasma de divertor est dit « détaché ». La physique non linéaire
qui régit la position du front d’ionisation peut également conduire à des bifurcations sur la valeur de l’extension du plasma détaché. Un élément de contrôle est
alors la géométrie du système. Enfin, pour les flux de neutres que l’on considère,
il est impératif que ces derniers soient ionisés avant d’atteindre la séparatrice,
pour que la densité du plasma central reste contrôlée. L’existence d’un volume
important entre la source de neutres et la séparatrice est ainsi un élément essentiel pour la réalisation des plasmas détachés stables. La configuration divertor
apparaît donc comme la seule à même de fournir la géométrie compatible avec
l’état de plasma de divertor nécessaire au contrôle du flux d’énergie sur les
composants face au plasma.
Dans une troisième étape de la réduction du flux d’énergie, le plasma atteint une température de l’ordre de 1 eV, ce qui permet d’obtenir un taux de
recombinaison important et ainsi de diminuer le flux de particules. Dans ce cas,
l’état plasma disparaît avant le contact avec les éléments de paroi, une situation qui paraît idéale au regard de l’intégrité de ces éléments mais qui est loin
d’être maîtrisée. En particulier, l’ensemble des changements d’état du plasma
de divertor doit rester confiné dans la région du divertor en laissant le plasma
atteindre la pression la plus haute possible au niveau de la séparatrice et la
densité de neutres la plus faible possible dans cette région. Le contrôle apparaît
donc comme un point clef de la réalisation d’un régime de fonctionnement du
divertor qui est compatible avec l’ensemble des contraintes imposées.
6
Les matériaux des éléments face aux plasmas
L’organisation de l’interaction plasma-paroi conduit à trois régions distinctes.
En dehors du divertor, on considère la chambre principale (soit 700 m2 dans
Iter) où l’interaction plasma-paroi est due au transport transverse turbulent.
I NTERACTION PLASMA - PAROI
163
Le point critique est alors de déterminer le flux de particules et l’énergie du
plasma. En effet, ce composant est un composant bas flux (<1 MW/m2 ) en Be
dont la température de fusion est relativement basse. La deuxième région est
celle dite des « baffles », soit les éléments destinés à confiner mécaniquement
les neutres (fermeture du divertor), et qui sera en interaction avec les neutres
d’échange de charge dans le régime de plasma détaché. Il s’agit d’une région
avec un composant haut flux (près de 100 m2 ) qui ne doit pas avoir de contact
avec le plasma. La couverture prévue est en tungstène, ce qui doit contribuer à
augmenter sa durée de vie. Enfin, la troisième région est également constituée
par un composant fort flux avec comme matériau face au plasma du composite fibre carbone (environ 50 m2 de CFC). Il s’agit de la région qui recevra
l’essentiel de la charge thermique si le plasma n’est pas complètement détaché.
Un des problèmes qui restent le plus préoccupant au niveau de ces matériaux
est le comportement du carbone sous irradiation plasma. En effet, à l’érosion
physique du matériau par impact des particules plasma à la surface, il faut
ajouter l’érosion chimique due à la création de molécule ou de radicaux à base
de liaisons chimiques carbone-deutérium ou carbone-tritium (ces mécanismes ne
présentent pas a priori de seuil en fonction de l’énergie du plasma). L’existence
d’impuretés et d’autres défauts de structure, voire de variation de la structure
du matériau, par exemple avec le développement d’une couche de carbone
amorphe à la surface du CFC, modifient considérablement les propriétés d’érosion du carbone. À l’érosion importante s’ajoute une migration du carbone et
une concentration des dépôts de carbone dans des régions difficiles d’accès. Ce
dépôt de carbone modifie fortement les propriétés du matériau face au plasma et
peut également conduire à un piégeage du tritium à une rétention beaucoup trop
élevée. La pulvérisation du carbone peut également être propice à la formation
de poussières. Cet aspect est mal connu et fait l’objet de premières évaluations
actuellement. L’utilisation du CFC est donc considérée en général comme une
solution conservatrice que l’on souhaite limiter à la phase de démarrage d’Iter.
L’utilisation des autres matériaux conduit également à de nombreux problèmes de physique. En premier lieu, le mélange de ces matériaux dû à l’érosion
peut en modifier fortement les propriétés, notamment vis-à-vis du piégeage du
tritium. Enfin, l’irradiation du matériau sous fort flux de deutérium/tritium ainsi
que d’hélium peut se traduire par un piégeage de ces éléments au niveau des
joints de grain et provoquer une fatigue plus importante. Parmi les autres points
de préoccupation, il convient de citer la réponse du matériau aux transitoires tels
que les ELMs ou les disruptions. La déformation de la surface suite à la fusion du
matériau peut également accélérer l’érosion par le plasma. Les caractéristiques
de ces déformations et donc la géométrie de l’interaction plasma-paroi qui en
résulte sont très peu connues.
164
7
LA
FUSION NUCLÉAIRE
Les problèmes ouverts
La compréhension de l’interaction plasma-paroi est suffisante pour que les
grandes lignes de l’opération du divertor d’Iter soient définies. Ce régime d’opération résulte cependant d’une intégration de nombreux aspects non linéaires
de la physique des plasmas. Par ailleurs, le régime d’opération dépend très
fortement des évolutions technologiques ainsi que du point de fonctionnement
du plasma central d’Iter en pleine performance. La maîtrise de la physique du
divertor, et plus généralement l’interaction plasma-paroi, constituent donc des
éléments importants du programme expérimental d’Iter. Un élément particulier
dans ce thème de recherche est le couplage des ondes hautes fréquences pour le
chauffage du plasma. Ce couplage pose à nouveau le problème général de l’intégration physique du cœur du plasma, et d’une technologie de composants face
au plasma en y ajoutant la perturbation forte du plasma de bord en présence
des champs électromagnétiques pouvant le perturber de manière significative.
De ce point de vue, ce programme est ouvert vers de nouvelles avancées de la
physique. Cet aspect est bien pris en compte dans le projet, dans la mesure où le
premier divertor pourrait être remplacé avant le début de la phase tritium sur la
base des premières validations expérimentales. De manière analogue, le remplacement de tous les éléments de paroi est un des axes de recherche proposés
au groupe d’experts de l’ITPA.
L’intégration quantitative de tous ces éléments reste un problème ouvert même
dans des conditions stationnaires, par exemple en régime de confinement mode
L avant la transition vers le mode H. Le mode d’opération H introduit des
contraintes supplémentaires, avec en particulier la diminution du transport transverse et le déclenchement du phénomène de relaxation intermittent appelé ELM.
Des flux d’énergie extrêmement élevés sont alors transférés au divertor. Même
dans les expériences actuelles, il existe très peu de réalisations expérimentales
d’un plasma détaché (le régime d’opération d’Iter) en présence d’ELM. Le point
de fonctionnement du plasma de divertor en état détaché stable et en présence
du cyclage lié aux ELM est un défi pour la physique. De manière plus générale,
se pose la question de l’asservissement et des mesures permettant d’établir une
stratégie d’asservissement de l’état du plasma de bord. La stratégie d’asservissement et les diagnostics requis pour cette physique constituent autant de sujets
ouverts dans Iter. La recherche et développement associés débordent largement
du seul cadre de la fusion.
Le choix des matériaux pour les composants face au plasma souligne la
grande difficulté rencontrée dans l’optimisation à partir des connaissances actuelles. Ce problème offre une des possibilités intéressantes de test dans des
dispositifs moins lourds que les Tokamaks. Le comportement du plasma à basse
I NTERACTION PLASMA - PAROI
165
température en présence des différents matériaux sera sans doute comparable
aux plasmas de nombreux dispositifs de recherche appliquée.
Enfin, il faut rappeler que les développements des matériaux et des composants d’extraction de la puissance sont aussi des points cruciaux pour faciliter l’opération d’Iter. Tout progrès de cette technologie permet de diminuer
les contraintes qui pèsent sur le régime plasma que l’on cherche à mettre en
œuvre dans le divertor. Le développement de cette technologie nouvelle se heurte
aux difficultés inhérentes à l’industrialisation des composants de technologie très
avancée, en particulier en ce qui concerne les assemblages de matériaux très
hétérogènes tels que conçus pour la fusion. De même, toute diminution de performance entre les prototypes et les éléments effectivement utilisés dans Iter se
traduira par une augmentation considérable des difficultés dans l’opération du
divertor d’Iter. Le développement de la technologie ainsi que tous les éléments
de qualité nécessaires à la mise en œuvre dans Iter sont donc des domaines de
recherche appliquée qui doivent être considérés.
CHAPITRE
8
Les matériaux pour les
composants proches
du plasma dans les réacteurs
à confinement magnétique
ANA ALAMO, LUCIANO GIANCARLI, JEAN JACQUINOT, GEORGES MARTIN,
YVES POITEVIN, EMMANUEL RIGAL
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
169
Les études concernant les interactions d’un plasma avec les matériaux l’entourant constituent l’un des thèmes majeurs d’Iter. Au strict niveau des composants
face au plasma, des réponses fondamentales seront apportées par Iter quant
à leur comportement en présence d’un plasma de plusieurs centaines de secondes (tenue à l’érosion en particulier). Ces expérimentations permettront sans
doute déjà de disqualifier certains matériaux pour une utilisation en réacteur. La
mise en place d’un programme de R&D volontaire sur les matériaux susceptibles
d’être candidats dans un réacteur (tungstène, carbure de silicium, voire des matériaux carbonés si Iter ne les condamne pas) est capitale pour le développement
de la fusion. Par rapport à Iter, le réacteur ajoutera des contraintes supplémentaires liées à des exigences de production d’énergie, comme par exemple un
fonctionnement continu et des exigences de rentabilité maximale (fonctionnement à des températures >500 ◦ C). Les performances d’Iter en termes de durée d’impulsion ont permis l’utilisation d’un acier classique comme matériau
de structure (acier austénitique de type 316), matériau incompatible en environnement réacteur de fusion à cause de son gonflement trop important sous
irradiation. La parade existe avec l’utilisation des aciers martensitiques à 9 %
Cr, largement étudiés dans le cadre des réacteurs à neutrons rapides et qui ne
gonflent pas jusqu’à des doses de 150 dpa, niveau compatible avec la conception d’un réacteur de fusion. La composition de ces aciers a été optimisée dans
le cadre des activités « fusion » afin de limiter leur activation ou plus exactement
d’accélérer leur désactivation. Mais le neutron de fusion possède une caractéristique bien particulière qui est son énergie de 14 MeV. Cette énergie donne
accès à des réactions de transmutation à l’origine de production d’hélium et
d’hydrogène. Tout l’enjeu d’une grande partie des études actuelles est de valider le comportement de ces matériaux dans un environnement associant une
dose importante et une production de gaz. Ceci passe par la mise en place d’un
programme de modélisation (et des moyens expérimentaux dédiés) conséquent,
devant permettre l’optimisation de futurs programmes de validation technologique dans une source intense de neutrons de 14 MeV. Une telle source est l’élément central du projet IFMIF (International Fusion Materials Irradiation Facility)
réalisé sous l’auspice de l’IEA (International Energy Agency) dont les partenaires
majeurs sont l’Europe et le Japon.
Ces matériaux constitueront le squelette de composants très complexes, multifonctions comme les couvertures. Ces dernières devront assurer dans un réacteur
trois fonctions principales : la production du tritium, l’extraction de la chaleur,
et une protection neutronique des parties extérieures à la chambre à vide. Des
exigences de rendement élevé et de fiabilité sont bien évidement des contraintes
supplémentaires à prendre en compte. La mise au point de procédés de fabrication des tels composants, satisfaisant à toutes les contraintes imposées à une
couverture tritigène est une thématique importante pour la crédibilité de l’énergie de fusion.
170
1
LA
FUSION NUCLÉAIRE
Problématique et solutions potentielles
pour les composants proches du plasma
Par rapport à Iter, les principaux problèmes qui se posent dans les composants proches du plasma de Demo et des futurs réacteurs à fusion sont essentiellement :
– l’effet des irradiations neutroniques sur le comportement des matériaux
qui les composent, en particulier, l’effet de la production d’hélium ;
– le niveau élevé des températures de fonctionnement induites par la recherche de rendements thermodynamiques attractifs ;
– la limitation de l’activation des matériaux qu’il faut gérer au-delà de leur
passage en réacteur.
Pour illustrer les progrès à accomplir sur ces trois aspects, on peut retenir notamment que :
– les matériaux de structure des réacteurs à fission reçoivent des dommages
neutroniques de l’ordre de 1 dpa, alors dans un réacteur à fusion, l’objectif est de pouvoir atteindre environ 150 dpa au niveau de la première
paroi des couvertures ;
– certains composants proches du plasma devront mettre en œuvre des
fluides réfrigérants dont la température maximale en sortie pourrait se
situer dans une fourchette de 500 ◦ C à plus de 1000 ◦ C.
Il est clair que les problèmes posés et les solutions proposées dépendent fortement du type et des fonctionnalités des composants considérés. En particulier,
les principales structures proches du plasma recouvrent :
– les couvertures tritigènes, incluant la première paroi, qui ont trois fonctions principales : la production du tritium, l’extraction de la chaleur, et
une contribution à la protection neutronique des parties extérieures à la
chambre à vide. Le caloporteur et les circuits de refroidissement associés à
la couverture détermineront le rendement électrique de l’installation (l’objectif est une température de sortie la plus élevée possible, à partir de
500 ◦ C jusqu’à plus de 1 000 ◦ C dans une machine industrielle construite
dans la seconde partie du siècle). Les couvertures sont soumises à plusieurs
contraintes supplémentaires, et parfois contradictoires, telles que l’obligation d’assurer l’autosuffisance en tritium et une bonne tenue mécanique
sous irradiation accompagnée d’un haut niveau d’étanchéité ;
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
171
– les composants à haut flux, et en particulier le divertor, cendrier de la réaction de fusion, soumis à des flux surfaciques intenses (de 5 à 15 MW/m2 ),
en contact avec le plasma, devront présenter une bonne conductibilité thermique et en plus, ce qui n’était pas nécessaire dans Iter, une bonne tenue
à l’irradiation ;
– les protections neutroniques, installées à l’arrière des couvertures et du divertor dans la chambre à vide, qui ont le double objectif de réduire à des
niveaux acceptables le dépôt de chaleur dans les bobines supraconductrices et de limiter la fluence neutronique au niveau des connections et des
attachement des couvertures afin de rendre possible leur remplacement
périodique.
La conception des structures proches du plasma est nécessaire pour définir les
types de matériaux envisageables et leurs conditions de fonctionnement, et donc
détermine le niveau et la quantité de R&D nécessaires pour arriver à la conception d’un réacteur électrogène. Deux composants seront particulièrement difficiles à réaliser : les couvertures tritigènes et le divertor.
1.1 Les couvertures tritigènes
Il faut rappeler que, devant la quantité de tritium nécessaire pour alimenter un
réacteur de fusion thermonucléaire (un réacteur de 900 MWe consomme plus
de 300 g de T par jour), il est nécessaire d’utiliser les neutrons issus du plasma
pour transmuter le lithium in situ, dans des couvertures tritigènes, et assurer ainsi
l’autosuffisance du réacteur.
En tenant compte des quantités de tritium limitées disponibles aujourd’hui,
cette condition devra être déjà respectée dans Demo, l’étape suivant Iter. Cette
contrainte implique la mise en œuvre d’un vaste programme de R&D, soutenu
par une importante réflexion en termes de conception et d’analyse.
Chaque réaction de fusion consomme un noyau de tritium et produit un neutron de 14 MeV qui peut être utilisé pour produire un noyau de tritium par
réaction nucléaire avec un noyau de lithium-6 nécessairement présent dans la
couverture. Comme chaque neutron peut produire un seul noyau de tritium,
on voit facilement que, si on tient compte des neutrons absorbés par d’autres
noyaux dans les matériaux de la couverture (« réactions parasites » et des fuites
à travers les zones autours du plasma où il n’y a pas de couverture, telles que la
région du divertor), l’autosuffisance en tritium ne peut être atteinte qu’avec l’utilisation de matériaux multiplicateurs de neutrons, via les réactions du type (n,
2n). Les seuls matériaux multiplicateurs suffisamment performants qu’on peut envisager sont le plomb et le béryllium. En principe, il y a une troisième possibilité
172
LA
FUSION NUCLÉAIRE
qui consisterait en l’utilisation, sous certaines conditions assez contraignantes,
du 7 Li disponible dans le lithium naturel à travers une réaction (n, t).
La conception des couvertures tritigènes doit donc optimiser la combinaison
entre plusieurs matériaux nécessaires, à savoir :
– un matériau producteur de tritium, donc contenant du lithium (par
exemple, le lithium liquide, l’eutectique Li Pb, des céramiques lithiées, ou
des sels fondus incluant du lithium) ;
– un multiplicateur de neutron (le plomb ou le béryllium) ;
– un matériau de structure (l’acier, les alliages de vanadium, le SiC/SiC) ;
– un caloporteur (l’eau pressurisée, l’hélium ou un métal liquide). Toutes
les combinaisons ne sont cependant pas possibles et la recherche d’une
solution doit prendre en compte des critères de compatibilités, les performances demandées, les contraintes de sûreté, la minimisation des déchets
radioactifs, et, bien sûr, les coûts.
En Europe, un programme de développement pour les couvertures tritigènes,
auquel le CEA a activement participé depuis le début, est en cours depuis les
années 1980. Les études menées dans le cadre de ce programme ont permis de
sélectionner deux concepts de couverture (et donc deux quadruplets matériaux :
tritigène/multiplicateur/structure/réfrigérant) pour Demo, qui seront testés dans
Iter. Les deux concepts sont les suivants :
– la couverture HCLL (Helium-Cooled Lithium-Lead), qui utilise un eutectique
du lithium-plomb (Pb-17Li) comme multiplicateur de neutrons et producteur de tritium, des structures en acier ferritique-martensitique à basse
activation développé spécialement pour la fusion, appelé Eurofer, et enfin
l’hélium comme caloporteur ; l’hélium est à une pression de 8 MPa et les
températures d’entrée et sortie sont respectivement de 300 ◦ C et 500 ◦ C.
L’eutectique Pb-17Li, dont la température de fusion est de 235 ◦ C, est
présent sous forme liquide et il circule à quelques mm/s pour permettre
l’extraction du tritium à l’extérieur de la chambre à vide. Les analyses
neutroniques ont montré qu’ainsi l’autosuffisance en tritium est assurée.
Plusieurs points critiques ont cependant été identifiés et sont en cours
d’évaluation au sein d’un programme de R&D, coordonné au niveau européen sous responsabilité du CEA, et mené dans plusieurs Associations.
Ils concernent les aspects « procédés de fabrication » des structures, le
contrôle et la gestion du tritium (ce qui a nécessité le développement de
barrières de perméation, incluant la tenue sous irradiation et l’étude de
procédés d’extraction du tritium du Li Pb et de l’hélium), la compatibilité
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
173
de l’acier des structures avec le Li Pb (et le développement éventuel de barrières de corrosion), le développement des composants des circuits hélium,
et la maîtrise des phénomènes MHD ;
– la couverture HCPB (Helium-Cooled Pebble Bed) utilisant des céramiques
lithiées sous forme de lits de billes (Li4SiO4, Li2TiO3) comme producteur
de tritium, le béryllium sous forme de lits de billes comme multiplicateur
de neutron, l’Eurofer comme matériau de structure et l’hélium comme caloporteur dans les mêmes conditions que la couverture HCLL. L’extraction
du tritium est obtenue grâce à un balayage d’hélium à basse pression
(0,1 MPa) à travers les lits de billes. Les céramiques doivent avoir une
température comprise entre 600 ◦ C et 900 ◦ C. Pour ce concept aussi,
l’autosuffisance en tritium a été démontrée avec des calculs utilisant des
modèles 3D. Le programme de R&D associé est coordonné au niveau européen sous la responsabilité du centre de recherche allemand de Karlsruhe. Outre les aspects “ procédés de fabrication ” des structures et circuits hélium, communs avec le concept HCLL, les points critiques adressés
concernent surtout le comportement des lits des billes de céramiques et de
béryllium sous contraintes thermiques et sous irradiations, leur compatibilité avec le matériau de structure, le relâchement du tritium produits dans
les céramiques et dans le béryllium, la gestion du problème de l’inventaire
en tritium, surtout dans le béryllium.
Ces deux concepts de couvertures seront testés dans le réacteur Iter sous la forme
de maquettes dédiées et optimisées pour reproduire au plus près les conditions
opérationnelles attendues dans le réacteur Demo.
Bien sûr le développement du matériau de structure Eurofer, commun aux
deux concepts, a un poids significatif dans le programme de R&D pour les couvertures et il sera détaillé dans le chapitre suivant.
Dans le cadre d’une étude européenne d’un réacteur électrogène (après
Demo) qui a été menée entre 2001 et 2003 (PPCS, Power Plant Conceptual
Studies), des concepts de couvertures plus avancés ont été identifiés et évalués.
Ces études visaient à identifier les concepts de composants internes d’un réacteur commercial en tenant compte des contraintes économiques inhérentes à la
production électrique, de la sûreté et de la gestion des déchets radioactifs. Cette
étude a pris en compte, pour la première fois en Europe, tous les aspects d’intégration du réacteur, à savoir, les compromis nécessaires entre l’optimisation du
fonctionnement de chaque composant et les exigences dictées par les aspects
globaux tels que la maintenance, la télémanipulation, la sûreté, l’accès dans la
chambre à vide, et, bien sûr, le fonctionnement du plasma. L’objectif était de définir, en partant des concepts envisagés, les principaux axes de R&D qui devront
être privilégiés dans les prochaines décennies.
174
LA
FUSION NUCLÉAIRE
Quatre modèles de réacteur ont été retenus dans cette étude. Les deux premiers se réfèrent aux deux types de couverture envisagés pour Demo et décrits
ci-dessus, qui peuvent assurer un rendement thermique global de l’ordre de
40 % (à noter que le modèle utilisant la couverture Li Pb a été initialement étudié
dans une version refroidie à l’eau). Les deux autres modèles envisagent l’utilisation de couvertures plus innovantes : la couverture « Dual Coolant » (DC) et la
couverture Li Pb autorefroidie (Self-Cooled Lithium Lead, SCLL).
La couverture « Dual Coolant » (DC) utilise comme matériau de structure l’Eurofer. Le concept consiste essentiellement en une boîte, dont les structures sont
refroidies par de l’hélium, qui contient du lithium-plomb circulant à haute vitesse, permettant ainsi l’extraction de la chaleur déposée dans son propre volume (proche d’un concept dit « autorefroidi »). Afin de contourner les problèmes
de MHD, le lithium-plomb est isolé électriquement des parois en acier par des
inserts en SiC/SiC dont le développement nécessite un effort important. Ces inserts agissent aussi comme isolants thermiques, ce qui permet d’avoir une température de sortie du Pb-17Li largement supérieure à la température maximale
acceptable par l’acier. La température de sortie du Li Pb peut ainsi atteindre plus
de 700 ◦ C et le rendement peut atteindre environ 45 %.
La couverture SCLL est un concept encore plus avancé, qui extrapole au maximum les connaissances physiques et technologiques actuelles ; en effet, ce modèle exploite les caractéristiques favorables de la fusion D-T en termes de sûreté et maintenance et les associe au fonctionnement à très haute température
conduisant à des rendements thermiques très élevés. Il est basé sur une couverture « autorefroidie » au lithium-plomb avec des structures en SiC/SiC. En
principe, il peut être associé à un divertor autorefroidi au lithium-plomb avec
des structures en SiC/SiC et des tuiles de protection en tungstène, permettant
d’espérer atteindre des flux surfaciques de l’ordre de 5 MW/m2 . L’inconnue
principale provient de l’utilisation du SiC/SiC comme matériau de structure, notamment en termes de conductivité thermique, de résistance mécanique et de
tenue sous irradiation. Avec des températures de sortie du caloporteur voisinant les 1 100 ◦ C, le rendement pour ce modèle de réacteur pourrait atteindre
environ 58 %.
1.2 Le divertor
Le divertor est un composant déjà soumis à des contraintes extrêmes dans le
cadre d’Iter, et ses matériaux constitutifs sont en limite de capacité en termes de
comportement sous irradiation. L’étude d’un concept potentiel pour Demo et audelà n’a commencé que très récemment, tout au moins en Europe. Pour résister
à un tel niveau d’irradiation, seul le tungstène est acceptable comme matériau
de protection ; pour la partie structure, les matériaux de structures déjà utilisé
dans les couvertures (Eurofer, SiC/SiC) ou le tungstène doivent être envisagés.
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
175
Trois concepts, tous présentant des points critiques majeurs, ont été développés en Europe dans le cadre du PPCS et peuvent être cités comme exemples :
– le concept utilisant des tubes en Eurofer refroidis à l’eau pressurisée, entourés par des monoblocs en tungstène qui ont uniquement une fonction
de protection. Ce concept est théoriquement capable de résister à des flux
surfaciques d’environ 7 MW/m2 , qui pourraient être augmentés jusqu’à
15 MW/m2 si on ajoute une barrière thermique en graphite entre l’acier
R)
et les monoblocs ainsi qu’une épaisseur de graphite souple (PAPYEX
afin d’absorber l’expansion différentielle. Le comportement sous irradiation de ces matériaux reste à évaluer ;
– le concept utilisant le tungstène (ou, éventuellement, une alliage spécifique
à base de tungstène encore à identifier) directement comme matériaux
de structures et l’hélium comme caloporteur. Ce concept est capable de
résister à des flux surfaciques de l’ordre de 10 MW/m2 , en prenant en
compte les propriétés du tungstène avant irradiation. Le fenêtre d’utilisation du tungstène est 600 ◦ C à 1 000 ◦ C, ce qui demande une température
de sortie de l’hélium à plus de 700 ◦ C ;
– le concept autorefroidi au Li Pb, utilisant des structures en SiC/SiC avec
des tuiles de protection en tungstène. Comme dans les couvertures, la température de sortie du Li Pb peut être proche de 1 000 ◦ C. Le comportement
sous irradiation du SiC/SiC est, bien sûr, le point critique majeur. À cause
de la relativement faible conductivité thermique du SiC/SiC, ce concept
est capable d’accepter un flux surfacique d’environ 5 MW/m2 .
Seule la R&D sur les matériaux utilisés qui devra être lancée dans les années à
venir pourra répondre aux questions concernant la faisabilité de ces concepts et
leur possible utilisation dans le divertor d’un réacteur.
2
Les matériaux de structure
En général, les matériaux de structure pour un réacteur de fusion devront
répondre aux exigences suivantes :
– des propriétés adéquates pour supporter les chargements mécaniques,
thermiques et électromagnétiques ;
– une dégradation contrôlable de propriétés et compatible avec la durée de
vie envisagée du composant, cette dégradation étant due à l’irradiation
176
LA
FUSION NUCLÉAIRE
(déplacements atomiques, production de l’hélium et hydrogène, transmutation) et dans le cas de composants face au plasma, au fort chargement
thermique et le bombardement par de particules chargées ;
– une faible activation après exposition au flux neutronique ;
– une bonne compatibilité chimique avec le caloporteur ;
– une faible absorption du tritium, ou bien, il faudra disposer de méthodes
efficaces de « détritiation ».
Les principales différences avec les exigences pour les matériaux utilisés dans
les réacteurs de fission résultent du fait de chargements électromagnétiques liés,
en particulier, aux disruptions du plasma, au flux de particules chargées et à
l’énergie relativement élevée de neutrons (14 MeV).
Pour répondre aux critères de faible activation, trois types de matériaux
peuvent en général être envisagés : les aciers ferritiques/martensitiques, les
alliages base vanadium et les composites céramiques à base de carbure de
silicium (SiC).
Le programme de développement technologique des matériaux pour la fusion thermonucléaire comporte plusieurs étapes, qui sont liées aux impératifs
de performances accrues requises des différentes machines. Ainsi, la stratégie
adoptée en Europe comprend des objectifs à échéances graduées auxquelles
sont associés différents types de matériaux à qualifier, à savoir :
– « Objectif court terme » : il porte sur le développement d’un matériau de
structure permettant de supporter un dommage neutronique de 70–80 dpa
et une température maximale de fonctionnement de 550 ◦ C (conditions
Demo). Ceci a donné lieu au développement d’aciers martensitiques au
chrome dits « à activation réduite » ou « faible activation », qui seront
utilisés pour la fabrication des modules « test » dans Iter ;
– « Objectif à moyen terme » : il vise le développement de matériaux avancés à base fer, les aciers renforcés par une dispersion d’oxydes couramment appelés « ODS » (Oxide Dispersion Strengthening), qui peuvent
accepter un niveau d’endommagement semblable (70–80 dpa) voire supérieur et fonctionner à températures plus élevées (600–900 ◦ C) ;
– « Objectif à long terme » : il vise la qualification d’un matériau de structure
à faible activation pour un réacteur prototype susceptible de fonctionner
cinq ans avec un chargement neutronique de 2,5 MW/m2 supportant un
dommage de 150 dpa et des températures de fonctionnement comprises
entre 500 et 1 200 ◦ C. On s’intéresse dans ce cas à la mise au point de
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
177
composites SiCf /SiC constitués d’une matrice céramique en carbure de
silicium renforcée par des fibres de même nature.
Des alliages base vanadium de type V-Cr-Ti, sont aussi de candidats potentiels
pour divers types de structures et sont étudiés notamment aux États-Unis.
Pour les applications spécifiques du divertor, les études menées en Europe
portent sur les alliages base cuivre et différents métaux et alliages réfractaires
tels que le tungstène et le molybdène, envisagés aussi bien pour utilisation
comme protection que comme élément de la structure.
L’expérience et les données obtenues jusqu’à présent dans un environnement
représentatif d’un réacteur de fusion sont très limitées. En particulier, les études
concernant le comportement de matériaux sous irradiation sont effectuées dans
des réacteurs de fission, qui ne permettent pas toutefois de simuler le dommage
neutronique et les produits de transmutation qui seraient induits dans l’environnement d’un réacteur de fusion. La disponibilité d’une source de neutrons de
14 MeV s’avère indispensable à la validation de matériaux de structure.
2.1 R&D Matériaux pour la technologie fusion
2.1.1 Les aciers ferritiques-martensitiques à activation réduite
Cette classe de matériaux est actuellement la référence pour les structures
susceptibles de subir un fort dommage d’irradiation en service. La conception
de ceux-ci est inspirée des aciers au chrome 7–12 % Cr conventionnels qui ont
fait preuve d’un très bon comportement hors et sous irradiation. En effet, dans le
cadre d’études de matériaux pour les structures de cœur de réacteurs rapides,
ces matériaux ont montré une grande stabilité de propriétés et une excellente
résistance aux variations dimensionnelles induites par l’irradiation (gonflement,
fluage d’irradiation) dans la gamme de températures d’irradiation 400–550 ◦ C.
Pour répondre aux critères de faible activation, la composition des aciers
martensitiques pour la fusion a été ajustée en fonction du temps de décroissance
radioactive de chaque élément constituant l’alliage. Ainsi, certains éléments à
désactivation très lente, présents dans les matériaux commerciaux, tels que le
molybdène, le niobium ou le nickel, ont été remplacés par d’autres comme le
tungstène ou le tantale, ayant une décroissance plus rapide de leur radioactivité
résiduelle après service.
La spécification d’un acier à activation réduite exige aussi un niveau très
faible et bien contrôlé d’impuretés, ce qui contribue en principe à un meilleur
178
LA
FUSION NUCLÉAIRE
comportement mécanique de l’alliage. En effet, les recherches menées dans différents laboratoires d’Europe, du Japon et des États-Unis ont confirmé l’amélioration des propriétés mécaniques par rapport aux aciers conventionnels ayant
servi de base à leur développement.
D’autre part, une première expérience industrielle de fabrication d’un lingot
de plusieurs tonnes répondant à la spécification d’un acier à activation réduite
a eu lieu récemment en Europe. Cet acier appelé « Eurofer 97 » (9Cr1WTaV),
constitue la référence européenne des aciers ferritiques-martensitiques à activation réduite et fait l’objet d’un vaste programme de caractérisation hors et sous
irradiation. La mise en forme de ce matériau sous forme de plaques, barres ou
tubes est relativement aisée et l’assemblage (par soudure TIG, faisceau d’électrons ou laser) ne pose pas de problèmes majeurs. La fabricabilité de cette classe
d’acier à l’échelle industrielle est donc démontrée.
Les premiers résultats concernant les performances de l’acier Eurofer montrent
une amélioration significative de ses propriétés mécaniques par rapport aux
aciers martensitiques conventionnels, en particulier en ce qui concerne les valeurs de résilience et ténacité. Comme tous les matériaux métalliques, les aciers
ferritiques/martensitiques sont ductiles à haute température et fragiles à basse
température. La température de transition ductile-fragile (TTDF) augmente sous
irradiation et cette augmentation est d’autant plus importante que la température
d’irradiation diminue, en particulier pour la gamme de températures inférieures
à 400 ◦ C. Pour un fonctionnement sûr des installations, on exige que la TTDF
soit inférieure à 20 ◦ C.
La perte de ductilité et la dégradation de la ténacité associées à l’accroissement de la TTDF détermineront la durée de vie d’une structure, d’où l’importance
d’étudier son évolution en conditions proches ou simulant celles envisagées lors
du service. Plusieurs expériences dans des réacteurs à fission sont en cours dans
la gamme 200–350 ◦ C afin d’étudier et quantifier les phénomènes de fragilisation et durcissement induits par l’irradiation dans ces aciers à activation réduite.
La microstructure des aciers martensitiques étant très complexe, un effort important de compréhension et de modélisation est nécessaire afin d’élucider les
mécanismes responsables de l’évolution du comportement mécanique.
Mis à part le dommage d’irradiation qui se traduit par de déplacements
atomiques, l’autre effet attendu dans le cas d’irradiation par les neutrons de
14 MeV est la production d’hélium et d’hydrogène générés par les réactions
de transmutation. Selon les calculs prévisionnels, la fraction d’atomes d’hélium
produits par rapport au nombre de déplacements atomiques serait de l’ordre
de ∼10 appm He/dpa pour les conditions de fonctionnement de Demo. La
présence de ces éléments ne fera qu’accélérer la dégradation des propriétés
de matériaux, en particulier dans le domaine des températures inférieures à
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
179
400 ◦ C. Cependant, la production d’hélium n’atteint qu’un rapport de l’ordre
de ∼0,1 appm He/dpa dans les réacteurs de fission.
La disponibilité d’une source de neutrons de 14 MeV, permettant de tester les
matériaux dans un environnement représentatif d’un réacteur de fusion, s’avère
indispensable à la validation et prédiction du comportement de matériaux de
structure.
Du point de vue expérimental, théorique et de la modélisation, les objectifs
du programme R&D en cours sur les aciers martensitiques à activation réduite
sont focalisés sur les aspects suivants :
– le comportement sous irradiation neutronique et, en particulier, les phénomènes de fragilisation à températures inférieures à 400 ◦ C afin de limiter
l’évolution de la TTDF selon le critère d’utilisation exigé (TTDF < 20 ◦ C).
La température minimale de service sera déterminée par le degré de fragilisation du matériau ;
– la contribution au dommage d’irradiation due à la production d’hélium et
d’hydrogène, qui peuvent précipiter sous forme de bulles de gaz, et avoir
des répercussions importantes sur l’évolution de la micro/nanostructure et
le comportement mécanique ;
– la compatibilité avec d’autres matériaux envisagés pour les couvertures,
notamment les métaux liquides Pb Li utilisés en tant que producteur de
tritium ou multiplicateur de neutrons ou l’hélium comme caloporteur ;
– le comportement en fluage thermique, qui définit la température maximale
d’utilisation. En général, cette dernière est d’environ 550 ◦ C. Pour Demo,
le critère utilisé exige à 550 ◦ C, une résistance supérieure à 100 MPa
pendant 20 000 heures et pour une dose de 70 dpa. En présence du Pb
Li liquide, la température maximale pourrait vraisemblablement se limiter
à 500 ◦ C.
Les recherches sur ces différents aspects permettront de qualifier ce type de
matériaux et de définir le domaine de températures dans lequel on pourra les
utiliser pour les structures proches du plasma dans les réacteurs de fusion.
2.1.2 Les alliages renforcés par dispersion d’oxydes (ODS)
Les alliages à base fer renforcés par dispersion d’oxydes (ODS) ont un vaste
domaine d’application en raison de leur excellente résistance mécanique à des
températures supérieures à 550 ◦ C.
180
LA
FUSION NUCLÉAIRE
Dans le cadre du programme « fusion », les matériaux ODS étudiés sont des
aciers ferritiques-martensitiques fer-chrome de composition proche du groupe
précédemment décrit, dont la matrice est renforcée par la distribution homogène
de particules nanométriques d’oxydes.
Les ODS sont envisagés pour utilisation, soit comme matériau fonctionnel sous
forme de placage sur une structure en Eurofer afin de la protéger d’incursions
locales de températures, soit comme matériau de structure proprement dit. La
référence actuelle en Europe est un ODS ayant une matrice de même composition que l’Eurofer (9Cr1wVTa) et une distribution de particules d’oxyde d’yttrium
(Y2 O3 ), qui pourrait assurer une température maximale de fonctionnement de
700–750 ◦ C.
Pour des températures supérieures à 750 ◦ C, le développement de nouveaux
alliages ODS à plus forte teneur en chrome (>12 %) et répondant aux critères
de activation réduite s’avère nécessaire.
La fabrication des ODS fait appel à des techniques très pointues de la métallurgie des poudres. En effet, ces matériaux sont élaborés par mécanosynthèse
(mechanical alloying), à partir des constituants sous forme de poudres élémentaires ou pré-alliées. Dans le cas d’ODS à base fer, la mécanosynthèse est la
seule méthode permettant d’introduire dans la matrice métallique la distribution
fine et homogène d’oxydes qui confère au matériau la résistance mécanique à
chaud optimale. Enfin, les poudres ainsi obtenues sont compactées et filées à
température et pression élevées.
À l’aide de cette méthode particulière d’élaboration, des matériaux ODS ont
été obtenus avec des propriétés mécaniques à haute température très encourageantes. Cependant, les performances de ce type de matériaux dépendent de
la maîtrise de différents procédés intervenant dans la gamme de fabrication.
Sur ce point, il faut remarquer que l’expérience existante en Europe concernant
l’élaboration d’ODS est très limitée, même au niveau des laboratoires.
L’application des ODS comme matériaux de structure nécessite donc la mise
en œuvre préalable d’un programme de recherche dédié à :
– la mise au point et l’optimisation des procédés de fabrication (mécanosynthèse, consolidation de poudres) afin d’obtenir des produits de bonne
qualité ayant des propriétés reproductibles ;
– le développement de méthodes d’assemblage en phase solide. Les procédés impliquant le passage par phase liquide sont à exclure afin de ne pas
perturber la distribution homogène de particules nanométriques ;
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
181
– la démonstration de la faisabilité à niveau industriel d’alliages ayant une
composition optimisée pour les applications fusion ;
– le comportement sous irradiation dans une gamme large de températures
d’irradiation : la susceptibilité à la fragilisation à T < 400 ˚C, les modifications microstructurales induites par l’irradiation, l’effet de l’hélium et du
rapport He appm/dpa, l’effet de l’hydrogène.
2.1.3 Les composites céramiques SiCf /SiC
Les matériaux composites céramiques sont considérés aujourd’hui comme la
solution la plus plausible pour les futurs réacteurs commerciaux. Leurs propriétés
à haute température sont connues pour être meilleures que celles de métaux ou
d’alliages même réfractaires et ils présentent un intérêt majeur pour atteindre
des températures supérieures à 1 000 ◦ C.
Par ailleurs, il est bien connu que ces céramiques présentent des valeurs très
élevées de dureté et du module élastique, et en particulier à basses températures,
une fragilité bien plus grande que celle des métaux.
De point de vues de propriétés physiques, on notera que le carbure de silicium
(SiC) présente une conductivité thermique relativement élevée comparée aux
autres matériaux céramiques.
Les composites à base de SiC font l’objet de nombreux travaux dans le cadre
du projet « Technologie fusion ». La difficulté de l’étude du comportement hors
et sous irradiation provient du fait qu’il faut prendre en compte la contribution
de chaque constituant : la matrice, les fibres et l’interface, cette dernière étant
constituée d’une couche intermédiaire assurant la liaison entre la fibre et la
matrice.
Les propriétés physiques et mécaniques de composites SiC/SiC sont en général entachées d’une grande dispersion liée à la variabilité des fibres utilisées,
aux méthodes d’infiltration de la matrice, au type de produit fabriqué. Lors de la
dernière décennie, il y a eu des progrès significatif dans les procédés d’élaboration qui se sont traduits par une amélioration de la qualité des produits obtenus.
Cependant, la capacité de production reste très limitée en termes de quantité et
de forme des produits élaborés.
Les effets d’irradiation dans les céramiques sont plus complexes que dans
les matériaux métalliques, du fait de la grande sensibilité de la liaison ionocovalente (excitation électronique, modification de composition chimique par
transmutations. . .). Plusieurs phénomènes peuvent avoir lieu sous irradiation et
182
LA
FUSION NUCLÉAIRE
sont fonctions de la température : gonflement, amorphisation, changement de
phase, modification de la stoechiométrie, production de gaz (hydrogène et hélium), modifications de la mobilité ionique. . .
Les besoins en R&D dans le domaine de composites céramiques portent sur :
– la mise au point et l’optimisation des procédés de fabrication afin d’obtenir différents types de produits avec microstructure et propriétés reproductibles ;
– la compréhension de la relation microstructure et propriétés physiques/mécaniques, et en particulier, l’étude de la fragilité intrinsèque de
ce type de matériau hors irradiation ;
– modélisation du comportement mécanique à l’échelle adéquate ;
– le comportement sous irradiation dans une gamme large de températures
d’irradiation (500–1200 ◦ C) ; l’évolution de propriétés physiques et mécaniques ; la caractérisation de phénomènes induits par l’irradiation.
2.1.4 Les matériaux pour le divertor
Le développement de matériaux pour le divertor est fortement lié à l’évolution
de la conception de celui-ci. La principale sollicitation subie par le composant est
due au chargement thermique très important (5–20 MW/m2 ) et au dommage
d’irradiation (∼20 dpa).
Deux types de matériaux sont à considérer : les matériaux dits « fonctionnels »
assurent la protection face au plasma et les matériaux de la structure elle-même
qui auraient une interaction forte avec le caloporteur et qui doivent supporter
des températures dans la gamme 600–1 400 ◦ C.
De par ses bonnes propriétés thermiques, sa résistance mécanique et sa tenue
à l’érosion élevée, le tungstène et ses alliages sont considérés pour une application à long terme en tant que matériaux de protection et de structure. Les alliages
base molybdène sont aussi retenus comme solution alternative.
Cependant, comme tous les matériaux métalliques réfractaires, la principale
limitation réside dans la faible ductilité et ténacité du tungstène à des températures inférieures à 500 ◦ C. Différentes approches sont étudiées afin de diminuer
la fragilité intrinsèque à basses températures :
– la production du tungstène nanostructuré ;
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
183
– le renforcement de la matrice par la dispersion de particules réfractaires ;
– le contrôle et la réduction des teneurs en impuretés interstitielles.
Si les matériaux réfractaires sont bien produits à niveau industriel, beaucoup
d’efforts sont encore nécessaires pour optimiser leurs performances.
D’autres matériaux tels que les alliages à base cuivre pourraient être utilisés
pour les structures si le concept retenu pour le divertor le permet.
2.2 Conclusion
On peut signaler qu’un vaste programme de R&D sur les aciers ferritiquesmartensitiques à activation réduite est en cours afin de valider et qualifier cette
famille de matériaux pour les structures internes de réacteurs de fusion. Cette
catégorie de matériaux est de loin la plus documentée et constitue une base
de données appréciable pour de possibles applications à d’autres réacteurs
nucléaires avancés.
Cependant, les différents concepts de structures internes d’un futur réacteur
de fusion exigent le développement de solutions « matériaux » nouvelles qui
puissent assurer de conditions de fonctionnement de plus en plus sévères. Notamment, la mise au point de matériaux pour fonctionner à haute température et
supporter d’importants chargements neutroniques et électromagnétiques constitue le principal défi pour les spécialistes de la science des matériaux.
3
Les apports de la modélisation
Récupérer de l’énergie d’un futur réacteur à fusion pose des problèmes inédits
de matériaux.
En effet, du fait de l’énergie des neutrons produits par les réactions de fusion,
la production d’hélium au sein des matériaux, par les réactions (n, α), est inévitable. Un ordre de grandeur souvent avancé pour un réacteur prototype est
de 300 ppm atomique d’He produit chaque année de fonctionnement dans les
matériaux de structure les plus exposés. L’hélium étant insoluble dans les matériaux (autres que les gaz rares solides !), on pourrait s’attendre à une perte de
cohésion de la matrice, si les atomes formés in situ restaient immobiles.
184
LA
FUSION NUCLÉAIRE
Mais, comme c’est toujours le cas en métallurgie, les éléments insolubles
précipitent. La cohésion et le comportement mécanique réels du matériau sont
contrôlés par la microstructure de précipitation (ici, pour l’essentiel, l’hélium insoluble).
Voici donc un terrain de prédilection pour la modélisation multi-échelle des
matériaux, domaine très en vogue, où les progrès les plus sérieux de la science
moderne des matériaux côtoient les discours les plus démagogiques. On assiste à un développement foisonnant des techniques de modélisation, à toutes
échelles :
– calculs ab initio des configurations atomiques et de leurs défauts,
des vibrations, des collisions de métaux purs et dopés (entre 100 et
1000 atomes) ;
– simulations, par dynamique moléculaire, de processus rapides (jusqu’à la
nanoseconde, sur quelques millions d’atomes) tels les cascades de déplacement résultant de l’irradiation, ou le glissement d’une dislocation ;
– simulation par diverses techniques de Monte-Carlo des cinétiques de
vieillissement contrôlées par la diffusion : sur réseau cristallin en enchaînant les sauts de chaque espèce mobile, ou dans un continuum en enchaînant des évènements définis à une échelle spatiale supra-atomique dont
les lois de probabilité sont calculées a priori (Monte-Carlo sur évènements,
permettant de simuler des volumes de plusieurs microns au cube). . .
– simulation par des modèles de cinétique chimique homogène ou hétérogène (« champs de phases ») de l’évolution des populations de défauts, de
leurs amas, des précipités, des ségrégations. . .
– simulation de la dynamique du réseau de dislocations à trois dimensions
(DDD : Discrete Dislocation Dynamics) et son couplage avec des calculs
de contraintes par éléments finis. . .
– modélisation du comportement mécanique par les méthodes de la plasticité cristalline, permettant, entre autres, de tenir compte de la microstructure du matériau (forme et orientations respectives des grains), avec, dans
certains cas, utilisation de la DDD pour modéliser la matrice d’écrouissage. . .
Ces techniques sont autant d’outils de compréhension du comportement des matériaux, en particulier sous irradiation, et dans certains cas, au prix d’un calibrage méthodique, peuvent fournir des méthodes d’extrapolation du comportement, à des conditions de sollicitation non accessibles à l’expérience. L’intérêt
qu’elles présentent pour les matériaux pour la fusion est donc indéniable.
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
185
Pour ce qui concerne le chargement en hélium des matériaux de structure, on
sait que la morphologie de la précipitation (homogène ou hétérogène, fine ou
grossière, avec ou sans contrainte associée aux précipités, etc.) est le résultat
d’une compétition subtile entre trois facteurs :
– la sursaturation ;
– la mobilité des espèces et leur mécanisme de diffusion (lacunaire, interstitiel direct ou indirect. . .) ;
– la nature des sites de germination (joints de grains, dislocations, amas
divers de défauts ponctuels telles des microcavités. . .).
Lorsque ces trois facteurs sont connus, diverses techniques de modélisation permettent de prédire la morphologie de la précipitation, avec une bonne fiabilité.
Ces techniques vont des diverses méthodes de Monte-Carlo cinétique à la théorie classique de la germination, en passant par les méthodes de dynamique
d’amas. Ce ne sont pas encore des outils de type « boîte noire », mais un exercice coordonné au niveau national est en cours (2001-2006) pour en établir la
fiabilité dans un contexte classique (CPR1 « Précipitation » entre CNRS, Arcelor,
Pechiney et CEA sur la précipitation dans quelques alliages légers et dans des
aciers au niobium). Les résultats montrent une bonne convergence des diverses
techniques de modélisation.
Dans le cas des matériaux pour la fusion, la difficulté d’une prédiction provient de l’évolution dans le temps des trois facteurs ci-dessus et de leur interdépendance. En effet, la sursaturation s’établit progressivement au cours du temps,
au gré de la compétition entre le terme source, que sont les réactions nucléaires,
et la fuite que représente la précipitation elle-même. De plus, la nature et la
densité des sites de germination évoluent du fait de la condensation des défauts
ponctuels créés par l’irradiation ; enfin, si la mobilité de He est affectée par les
défauts ponctuels, elle dépendra elle aussi de l’évolution de cette condensation.
C’est pour ces raisons qu’on ne peut prétendre réaliser des expériences représentatives du comportement des matériaux dans ces futures machines, en
absence d’un couplage étroit avec une modélisation réaliste2 .
1 CPR
: Contrat de programme de recherche.
un passé très récent, l’effort de développement de matériaux pour d’éventuels futurs
réacteurs à fusion a ignoré cette nécessité. L’effort a été quasi uniquement expérimental et s’est fait
dans la continuité des travaux sur la mise au point de matériaux pour les réacteurs rapides (à fission),
matériaux dans lesquels, du fait du spectre d’énergie des neutrons, l’importance des réactions (n,
α) peut être contrôlée en jouant sur la composition chimique (abandon des aciers austénitiques au
profit des ferritiques).
2 Jusqu’à
1.E+03
1.E+04
1.E+05
1.E+06
1.E+07
Temps (s)
Figure 8.1
Extrapolation de l’évolution temporelle du rayon de précipités Al3 Sc dans Al(18 at% Sc) au cours d’un recuit à 350 ◦ C. Les symboles pleins sont le résultat d’une simulation
par méthode de Monte-Carlo cinétique dont les paramètres sont fournis par des calculs ab initio (pour la cohésion) et un ajustage des fréquences des sauts atomiques sur les
valeurs expérimentales des coefficients de diffusion à dilution infinie. La ligne représente la modélisation de ces résultats par la technique de « dynamique d’amas », modèle
dont les paramètres sont calculés à partir des ingrédients de la simulation. Les symboles ouverts représentent les données de la littérature. L’accord ne résulte nullement d’un
ajustage des paramètres du modèle : ceux-ci ont été calculés une fois pour toutes. Il faut noter les ordres de grandeur qui séparent les échelles de temps propres à la
simulation Monte-Carlo (10 à 103 secondes) et aux mesures expérimentales (105 à 107 secondes) (d’après Clouet E. et al. (2006). Materials. Nature, 5 : 482-488).
1.E+02
Rayon des précipités (nm)
0
1.E+01
2
4
6
8
10
12
186
LA
FUSION NUCLÉAIRE
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
187
L’évaluation du terme source ne pose qu’un problème de fiabilité des calculs
neutroniques et des valeurs de sections efficaces des réactions (n, α).
La fuite, quant à elle, est beaucoup plus délicate à estimer. La mobilité de He
dans les matériaux est en effet mal connue et son mécanisme de diffusion encore
controversé. Les calculs ab initio font en ce moment des progrès spectaculaires :
les énergies de liaison entre He et divers défauts, et les barrières d’activation des
divers mécanismes de diffusion deviennent calculables. Des modèles réalistes
de défauts dans le fer (avec son magnétisme), en présence de carbone, sont
maintenant accessibles : on s’approche de l’acier.
Figure 8.2a
Structure de diverses configurations de l’hélium, dans le fer α, calculées par DFT-GGA avec magnétisme
(code SIESTA) : les sphères noires symbolisent les atomes d’hélium. En présence de lacunes, la configuration
la plus stable est substitutionnelle (figure de gauche). Les énergies calculées montrent que la configuration
tétraédrique (au centre) est la plus stable.
Figure 8.2b
La présence de carbone (petite sphère sombre) affaiblit la liaison de l’hélium (grosse sphère sombre) à la
lacune (au centre de la maille) : de 2,30 eV en absence de carbone, cette énergie s’abaisse à 2,09 et
0,94 eV en présence respectivement d’un et deux atomes de carbone (d’après C.C. Fu et F. Willaime,
CEA-Saclay).
188
LA
FUSION NUCLÉAIRE
Le réalisme de ces calculs est attesté par la précision avec laquelle ils permettent de reproduire les stades de recuit de la résistivité du fer pur irradié à
basse température, déterminés expérimentalement, il y a une vingtaine d’années
(Chu Chun Fu et al., 2004). Les données précises sur le comportement de l’hélium sont malheureusement très rares, ce qui justifierait certainement la reprise
de travaux expérimentaux sur matériaux bien caractérisés. Quelques équipes
s’attaquent à la modélisation, particulièrement délicate, de l’alliage fer chrome,
modèle des aciers ferritiques.
L’évolution de la densité des sites de germination de diverses natures
(amas divers de défauts ponctuels tels des microcavités, dislocations, joints de
grains. . .), peut être modélisée par plusieurs techniques : dynamique moléculaire, pour la création des défauts dans les cascades de déplacement qui résultent des collisions des particules incidentes avec les noyaux du matériau, diverses méthodes cinétiques pour la condensation des défauts en divers types
d’amas et leur élimination sur les discontinuités du réseau cristallin (méthodes
de Monte-Carlo cinétique sur réseau, sur objets ou sur évènements, dynamique
d’amas, méthodes de champ moyen cinétique. . .). Ces méthodes, qui ont été
décrites dans le rapport de l’Académie des sciences RST N◦ 5 Matériaux du
nucléaire (A. Zaoui, 2000), sont encore en développement. Plusieurs exercices
coordonnés sont en cours en France et en Europe, pour en établir la cohérence dans quelques cas modèles : programme Sinergy de codéveloppement
entre EDF, Framatome et le CEA, CPR Smirn entre CRNS, CEA et EDF, divers
programmes européens (Euratom fission) dont le projet Perfect du 6e PCRD. . .
Notons cependant que les niveaux d’irradiation envisagés pour la fusion sont
importants : 25 dpa3 par année de fonctionnement dans les matériaux de structure les plus exposés. La prise en compte, par ces modèles, de la production
simultanée de défauts ponctuels et d’hélium reste un problème ouvert. Des innovations sont nécessaires pour permettre à ces méthodes d’aborder le cas d’alliages à nombreux constituants. En particulier, ces méthodes devraient, à terme,
inclure le bilan de l’hydrogène créé par les réactions (n, p). Un programme
européen très modeste est en cours dans le cadre EFDA ; l’UKAEA a lancé, au
printemps 2004, un programme plus ambitieux dans ce domaine.
La microstructure étant prédite ou connue, que peut-on dire du comportement
mécanique du matériau ? C’est le domaine de la « métallurgie mécanique » et
de la « mécanique de la rupture » où cohabitent des modèles simples « de métallurgistes », ayant fait leurs preuves, et des techniques de simulation lourde,
en plein essor (dynamique des dislocations discrétisées, modèles de plasticité
cristalline avec prise en compte des mécanismes de la plasticité, méthodes d’homogénéisation. . .). Ces développements ne sont pas spécifiques aux matériaux
3 dpa : déplacement par atome. C’est la fraction des atomes qui a été éjectées de leur site du fait
d’une collision nucléaire. Dans les métaux, une forte proportion de ces atomes (50 à 90 % suivant
la structure cristalline) retrouve un site cristallin après quelques vibrations atomiques.
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
189
pour le nucléaire, mais bénéficient du soutien d’une partie des programmes de
recherche signalés ci-dessus. Les applications nucléaires réclament cependant
des innovations (plasticité des alliages, prise en compte des interactions entre
dislocations et amas de défauts créés par irradiation, montée des dislocations
par absorption de défauts ponctuels ou amas mobiles. . .) et des calculs de grandeurs spécifiques au domaine (baisse de cohésion intergranulaire sous l’effet de
ségrégations induites par l’irradiation. . .)
Ce qui précède concerne les matériaux de structure. La liste des défis posés
à la modélisation n’est pas exhaustive : en particulier, pour le matériaux renforcés par des dispersions d’oxydes, se pose le problème de l’intégrité, sous
irradiation, des particules dispersées : forme, taille, composition sont affectées
par l’irradiation d’une manière qui est encore mal modélisée.
Pour les matériaux de protection se pose, en outre, le problème de l’érosion :
érosion par cloquage (blistering) ou par pulvérisation. Le cloquage provient de
la précipitation de l’hélium, près de la surface, et de l’éclatement des bulles sous
l’effet de la pression interne. La modélisation de ce phénomène relève des outils
évoqués ci-dessus. La pulvérisation, quant à elle, est plus difficile à modéliser,
car toute une chimie sous rayonnement agit sur les rendements de pulvérisation ; cette chimie met en jeu des transitions électroniques dont la modélisation
se développe dans d’autres communautés (usinage par faisceaux d’ions, microélectronique. . .)
Enfin, un thème préoccupant, pour certains matériaux autres que les aciers,
a jusqu’ici été laissé dans l’ombre : l’apparition de nouvelles espèces chimiques
par réactions nucléaires (noyau mère dans les réactions (n, α) et (n, p)). Si de
tels produits de transmutation ne présentent sans doute pas de danger dans les
aciers, on est dans l’ignorance en ce qui concerne les matériaux céramiques.
Une étude du FZK annonce la transmutation, en 100 dpa, d’environ 3 % de
SiC en Al et Mg, éléments dont la solubilité dans (ou la réactivité avec) SiC est
inconnue. Cette réflexion mérite d’être approfondie.
On le voit, la fusion stimule le domaine en pleine expansion qu’est la modélisation multi-échelle des matériaux. Les matériaux de structure mis en œuvre
(aciers ferritiques) posent de nombreux problèmes difficiles : prise en compte du
magnétisme dans les calculs ab initio (Fe, Cr, . . .), traitement efficace du carbone
dans les modélisations de cinétiques, simulation du glissement des dislocations
vis à des vitesses d’intérêt métallurgique, prise en compte, pour la plasticité, de
la microstructure en lattes de la martensite, etc. Les quelques programmes coordonnés en cours, que nous avons cités ci-dessus, aident à focaliser les efforts
avec un succès certain.
190
LA
FUSION NUCLÉAIRE
Figure 8.3
Carte de déformation équivalente (dans du zirconium) obtenue par simulation numérique pour un modèle
élasto-viscoplastique, en plasticité cristalline : du bleu au rouge, la déformation passe de 1 à 7 % ; les
frontières blanches sont les joints de grains tels que révélés par la microscopie électronique à balayage ; les
orientations des grains contigus ont été déterminées par diffraction d’électrons rétrodiffusés (EBSD). Ces
déformations peuvent être mesurées à l’aide d’une grille gravée à la surface de l’échantillon (d’après Dexet
M. et al. (2004). CPR Smirn).
4
Les apports de l’expérimentation
Comme on l’a vu, on ne peut prétendre réaliser des expériences représentatives du comportement des matériaux dans ces futures machines, en absence
d’un couplage étroit avec une modélisation réaliste. Pour être représentatif, un
résultat d’expérience devra être nécessairement extrapolé.
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
191
Il existe plusieurs manières de charger un matériau en He, avec des intensités
d’irradiation simultanée diverses :
– chargement du matériau en tritium qui transmute en He par émission β − ;
– irradiation par des particules α dans un cyclotron à énergie variable, ou
d’autres machines ;
– irradiation simultanée par plusieurs faisceaux d’ions (dont l’un de particules α ;
– irradiation neutronique d’alliages dopés en éléments à grande section efficace pour les réactions (n, α) ;
– irradiation dans des sources à spallation, dans des sources de neutrons
de 14 MeV. . .
Pour les raisons évoquées au paragraphe précédent, chacune de ces méthodes
conduira à une microstructure différente pour un chargement en hélium identique : en effet, le taux de production de l’hélium, le taux de production des
défauts ponctuels (et leur mode de production en petites ou grosses cascades)
ainsi que la température, contrôlent le chemin de développement de la microstructure.
Il faut donc se résoudre à considérer les moyens de chargement ci-dessus
comme autant de tests des outils de modélisation, sans ignorer pour autant les
phénomènes insoupçonnés qui peuvent se révéler au cours de tels traitements.
Dans ce contexte, l’irradiation simultanée de petits échantillons par plusieurs
faisceaux de particules chargées et l’observation, à fine échelle (microscopie
électronique post mortem ou in situ), de l’évolution de la microstructure résultante est sûrement le moyen le plus souple (et le moins onéreux) pour explorer
rapidement une multitude de conditions de chargement et mettre à l’épreuve
diverses méthodes de modélisation. Le projet Jannus du CEA est optimisé pour
cet objectif4 . Les études de propriétés mécaniques, quant à elles, doivent faire
appel à des essais miniaturisés.
La réalisation d’expérimentations plus lourdes mais plus représentatives sera
sans doute nécessaire. L’élaboration des critères de conception qui seront utilisés pour les réacteurs de fusion devra s’appuyer sur une base de connaissances
validées où la qualification expérimentale complète semble incontournable, ne
serait-ce que pour respecter les exigences qu’imposeront les autorités de sûreté.
4 Trois faisceaux sont prévus dans le dispositif Jannus à Saclay : l’un pour implanter He, l’autre
pour créer les défauts ponctuels, le troisième pour implanter l’hydrogène.
192
LA
FUSION NUCLÉAIRE
À ce jour, en l’absence de source de neutrons de 14 MeV, la qualification expérimentale repose essentiellement sur l’utilisation des réacteurs à fission. Ce
type de qualification a été mené pour les matériaux de structure d’Iter (316L) et
est en cours pour l’Eurofer qui sera utilisé pour les modules tests de couverture
tritigène. Compatible avec Iter et ses quelques dpa (et donc quelques appm de
He), ce type de qualification ne couvre pas les besoins du réacteur à fusion (de
150 dpa et surtout une production d’He d’environ 10 appm/dpa). La communauté internationale a donc proposé la construction d’une source de neutrons
de 14 MeV spécifique combinant d’une part un spectre neutronique « fusion »,
pour prendre en compte les effets de production de gaz qui n’apparaissent que
pour des neutrons de haute énergie, et d’autre part une fluence importante qui
permettent l’accès rapide à de fortes valeurs de dpa (100–200 dpa) sur un
nombre d’échantillons représentatif.
Ce projet se nomme IFMIF (International Fusion Materials Irradiation Facility)
et les travaux qui y sont liés sont réalisés sous l’auspice de l’IEA (International
Energy Agency). Les partenaires majeurs sont l’Europe et le Japon mais le projet
comprend aussi des contributions de la Suisse, des États-Unis, de la Russie et de
la Chine.
IFMIF consiste en une source à neutrons basée sur les réactions 7 Li(d,2n)7 Be,
Li(d,n) 7 Be. L’accélérateur de D+ est de type Linac (figure 8.4). Le courant nécessaire est généré par deux accélérateurs travaillant en parallèle. La cible Li
convertissant le faisceau D+ en neutrons de haute énergie est constituée d’un jet
de Li liquide circulant à la vitesse de 10–20 m/s. La chambre de test comporte
3 zones de fluence différente :
6
– zone 1 : zone de forte fluence (>20 dpa/an, He/dpa = 10 appmHe,
volume = 0,5 L) ;
– zone 2 : zone de fluence intermédiaire (1–20 dpa/an, volume = 6 L) ;
– zone 3 : zone de faible fluence (<1 dpa/an, volume = 8 L).
L’équipe projet a présenté son rapport de conception en janvier 2004. Le coût
d’IFMIF est estimé à 88 millions de dollars en 2003 pour la phase d’ingénierie
détaillée (4 ans) et 540 millions de dollars en 2003 pour la phase de construction qui se déroulerait en deux étapes :
– phase 1 (7 ans) : construction des bâtiments, de la boucle Li, d’un accélérateur en exploitation à 125 mA, afin de tester les matériaux pour les
modules de tests de couverture d’Iter, les corrélations des données fusionfission et des études génériques sur l’endommagement des matériaux ;
L ES
193
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
Haut flux (>20 dpa/an , 0.5 L)
Medium flux (20-1 dpa, 6 L)
Faible flux(<1 dpa, >8 L)
Cible Li liquide
Ion
Source
RFQ
Drift Tube Linac
D+, 40 MeV, 2x 125 mA
Accélérateur
Cellule de test
Figure 8.4
Schéma de principe du projet IFMIF.
– phase 2 (3 ans) : construction d’un second accélérateur de 125 mA, permettant l’étude des performances des matériaux potentiellement utilisable
dans un réacteur à fusion.
Évidement, ces expérimentations plus lourdes (irradiation dans des sources à
spallation, les accélérateurs d’ions lourds à très fortes énergies, ou IFMIF, . . .)
ne trouveront pleinement leur sens que si les outils de modélisation sont prêts
pour permettre d’extrapoler les résultats aux conditions attendues dans le futur
réacteur. Les outils de modélisation rendront un outil comme IFMIF plus efficace
en permettant de comprendre et de confirmer les résultats obtenus mais aussi en
optimisant les conditions opératoires et en réduisant le nombre de campagnes
expérimentales. La disponibilité d’outils de modélisation efficaces et des outils
expérimentaux associés sont un gage de développement rapide de la fusion,
qui devra le moment venu, être capable de démontrer aux autorités de sûreté
que les matériaux utilisés ont été validés dans des conditions proches de leur
utilisation réelle.
À titre d’exemple, la figure ci-dessous montre l’accroissement, avec la dose
d’irradiation, du décalage de la température de transition ductile fragile de divers aciers. Comme on le voit, les irradiations à fort taux de chargement en
hélium (symboles fermés), ne donnent pas de saturation à forte dose, dans le
domaine de température étudié, contrairement aux irradiations par des neutrons « classiques ». Mais la lourdeur du dispositif expérimental utilisé (source
à neutrons de spallation) n’a pas permis de découpler les trois paramètres que
sont la température, le flux d’irradiation et le taux de chargement d’hélium (ici
très élevé : 60 ppm atomiques pour un déplacement par atome). Ceci illustre la
194
LA
FUSION NUCLÉAIRE
Figure 8.5
Décalages de la température de transition ductile/fragile pour divers aciers, en fonction de la dose
d’irradiation (en déplacements par atome : dpa) dans deux types distincts d’irradiation : les irradiation
neutroniques classiques (symboles ouverts) ou à fort taux de production d’hélium (60 appm He/dpa,
symboles fermés) de la source à spallation SINQ au Paul Scherrer Institut. Suivant les essais, la température
est comprise entre 80 et 275 Celsius (d’après Jia X. et Dai Y. (2003). J. Nucl. Mater. 323 : 360).
nécessité de disposer d’outils d’extrapolation calibrés sur des expériences couvrant de larges gammes de paramètres.
5
Les techniques d’assemblage
L’assemblage interviendra à plusieurs niveaux dans la fabrication des structures modulaires entourant le plasma. Eu égard à leur complexité, les modules
seront composés de différentes parties assemblées. De plus, différents matériaux seront très probablement nécessaires pour les modules (soit typiquement :
un matériau de structure, éventuellement un matériau de puits thermique et un
matériau résistant à l’érosion par le plasma). En outre, les modules seront assemblés à une structure arrière et alimentés en fluides par des tuyauteries. Si
tous les assemblages devront respecter un cahier des charges strict, les cas les
plus difficiles se trouvent dans les modules de par la sévérité des sollicitations
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
195
thermomécaniques de ces composants, la complexité de leur géométrie, les problèmes de compatibilité métallurgique et mécanique des matériaux entre eux et
les incertitudes sur le vieillissement des jonctions sous irradiation. Des techniques
d’assemblage variées seront utilisées dont le soudage, le soudage par diffusion
et éventuellement le brasage. Le choix de la technique à retenir pour un besoin
donné dépendra notamment de la nature des matériaux à assembler, de la géométrie, des critères d’inspection et de « réparabilité » des défauts ainsi que du
degré d’automatisation requis.
5.1 Les procédés d’assemblage par fusion
Le matériau de structure d’Iter, l’acier austénitique 316LN-IG, possède une
bonne soudabilité métallurgique. Une application majeure du soudage par fusion pour Iter est l’assemblage des secteurs de la chambre en vide. Étant donné
les épaisseurs concernées (60 mm), la technique de référence est le soudage
TIG en chanfrein étroit. Ce procédé est qualifié et maîtrisé mais souffre d’une
productivité faible. Des alternatives sont aujourd’hui en cours de développement : soudage par laser avec double source ou soudage hybride arc et laser.
Les problèmes à résoudre sont les problèmes classiques de soudage : maîtrise
des défauts, définitions des paramètres, gestion des déformations et définition
des moyens de contrôle ultrasonore qui, dans le cas de ce matériau, posent un
problème spécifique d’interférences ultrasons/joints de grains.
Une autre application importante concerne les connections tubulaires des
composants internes de la chambre à vide. Là encore, le procédé TIG est une
référence, mais des développements sur le soudage laser sont en cours. Étant
donné les problèmes d’accessibilité (à travers les ports de la chambre à vide),
on cherche à réaliser avec le même outil robotisé la découpe et le soudage, ceci
dans l’optique de la réparation ou du remplacement de composants défectueux.
Le soudage par fusion est assez peu utilisé pour la fabrication des composants
internes. On peut citer le soudage par faisceau d’électrons du Cu Cr Zr soit avec
lui-même, soit avec l’acier 316LN par l’intermédiaire de nickel pur (composants
du divertor).
En ce qui concerne les couvertures tritigènes en acier ferrito-martensitique, les
développements sont moins avancés. La soudabilité métallurgique de ces aciers
est plus délicate : présence de défauts lors du soudage en forte épaisseur, difficultés liées à la microstructure et à la nécessité de pratiquer après soudage un
traitement thermique de détensionnement (jusqu’à présent insuffisamment efficace). Cela rend d’autant plus critique la nécessité de pouvoir contrôler les soudures réalisées, ce qui n’est pas systématiquement acquis, étant donné le dessin
196
LA
FUSION NUCLÉAIRE
complexe des couvertures. De nombreuses incertitudes subsistent aujourd’hui sur
la faisabilité du soudage en forte épaisseur, du détensionnement localisé (pour
les connections tubulaires) en milieu irradié et de l’obtention de soudures plus
résistantes à l’irradiation (présentant notamment une température de transition
ductile-fragile suffisamment basse). Le soudage des aciers renforcés par dispersion d’oxydes (ODS) est un autre défi, cette classe de matériaux étant réputée
non soudable par fusion.
De façon plus générale, la maîtrise des déformations demande encore des
efforts de développement (soudage à l’arc en chanfrein étroit, soudage multi
sources, ajout d’un refroidissement actif, . . .) de même que le contrôle en ligne
(positionnement de torche, profondeur de pénétration).
5.2 Les procédés d’assemblage sans fusion
Le soudage par fusion est peu adapté à la réalisation d’assemblages très
hétérogènes, surtout quand les surfaces à assembler ne sont pas planes. Il est
fait appel à d’autres techniques ne mettant pas en œuvre la fusion du matériau
de base : il s’agit du soudage par diffusion (à l’état solide) et du brasage.
Le soudage par diffusion est mis en œuvre en appliquant, à chaud, une force
aux surfaces à assembler. Cette force est générée par une pression isostatique
de gaz – compression isostatique à chaud – (CIC). Les jonctions obtenues sont
particulièrement résistantes. On notera que cette technique permet aussi la compaction de poudres et que la complexité des pièces qu’elle permet d’obtenir fait
qu’elle relève plutôt d’une technique de mise en forme que d’assemblage uniquement. À partir de pièces élémentaires simples (plaques usinées, tubes cintrés
ou non), on reconstitue un composant présentant des circuits de refroidissement
interne qu’aucune autre technique ne permet d’obtenir. La CIC est une technique
de référence pour la fabrication des panneaux de la couverture d’Iter composés
d’acier austénitique, d’un alliage de cuivre et de béryllium. Le soudage diffusion est aussi une des techniques utilisées pour des composants à haut flux du
divertor à base de tungstène et de cuivre.
Le brasage est utilisé pour assembler le matériau face au plasma (essentiellement le béryllium et les composites carbone-carbone) sur le puits thermique en
alliage de cuivre. Des procédés de brasage spécifique ont été mis au point pour
l’obtention de joints résistants. Pour les matériaux composites carbone-carbone,
on utilise une préparation de surface consistant en une gravure par laser suivie
d’une infiltration de cuivre. L’ancrage ainsi obtenu améliore les propriétés mécaniques et facilite le transfert thermique. Pour le béryllium, qui a tendance à former des intermétalliques fragiles avec le cuivre, on utilise le brasage rapide par
induction à l’aide de brasures amorphes. Cela diminue la fragilité des jonctions.
L ES
MATÉRIAUX POUR LES COMPOSANTS PROCHES DU PLASMA ...
197
Les exemples ci-dessus concernent Iter. Dans le cas des couvertures tritigènes,
la complexité géométrique est plus grande, en particulier dans le cas où l’hélium
est choisi comme fluide caloporteur (petitesse des canaux). Le soudage par diffusion reste une technique de première importance mais il faudra certainement
la coupler avec le soudage par fusion : il en découle la nécessité d’étudier l’influence d’une technique sur l’autre et, finalement, d’avoir une approche globale
de la gamme de fabrication de l’objet. L’application du soudage par diffusion
aux ODS est une solution prometteuse pour palier les difficultés rencontrées avec
les techniques de soudage par fusion. Il est aujourd’hui envisageable de « plaquer » une couche d’ODS sur les parties les plus exposées au fluage des modules
en acier ferrito-martensitique, notamment la première paroi.
Le brasage n’a aujourd’hui pas d’application au cas des couvertures tritigènes car la composition des brasures (souvent à base de nickel, de cuivre,
d’argent, de bore) les rend incompatibles avec l’environnement neutronique. Le
développement de nuances de brasures à faible activation sera peut-être rendu
nécessaire par l’évolution des concepts. On pense notamment à l’assemblage
des composites à base de carbure de silicium, car pour ces matériaux il existe
peu d’alternatives au brasage.
De façon générale, la mise au point de l’assemblage requiert certes des
études de base en laboratoire (définition des paramètres opératoires, détermination des propriétés mécaniques. . .) mais aussi des tests de qualification sur
des maquettes représentatives, notamment des tests thermomécaniques simulant
les conditions d’utilisation des composants dans les réacteurs, sans oublier qu’en
situation réelle les composants seront soumis à l’irradiation. Le calcul numérique
intervient à plusieurs niveaux, de la simulation du procédé d’assemblage à la
modélisation des tests de maquettes en passant par la modélisation du comportement mécanique des jonctions.
Références bibliographiques
Chu-Chun Fu, Dalla Torre J., Willaime F., Bocquet J.L., Barbu A. (2003). Multiscale modelling of defect kinetics in irradiated iron. Nature Materials, 4 :
68-74.
Académie des sciences (2000). RST N◦ 5 Matériaux du nucléaire. Animateur :
André Zaoui. Éditions Tec & Doc, Paris, pp. 37-92.
M. Dexet et al. (2004). Compte rendu d’avancement au CPR Smirn.
Jia X., Dai Y. (2003). J. Nucl. Mater., 323 : 360.
CHAPITRE
9
Les études de sûreté
BOGDAN BIELAK ET DANIEL SCHIRMANN
L ES
ÉTUDES DE SÛRETÉ
201
Résumé
– Les risques industriels classiques mais aussi ceux plus spécifiquement nucléaires d’un réacteur à fusion sont gérés par la mise en place de dispositions techniques en matière de sûreté nucléaire ainsi que par l’élaboration
de mécanismes de contrôle appropriés durant toute la vie de l’installation
(conception, réalisation, exploitation et démantèlement).
– La démonstration de sûreté pour une installation de fusion s’inspire, dans
son principe, d’une expérience substantielle en la matière dans la filière « fission ».
– Le risque d’emballement de la réaction de combustion dans le cœur d’un
réacteur de fusion est considéré comme intrinsèquement impossible.
– La quantité des déchets radioactifs de longue vie produits dans un réacteur
à fusion est quasiment nulle.
– Une installation de fusion nucléaire (filière inertielle ou filière magnétique)
doit assurer en permanence, même en cas d’accident, les fonctions suivants :
– le contrôle de la réaction nucléaire et la limitation de l’exposition aux
rayonnements ionisants ;
– l’évacuation de la chaleur ;
– le confinement des matières radioactives ;
– la protection de l’installation contre les risques d’incendie et d’explosion ;
– la maîtrise de l’énergie magnétique (filière magnétique) ;
– la maîtrise des effets thermomécaniques des rayons X (filière inertielle) ;
– les effets des débris (filière inertielle).
– L’énergie de fusion, est parmi les filières énergétiques capables de produire
de la puissance de manière « massive », celle qui présente les impacts sur
l’environnement les plus faibles.
202
LA
FUSION NUCLÉAIRE
Les réacteurs à fusion, comme toutes les installations nucléaires, peuvent générer deux types des risques : risques industriels classiques et les risques spécifiquement nucléaires. La présence de matières radioactives et l’existence de
rejets radioactifs, thermiques et chimiques, sont à l’origine de ce second type de
risques.
La gestion de ces risques impose la mise en place de dispositions techniques
en matière de sûreté nucléaire ainsi que l’élaboration de mécanismes de contrôle
appropriés. Défini à travers des objectifs de sûreté, l’ensemble de ces dispositions, devra être respecté durant toute la vie de l’installation, c’est-à-dire depuis
la phase de conception, à travers les phases de réalisation et d’exploitation et
aussi jusqu’à l’achèvement de la phase du démantèlement.
Pour les installations de fusion thermonucléaire, ces objectifs ne sont pas différents de ceux établis pour les réacteurs à fission. Il s’agit, avant tout, d’assurer
la protection des travailleurs, de la population et de l’environnement lors du
fonctionnement normal de l’installation en garantissant que les conséquences
d’une dégradation éventuelle demeureraient acceptables pour la population et
ne conduiraient pas à son évacuation. L’accomplissement de ces objectifs est
ainsi inscrit dans une règle de base de la sûreté qui a pour but de protéger
en toutes circonstances l’homme et la nature contre les dangers des rayonnements ionisants émanant des installations nucléaires et empêcher la dispersion
de quantités dangereuses de matières radioactives dans l’environnement.
Aujourd’hui, dans les pays équipés d’installations nucléaires, et particulièrement en France, ce niveau de protection, correspondant à l’ensemble des exigences définies au travers de la réglementation de sûreté nucléaire, est le résultat
du développement de la filière « fission », notamment grâce aux enseignements
récoltés sous forme de retour d’expérience de plusieurs décennies.
Cette expérience, accumulée dans le domaine de la sûreté des réacteurs à
fission, sert aujourd’hui de référence dans l’établissement des dossiers relatifs à
la gestion des risques inventoriés pour une installation de fusion, tout au moins,
en ce qui concerne l’approche générale de cette analyse. Il va de soi, que cette
démonstration de sûreté, prend également en compte et d’une manière plus
précise, les spécificités propres à la filière « fusion thermonucléaire », en particulier, le type des réactions opérées dans le cœur de l’installation, la nature du
« combustible » ainsi que la problématique liée à la gestion des déchets.
L ES
1
ÉTUDES DE SÛRETÉ
203
Particularités des installations de fusion en termes
de sûreté et vis-à-vis de l’environnement
1.1 Absence de risque de réaction en chaîne
Une installation de fusion thermonucléaire à confinement magnétique fonctionne dans une plage très resserrée des paramètres, qui sont principalement la
température et la pureté du mélange D/T. Le non-respect ou la moindre déviation par rapport à ces exigences est pénalisé par la « disruption » du plasma.
Son entretien exige une très faible quantité de combustible nécessaire à assurer
la réaction de fusion. Cette quantité (quelques grammes) est une « avance » infime sur alimentation, juste pour faire fonctionner l’installation durant quelques
secondes. Ce principe fait qu’en cas de disfonctionnement ou d’arrêt volontaire
de l’alimentation, la réaction s’arrête automatiquement. De ce fait, l’emballement de la réaction est considéré comme intrinsèquement impossible.
D’autre part l’extension du plasma se traduit par une diminution brusque
d’énergie interne ce qui exclut l’éventualité d’un « melt-down » du tore.
Dans une installation de fusion à confinement inertiel, les conditions de la
combustion du D/T sont obtenues plusieurs fois par seconde, consécutivement à
l’implosion des cibles sous l’effet de la pression exercée par le driver à chaque
tir. La quantité de combustible contenue dans chaque cible est seulement de
quelques milligrammes, elle constitue également une avance infime sur l’alimentation de l’installation. Ce principe fait qu’en cas de dysfonctionnement ou
d’arrêt volontaire de l’alimentation du driver ou de l’alimentation en cibles, la
réaction s’arrête instantanément. De ce fait, l’emballement de la réaction ou
son auto-entretien, dans une installation à confinement inertiel, y est également
considéré comme intrinsèquement impossible.
1.2 Limitation de déchets radioactifs à vie longue
Un des aspects les plus favorables de la sûreté des installations à fusion thermonucléaire réside dans la limitation des produits de combustion et des déchets radioactifs. À l’exception du tritium qui sera produit in situ, les constituants « combustibles » c’est-à-dire deutérium et lithium, ainsi que les produits
de réaction (hélium) ne sont pas radioactifs. L’inventaire des déchets se limitera
principalement aux structures primaires (première paroi, divertor, couvertures et
chambre à vide) activées par les neutrons et les circuits du tritium.
204
LA
FUSION NUCLÉAIRE
La période nécessaire pour déclasser ces déchets au niveau « très faible activité », conformément aux normes de déclassification définies par l’AIEA et recommandées par la Commission européenne, est estimée à 100 ans environ.
Pour être compatible avec les objectifs généraux de sûreté, et notamment
avec celui qui impose sa réduction à minima, l’inventaire des déchets dépendra essentiellement du choix des matériaux. C’est pour cette raison, qu’un effort
considérable, est dédié à présent à la validation technologique des matériaux de
faible activation (ou plus précisément, à temps de décroissance rapide d’activation) qui seront utilisés pour la fabrication des composants exposés directement
au « regard » du plasma.
2
Démonstration de la sûreté des installations
de fusion thermonucléaire
2.1 Approche générale
L’analyse de la sûreté d’une installation de fusion thermonucléaire, autrement
dit l’établissement d’un rapport de sûreté, est basée essentiellement sur une approche déterministe complétée éventuellement par une approche probabiliste.
La démonstration de la sûreté qui en découle doit être accomplie en définissant
des scénarios de référence qui incorporent toutes les situations possibles de la
vie d’un réacteur – exploitation normale, incidents de fonctionnement prévisibles
et accidents possibles.
Cette analyse est conduite en trois étapes successives :
1. Postuler des scénarios incidents et accidentels.
2. Définir l’ensemble des actions permettant de prévenir, de maîtriser ou de
limiter les conséquences des situations incidents et accidentelles résultant
des scénarios déterminés.
3. Examiner de manière détaillée les conséquences des situations prédéfinies
permettant d’évaluer la robustesse de la conception technique et l’efficacité
des systèmes de sûreté.
Conformément aux recommandations des autorités de sûreté françaises « . . .la
démarche attendue est la définition et la justification des critères techniques de
maîtrise des risques, la démonstration de leur obtention, et enfin la vérification
que les conséquences des accidentelles enveloppes sont acceptables ».
L ES
ÉTUDES DE SÛRETÉ
205
En outre, l’analyse de sûreté doit démontrer que, les valeurs numériques représentatives des conséquences radiologiques de chaque situation étudiée sont
inférieures à celles fixées par les réglementations de sûreté dans les « objectifs
généraux de sûreté ».
Les recommandations des autorités de sûreté vont même plus loin : elles demandent que le concepteur en démontrant l’existence de marges de sûreté, ne
se limite pas à une simple démonstration de l’innocuité de la situation analysée,
mais poursuive une étude d’optimisation visant à obtenir une marge maximale
relative aux « objectifs généraux de sûreté » fixés.
2.2 Approche probabiliste complémentaire
« Les scénarios de séquences accidentelles possibles dans une installation nucléaire sont présentés et analysés dans le cadre d’un processus appelé « étude
probabiliste de sûreté » (EPS). Ces études produisent des estimations probabilistes du risque à partir de modèles de fiabilité exhaustifs et structurés. Les estimations doivent respecter les « objectifs probabilistes » qui représentent un niveau
acceptable de risque pour différentes situations d’accidents hypothétiques. Ces
objectifs sont des valeurs numériques connues sous le nom de critères probabilistes de sûreté ».
La mise en application de cette méthode, dans l’analyse de sûreté des installations de fusion, sera certainement réduite pendant les quelques années à venir
à cause de l’absence d’un retour d’expérience suffisant en ce qui concerne le
fonctionnement de ce type de réacteur.
3
La sûreté et les critères environnementaux
3.1 Prescriptions communes aux deux filières – magnétique
et inertielle
Une installation à fusion thermonucléaire (filière magnétique ou inertielle) est
soumise aux mêmes exigences fonctionnelles que celles en vigueur pour toute
installation contenant des matières radioactives. Elle doit assurer en permanence, même en cas d’accident, les fonctions suivantes.
206
LA
FUSION NUCLÉAIRE
Le contrôle de la réaction nucléaire et la limitation de l’exposition externe aux
rayonnements ionisants
Les paramètres de cette fonction s’expriment en doses d’exposition admissibles aux rayonnements ionisants auxquelles pourrait être soumis le personnel
de l’installation en fonctionnement normal. Elles sont fixées par l’exploitant qui
suit les recommandations des organismes internationaux tels que AIEA et ICRP.
En France, l’Autorité de sûreté nucléaire (DGSNR, BCCN et DIN) les approuve
après avoir vérifié qu’elles respectent les « objectifs généraux de sûreté » et
vérifie leur mise en œuvre tout au long de la vie de l’installation et pendant son
démantèlement.
À titre d’exemple, le tableau ci-dessous rappelle ces recommandations et les
limites correspondantes, fixées dans le cadre du projet Iter.
Limite de dose individuelle pour le personnel
Limite de dose recommandée par ICRP
20 mSv/an, moyenné sur 5 ans,
sans dépasser 50 mSv/an
Limite de dose fixée par le projet ITER
Limite de dose annuelle
5 mSv/an
Limite de dose opérationnelle
0,5 mSv/intervention
Tableau 9.1
Recommandations des organismes internationaux et les limites fixées dans le cadre du projet Iter.
Dans le but de minimiser les conséquences de l’exposition aux rayonnements
ionisants, les dispositions suivantes sont mises en application :
– interdiction de présence du personnel dans le bâtiment réacteur et tritium
lors de la phase « plasma » ;
– utilisation de systèmes de maintenance robotisés pour les opérations au
cours desquelles existe un risque radiologique.
L’évacuation de la chaleur
Dans une installation à confinement magnétique, cette fonction est assurée par les trois systèmes de refroidissement successifs : par le système de
L ES
ÉTUDES DE SÛRETÉ
207
refroidissement de la première paroi, par le système de refroidissement de la
couverture et par le système de refroidissement de la chambre à vide. En général, l’alimentation des deux premiers est indépendante de l’alimentation du
troisième qui est conçu de manière à fonctionner également en convection naturelle. La conception de ces systèmes permet d’évacuer aisément la chaleur
résiduelle après l’arrêt de fonctionnement de l’installation.
Dans une installation à confinement inertiel, la réduction des effets thermomécaniques des rayons X et des débris sur la paroi de la chambre se réalise
par la mise en place d’un revêtement intérieur en matériau réfractaire et de numéro atomique faible pour minimiser l’activation par les neutrons, par exemple
du graphite ou du carbure de bore. Ce revêtement est progressivement érodé
par ablation, mais protège la paroi principale en acier qui est refroidie par
circulation d’un fluide caloporteur. La paroi protectrice est remplacée lorsque
son épaisseur devient insuffisante pour lui permettre d’assurer sa fonction de
protection et garantir l’évacuation appropriée de la chaleur.
Dans un certain nombre de concepts, notamment, une variante consiste à
concevoir une paroi protectrice qui est constamment renouvelée : c’est l’idée du
mur fluide qui circule à grande vitesse et sert à évacuer la plus grande partie de
la chaleur, tout en protégeant la paroi de la chambre.
Le confinement des matières radioactives
Les systèmes de confinement d’une installation à fusion thermonucléaire sont
composés de barrières statiques (procédés, parois, enceintes) et de barrières
dynamiques (ventilation, filtrage, épuration d’atmosphère, dépressurisation et
détritiation) dont le rôle est d’empêcher la dissémination de matières radioactives et produits dangereux dans l’environnement.
Les matières radioactives sont le tritium et les produits d’activation sous forme
d’aciers des structures, d’alliages spéciaux, de composites, de céramiques. . .
présents dans la chambre à vide, dans les couvertures, dans les systèmes d’injection, dans les circuits de filtrage ainsi que dans les circuits du caloporteur.
La conception des systèmes de confinement doit intégrer également les conséquences d’utilisation de béryllium, soit comme revêtement de la première paroi,
soit comme multiplicateur des neutrons dans les couvertures tritigènes des installations à confinement magnétique.
Par leur impact sur la conception, sur la construction et sur l’exploitation de
l’installation, la gestion et le confinement du tritium et des produits d’activation
deviennent l’enjeu fondamental de la sûreté du Tokamak.
208
LA
FUSION NUCLÉAIRE
D’une manière générale, pour assurer le confinement des matières radioactives, quel que soit le type d’installation, magnétique ou inertiel, le principe
retenu est basé sur l’implantation de deux systèmes successifs, chacun composé
d’une ou plusieurs barrières.
Lors du fonctionnement normal, le premier protège l’espace délimité par l’installation elle-même et il est conçu de manière à s’opposer à la dissémination de
matériaux radioactifs dans les zones accessibles au personnel. Le deuxième,
élaboré dans la logique de redondance autour du premier, a pour rôle de minimiser les conséquences d’un éventuel relâchement de matières radioactives vers
l’extérieur.
La coexistence de ces systèmes de confinement repose sur :
– l’indépendance du comportement minimisant la possibilité d’une défaillance en mode commun ;
– la prise en compte de la possibilité de la défaillance du « voisin » ;
– la capacité de s’opposer aux agressions d’origine interne et externe ;
– et conjointement, les deux systèmes devraient assurer la présence d’au
moins trois barrières (statiques et/ou dynamiques) entre la matière radioactive et l’environnement.
À titre d’exemple, le tableau ci-dessous, indique les recommandations concernant l’inventaire (instantané) des matières radioactives, défini lors d’une récente
étude ayant pour but la détermination des conditions et limites de fonctionnement d’Iter dans le cadre de la procédure préliminaire d’autorisation de
construire.
La chambre de réaction d’une installation à confinement inertiel est soumise
à un flux intense de neutrons. Les matériaux de la chambre, les hublots d’entrée
des faisceaux dans la chambre assurant son étanchéité, les optiques terminales
des faisceaux peuvent subir des modifications de structure et donc de propriétés mécaniques et optiques. En outre, ils peuvent être activés, ce qui interdit,
au-delà d’un certain seuil, toute intervention humaine et ce qui peut avoir des
conséquences sur les problèmes de maintenance et de protection de l’environnement.
De ce fait, les matériaux radioactifs, le tritium et les débris de la cible, sont
récupérés sous forme de gaz ou dans les effluents liquides caloporteurs extraits
par des pompes adéquates, pour être transférés vers la centrale de fabrication
L ES
209
ÉTUDES DE SÛRETÉ
Inventaire
Recommandations
Surface à température
(à l’intérieur de la chambre
élevée*
à vide)
Tmax
≤450 g
Produits activés (W, Cu, aciers. . .)
100 kg
6 kg
Poussières de béryllium
100 kg
6 kg
Poussières de carbone
200 kg
6 kg
* Les surfaces suffisamment chaudes pour être réactives avec la vapeur ou l’air.
Tableau 9.2
Iter. Inventaire du tritium et des produits d’activation à l’intérieur de la chambre à vide.
des cibles. Ainsi, la chambre de réactions, qui n’intervient pas dans le processus
de combustion est là pour confiner les produits des réactions thermonucléaires.
À titre d’exemple, prenons comme hypothèse une cible utilisée dans un réacteur fonctionnant par attaque indirecte : la cible est constituée d’une cavité en or
de 1 g environ et d’un microballon en plastique de 100 mg environ, la masse
de DT gelé dans le microballon étant environ de 2 mg. Le tableau 9.3 liste en
fonction du nombre de cibles tirées par impulsion, par seconde, par jour et par
an, les quantités de chaque constituant produites dans le réacteur.
Ces valeurs montrent qu’une gestion rigoureuse du confinement du tritium,
des débris de cible tritiés et éventuellement activés ainsi que de l’hélium généré,
est indispensable à la fois sur le plan économique et sur le plan de la sûreté.
Protection de l’installation contre les risques d’incendie et d’explosion
Un système permanent de surveillance et de détection d’incendie accompagné des mesures de prévention adaptées telles que :
– limitation de l’utilisation et de l’entreposage des matériaux combustibles ;
– choix des matériaux de construction ;
– sectorisation « incendie » ;
– gestion des charges calorifiques dans l’installation ;
– réduction des réseaux des gaz inflammables ;
– éloignement des locaux et appareillages à risque de la zone réacteur.
1
Par
315 kg
432 000
1,6 108
Par jour
Par an
210 kg
576 g
6,66 mg
1,33 mg
94,5 kg
259 g
3 mg
de fusion)
(1200 MJ
0,6 mg
30 %
Deuterium Tritium brûlé
220,5 kg
605 g
7 mg
1,4 mg
70 %
récupérer
Tritium à
16 t
43,2 kg
500 mg
100 mg
en plastique
158 t
432 kg
5g
1g
Microballon Cavité en or
75 t
207 g
2,4 mg
0,48 mg
Hélium
LA
Tableau 9.3
Nombre de cibles (ou tirs) et masse cumulée des différents composants de la cible, par impulsion, par seconde, par jour et par an.
864 g
5
10 mg
2 mg
Tritium
Par seconde
impulsion
Nombre de cibles
Période
210
FUSION NUCLÉAIRE
L ES
ÉTUDES DE SÛRETÉ
211
Ces mesures sont mises en place par l’exploitant dans le but de minimiser les
risques d’incendie.
Une attention particulière est prêtée à la préservation de l’intégrité du
système de détritiation fonctionnant selon le principe d’un système « ventilation/filtration ».
Dans une installation à fusion thermonucléaire et en particulier dans la
chambre à vide, les risques d’explosion sont liés principalement à la présence
d’hydrogène et de ses isotopes (D, T), à la formation des poussières issues d’un
mélange de particules de béryllium, de carbone et de tungstène ainsi qu’à la
formation d’ozone.
À cet égard, lors de la conception des équipements ainsi que lors de la définition des procédés, les mesures adaptées sont mises en œuvre en vue de limiter
les conséquences éventuelles d’une explosion, notamment :
– la limitation de l’inventaire en hydrogène (et isotopes) ainsi qu’en poussières ;
– le dimensionnement approprié du système de ventilation ;
– l’isolement automatique des réseaux en cas de fuite ;
– la mise en place de dispositifs antidéflagrants.
Les autres fonctions, également utilisées dans le domaine de la fission, sont définies et mises en application compte tenu des risques potentiels internes tels
que : les risques d’inondation d’origine interne ainsi que les risques liés à la
manutention, aux pertes électriques et aux facteurs humains.
L’analyse de sûreté et les dispositions qui en découlent traitent enfin les risques
classés dans le chapitre des agressions externes, notamment : les risques liés
aux installations environnantes, aux voies de communications et aux chutes
d’avions ainsi que les risques sismiques, les risques d’origine climatique, les
risques d’inondation d’origine externe et pour terminer les risques de feu de
forêt.
3.2 Prescriptions particulières relatives à la filière
magnétique – Maîtrise de l’énergie magnétique
Cette fonction est assurée lors de la conception des composants magnétiques.
Les systèmes des aimants sont conçus de telle sorte que les effets structurels et
212
LA
FUSION NUCLÉAIRE
thermiques de la défaillance de ces composants n’induisent aucun dommage sur
les équipements participant au confinement des matières radioactives.
3.3 Prescriptions particulières relatives à la filière inertielle
Dans un réacteur à fusion par confinement inertiel, l’énergie thermonucléaire
apparaît pour 60 à 70 % sous la forme de bouffées de neutrons, le reliquat
sous la forme de bouffées de rayons X et de plasmas appelés débris. Les débris
sont constitués principalement des matériaux constituant la cible. Les fonctions
particulières de sûreté, dédiées à réduire l’impact nocif du flux des neutrons,
des rayons X et des débris sur les matériaux des structures de la chambre de
réaction se définissent comme suit.
Maîtrise des effets thermomécaniques des rayons X
Sous l’effet du rayonnement X, (15 Jcm−2 à 5 m pour le cas 200 MJ), qui est
absorbé dans une très faible épaisseur (quelques microns), la paroi interne de
la chambre est soumise à une très sévère agression et ablatée progressivement.
En outre, le flux X dégagé en un temps très bref (quelques ns) étant très élevé
(3 GWcm−2 à 5 m) provoque dans la paroi une onde de choc qui génère
des pressions élevées auxquelles la chambre doit évidemment être conçue pour
résister.
Effets des débris
Leur vitesse étant plus lente, les débris viennent se déposer postérieurement
aux rayons X et aux neutrons. Le dépôt d’énergie correspondant s’effectue dans
un temps beaucoup plus long (plusieurs dizaines de μs), en raison de la grande
dispersion de leur vitesse, et ne crée pas d’effet thermomécanique dommageable
sur la paroi de la chambre. En revanche, le dépôt de matière correspondant affecte la transparence des hublots d’entrée des faisceaux laser et fragilise leur
tenue au flux laser. Leur durée de vie peut s’en trouver réduite avec des conséquences sur la fréquence des interventions de maintenance.
3.4 L’impact de la filière « fusion » sur l’environnement
Au vu des résultats d’une analyse préliminaire, consacrée à l’impact de la filière fusion sur l’environnement, il apparaît que la production d’énergie utilisant
ce type de réacteur se place parmi celles dont les caractéristiques concordent
L ES
ÉTUDES DE SÛRETÉ
213
avec les recommandations associées au développement durable. Évidemment,
ce constat mérite d’être vérifié en profondeur et confirmé dans les détails.
En effet, comme il est observé dans les pages qui précèdent, le jeu des paramètres physiques de la réaction de fusion rend impossible qu’elle s’emballe et
devienne incontrôlable.
La quantité des déchets de longue vie est quasiment nulle. La nature des
déchets produits dans un réacteur de fusion est telle qu’après une période de
stockage d’une centaine d’années, leur radiotoxicité sera comparable à celle
des déchets d’une centrale au charbon.
D’autre part, cette argumentation pourrait être renforcée en s’appuyant sur
les résultats des études menées dans le cadre du programme « ExternE » (Externalities of Energy) financé par la Commission européenne, et ayant pour but la
comparaison d’externalités associées à la production d’énergie par les différents
systèmes.
Sommairement, la méthodologie d’évaluation des externalités d’un système
de production d’énergie est basée sur l’identification des émissions dues à ce
système, puis sur l’étude du transfert des polluants dans l’environnement et enfin
sur l’évaluation et la quantification en termes de coûts des impacts sur l’environnement et la santé.
Cette analyse est menée à tous les stades de la filière considérée (extraction
du combustible, construction de la centrale, exploitation, accident, démantèlement. . .). Elle permet par exemple, la prise en compte des effets néfastes sur la
santé de l’exploitation minière ou de la pollution liée à l’utilisation des énergie
fossiles (problèmes respiratoires, . . .).
Les résultats provenant de l’étude « ExternE », montrent que l’énergie de fusion est la filière énergétique présentant les impacts sur l’environnement les plus
faibles. L’argumentaire s’appuie sur les avantages inhérents à la fusion : pas de
pollution atmosphérique en fonctionnement, filière produisant le moins de CO2 ,
sans oublier une réduction significative du transport des matières radioactives
du fait de la régénération du tritium in situ ainsi que du combustible apporté
de l’extérieur (D et Li), non radioactif et pouvant être stocké sans précautions
particulières.
Références bibliographiques
ITER TECHNICAL BASIS. Safety Principles and Criteria. International Atomic
Energy Agency, Vienna, 2002.
214
LA
FUSION NUCLÉAIRE
Iter, Generic Site Safety Report, Volume I, G 84 RI 1 01-07-09 R 1.0.
CEA. Sûreté et sécurité, mars 2002.
CEA. Fusion et sûreté, juin 2004.
European Fusion Development Agreement, Safety and Environmental Impact of
Fusion, April 2001.
Rapport préliminaire de sûreté nucléaire du
CEA/DIF/DP2I/MOP/LMJ DR 10 du 13/10/00.
Laser
Mégajoule,
Introduction à la fusion par confinement inertiel, le réacteur de fusion par confinement inertiel, la fusion thermonucléaire inertielle par laser, deuxième partie, p. 45. Jacques Coutant, édité par R. Dautray et JP. Watteau, Eyrolles,
1993.
ZP3, a power plant utilizing z-pinch fusion technology, pp. 706-711. Int. Symp.
on Inertial Fusion Science and Applications, Kyoto, Japan, Sept. 11-14,
2001.
ARIES Inertial fusion chamber assessment, Aries Team, 14th ANS Topical Meeting on Technology of Fusion Energy, October 15-19, 2000, Park City Utah.
Assessment of chamber concepts for inertial fusion energy power plants-The
ARIES-IFE study, F. Najmabadi and ARIES team, pp. 701-705, Int. Symp.
On Inertial Fusion Science and Applications, Kyoto, Japan, Sept. 11-14,
2001.
Target activation and radiological response of ARIE-IFE dry wall chamber, ARIES
team, UWFDM, Nov. 2001-1178, 6th Intern. Symp. On fusion nuclear technology, April 7-12 2002, San Diego.
Activation of target coatings/hohlraums and influence on waste management of
IFE chambers, LA. El-Guebaly and ARIES team, UWFDM-1154, Nov. 2001.
Target and safety & Environment activities for inertial fusion energy, JF. Latkowski
et al., 15th ANS Topical meeting on the technology of fusion energy, Nov.
17-21, 2002, Washington, DC.
Some concluding comments on thick liquids walls, W. Meier et al., ARIES project
meeting, Sept. 4-5, 2003, Georgia tech.
CHAPITRE
10
La fusion par confinement
inertiel et l’astrophysique
JEAN-PIERRRE CHIÈZE
LA
FUSION PAR CONFINEMENT INERTIEL ET L’ ASTROPHYSIQUE
217
La maîtrise de la fusion par confinement inertiel nécessite une compréhension
détaillée des propriétés de l’allumage et de la propagation de la combustion
thermonucléaire d’un plasma de DT très fortement chauffé et comprimé. Cela
conditionne la pertinence et la qualité des outils logiciels de simulation du processus global de combustion d’une cible de DT, et de son rendement, avec un fort
impact sur les choix d’optimisation des cibles, ou le développement de concepts
avancés pour la fusion par confinement inertiel (FCI), comme l’allumage rapide.
Les obstacles qui se dressent dans ce domaine relèvent en premier lieu de l’insuffisance actuelle de la description, a priori multi-échelles et multi-physiques,
des phénomènes de combustion hautement instationnaires, caractéristiques de
la FCI. La combustion peut se propager avec des propriétés différentes, selon
que la chaleur nécessaire pour induire les réactions est transportée par les particules présentes dans le plasma (électrons, α, neutrons et photons), ou bien produite au passage d’une onde de choc forte, elle-même entretenue par le débit
d’énergie de combustion qu’elle amorce dans son sillage. Les écoulements qui
accompagnent ces deux grands modes de combustion, appelés respectivement
déflagration et détonation, présentent une grande complexité morphologique,
engendrée par une série d’instabilités hydrodynamiques, dont la modélisation
demeure un problème ouvert.
De surcroît, ces deux régimes de combustion sont susceptibles de s’enchaîner au cours de la combustion d’une cible, la propagation lente (subsonique)
d’un front de combustion évoluant vers une détonation supersonique. Le taux
de combustion étant bien plus élevé pour une détonation que pour une déflagration, la compréhension phénoménologique et quantitative de cette transition
déflagration-détonation est au cœur de la maîtrise de la FCI. Il n’existe pas
aujourd’hui de théorie satisfaisante de ce phénomène.
L’étude de l’explosion des supernovae thermonucléaires (encore appelées
SNIa) fournit un support observationnel et théorique précieux pour la théorie
de la combustion nucléaire dans les plasmas denses. Ces objets extrêmement lumineux revêtent une importance particulière, car c’est sur l’homogénéité de leurs
propriétés thermonucléaires que repose en partie la détermination d’une fraction importante du contenu énergétique de l’Univers – l’énergie sombre, dont la
nature n’est pas identifiée.
L’accumulation des observations systématiques de l’évolution temporelle de la
luminosité et du spectre de ces supernovae, confrontées aux modèles théoriques,
permet d’élucider progressivement le mode de combustion de ces objets. Il apparaît aujourd’hui que cette démarche conduit à un scénario vraisemblablement
dominé par le phénomène de transition déflagration-détonation. Sans que l’on
sache actuellement comment cette transition s’opère, l’observation des produits
de fusion thermonucléaire permet d’estimer les conditions thermodynamiques
218
LA
FUSION NUCLÉAIRE
dans lesquelles elle se déroule. Dans certaines configurations, l’amorçage des
réactions thermonucléaires peut se produire, à la suite de phénomènes d’accrétion de matière, en un ou plusieurs points situés à une faible profondeur sous la
surface de l’astre. La modélisation de ce mode d’amorçage hors centre présente
des points communs avec celle du mécanisme dit d’allumage rapide.
Ainsi, les problèmes fondamentaux posés par la modélisation des supernovae de type Ia sont, pour beaucoup d’entre eux, de même nature que ceux
soulevés par celle des plasmas de fusion par confinement inertiel. Il faut noter
également que l’observation d’une supernova fournit un bilan global du processus de l’explosion, sans en révéler explicitement les mécanismes qui se sont
déroulés l’intérieur de l’astre, situation analogue à celle qui prévaudra pour une
future expérience de FCI.
S’appuyant sur de puissants moyens de calcul, plusieurs groupes dans le
monde sont engagés dans ce type de recherches, dont notamment, à l’université
de Chicago, l’ASC – Alliances Center for Astrophysical Thermonuclear Flashes.
En France, le groupe « Combustion et supernovae » de l’Institut lasers et plasmas,
se place aux frontières de la physique de l’ignition, de la combustion thermonucléaire, de la physique stellaire et de la cosmologie. Il participe au développement de la théorie et de la modélisation de la combustion, des plasmas de fusion
et des supernovae thermonucléaires, en s’appuyant sur une collaboration entre
des astrophysiciens, des physiciens spécialistes de la combustion, des instabilités
hydrodynamiques et des mathématiciens.
Le rapprochement de plusieurs communautés permet d’exploiter de nombreuses potentialités de collaboration, donnant naissance à des projets originaux et transdisciplinaires. De tels projets, susceptibles de favoriser le développement et l’impact de nouvelles équipes dans les domaines de la fusion inertielle
et de l’astrophysique, réclament de faire porter un effort énergique et coordonné
sur l’exploitation des très grands moyens de calcul à venir.
Groupe de lecture critique
COMPOSITION DU GROUPE DE LECTURE
CRITIQUE
CEA
Michel CHATELIER
Chef du département de recherches
sur la fusion contrôlée — CEA Cadarache
CNRS
Jean-Claude GAUTHIER
Directeur scientifique adjoint
au département Ingénierie
Commission européenne
Didier GAMBIER
Chef de l’unité Développement conjoint
de la fusion
Conférence des grandes écoles (CGE)
Philippe DUROUCHOUX
Directeur de la Recherche —
École supérieure d’informatique
électronique automatique (ESIEA)
Société française de physique
Jacques TREINER
Professeur à l’université
Pierre-et-Marie-Curie
Les membres du Groupe de lecture critique, désignés par le président ou le
directeur général de leur établissement, ont examiné le texte du rapport puis, au
cours d’une réunion qui s’est tenue à l’Académie des sciences le 24 mai 2006,
ont entendu la présentation de M. Guy Laval, animateur du groupe de travail,
et se sont exprimés.
Ils ont formulé des remarques, dont certaines ont été intégrées, avec leur accord, dans le rapport ; trois commentaires font l’objet de contributions signées :
elles sont présentées ci-après.
COMMENTAIRE DU COMMISSARIAT
À L’ÉNERGIE ATOMIQUE
Michel Chatelier∗ , Claude Guet∗∗
∗
Chef du département de recherches sur la fusion contrôlée – CEA Cadarache
Directeur scientifique – CEA Bruyères
∗∗
Généralités
Le document proposé par le groupe de travail sur la fusion nucléaire constitue un document d’actualité de très haute qualité et des plus complets dans le
domaine de la fusion nucléaire, abordant en parallèle les deux approches visant à la maîtrise de ces réactions : inertielle et magnétique. La conception du
document en une première partie d’une vingtaine de pages résumant l’essentiel
de la situation scientifique et organisationnelle, suivie de neuf annexes spécialisées rédigées par des experts hautement qualifiés, en rend la lecture efficace
et agréable. Les commentaires qui suivent portent principalement sur la partie
générale.
1
Les objectifs de la fusion
La définition retenue par le groupe de travail est fortement orientée vers l’application énergétique, comme l’indiquent très explicitement le titre du document
et le plan adopté. La lecture du document fait apparaître volontairement une
symétrie forte entre les deux approches dans les recherches sur le développement d’un réacteur électrogène à fusion, les deux projets Iter et LMJ pouvant
alors être perçus comme deux options compétitives. Cette présentation fait insuffisamment ressortir le fait que le premier objectif du LMJ s’inscrit dans le
Programme simulation faisant suite à l’arrêt complet des essais nucléaires. Dans
ce cadre, chacun des tirs vise à créer et étudier des plasmas avec des caractéristiques propres aux armes, et l’atteinte de l’ignition, bien qu’elle demeure
indispensable, ne sera l’objet que d’un nombre limité de ces tirs. Par l’ouverture
partielle au monde scientifique hors défense, le LMJ permettra indiscutablement
de progresser dans la maîtrise de la fusion inertielle indépendamment du développement d’une source d’énergie qui exige des efforts considérables dans le
224
LA
FUSION NUCLÉAIRE
domaine du rendement des sources de puissance et de la répétitivité des tirs,
voire la substitution des lasers par d’autres moyens de confinement et d’allumage. De ce point de vue, une stratégie en deux étapes paraît la plus adaptée :
démontrer un gain suffisant avec le Laser Megajoule (ou le NIF américain) et en
cas de succès, développer les lignes de recherche visant à la production d’énergie. Les recherches sur la fusion magnétique au contraire reposent exclusivement
sur l’application énergétique.
2
Les verrous
Les sections 4 et 5 du rapport appellent un certain nombre de remarques
et de clarifications. Les verrous « d’aujourd’hui » tels que mentionnés dans le
titre de la section 4 semblent se réduire à l’interaction plasma-paroi. Il faut
donc entendre « aujourd’hui » comme voulant dire « Iter » pour lequel ce sujet
est bien inscrit comme un programme de R&D, scientifique et technique à la
fois, la machine Iter pouvant subir des transformations en cours de vie. Si le
test des sous-ensembles critiques d’Iter donne confiance sur la viabilité des solutions techniques envisagées, l’ensemble des opérations de construction et de
fonctionnement d’Iter, sans constituer un verrou, demanderont une très grande
rigueur et une forte capacité d’intégration de systèmes complexes. La section 4
ne mentionne aucun verrou d’ordre technique pour le Laser Mégajoule. L’alignement des chaînes laser, le positionnement de la cible au cœur de la chambre
d’explosion sont toutefois des opérations complexes qui justifient des actions de
développement spécifiques. Les verrous de l’après Iter et de l’après LMJ, dans la
démarche de conception et de réalisation d’un réacteur électrogène sont identifiés à la section 5, la question des matériaux résistant aux neutrons de 14 MeV
venant en tête, ce qui parait naturel. Ne sont pas mentionnées l’importance de
développer des méthodes de fonctionnement continu pour le réacteur tokamak
(ce point est toutefois développé au § 6 pour le stellarator) et la difficulté de
réaliser en continu environ dix implosions par seconde dans le cas du réacteur
inertiel.
3
L’acceptabilité sociétale
Contrairement à ce qu’annonce le titre de la section 5, ce thème n’est pas
traité. Bien que de nature non scientifique, il est important dans le cadre du
développement de l’application énergétique et il est particulièrement d’actualité. Des études ont été réalisées sur les aspects socio-économiques de la fusion
à la demande de la Commission européenne dont il aurait été intéressant de
rassembler les éléments au sein d’une annexe (une extension de l’annexe 9
C OMMENTAIRE DU C OMMISSARIAT À L’ ÉNERGIE ATOMIQUE
225
par exemple, très fortement orientée dans sa forme actuelle vers les aspects de
sûreté). De la même façon, une présentation, même brève, de la fusion dans
le contexte énergétique global et l’inter-comparaison des mérites et contraintes
économiques et environnementales des différents modes de production, auraient
été bienvenues.
4
Le programme d’accompagnement à Iter
La réalisation de grands projets, intrinsèquement difficile à mettre en œuvre et
mettant en jeu des budgets de construction importants, ne doit pas s’accompagner d’un assèchement du tissu de recherche qui doit nécessairement l’accompagner et lui survivre. Ceci est particulièrement vrai pour la France qui abrite les
deux grands projets de fusion Iter et LMJ. Le rapport met très bien en lumière ces
aspects, de façon détaillée pour les deux approches inertielle et magnétique. Il
est important de souligner que si le CEA a été et est encore le premier organisme
de recherche français impliqué dans ces recherches, une participation croissante
des chercheurs de l’université et du CNRS est attendue. Cette participation ne
doit pas concerner qu’Iter mais l’ensemble de la discipline. Elle doit bien sûr permettre d’aborder les questions scientifiques et technologiques de l’amont mais
elle doit aussi être dirigée fortement vers l’activité internationale qui correspond
au cadre concret de ces recherches. De ce point de vue, il faut souligner l’importance (notée à la section 4 du rapport) du parc international de machines
à fusion qui accompagneront les recherches sur Iter : Iter, installation nucléaire,
ne pourra (ne devra) mettre en œuvre au cours de ses vingt années de fonctionnement que des expériences dûment référencées dans d’autres dispositifs dont
le potentiel de succès aura été jugé suffisamment élevé. L’ensemble des données
nécessaires à cette démonstration demandera de rassembler une large palette
de compétences en physique (diagnostics, modélisation, . . .) et en technologie.
5
La formation
Les aspects de formation, indispensables dans une activité complexe se poursuivant sur plusieurs décennies, sont bien couverts dans le rapport. Concernant
le master « science de la fusion », la formation et le recrutement de 250 à 300
« ingénieurs et physiciens des plasmas » sur dix ans paraissent justifiés pour autant que cette estimation concerne l’ensemble des disciplines qui sont rattachées
à la fusion, en particulier celles qui touchent à la R&D dans le domaine des
technologies concernées. Il est important dans ce contexte qu’un certain nombre
de débouchés soit envisagé au niveau des entreprises intervenant dans les aspects plus techniques de la fusion. De ce point de vue, le soutien des écoles
226
LA
FUSION NUCLÉAIRE
d’ingénieur est effectivement important et plus précisément l’harmonisation des
enseignements de ces écoles avec ceux du master « sciences de la fusion ».
6
Les chapitres
Outre un chapitre supplémentaire sur les aspects socio-économiques, un chapitre aurait pu être rédigé sur les voies alternatives au Tokamak : Tokamaks compacts et stellarators en particulier. Le premier concept est considéré par certains
comme une source de neutrons de 14 MeV volumique potentielle qui pourrait
être utilisée pour tester les sous-ensembles mettant en œuvre des matériaux déjà
pré-qualifiés dans une source de petit volume (IFMIF). Le second est souvent présenté, par ses promoteurs, comme devant à terme prendre le relais du Tokamak
en raison de son potentiel naturel à fonctionner en continu. Une comparaison
des différents concepts, de leur état d’avancement et de leur potentiel respectif
à atteindre les objectifs de la production d’énergie est proposée.
C OMMENTAIRE DU C OMMISSARIAT À L’ ÉNERGIE ATOMIQUE
227
COMMENTAIRE DU CNRS
Jean-Claude Gauthier
Directeur scientifique adjoint au département Ingénierie
Le CNRS a tout particulièrement apprécié la teneur du rapport « La fusion
nucléaire : de la recherche fondamentale à la production d’énergie ». Il ressort
clairement de ce texte que les sciences de la fusion font appel à des compétences nombreuses et de haut niveau, avec une complexité spécifique due à la
forte intégration physique et technologique. Un petit regret toutefois de ne pas
voir une discussion plus approfondie sur l’instrumentation innovante qu’il faut
mettre au point pour diagnostiquer les conditions extrêmes régnantes dans ces
machines à plasma chauds, et dans le cas particulier de la FCI sur des petits volumes du micron et des temps de quelques dizaines de picosecondes. En
revanche, il est intéressant à noter que dans le domaine des plasmas magnétisés, de nombreuses possibilités d’expérimentation dans d’autres domaines que
la fusion magnétique (MHD fondamentale, ondes, plasmas de bord, matériaux
irradiés), occultées dans les présentations « technologiques » de la filière magnétique, sont ici clairement mentionnées.
Il est remarquable de constater que deux installations de classe internationale,
le Laser Mégajoule près de Bordeaux et la machine de fusion magnétique Iter à
Cadarache, sont construites sur le territoire français, avec un démarrage autour
de 2011 et 2016 respectivement. Au plan national, les acteurs du CNRS dans
le domaine de la fusion appartiennent aux départements Mippu et ingénierie.
Les disciplines concernées sont la physique des plasmas, la physique atomique,
la physique nucléaire, l’astrophysique, la physique statistique, la turbulence, et
la science des matériaux. L’IN2P3 et l’Insu sont également concernés. La contribution des théoriciens des plasmas et des numériciens est également très importante. Avec le temps, la sophistication des méthodes numériques utilisées va
croissant. Il semble donc souhaitable d’élargir les collaborations à des experts
dans le domaine du numérique et des mathématiques appliquées (notamment
pour le développement de schémas numériques).
Que ce soit dans le domaine de la fusion par confinement magnétique (FCM)
ou par confinement inertiel (FCI), la taille et l’organisation actuelles de la communauté académique française, en relation forte avec le CEA, ne sont pas adaptées
aux enjeux. Alors que la communauté de la FCI a su depuis 2003 se structurer autour de l’Institut lasers et plasmas qui gère l’accès aux moyens laser du
230
LA
FUSION NUCLÉAIRE
CEA/Dam, dont le futur Laser Mégajoule, les relations de la communauté FCM
avec le CEA/DRFC sont structurées par des contrats de collaboration bilatéraux et des LRC (Laboratoire de recherche correspondant). Une fédération de
recherche de type CNRS devrait rapidement offrir à l’ensemble des laboratoires
un poids et une visibilité significatifs au niveau européen et au niveau international. Sa fonction principale serait d’organiser la participation académique
française à l’exploitation scientifique d’Iter et au programme d’accompagnement.
Les programmes d’accompagnement sont en effet très importants pour assurer le succès de la participation de la communauté académique aux deux grands
projets. Les grands instruments que seront Iter et le mégajoule offriront un accès
limité en nombre d’expériences et en temps. Il est donc indispensable de penser à maintenir en fonctionnement de petites machines de laboratoire, comme
ToriX ou le laser 100TW à l’École polytechnique, en parallèle avec des moyens
plus conséquents comme Tore supra à Cadarache ou la Ligne d’intégration laser
(LIL) à Bordeaux. Une installation de grande taille comme la LIL (dont l’utilisation par des équipes académiques commencera en 2006) sera une installation
très lourde dans son fonctionnement, à nombre de tirs annuels restreints pour
chacun des domaines étudiés, de sorte qu’il est fondamental de conserver des
instruments d’accompagnement tels que les installations Luli et la chaîne Alisé
pour dégrossir la physique, préparer les expériences avant qu’elles ne soient
effectuées sur la LIL et, ce faisant, former de jeunes doctorants.
Comme il a été rappelé plus haut, la communauté scientifique « fusion » est
reconnue mais insuffisante. Le rapport met bien l’accent sur la nécessité d’une
formation avec une partie commune à la FCM et à la FCI, visant à fournir annuellement environ quinze physiciens et ingénieurs pour la FCM et quinze pour
la FCI. Les étudiants semblent plus intéressés par un projet que par l’abstrait
comme dans le passé. Ces grands projets, propulsés sur le devant de la scène
par l’accroissement de la demande, notamment dans les PED, et la pénurie annoncée de ressources énergétiques fossiles, paraissent donc enclins à attirer de
futurs étudiants. Une proposition se dessine sur la base d’une formation nationale commençant à la rentrée 2007 et s’articulant au niveau master, avec en
M1 un renforcement des fondamentaux en physique utiles pour les plasmas et
en M2 trois spécificités : FCM, FCI et technologies de l’énergie. Cette formation
sera cohabilitée par une fédération d’organismes d’enseignement repartis sur
plusieurs sites dont obligatoirement les sites du LMJ et d’Iter.
Pour accompagner ces efforts, le gouvernement doit clairement indiquer son
intérêt pour les recherches générales sur la fusion pour l’énergie (magnétique
et inertielle) et c’est le rôle du ministère de la Recherche, et peut-être celui du
ministère de l’Industrie, de porter ce message. La consommation extrêmement
faible de l’énergie de fusion en combustible conduit à estimer que, au vu des
C OMMENTAIRE DU CNRS
231
ressources prévisibles, la domestication de la fusion libérerait l’humanité de tout
risque de pénurie énergétique à l’horizon 2100. En attendant, la collaboration
plus étroite et efficace entre les chercheurs du CEA et le monde académique et
entre la France et les pays européens peut apporter beaucoup à la FCI et à la
FCM. C’est le mérite de ce rapport d’avoir clairement présenté les avantages,
mais aussi les difficultés, à domestiquer l’énergie de la fusion thermonucléaire.
COMMENTAIRES DE LA SOCIÉTÉ FRANÇAISE
DE PHYSIQUE
Jacques Treiner
Professeur à l’université Pierre-et-Marie-Curie
Le rapport de l’Académie des sciences sur la fusion nucléaire vient après une
période d’intenses négociations internationales concernant l’implantation de la
machine Iter. Il a l’immense mérite de remettre le sujet sur une base strictement
scientifique, en explicitant les questions ouvertes, et sans dissimuler les interrogations sur la faisabilité même d’un réacteur industriel. Les quelques remarques
qui suivent concernent essentiellement la fusion par confinement magnétique et
la machine Iter. La perspective de production d’énergie par fusion par confinement inertiel est en France, à l’heure actuelle, le sous-produit d’un objectif essentiellement militaire, il m’est par conséquent difficile d’en évaluer les rythmes
de développement pour des objectifs civils.
1
Le titre du rapport
Ce titre : « La fusion nucléaire : de la recherche fondamentale à la production d’énergie ? », même adouci du point d’interrogation, correspondrait mieux
à la phase de mise en place d’un réacteur expérimental (Demo) qu’à la phase
actuelle, qui se situe encore, comme le montre le rapport, très en amont de la
production d’énergie. Aujourd’hui, il s’agit plutôt d’un état des lieux et des questions qui vont faire l’objet des travaux scientifiques et techniques dans la période
qui s’ouvre après la décision d’implantation de la machine Iter en France.
2
L’introduction
Le couplage de la consommation énergétique mondiale avec la modification
à long terme du climat de la planète est maintenant bien établi : chacun peut
consulter les travaux que le GIEC met à disposition sur un site remarquablement
organisé. Ce consensus parmi les spécialistes force dorénavant, lorsque se discutent les diverses alternatives aux énergies fossiles, de préciser les échelles de
234
LA
FUSION NUCLÉAIRE
temps de leur mise en œuvre. C’est bien ce que fait le rapport de l’Académie,
mais peut-être le fait-il, dans son introduction, trop succinctement.
Ainsi, affirmer que l’énergie nucléaire jouera dans l’avenir, parmi le bouquet
de solutions possibles, un rôle de « premier plan », me parait une perspective
trop simple, voire biaisée. Ne conviendrait-il pas, plus prudemment, d’envisager
que ce qui jouera un rôle de premier plan, c’est la diversification des filières,
et leur adaptation aux conditions, marquées d’une extrême hétérogénéité, dans
lesquels l’humanité va se développer au cours du siècle à venir ? Plus de deux
milliards et demi d’individus n’ont jamais vu une prise électrique. À l’évidence,
l’énergie nucléaire ne jouera un rôle important ni pour eux ni pour leurs descendants immédiats. En revanche, l’énergie solaire peut leur offrir une perspective
réaliste à court terme. De même, la perspective de tarissement prochain des
ressources de pétrole met au premier plan l’accroissement relatif probable du
charbon et des schistes bitumineux, dont les réserves sont importantes, et souligne l’urgence – pour autant qu’on veuille éviter les conséquences climatiques
– du développement de techniques de piégeage du gaz carbonique résultant
de la combustion de ces sources fossiles. Ce tarissement pointe également vers
des changements assez radicaux des modes de transport, tant humains que
commerciaux.
Parmi les sources alternatives non productrices de gaz à effet de serre, ou
dont le bilan est voisin de zéro, on trouve le solaire, la biomasse (qui indirectement provient du solaire), l’éolien, la géothermie et le nucléaire de fission
et de fusion. Parmi ces filières, la seule pour laquelle on ne puisse pas affirmer avec une forte probabilité qu’elle verra un développement industriel à une
échelle de temps prévisible est le nucléaire de fusion – l’objet du présent rapport. Ceci, du reste, est clairement dit dans l’introduction. La conséquence, c’est
qu’il s’agit d’une filière qui n’est pas dans les temps de l’urgence climatique
à l’échelle du siècle. Cela ne signifie nullement qu’il ne faille pas s’y engager,
mais il est très important, vis-à-vis du public, de ne pas fausser les enjeux. Il
convient de développer massivement, et le plus rapidement possible, les autres
voies. Quant au nucléaire de fission, son développement repose sur la maîtrise
de techniques nouvelles utilisant des neutrons rapides (nucléaire dit de 4e génération), ou du couplage d’un accélérateur de particules avec une centrale à
fission sous-critique. Il s’agit d’une perspective envisageable pour des pays industriellement développés et politiquement stables, mais son acceptation par les
populations concernées n’est pas acquise. Quoi qu’il en soit, le nucléaire de
fission ne représente à l’échelle mondiale aujourd’hui que 6 % de l’énergie primaire. Même si l’on envisage de multiplier par 3 ou 4, dans les prochaines décennies, le nombre de centrales existant actuellement, l’essentiel de la demande
énergétique sera loin d’être couverte de cette façon.
C OMMENTAIRES DE
3
LA
S OCIÉTÉ FRANÇAISE DE
PHYSIQUE
235
Iter parmi les machines à confinement magnétique
Iter représente, par rapport à la plus grande machine existante actuellement
(Jet) une extrapolation importante : un facteur d’environ 15, par exemple, dans
le facteur d’amplification, un facteur 10 pour le volume du plasma. Par rapport
aux divers machines de type stellarator, les coûts sont plutôt dans le rapport
50. La rançon du choix d’une grosse machine réside dans la « rigidité des
procédures [qui] réduit les possibilités d’innovations » et rend « l’existence de
machines de taille plus réduite [. . .] nécessaire ». Il s’agit là d’une remarque importante concernant la stratégie de développement de la filière, et il aurait été
intéressant d’expliciter mieux les rapports qu’Iter entretiendra avec ces autres
machines : le chemin vers un réacteur expérimental n’est pas encore déterminé
de façon unique. . . Dans quels domaines, et selon quelles procédures, des innovations apportées par les autres machines sont-elles susceptibles d’être incorporées dans Iter ? Autrement dit, où se situent les marges de réversibilité d’Iter ?
Parallèlement au chapitre consacré à la filière Tokamak et à Iter, un panorama
des autres machines existant au monde ou en projet de construction (Allemagne,
États-Unis, etc.), avec une description des objectifs qui leur sont assignés, aurait
été utile.
4
IFMIF et l’étude des matériaux sous irradiation
Les problèmes posés par l’enceinte sont peut-être les plus difficiles de toute
l’entreprise et il n’est pas certain qu’ils puissent être résolus : « la production
du tritium, l’extraction de la chaleur, et une protection neutronique des parties
extérieures à la chambre à vide », ainsi que l’indique le chapitre 8 du rapport.
Certains collègues vont jusqu’à mettre en cause la stratégie de développement
de l’ensemble du projet, arguant par exemple qu’elle aurait du commencer par,
ou tout au moins donner une priorité à IFMIF (International Fusion Materials Irradiation Facility), dont le coût est un ordre de grandeur inférieur à celui d’Iter
et dont les résultats sont cruciaux. Il est frappant, pour celui qui veut en savoir
plus sur le sujet, de comparer sur la toile le site d’Iter à celui d’IFMIF : il apparaît
clairement, tant la documentation relative à IFMIF est succincte, que cette installation pourtant décisive est bien loin de voir la première pierre de sa construction
posée quelque part. Puisque le rapport s’efforce de donner des échéances pour
les différentes étapes envisagées, il aurait été utile d’en fournir également pour
IFMIF, ou, si c’est impossible, de préciser pourquoi.
Présentation à l’Académie
des sciences
par Édouard Brézin
Membre de l’Académie des sciences
–
6 juin 2006 –
P RÉSENTATION À L’A CADÉMIE DES
SCIENCES
239
Pendant la quinzaine d’années qui a précédé la décision de construire Iter à
Cadarache, le projet a rencontré des oppositions de deux ordres bien différents :
– certains, jugeant que l’urgence des problèmes liés à l’épuisement des ressources possibles et à l’émission des gaz à effet de serre ne permettait pas
d’attendre les dizaines d’années encore nécessaires avant de disposer de
la fusion contrôlée. Ils remettaient en cause l’utilisation de moyens significatifs destinés à fusion plutôt qu’à la fission, ou à d’autres recherches
concernant l’énergie. Certes, retarder les recherches sur la fusion aurait
encore allongé l’échelle de temps, mais elle est si longue, et l’importance
des réacteurs utilisant la fission, notamment avec des neutrons rapides,
tant pour tirer parti de l’isotope 238 de l’uranium que pour incinérer les
déchets de la fission, est si grande pour les 50 ans à venir au moins, que
beaucoup trouvaient prudent de commencer avec la génération IV et ses
neutrons rapides.
La critique s’adressait donc aux choix de priorité ;
– d’autres s’irritaient de discours sur la fusion qui la présentaient comme
propre et indéfinie, avant même que les études permettant d’entrevoir s’il
en était bien ainsi, soient entreprises. Le scepticisme l’emportait alors, renforcé par les dizaines d’années pendant lesquelles le contrôle de la fusion
avait été présenté comme imminent.
Nous sommes aujourd’hui dans une perspective bien différente. La décision
de construire Iter a été prise ; le choix du site, incontestablement lié à la qualité
des équipes françaises, va faire jouer aux scientifiques de notre pays un rôle tout
à fait éminent. Le seul problème d’actualité est donc bien de définir la meilleure
stratégie possible pour que toutes les expériences indispensables avant d’entreprendre la construction de la machine suivante, baptisée Demo, mais très loin
encore d’être bien définie, soient entreprises.
C’est là la perspective dans laquelle s’est placé le rapport de l’Académie
qui vous est présenté. Nos collègues ont donc cherché avec lucidité et ouverture
d’esprit, à déterminer les questions auxquelles il était indispensable de répondre
avant d’envisager Demo, et de pouvoir affirmer que la filière de confinement
magnétique d’un plasma pourrait aboutir, un jour, à produire de l’énergie dans
de bonnes conditions de sécurité.
Le rapport analyse également le Laser Mégajoule (LMJ) en construction près
de Bordeaux. Il s’agit là d’un projet bien différent. Le principe physique est ici
de réaliser la fusion d’un mélange deuterium-tritium contenu dans une toute
petite capsule, à l’aide d’une compression induite indirectement, par un laser
de très grande puissance. Il s’agit là d’un projet national, et non comme Iter
240
LA
FUSION NUCLÉAIRE
d’un consortium mondial, projet parallèle à celui qui est entrepris aux États-Unis
et, dans ces deux pays, l’initiative de la réalisation vient du monde militaire
– en France de la Direction des Applications Militaires du CEA. Il s’agit donc
au départ d’une machine destinée à la mesure des paramètres relatifs à la
confection des armes, mais affichant la volonté de servir également la science
civile, et éventuellement d’étudier des mécanismes de production d’énergie.
Nous analyserons donc séparément ces deux parties du rapport. Celui-ci
comporte trois grandes parties distinctes, dont deux vous sont présentées aujourd’hui. Permettez-moi d’abord de résumer à grands traits ce que l’on y trouve.
La partie « Analyse et recommandations » comprend un résumé synthétique,
qui a été distribué à tous nos membres, dans lequel les recherches à entreprendre sur Iter, les incertitudes que cette machine devra lever avant d’envisager
la suite, sont clairement explicitées. Cette partie examine également comment
nous devrons nous organiser en France, et dans le contexte international, pour
être à même de contribuer efficacement à ce domaine de science et de technologie. La rédaction résulte d’un travail collectif de l’ensemble du comité qui a
soigneusement pesé toutes les phrases, tant le sujet est délicat.
Les chapitres exposent en termes clairs, sans qu’il soit nécessaire de connaître
la physique nucléaire, ou celle des plasmas chauds, les questions scientifiques
liées aux deux filières, confinement magnétique et confinement inertiel.
Les divers chapitres sont là, signés par leurs auteurs. Ils exposent les principes des tokamaks dans lesquels on réalise le confinement magnétique, de la
méthode du confinement inertiel par laser, les difficultés de la magnétohydrodynamique qui régit les plasmas chauds confinés par un champ magnétique ainsi
que leurs instabilités qu’Iter devra explorer. Le chapitre consacré à l’interaction
entre lasers de très haute puissance (on parle de petawatts, 1PW : 1015 watts)
explore à la fois l’irradiation directe du microballon prévue dans le LMJ et les
schémas envisagés pour le futur allumage rapide du mélange DT en découplant
la compression du microballon de l’inflammation du DT. Le chapitre suivant est
consacré au flux d’énergie, pertes d’énergie par conduction donnant lieu à un
dépôt de puissance localisé dans le divertor et pertes par rayonnement qui devront atteindre dans Iter 75 % de la puissance, pour limiter la puissance déposée
sur le divertor à un niveau tolérable. Le chapitre consacré à la simulation numérique est d’une importance extrême. Il est clair que la modélisation de la
MHD dans un régime fortement non linéaire, du transport turbulent de l’interaction plasma-paroi, dans une large gamme d’échelles spatiotemporelles est un
défi considérable, tant pour les hommes que pour les calculateurs dont les puissances devront se situer dans le multiteraflops. Un chapitre est consacré à l’un
des problèmes majeurs de la filière par confinement magnétique qui est celle
P RÉSENTATION À L’A CADÉMIE DES
SCIENCES
241
du divertor auquel les ligues de champ magnétique amènent les particules chargées qui vont y déposer leur énergie. La maîtrise de l’interaction plasma-paroi
est l’un des enjeux principaux d’Iter.
Le chapitre suivant examine l’interaction du plasma contenu dans Iter, avec les
matériaux de structure qui l’entourent. La production des neutrons de 14 MeV
par fusion, produit dans ces matériaux de l’hydrogène et de l’hélium par l’effet
des réactions nucléaires et il sera essentiel de vérifier pour l’avenir la tenue
des matériaux sous l’effet de l’irradiation (et en particulier de la production
d’hélium). Nous y reviendrons plus loin.
Enfin, un dernier chapitre examine les questions de sécurité, et affirme que
l’emballement de la réaction de combustion n’est pas possible et que ces réacteurs ne produisent qu’une petite quantité de déchets radioactifs à vie longue.
Les annexes, qui ne seront pas publiées sous forme papier, mais seront disponibles sous forme électronique pour qui voudrait en prendre connaissance, sont
une vaste bibliographie destinée à éclairer le contenu des chapitres.
J’en viens maintenant à l’analyse du rapport. Les auteurs ont fait un travail approfondi et lucide. Contrairement à trop d’ouvrages et d’articles qui masquent
les difficultés qui sont encore devant nous, et vendent l’énergie propre et indéfinie du Soleil comme si c’était une certitude, les étapes à franchir sont ici
indiquées clairement et sans forfanterie.
1
Le confinement magnétique
Le premier défi d’Iter sera de tester le chauffage du plasma par les noyaux
d’hélium produits dans la réaction de fusion, qui était négligeable dans les machines antérieures (Jet ou Tore-Supra). L’objectif est d’atteindre un régime où la
puissance injectée ne représentera que la moitié de celle fournie par les noyaux
d’hélium résultant de la fusion. L’ambition est de réaliser ce régime pendant 400
secondes, condition indispensable avant de passer au réacteur électrogène du
futur qui fonctionnera en régime permanent. Dans cette future machine, baptisée Demo, le tritium ne sera pas injecté de l’extérieur mais régénéré par l’effet
des neutrons réagissant sur des noyaux de lithium contenus dans une couverture
circulante, Iter devra donc allonger les durées et les pressions du plasma pour
valider le concept de confinement magnétique.
Le rapport est fort explicite sur les difficultés à surmonter avant que l’on puisse
affirmer que la voie explorée avec Iter conduira à une technologie effectivement
242
LA
FUSION NUCLÉAIRE
utilisable pour produire de l’énergie. En revanche, il explore avec soins les diverses questions à résoudre avant de pouvoir affirmer que la route est dégagée.
Deux interrogations subsistent, liées sans doute à l’inexpérience du rapporteur en ces domaines.
1. Le rapport fait état de lois d’échelle phénoménologiques, dont la base n’est
pas évoquée. Je les crois empiriques, alors que la non-linéarité de ces
plasmas chauds est forte. Le lecteur que je suis aurait souhaité voir ces lois
mises en perspective. Je souhaiterais pour ma part que les compléments
de la troisième partie à venir abordent ce point.
2. Autre interrogation du rapporteur, sur la radioactivité induite dans les éléments du réacteur sous l’effet des neutrons. Les auteurs montrent bien que
les déchets à vie longue, c’est-à-dire supérieurs à cent ou deux cents ans,
peuvent être minimisés par le choix de matériaux adéquats. Mais, comme
notre confrère Dautray l’a souvent expliqué, ce sont les radioéléments de
courte durée de vie, parce qu’ils sont très actifs, qui présentent les dangers les plus grands en cas d’imprévu (les malheureux enfants victimes de
Tchernobyl ont été principalement irradiés par l’iode 131 et accessoirement l’iode 133, tous deux à vie courte). Là encore, je souhaiterais que
les textes à venir sur le site nous donnent quelques éléments sur les études
concernant le choix de ces matériaux adéquats quant à la nature des déchets.
Je voudrais aborder maintenant trois points qui me paraissent importants à souligner dans la perspective de ce rapport.
A) Les matériaux
De manière générale, le problème des matériaux, paraît ici un peu minoré.
Rappelons-nous combien il a fallu d’années pour maîtriser les problèmes de matériaux dans les cuves des réacteurs de fission, à cause des défauts créés par
l’irradiation. N’oublions pas que les nombreux incidents de Superphénix, qui
ont conduit à son arrêt pendant plusieurs années, avant la fermeture définitive,
étaient liés aux matériaux, aux fuites de sodium dues à des aciers mal étudiés au
préalable. Le chapitre 8 discute très clairement, parmi les problèmes de matériaux, celui lié à la production inévitable d’hélium, sous l’effet de neutrons émis
par la fusion. Cet hélium insoluble va donc précipiter et il est indispensable de
dominer ce phénomène pour éviter les fuites (de tritium par exemple). Cela est
clairement expliqué dans le rapport, mais il insiste à ce propos sur l’importance
de la modélisation numérique et de diverses méthodes de simulation. Certes,
P RÉSENTATION À L’A CADÉMIE DES
SCIENCES
243
je les crois importantes, mais j’aurais beaucoup plus insisté pour ma part sur
l’importance du projet IFMIF (International Fusion Materials Irradiation Facility)
qui, dans le cadre de l’accord Iter, doit être réalisé au Japon. Ce sera là la
première source disponible de neutrons de 14 MeV, et nous aurons là enfin les
études de matériaux indispensables pour la suite. Ce projet est à peine évoqué
dans le grand chapitre qui reprend les conclusions d’ensemble, alors qu’il me
semble primordial de considérer que Iter et IFMIF sont deux expériences complémentaires qui doivent être réalisées préalablement à toute poursuite de la
recherche sur la fusion par confinement magnétique et que la France et l’Europe
devraient donc participer à l’ensemble de l’effort, aux études expérimentales
des matériaux aussi bien qu à Iter.
Les auteurs du rapport affirment bien que la compréhension de ces problèmes
sera primordiale avant d’envisager Demo, mais que les brèves bouffées de fusion expérimentées dans Iter, ne devraient pas conduire à des problèmes préoccupants du point de vue de la production d’hélium dans Iter. Nous ne pouvons
là que faire confiance à leur expertise, mais l’expérimentation avec IFMIF sera
là primordiale.
Pour conclure sur ce point, je crois qu’il existe en France, au CEA, au CNRS,
dans les universités une communauté, peut-être un peu dispersée aujourd’hui,
s’intéressant aux matériaux. Un Colloque consacré aux « matériaux de la fusion », rassemblant physiciens, modélisateurs, numériciens et mathématiciens
travaillant sur ces thèmes me semblerait le bienvenu, et je souhaite que l’Académie des sciences en prenne l’initiative.
B) La modélisation et la simulation du plasma turbulent
De première importance, elle devrait, elle aussi, faire l’objet d’une organisation nationale et européenne, tant les enjeux sont importants et difficiles. Les
équipes universitaires-CNRS et celles du CEA devraient organiser la communauté dans ce domaine.
C) La régénération du tritium
La machine du futur devra donc régénérer son tritium grâce aux réactions
nucléaires produites par des neutrons venant irradier une couverture circulante
contenant du lithium. Plusieurs types de couvertures circulantes sont à l’étude,
beaucoup aux États-Unis, mais également en Europe avec des rôles qui vont
d’un bouclier neutronique à la régénération. Dans une deuxième phase, que
l’on peut situer vers 2015-2018, Iter devrait conduire des expériences où des
244
LA
FUSION NUCLÉAIRE
modules contenant du lithium permettraient d’étudier cette régénération neutronique. Le bilan global des neutrons dans cette technique n’est pas abordé dans
le rapport et il serait utile d’organiser une présentation par un expert à l’Académie, de l’état des réflexions à ce sujet.
Conclusion
Le rapport a su bien situer les enjeux, les verrous scientifiques actuels, les
questions à résoudre dans la perspective de disposer un jour de réacteurs à
fusion par confinement magnétique. Il faut sans doute insister in fine sur le fait
que, si ces recherches débouchent vers un réacteur de fusion, il faudra encore
beaucoup de décennies. Se souvenir également que la fission par neutrons rapides, nécessaire pour l’utilisation de l’abondant uranium 238 et pour la gestion des déchets de la filière EPR, ne confère aucun caractère d’urgence réelle
aux recherches sur la fusion. Certes il est indispensable que le monde explore
cette possibilité qui, avérée, pourrait modifier complètement les questions énergétiques actuelles. Mais il faut se garder d’imaginer que la technologie de la
fin du siècle sera semblable à la nôtre. Dans ces conditions, il faut poursuivre
absolument les recherches fondamentales sur la fusion, les études sur d’autres
procédés, tels les stellarators, ou les machines à plasmas de plus petites dimensions, sans se restreindre à une seule voie, prématurément identifiée comme la
seule possible.
2
Le confinement inertiel
La partie du rapport consacrée au confinement inertiel est, comme il se doit,
moins développée. En effet rappelons que le programme LMJ, comme son homologue américain, est entrepris depuis que l’interdiction des essais nucléaires,
impose de n’utiliser que la seule simulation dans la conception des armes nucléaires. Le procédé LMJ consiste à réaliser l’implosion d’une petite capsule de
mélange DT, par ablation laser d’une coque externe qui, éjectant de la matière,
comprimera par réaction le DT. Une première ligne d’intégration laser, la LIL,
composée de huit faisceaux délivre 40 kJ dans l’UV en une dizaine de nanosecondes (un laser petawatt (1015 watts) devrait être construit sur cette même LIL).
Cette LIL a permis de mettre à l’épreuve les concepts et les matériaux. Le LMJ
final est prévu pour 240 faisceaux laser : réalisation attendue pour 2010.
Même si le domaine du confinement inertiel a connu des développements
récents nombreux, on est loin encore d’imaginer le schéma de principe d’un
P RÉSENTATION À L’A CADÉMIE DES
SCIENCES
245
réacteur destiné à produire de l’énergie ; il n’existe en tout cas aucune étude en
France à ce sujet.
Le rapport souligne la nécessité d’ouvrir les installations LIL et LMJ futur à la
communauté scientifique civile, malgré le volet défense du projet. En effet, de
nouvelles idées d’allumage rapide, ou allumage latéral, sont aujourd’hui proposées avec des lasers d’impulsions ultracourtes, la technologie est récente. Nos
collègues du Rutherford Lab. ont proposé un projet européen en ce sens, et il
est important, comme le souligne fort justement le rapport, que nous puissions
convaincre nos collègues européens, de la volonté française d’ouvrir ses installations à la science indépendante des activités de défense.
Conclusion
Le rapport présente in fine des propositions d’organisation scientifique afin
de répondre convenablement aux deux grands défis évoqués. C’est ainsi qu’il
montre la nécessité de former et recruter 250 à 300 ingénieurs et physiciens
dans le domaine des plasmas chauds. Le rapport met également l’accent sur
le retard européen en matière de simulation, et modélisation pour la fusion en
regard des États-Unis et du Japon. Bien entendu, à côté des hommes, il faut des
moyens de calcul considérables. Il faut donc modéliser à la fois le plasma turbulent et instable, aussi bien que les matériaux résistant aux neutrons rapides.
L’ouverture prévue du LMJ aux équipes civiles devrait permettre à terme la constitution d’une communauté « fusion » regroupant les deux modes du confinement.
Les quelques remarques ou interrogations émises ci-dessus ne doivent certainement pas masquer l’appréciation très positive portée à ce rapport. Sa volonté
d’exposer les espoirs, sans masquer les incertitudes, la revue des questions diverses, complexes et multiples, auxquelles il faudra répondre, en font un document tout à fait unique qui répond pleinement à la vocation de l’Académie
des sciences. Je remercie vivement tous les auteurs de ce rapport pour le travail
remarquable qu’ils ont fourni.
INTERVENTION DE CLAUDE ALLÈGRE
Membre de l’Académie des sciences
Ce rapport pose un problème de fond : l’Académie doit-elle se cantonner
dans le traitement des problèmes techniques ? Ou bien s’autorise t-elle également à parler de la politique scientifique de la France et à donner un éclairage
sur les conséquences que peut avoir un tel projet sur le budget de la recherche ?
Nous sommes dans une situation de sous-financement de la recherche, que
j’estime à peu près à un facteur 2 par rapport à ce qui serait souhaitable sur
le secteur recherche-université. Les salaires sont trop bas. Les jeunes les plus
brillants quittent le pays faute de moyens de travail, et nous nous lançons dans
un projet extraordinairement risqué et futuriste, de plus dans une situation budgétaire globale elle-même très difficile.
La situation de la science française est dramatique alors que sa qualité est
restée bonne. Au CEA, la recherche fondamentale est périodiquement menacée,
et la recherche sur les réacteurs de quatrième génération a été réduite faute
d’argent. D’autre part, Iter va assécher les crédits scientifiques de la région
Paca, au bénéfice de la construction de routes, avec une création d’emplois
estimée au maximum à 2000.
L’Académie peut parfaitement sérier les questions à l’intérieur de ses rapports : elle peut à la fois faire une l’analyse scientifique – et, de ce point de vuelà, indiquer que ce document est très bon, objectif et équilibré et scientifiquement
interrogatif sur sa faisabilité –, tout en joignant un texte qui comporterait une
mise en garde financière visant à protéger le financement de la recherche de
notre pays. Ainsi, personne ne pourrait utiliser ce rapport pour dire que le projet
Iter a été approuvé sans réserve par l’Académie des sciences.
Il n’y a pas de dissociation entre l’intérêt scientifique et la faisabilité d’un investissement lourd et les conséquences qu’il aura sur l’ensemble du financement
de la Recherche.
INTERVENTION D’ÉDOUARD BRÉZIN
Membre de l’Académie des sciences
Nous ne sommes plus dans la perspective du débat sur l’opportunité de ce
choix, qui a été fait, il faut le rappeler, dans le cadre d’un consortium mondial auquel participait Euratom, au sein duquel la France n’est qu’une partieprenante. Les décisions ont été prises, et ce rapport a donc pour objet l’examen
des problèmes à résoudre et l’explicitation des obstacles à franchir avant de
pouvoir déclarer que cette technologie sera utilisable pour produire de l’énergie. Certes, la France a ensuite insisté pour le choix du site, mais, sur ce point,
les opinions ont été contrastées et le débat a eu lieu.
L’objet du rapport était de procéder à une analyse scientifique. L’ensemble des
coûts de l’opération est public et connu : on n’a donc pas besoin de l’Académie
pour en prendre connaissance.
Toutefois, on peut rappeler que ces recherches sur la fusion reposent sur l’ensemble de notre compréhension de la physique, qu’il ne faut donc pas sousestimer.
D’autre part, le Laser Mégajoule est financé par des crédits de la Défense et
il ne peut donc pas être comptabilisé dans l’effort de R&D civil.
Enfin, l’urgence des problèmes de changement climatique implique des mesures immédiates, alors que la fusion ne sera au mieux disponible que dans un
terme lointain. Ces recherches ne peuvent donc servir « d’alibi environnement ».
INTERVENTION DE ROBERT DAUTRAY
Membre de l’Académie des sciences
Je souhaite apporter quelques éléments scientifiques sur le sujet du rapport.
1 - Andrei Sakharov prend le train en juin 1949 (toute l’équipe soviétique
de la bombe nucléaire était occupée à la préparation matérielle du premier
essai de bombe A prévu le 23 août 1949 par Kurchatov) pour rejoindre pour
la première fois le centre nucléaire de conception et de calcul des armes situé à
Arzamas-16 (ancien couvent Sarov).
Toute la communauté scientifique russe concernée était sous pression pour
participer à la mise au point d’un armement thermonucléaire ensuite.
Par ailleurs, un sergent télégraphiste, Oleg Aleksandrovich Lavrent’ev, âgé de
23 ans, membre d’une division d’artillerie basée dans l’île de Sakhaline, avait
envoyé à Staline plusieurs lettres proposant des éléments pour faire une bombe
thermonucléaire et aussi une lettre pour faire une machine de fusion thermonucléaire contrôlée. Cette lettre, en particulier, fut envoyée au Comité central
du Parti communiste, qui la transmettra à Béria, patron de tout le nucléaire.
Les neutrons produits par la fusion thermonucléaire pouvaient, selon l’avis de
l’auteur, permettre de fabriquer du plutonium. Béria la fit envoyer au centre de
Arzamas-16, où on la passa à Andrei Sakharov.
Celui-ci, étudiant le dispositif torique confiné par un champ électrique, conçu
par Lavrent’ev, vit, comme tout physicien de métier, que le plasma étant un bon
conducteur électrique. Il fallait confiner avec des champs magnétiques. Pendant
la guerre, à la fin de ses études à Moscou et de son affectation à Ashkhabad,
capitale du Turkménistan, Sakharov avait été affecté pendant deux ans à une
usine de munitions, l’usine Ulyanovsk. Il y avait introduit le contrôle des caractéristiques des très grandes séries de munitions fabriquées, par un champ
magnétique. Sakharov repris donc l’étude du tore en utilisant des champs magnétiques pour confiner le plasma. Ce fut, au centre d’Arzamas, le premier
problème de physique théorique qu’on lui posa. Sakharov en discuta avec Igor
Tamm (que Sakharov avait rencontré pour la première fois en 1945. Sakharov
devint l’étudiant de Tamm), dont l’ouvrage, La théorie de l’électricité, était le
meilleur disponible en Union Soviétique pour ce sujet. Tamm arriva de Moscou
en août 1950. L’intérêt du dispositif, appelé successivement « Réacteur Toroïdal
I NTERVENTION DE R OBERT D AUTRAY
249
Thermonucléaire », puis « Réacteur Magnétique Thermonucléaire », puis « Tokamak », résidait dans le fait que c’est le meilleur moyen de produire des neutrons
par unité d’énergie nucléaire, donc aussi de produire du plutonium. Sakharov
et Tamm croyaient, en 1950, que le dispositif fonctionnerait d’une manière opérationnelle au bout de 10 à 15 ans. Une des conséquences paradoxales de ce
succès et de l’intérêt pour l’armement nucléaire fut (dans l’écrasante importance
du secret en URSS) que Oleg Lavrent’ev, fut écarté de tout cela. Il en a fait le
récit après l’ouverture de la Russie, notamment en 1994, auprès de l’American
Institute of Physics.
2 - Un de nos confrères a demandé pourquoi, au lieu de la réaction nucléaire D+T, qui oblige à régénérer le tritium, ne pas utiliser la réaction nucléaire
(d’ailleurs, il y en a deux) D+D ? La réponse comporte plusieurs volets qui jouent
tous dans le même sens. Le plus important est le taux de la réaction thermonucléaire, noté « σ v » [m3 s−1 ], de D+T, à 10 keV, ce qui est prévu pour Iter et sa
suite éventuelle de réacteurs de fusion ; cela entraîne une pression du champ
magnétique extérieur nécessaire pour contenir la pression du plasma qui est ce
qu’on sait faire de plus élevé dans le système technique actuel. Pour la réaction
D+D, il faudrait une température environ 400 keV, entraînant une pression du
champ magnétique extérieur nécessaire hors de portée de tout champ magnétique artificiel. De plus, à ces températures, les très grandes fuites de rayonnement électromagnétique interdisent, avec le fonctionnement des Tokomak tout
fonctionnement des réactions nucléaires D+D, en continu.
3 - On peut se demander pourquoi ces machines Tokomak sont si gigantesques et ne produisent pas plus d’énergie que les réacteurs REP actuels. C’est
que l’ordre de grandeur de la puissance par unité de volume du tore, à cause
des considérations physiques, est de l’ordre de 1 kW/dm3 . Dans un réacteur
à fission, cette densité de puissance est de l’ordre de la centaine de kW/dm3 ,
seulement limitée par l’extraction de la chaleur produite, par un fluide refroidisseur. Dans un surgénérateur à fission, on est obligé de viser un peu moins
d’un MW/dm3 , car on a investit beaucoup de matière fissile par dm3 , donc
beaucoup d’argent. C’est pour cela qu’on a employé dès le début des métaux
liquides pour extraire la chaleur.
4 - On a parlé de MHD et de physique des plasmas dans ce rapport à propos
de la fusion thermonucléaire. La frontière entre les deux modèles physique est la
suivante. Quand le libre parcours moyen des électrons et des ions est petit par
rapport aux dimensions du système, le plasma se comporte comme un fluide.
Ainsi, sur la surface du Soleil, le libre parcours de collisions électron-électron
est de l’ordre du cm. Dans la boule thermonucléaire du Soleil, ce libre parcours
d’un électron est de l’ordre de 10−8 cm. Ces milieux se comportent comme des
fluides, dans les champs magnétiques du Soleil. Ces milieux peuvent donc être
traités comme de la magnétohydrodynamique (MHD).
250
LA
FUSION NUCLÉAIRE
Au contraire, dans les machines types Iter, les libres parcours des particules
chargées vont d’une dizaine de mètres à des milliers de mètres. Ils doivent donc
s’enrouler autour des champs circulaires du tore. Ce sont des phénomènes de
physique des plasmas. Mais, on retrouve la MHD dans les barrières qui seraient
placées éventuellement autour du tore pour récupérer les neutrons, régénérer le
tritium et évacuer la majeure partie de la puissance, notamment les 14 MeV des
neutrons.
5 - Si on compare le flux de neutrons arrivant sur la paroi extérieure du
milieu des réactions nucléaires, il a, par MeV d’énergie produit, de l’ordre de la
centaine de fois plus de neutrons et ceux-ci sont de 14 MeV. D’où l’importance
des problèmes de matériaux sur cette paroi extérieure.
6 - Enfin, les échelles de temps des phénomènes à prendre en compte pour
maîtriser le processus thermonucléaire contrôlé vont de 10−11 seconde pour les
chauffages des électrons par les champs électromagnétiques, jusqu’à 104 secondes pour atteindre des états quasi permanents entre le plasma confiné et la
paroi. Les phénomènes à simuler par des modèles mathématiques et numériques
parcourent 15 décades en temps.
LA
FUSION NUCLÉAIRE
251
Des annexes scientifiques et techniques complètent cet ouvrage. Elles sont disponibles :
– sous la forme de fichiers PDF librement téléchargeables, en vous connectant à l’adresse suivante : www.bibsciences.org ;
– en CD-ROM, que l’on peut se procurer gracieusement en écrivant à EDP
Sciences (17 avenue du Hoggar, PA de Courtaboeuf, BP 112, 91944 Les
Ulis Cedex A, France) et en mentionnant le numéro d’imprimeur inscrit en
dernière page de l’ouvrage.
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertising