Approche multi-échelle de la précipitation - Michel Perez

Approche multi-échelle de la précipitation - Michel Perez
ÉCOLE DOCTORALE MATÉRIAUX DE LYON
Université de Lyon
MÉMOIRE D’HABILITATION
A DIRIGER DES RECHERCHES
Approche multi-échelle de la précipitation
par
Michel Perez
-./0123 456772893
)* + ( − ( &
), & = * α( ' − ( &
TUVWXYZ[\ ]^_`a[_WYb\
1.5E-18
∆
1E-18
?@
DE
5E-19
Energy (J)
FG H IJKLMN OLKPQNR S
0
A @ ABC@
# ∆! " " = β
− $% − − τ -5E-19
-1E-18
-1.5E-18
0
5
10
15
20
Radius (nm)
µ
cd=2;2< 20
:0;<3=>6150 >2;/<2893
µ
Soutenance le 15 octobre 2007 devant le jury composé de :
Jean-Louis Barrat
Charlotte Becquart
Didier Blavette
Yves Bréchet
Jean-yves Buffière
Joël Courbon
Thierry Epicier
Elisabeth Gautier
Michel Suéry
2
Avertissement
Rédiger un mémoire d’Habilitation à Diriger des Recherche (HDR) n’est
pas un exercice classique. En effet, il n’existe pas de mode d’emploi, de
norme, ni même de règle, écrite ou non...
J’aurai pu rédiger une deuxième thèse présentant tous les résultats obtenus depuis 10 ans, mais cela ne se fait plus depuis quelques dizaines
d’années maintenant.
J’aurai pu, à l’inverse, agrafer quelques publications et rédiger une ou
deux pages de liaison avec introduction et conclusion, mais cela aurait
manqué de lisibilité, de pédagogie et de fil conducteur.
La principale question que je me suis posée était la suivante :
“Pour qui rédige-t-on un mémoire d’HDR ?”
A cette question trois réponses se sont imposées et ont donc guidé la
façon d’organiser et de présenter ce manuscrit :
– pour les rapporteurs et examinateurs : “L’habilitation à diriger
des recherches sanctionne la reconnaissance du haut niveau du candidat, du caractère original de sa démarche dans un domaine de la
science, de son aptitude à maı̂triser une stratégie de recherche dans un
domaine scientifique ou technique suffisamment large et de sa capacité à encadrer de jeunes chercheurs.” 1 . L’HDR est donc un diplôme
tout à fait officiel pour lequel la loi prévoit : un manuscrit, des rapporteurs, des examinateurs et une soutenance. Le mémoire est donc
un moyen, pour les rapporteurs et examinateurs, de juger de la qualité du travail effectué selon les critères définis ci dessus. C’est donc
en premier lieu pour eux que ce mémoire est rédigé.
– pour les jeunes chercheurs qui débutent dans le domaine :
Pour autant, rédiger un document d’une centaine de page qui ne sera
lu que par une dizaine de personnes (loin de moi l’idée de mettre en
cause la qualité de ces personnes !) ne serait pas excessivement efficace. Il m’a donc semblé tout naturel qu’un tel document puisse servir
aussi à de jeunes chercheurs qui débutent dans le domaine. “Quelles
sont les techniques expérimentales utilisées pour caractériser un état
de précipitation ?”, “Sur quelles bases thermodynamiques repose la
théorie de la germination ?”, “Que sont les méthodes de Monte-Carlo
1. Article 1er, arrêté du 5 juillet 1984
4
et de dynamique moléculaire ?”. Des réponses à ces questions pourront être trouvées à travers ce manuscrit.
– pour soi : S’arrêter aux deux points précédents aurait été totalement
hypocrite : la force motrice principale qui a conduit à la rédaction
de ce document est le plaisir. Plaisir de mettre noir sur blanc un
ensemble de résultats, une stratégie, des perspectives,.. voire, pour
certains points, plaisir de comprendre ce qui avait résisté jusque là.
Écrire est le meilleur moyen pour avoir les idées claires ; rédiger un
mémoire d’HDR permet d’avoir une vue d’ensemble synthétique sur
une activité pour laquelle on a facilement tendance à garder “le nez
dans le guidon”.
Le lecteur, ne pouvant faire partie des trois catégories cités plus haut
(ni même de deux !), pourra parfois se demander si la présence de telle ou
telle partie est justifiée, si la taille de ce mémoire n’est pas trop longue, si
le ton est approprié,..
Dans la mesure du possible, j’ai essayé de rédiger un document qui
puisse se lire à plusieurs niveaux : de la lecture rapide en retenant les titres
et les points important en grisé, à la lecture approfondie, pour laquelle de
nombreuses notes et figures de marge illustrent le propos.
Merci !
J’aimerais tout d’abord remercier chaleureusement les personnes qui
m’ont fait découvrir la recherche, à commencer par Michel Morin, encadrant
de Génie de mon Projet de Fin d’Étude, puis Michel Suéry et Yves Bréchet
qui m’ont guidé pendant ma thèse dans les méandres de la lévitation et de
la solidification.
Merci à Roger Fougères, artisan de mon recrutement au GEMPPM et à
Alain Vincent qui m’a accueilli dans l’équipe. Ils ont tous deux grandement
contribué au démarrage des mes activités de recherche au sein du groupe
“Métaux et alliages”. Merci à Jean-Yves Cavaillé pour son écoute et ses
conseils.
J’aimerais surtout remercier Jean-Yves Buffière, Joël Courbon, Yves
Bréchet, Michel Suéry, Thierry Epicier, Charlotte Becquart, Didier Blavette, Jean-Louis Barrat et Elisabeth Gautier, qui ont accepté d’être dans
le jury de cette habilitation. Une mention toute particulière pour Didier
Blavette, Jean-Louis Barrat et Elisabeth Gautier qui ont aussi eu la charge
supplémentaire d’écrire un rapport sur le présent mémoire.
Merci à toute l’équipe du CPR (devenu GDR) “précipitation” pour
les discussions animées sur la précipitation et à Philippe Maugis qui m’a
introduit dans ce groupe.
Merci à Alexis Deschamps qui ne confond pas vitesse (à ski) et
précipitation (au laboratoire). Un grand merci à Thierry Epicier qui m’a
ouvert la porte de la partie expérimentale de la précipitation. Pour un
modélisateur, cela n’a pas de prix ! Merci à Charlotte Becquart qui m’a
accueilli dans le monde des simulations à l’échelle atomique. Merci à Luc
Salvo et Rémy Dendievel : j’ai toujours envie de faire lever le pain ! Merci
à Christophe Martin : quand tu veux pour un ski-séminaire...
Merci à tous les étudiants, doctorants et stagiaires post-doctoraux qui
ont croisé ma route, et sans qui la science n’aurait pas avancé ! Merci à
Christine pour avoir assuré ma formation de base en métallurgie ; à Aurélie
qui ne voulait pas faire de thèse ; à Grégory avec qui nous avons (enfin)
compris le deuxième principe de la thermodynamique ; à Agnès qui s’est
perdue dans le microscope ; à Églantine pour nos discussions théologiques ;
à Daniel, génial auteur de PreciSo (mais non ce n’est pas horriiible !) ; à
Claire qui fit exploser les ampoules (sans mettre le feu au 502 !) ; à Fabien
pour la leçon de yoga à 5 heures du matin ; à Sébastien compagnon de
cordée dans l’ascension du pic de Snoek (8848 m).
6
Merci à tous ceux qui font que venir au travail est un plaisir : Henry,
Dieu du LATEX ; Éric, concurrent de Kiloutou ; Xavier, moniteur de fractionné ; Jean-Yves, notre chef vénéré qui sonne l’heure du café ; Arnaud,
seul correcteur orthographique, grammatical ET mathématique au monde ;
Damien, encore un peu de pain d’épice ? ; Catherine, ma directrice de
conscience pour l’enseignement ; Alain et ses blagues toutes en finesse pour
le petit déjeuner ; Jérôme qui m’accueillit au GEMPPM avant même que
j’arrive ; Olivier, roi de l’atterrissage dans les ronces ; Nicolas, qui est capable de m’expliquer l’équation de Schrödinger en montant, en courant,
les escaliers de la Croix Rousse ; Olivier qui cherche toujours le bug dans
TPain...
Merci aux nombreux étudiants de la section Amérinsa, du département
GMC et de la filière FAS qui m’ont tant apporté. Merci à Paul pour nos
grandes envolées lyriques ( !) qui se sont toutes déroulées dans un grand
respect mutuel...
Merci à Viviane, grande ordinatrice du groupe métal, la personne la
plus importante à bord après Dieu Jean-Yves.
Merci à papa pour les discussions passionnantes autour de ce manuscrit
et pour tous les signes “moins” !
Merci à Bastien et “Charly” pour me montrer tous les jours que j’ai
bien fait d’aller à Annot !
Enfin, merci à Elisabeth, tu as tout mon amour.
Table des matières
1 Introduction
9
1.1 Dix ans de recherche et d’enseignement ! . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Organisation du mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Techniques expérimentales de caractérisation de la précipitation
2.1 Le Pouvoir ThermoÉlectrique . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Solubilité du cuivre dans le fer : couplage PTE/SAXS . . . . . . . . . . .
2.3 Couplage PTE/MET : vieillissement de la martensite . . . . . . . . . . .
2.4 Précipitation dans les aciers microalliés : couplage MEB/MET/dissolution
2.5 Caractérisation de la précipitation : conclusions et quelques perspectives .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
14
18
21
24
30
3 Modélisation des cinétiques de précipitation
3.1 Un peu d’histoire... . . . . . . . . . . . . . . . . . .
3.2 Retour sur la théorie de la germination . . . . . . . .
3.3 Précipitation simultanée de plusieurs phases. . . . . .
3.4 Modèle par classes de tailles de précipités . . . . . .
3.5 PreciSo : un logiciel de simulation de la précipitation
3.6 Vers la prédiction de la chimie des précipités ? . . . .
3.7 Développement du modèle de précipitation . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
33
36
54
56
63
67
77
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Vers l’échelle atomique
81
4.1 Coupler Monte-Carlo Cinétique et Dynamique Moléculaire . . . . . . . . . . . . . . . . 82
4.2 Un petit tour du côté des polymères . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.3 Modélisation à l’échelle atomique : perspectives . . . . . . . . . . . . . . . . . . . . . . 105
5 Perspectives
107
5.1 Recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2 Enseignement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.3 Organisation de la recherche : avantages et limites de la logique de réseau . . . . . . . . 115
A Curriculum Vitae
119
B Liste de Publications
121
C Glossaire à l’usage du chercheur...
125
D Sélection de trois articles
127
8
Table des matières
Introduction
1.1 Dix ans de recherche et d’enseignement !
J’ai effectué mon stage de Diplôme d’Etudes Approfondies au Groupe
de Métallurgie Physique et de Physique des Matériaux en 1996. Sous
l’aimable et très enrichissante direction de Michel Morin, j’ai découvert
trois aspects de la recherche qui m’ont très vite passionnés : le montage
d’une manipulation, l’interprétation/confrontation des résultats, et enfin
la compréhention/modélisation des phénomènes observés... Durant ces dix
dernières années, j’ai continué à me passionner pour ces trois facettes de la
recherche.
J’ai démarré ma thèse au Génie Physique et Mécaniques des Matériaux
en 1997 sur un sujet plutôt original : la lévitation des gouttes ! Plus
précisément, la mesure de viscosité de divers liquides en lévitation sur film
de gaz. Ce travail avait été initié et encadré par le duo Michel Suéry /
Yves Bréchet. Il s’est déroulé dans des conditions quasi idéales : aussi bien
du côté du laboratoire que de l’Institut National Polytechnique grâce auquel j’ai découvert l’activité d’enseignement. Ces trois années n’ont fait que
renforcer ma motivation pour le métier d’enseignant-chercheur.
J’ai eu l’opportunité de démarrer au GEMPPM 1 en 2000, en temps
qu’Attaché Temporaire d’Enseignement et de Recherche une activité
totalement nouvelle pour moi : la modélisation de la précipitation.
En effet, bien que de nombreuses études sur la précipitation avaient
été réalisées dans ce laboratoire, notamment grâce au développement
de techniques expérimentales de pointes (microscopie électronique, pouvoir thermoélectrique...), peu de place était faite à la modélisation des
phénomènes observés.
La stratégie envisagée était d’implanter une approche développée au
Laboratoire de Thermodynamique et de Physico-Chimie Métallurgique
par Alexis Deschamps et Yves Bréchet. Après quelques aller-retours à
Grenoble et de passionnantes discussions, la première version de ce qui
deviendra bientôt PreciSo, le logiciel de précipitation développé dans le
cadre de la thèse de Daniel Acevedo, a permis de modéliser une cinétique
de précipitation complexe mettant en jeu plusieurs phases stables et
1. Le GEMPPM s’intitule MATEIS depuis janvier 2007.
Figure 1.1: Dispositif de sustentation sur
film de gaz. Le chauffage par induction
permet de mesurer la viscosité de métaux
liquides.
10
Figure 1.2: Saisie d’écran du logiciel PreciSo développé depuis mon arrivée au
GEMPPM : les évolutions des différents
paramètres de la simulation sont suivies
en direct pendant l’exécution.
Introduction
métastables.
J’ai ensuite été recruté comme Maı̂tre de Conférences en 2001 à l’INSA
de Lyon, d’une part, pour développer la modélisation de la précipitation et,
d’autre part, pour intégrer l’équipe d’enseignants de physique au Premier
Cycle de l’INSA. Assurer 200 heures de cours/TD/TP dans des domaines
relativement nouveaux (mécanique du point, physique des ondes, mesures
physiques,...) a nécessité un énorme travail et a occupé une bonne partie
de mes premières années d’enseignant-chercheur. Cependant — et c’est un
avantage de ce métier— l’investissement en enseignement est très rapidement gratifiant : l’énergie dépensée à la préparation des cours est restituée
“au centuple” quand le message passe auprès des étudiants !
Dans le même temps, au sein de l’équipe Métaux et Alliages du
GEMPPM, j’ai participé, en parallèle, à deux types d’actions :
– à court terme, l’encadrement ou la participation à des travaux de recherches appliqués et expérimentaux en lien avec des problématiques
industrielles : thèse de Chistine Sidoroff et DEA d’Aurélie Colin sur
la précipitation de carbures dans les aciers à roulements (SNR), DEA
d’Agnès Bogner sur la caractérisation de la précipitation de carbures
de vanadium et le stage post-doctoral de Grégory Covarel sur la
précipitation du cuivre dans un acier haute performances (ASCOMETAL) ;
– à plus long terme, la mise en place d’outils de modélisation de la
précipitation grâce au développement d’un réseau de collaborations
nationales et internationales, notamment grâce au Contrat de Programme de Recherche (CPR) “précipitation” du CNRS lancé en 2001.
L’idée sous-jacente à cette démarche était que l’aspect fondamental
pourrait nourrir les possibilités d’application. Cette méthode a été fructueuse puisque la société ASCOMETAL nous a sollicité en 2003 pour
démarrer une thèse dont un des buts était d’implanter un logiciel de
modélisation de la précipitation dans leur centre de recherche.
Au cours de ces dernières années, conjointement au travail d’encadrement de la thèse de Daniel Acevedo (ASCOMETAL), j’ai profité du
cadre du CPR “Précipitation” pour poursuivre une collaboration avec
Philippe Maugis et pour participer à la thèse d’Églantine Courtois sur
la précipitation de carbo-nitrures dans la ferrite. Ainsi, au terme ce de
CPR et de cette première thèse avec ASCOMETAL, j’ai identifié deux
problématiques proches qui constituent actuellement des verrous scientifiques importants :
– la prise en compte de la chimie des précipités : par exemple, pourquoi
le titane semble-t-il être lié à des structures de précipités de type
cœur-coquille ? Comment expliquer les évolutions du rapport C/N
dans les carbonitrures ?
– le rôle des contraintes dans les premiers stades de la précipitation :
par exemple, comment expliquer la forme de plaquettes monoatomiques de certains précipités ? Les contraintes appliquées par la matrice peuvent-elles expliquer la non stœchiométrie de carbures de va-
1.2 Organisation du mémoire
nadium (VCx ) ?
La problématique de la chimie des précipités fait l’objet d’une nouvelle
thèse avec ASCOMETAL qui démarre début 2007. Son but est de combiner la caractérisation chimique fine des précipités, grâce à la technique de
spectroscopie de perte d’énergie, et la modélisation de cette chimie dans le
cadre du logiciel de modélisation PreciSo.
En ce qui concerne le rôle des contraintes dans les premiers stades de
la précipitation, un projet blanc financé par l’Agence Nationale de la Recherche (ANR) a démarré début 2007. Ce projet allie les potentialités du
MATEIS (microscopie et modélisation mutli-échelle) à celles du LTPCM
(diffusion aux petits angles), du Groupe de Physique des Matériaux (sonde
atomique) et du Centre Interuniversitaire de Recherche sur les Matériaux
(modélisation ab-initio).
Ces problématiques ont été amenées via des études expérimentales
toujours plus fines, notamment grâce au développement des techniques
de microscopie électronique dont la résolution spatiale permet actuellement d’atteindre l’échelle atomique. Il apparaı̂t donc aujourd’hui nécessaire
de développer des outils de modélisation ou de compréhension de la
précipitation à l’échelle atomique.
1.2 Organisation du mémoire
L’objectif de ce mémoire est plus de présenter une démarche que de
présenter des résultats. Le lecteur pourra trouver le détail des résultats
dans les publications qui sont listées à l’annexe B.
Ce mémoire se divise en trois grandes parties :
– Le développement, l’utilisation ou la validation de techniques
expérimentales originales, objet du chapitre 2.
– La présentation du logiciel PreciSo et de ses fondements thermodynamiques avec une ouverture sur la modélisation de la chimie des
précipités sera détaillée au chapitre 3.
– Le développement de nouvelles techniques de modélisation à l’échelle
atomique sera présenté au chapitre 4.
1. Courtois (E.), Etude de la précipitation des carbures et des carbonitrures de niobium dans la ferrite par microscopie électronique en transmission et techniques associées.
Thèse de doctorat, INSA-Lyon, 2005
11
Figure 1.3: Plaquette monoatomique de
nitrure de niobium. Les premiers stades
de précipitation de ces nitrures sont assez
mal compris. 1
12
Introduction
Techniques expérimentales de
caractérisation de la précipitation
Pour caractériser un état de précipitation, il faut connaı̂tre (i) la nature
(cristallographie, chimie, morphologie), et, (ii) la distribution de taille et la
fraction volumique des précipités. Les précipités peuvent avoir une très large
gamme de taille (de l’ordre de la fraction de nanomètre au micromètre) qui
rend la caractérisation difficile.
A l’heure actuelle, aucune technique expérimentale ne permet à elle
seule de déterminer avec précision ces deux types d’information. En effet,
la nature des précipités est une donnée locale, alors que la distribution
de taille et la fraction volumique sont plus facilement accessibles par des
mesures globales.
D’un point de vue local, la technique la plus couramment utilisée est
la microscopie électronique. Outre la Microscopie Électronique en Transmission (MET) “classique” et l’analyse des clichés de diffraction utilisées
depuis plus de 70 ans, plusieurs techniques associées ont effectué des progrès
récents spectaculaires :
– la Microscopie Electronique en Transmission Haute Résolution (METHR) permet d’observer les premiers stades de la précipitation qui
sont à l’heure actuelle assez mal connus
– la Microscopie Electronique à Balayage (MEB) avec pointe à effet
de champ (FEG) permet d’atteindre la résolution nanométrique qui
manquait à la MEB classique ;
– la spectroscopie de perte d’énergie des électrons (EELS) donne accès
à la chimie locale des précipités et permet d’observer par exemple des
gradients de concentration à l’intérieur des précipités ;
– les progrès dans les détecteurs “grands angles” ont permis de
développer le champ sombre annulaire à grand angle (HAADF) qui
donne un contraste lié au numéro atomique de l’espèce observée (“Z
contrasté”).
Une autre technique locale en plein essor est la sonde atomique tomographique (TAP) qui donne accès à la nature et à la position des atomes.
1. Clouet (E.), Laé (L.), Epicier (T.) et al., ≪ Complex precipitation pathways in
multi-component alloys ≫, Nature Materials, vol. 5, 2006, p. 482–488
Figure 2.1: Image MET haute résolution
d’un précipité de Al3 Zrx Sc1−x qui met en
évidence l’enrichissement en Zr de la coquille du précipité (tiré de Cloué et al 1 .)
14
Techniques expérimentales de caractérisation de la précipitation
La zone analysée de quelques dizaines de milliers de nm3 permet l’analyse
d’un ou plusieurs précipités.
L’inconvénient de ces techniques locales est la difficulté à obtenir des
informations globales à cause de la très petite taille du volume ou de la
surface analysé. Elles nécessitent donc un traitement statistique lourd pour
atteindre par exemple la distribution de taille des précipités et ne permettent souvent pas de mesurer une fraction volumique.
C’est pourquoi, en parallèle, il est important de disposer de techniques
de caractérisation globales qui donnent une moyenne sur un très grand
volume analysé.
Si l’on connaı̂t la chimie des précipités, des approches macroscopiques,
comme par exemple, la dissolution électrolytique de la matrice 2 couplée à la
spectrométrie à plasma permettent d’obtenir assez précisément la fraction
de phase précipitée. D’autres techniques globales comme la résistivité, le
bruit Barkhausen ou le pouvoir thermoélectrique (PTE) permettent d’avoir
accès à la quantité de soluté dans la solution solide.
Figure 2.2: Image reconstituée en sonde
Enfin, les progrès récents dans les sources de rayonnement X ou neutron
atomique tomographique montrant des
ont permis d’utiliser la diffusion aux petits angle pour caractériser de façon
précipités de cuivre dans le fer (image :
simultanée la fraction volumique et la taille caractéristique d’une populaP. Pareige)
tion de précipités. Un des points forts de cette technique est qu’elle peut
être utilisée in situ au cours du traitement.
Pour caractériser du mieux possible un état de précipitation, il est donc
nécessaire de confronter plusieurs techniques expérimentales pour en combiner les avantages. Par la suite, trois exemples de couplage de techniques
globales et locales seront présentées.
Commençons par une rapide présentation du pouvoir thermoélectrique,
technique relativement peu utilisée dans le domaine de la métallurgie qui
mériterait d’être mieux connue, ne serait-ce que pour mieux appréhender
ses avantages mais aussi ses limites.
2.1 Le Pouvoir ThermoÉlectrique
Le Pouvoir ThermoÉlectrique (PTE) est l’une des techniques
expérimentales de pointe du laboratoire MATEIS. Elle a été implantée au
Figure 2.3: Figure de diffusion centrale laboratoire à la fin des années 1970 sous l’impulsion de René Borelly dans
d’un alliage Fe-Cu vieilli 30h à 500◦ C le cadre de la thèse d’État de Jean-Marc Pelletier 4 pour des alliages à base
(thèse F. Perrard 3 )
de cuivre. Cette technique s’est, par la suite, largement développée et a été
utilisée pour étudier la précipitation dans de nombreux types d’alliages.
2. Cette technique n’est exploitable que si l’électrolyte dissout la matrice sans attaquer
les précipités.
3. Perrard (F.), Caractérisation et modélisation de la précipitation du carbure de
niobium et du cuivre dans les aciers bas carbone. Thèse de doctorat, INP Grenoble, 2004
4. Pelletier (J.-M.), Pouvoir thermoélectrique d’alliages à base de cuivre et d’aluminium: étude des solutions solides et rôle de la précipitation d’une seconde phase. Thèse
de doctorat, INSA Lyon, 1980
2.1 Le Pouvoir ThermoÉlectrique
15
2.1.1 Principe
Le principe de la mesure de pouvoir thermoélectrique est très simple :
on mesure la différence de potentiel électrostatique ∆V aux bornes d’un
circuit ouvert constitué d’un couple de métaux différents (l’échantillon, noté
B et les blocs du dispositif, notés A), dont les jonctions sont portées à des
températures différentes de ∆T . Le PTE est le rapport entre les différences
de potentiel et de température :
SB − SA = SAB =
∆V
∆T
(2.1)
SAB est le pouvoir thermoélectrique relatif de B par rapport à A. Il
est généralement exprimé en nV/K. La variation de PTE, notée ∆S, est
souvent définie, lors d’un revenu, comme la différence entre le PTE mesuré
à un instant donné et le PTE avant le revenu : ∆S = SAB|t − SAB|0 .
Le pouvoir thermoélectrique est une grandeur physique sensible à l’état
microstructural des métaux et alliages. En particulier, les éléments en solution solide, les défauts cristallins, tels que les dislocations, et la nature des
phases en présence influencent fortement le pouvoir thermoélectrique d’un
métal. Cette très grande sensibilité est un atout par rapport à d’autres techniques comme la résistivité ou la calorimétrie différentielle, mais complique
parfois l’interprétation des résultats quand plusieurs paramètres évoluent
simultanément. Il est donc nécessaire de bien identifier les différents paramètres qui peuvent influencer le PTE.
Figure 2.4: Photographie d’un dispositif
de mesure de PTE conçu, réalisé à l’INSA
et commercialisé par Techlab 5 .
2.1.2 Paramètres influençant le PTE
Nature du matériau : Le PTE étant lié à la surface de Fermi des
matériaux conducteurs, il dépend essentiellement de la nature des atomes
constituant le matériau, ainsi que de leur cristallographie.
Phases en présence : Si l’on peut mesurer le PTE d’un matériau A
et celui d’un matériau B, qu’en est-il d’un matériau composite formé d’un
mélange de A et B ? Cette question a fait l’objet d’une thèse récemment
soutenue au laboratoire MATEIS 7 qui a montré qu’un maillage adapté permet par une technique de type “différences finies” de prédire correctement
le PTE du composite. Dans le cas de la précipitation, il est souvent possible
de négliger l’effet d’une phase sur le PTE : (1) si la fraction volumique de
cette phase est négligeable (sauf dans le cas de précipités cohérents, où le
champ de contrainte créé par les précipités a un effet important) ; (2) si la
résistivité de cette phase est très grande devant celle des autres phases.
5. http://www.techlab.fr/htm/PTE.htm
6. Kleber (X.), Merlin (J.) et Massardier (V.), ≪ La mesure du pouvoir
thermoélectrique : une technique originale de -contrôle des alliages métalliques ≫, Techniques de l’Ingénieur, vol. RE39, 2005, p. 1–9
7. Simonet (L.), Effet des hétérogénéités sur le Pouvoir Thermoélectrique de l’acier
de cuve. Thèse de doctorat, INSA Lyon, 2006
Figure 2.5: Principe de la mesure de pouvoir thermoélectrique (tiré de : Technique
de l’Ingénieur 6 .)
16
Techniques expérimentales de caractérisation de la précipitation
Variation du PTE avec la concentration en atomes de soluté : loi de
Gorter-Nordheim
A une température de mesure donnée,
pour des alliages dilués, la modification de la composante diffusionnelle
du PTE, due à plusieurs éléments en
solution solide, est donnée par la loi
de Gorter-Nordheim :
X
ρS =
ρi S i
(2.2)
i
P
ρ = ρ0 +
ρi est la résistivité du
matériau étudié et ρ0 la résistivité du
matériau libre de tout élément en solution. En utilisant la règle de Matthiessen (ρi = αi ci où ci est la concentration de l’élément i), on peut exprimer
le PTE par :
P
cS
iα
Pi i i
(2.3)
S=
ρ0 + i αi ci
Pour les faibles concentrations, le
PTE varie linéairement avec la
concentration :
S=
X αi Si
i
ρ0
ci
(2.4)
Température : Le pouvoir thermoélectrique total SB d’un métal pur B
résulte de deux contributions 8 :(1) Sd∗ , composante diffusionnelle résultant
de l’effet de la température sur les électrons de conduction (directement
proportionnelle à la température) ; (2)Sg∗ , composante de “réseau” du PTE
(due aux interactions électrons-phonons). La distribution des électrons est
ainsi altérée par le mouvement des phonons. Elle est donc proportionnelle
à T 3 à basse température et décroı̂t en 1/T à plus haute température.
Défauts cristallins : Les défauts cristallins présents dans une structure
modifient la conduction des électrons et la propagation des phonons. Ils ont
donc une influence sur le PTE.
Dislocations : Dans les matrices de Fer α, l’augmentation de la densité de dislocations (écrouissage) diminue le PTE, alors que la diminution
de la densité de dislocations (restauration et la recristallisation) tend à
l’augmenter.
Atomes de soluté : Les éléments en solution solide (interstitiels ou
substitutionnels) influencent sensiblement le PTE. Selon leur nature, ils
augmentent ou diminuent la composante diffusionnelle. En tout état de
cause, cette sensibilité du PTE se révèle très utile pour suivre l’évolution
des éléments en solution solide au cours du revenu, et notamment leur
précipitation ou ségrégation. Les coefficient d’influence de nombreux atomes
de soluté ont été déterminés au cours du travail de thèse de Marc Houzé 9 .
2.1.3 Le PTE a-t-il un avenir ?
Le pouvoir thermoélectrique, comme moyen de caractérisation microstructural, est un outil extrêmement puissant et facile à utiliser. Il a montré
son efficacité dans de nombreux cas (solubilité du carbone dans le fer 10 , dosage de l’azote dans des aciers calmés à l’aluminium 11 , caractérisation des
interactions carbone/substitutionnel 12 , vieillissement des aciers ULC 13 ...).
Néanmoins, malgré ces développements très encourageants, la communauté scientifique se heurte à l’heure actuelle à la difficulté de
compréhension de certains résultats. L’origine de ces difficultés est liée à
8. Blatt (F. J.), Schroeder (P. A.), Foiles (C. L.) et Greig (D.), Thermoelectric
power of metals. Plenum press, New York and London, 1976
9. Houze (M.), Influence des traitements thermiques sur le Pouvoir Thermoélectrique
des aciers de cuve: Effet des évolutions microstructurales des zones fortement ségrégées.
Thèse de doctorat, INSA Lyon, 2002
10. Lavaire (N.), Merlin (J.) et Sardoy (V.), ≪ Study of ageing in strained ultra
and extra low carbon steels by thermoelectric power measurement ≫, Scripta Mater., vol.
44, 2001, p. 553–559
11. Guetaz (V.), Caractérisation de l’état d’engagement de l’azote au cours du process de transformation d’aciers calmés à l’aluminium - Conséquences sur les propriétés
d’emboutassibilité après recuit continu. Thèse de doctorat, INSA Lyon, 2002
12. Massardier (V.), Lepatezour (E.), Soler (L.) et Merlin (J.), ≪ Mn-C interaction in Fe-C-Mn steels: study by thermoelectric power and internal friction ≫, Met.
Trans A, vol. 36A, 2005, p. 1745–1755
13. Lavaire (N.), Etude des phénomènes à l’origine du vieillissement des aciers pour
emballage à Ultra Bas Carbone (ULC) : Apport du Pouvoir ThermoElectrique à la caractérisation des états microstructuraux. Thèse de doctorat, INSA Lyon, 2001
2.1 Le Pouvoir ThermoÉlectrique
17
Figure 2.6: Allure schématique de la variation des composantes de diffusion Sd∗ et de réseau Sg∗ en fonction de la température. Le maximum
de la composante de réseau se situe au cinquième de la température de Debye.
l’existence et à la combinaison de différents mécanismes responsable du
PTE : composante de diffusion (Sd∗ ) et de réseau (Sg∗ ). En général, les
mesures de pouvoir thermoélectrique sont effectuées à la température ambiante, où l’effet de la composante de phonon peut être négligée pour certains matériaux. Ceci est particulièrement vrai pour les alliages d’aluminium. Dans le cas des métaux de transitions tel que les alliages de Fer,
la situation est plus compliquée et une déconvolution de l’effet des phonons de l’effet des électrons n’est pas aussi aisée. Il apparaı̂t donc judicieux
de travailler à différentes températures afin de déconvoluer les différents
mécanismes actifs à la température ambiante, et ainsi de mieux comprendre
les variations observées.
C’est dans cet esprit que nous avions déposé, avec Xavier Kleber et
Patrice Chantrenne du Centre de Thermique de Lyon (UMR CNRS 5008),
auprès de l’INSA, un Bonus Qualité Recherche (BQR). Ce projet ayant été
accepté, il a débouché (i) sur la mise au point d’un appareillage de mesure
couplée de PTE et de conductivité thermique pour des température allant
de 10 à 400 K, et (ii) sur le financement d’une thèse (allocation ministérielle)
en cours dont le but est d’étudier l’effet des contraintes et de la température
sur le PTE de différents alliages.
Rappelons que la théorie à la base du PTE (“physique/électronique du
solide”) est à construire. Dans un futur proche, il serait très intéressant de
développer une modélisation atomique (de type dynamique moléculaire) qui
permettrait, au moins pour les basses températures, de mieux comprendre
la composante de réseau. Dans un deuxième temps, il faudrait introduire les
interactions électrons/phonons (compétences de physicien du solide) pour
prendre en compte la composante de diffusion et ainsi mieux comprendre
l’influence de différents défauts sur le PTE.
18
Techniques expérimentales de caractérisation de la précipitation
2.2 Solubilité du cuivre dans le fer : couplage PTE/SAXS
Pour plus de détails, le lecteur
pourra se rapporter à l’article
noté [I] dans l’annexe B et détaillé à
l’annexe D.
Au cours du stage post-doctoral de Grégory Covarel, nous avons étudié
la précipitation du cuivre dans une nuance industrielle (Contrat ASCOMETAL) et nous avons initié une étude plus fondamentale sur la caractérisation
de la précipitation du cuivre dans le fer pur (alliage binaire modèle) par
la mesure du pouvoir thermoélectrique. En effet, travailler sur un alliage
modèle permet de s’assurer que seule la composition en soluté de la solution solide va varier au cours de la précipitation. C’est donc un cas “idéal”
pour mener un suivi de précipitation par PTE. Après avoir mesuré le coefficient d’influence du cuivre sur le PTE du fer pur, nous avons comparé les
cinétiques de précipitation suivies en PTE et par la technique de la diffusion
des rayons X aux petits angles (SAXS), réalisées au cours de la thèse de
Fabien Perrard 14 au LTPCM. Ces cinétiques ont permis de proposer une
valeur de la limite de solubilité du cuivre dans le fer dans un domaine de
température où très peu de données existaient. Cette limite de solubilité a
même été confirmée par une mesure à la sonde atomique tomographique.
Cette étude va être brièvement présentée par la suite.
2.2.1 La précipitation du cuivre
Figure 2.7: Diagramme de phases fercuivre. Contrairement à ce que ce diagramme pourrait laisser penser, la limite
de solubilité du cuivre dans le fer n’est
pas bien connue pour des températures
inférieures à 600◦ C.
Les alliages binaires fer-cuivre ont été énormément étudiés au cours
des 50 dernières années car le cuivre est un excellent candidat pour le
durcissement structural de quantité d’alliages industriels : aciers TRIP,
HSLA, aciers de cuves de réacteur...
Paradoxalement, c’est précisément dans le domaine de température dans
lequel on fait habituellement précipiter le cuivre (nez de précipitation entre
550◦ C et 600◦ C) que l’on dispose de très peu de données expérimentales
sur sa limite de solubilité dans le fer. Celles qui sont disponibles dans la
littérature sont des extrapolations (le plus souvent fausses) de mesures effectuées à plus haute température. En effet, les limites de solubilité sont
déterminées généralement par des techniques macroscopiques comme la
méthode du couple de diffusion dans laquelle on met en contact intime
du fer et du cuivre et on attend l’équilibre thermodynamique avant de mesurer la quantité de cuivre dans le fer. Ces méthodes, très pratiques pour
des températures supérieures à 700◦ C sont impossibles à réaliser en dessous
de 600◦ C car l’équilibre macroscopique est trop long à atteindre.
Pour surmonter cette difficulté, nous avons réalisé un revenu à partir
d’une solution solide sursaturée d’un alliage Fe-1.4wt%Cu qui conduit à une
précipitation très fine du cuivre (quelques nanomètres) et donc des champs
de diffusion dont l’échelle caractéristique permet d’atteindre l’équilibre dans
des temps raisonnables (quelques mois). A ces tailles, il devient nécessaire
de prendre en compte l’effet de Gibbs-Thomson (voir section 3.2.7 du chapitre 3).
14. Perrard (F.), Caractérisation et modélisation de la précipitation du carbure de
niobium et du cuivre dans les aciers bas carbone. Thèse de doctorat, INP Grenoble, 2004
2.2 Solubilité du cuivre dans le fer : couplage PTE/SAXS
19
2.2.2 Calibration du PTE
0
-0.2
-0.4
ρ.∆
ρ.∆S / Fe (µ
µV/K)
Avant d’utiliser le PTE pour mesurer la solubilité du cuivre dans le
fer, il a été nécessaire de s’assurer de la validité de la loi de GorterNordheim (équation (2.2)) et de mesurer le coefficient d’influence SCu du
cuivre sur le PTE du fer. Pour cela, un deuxième alliage a été utilisé (Fe0.8wt%Cu). La droite de calibration donnée à la figure 2.8 montre que l’on
peut raisonnablement utiliser la loi de Gorter-Nordheim pour estimer la
teneur en soluté de la solution solide de cuivre dans le fer. Cette calibration
permet d’estimer le coefficient d’influence SCu = 23.4 nV/K connaissant la
résistivité spécifique du cuivre αCu = 3.9 µΩ.cm/wt%.
-0.6
-0.8
-1
-1.2
-1.4
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
[Cu] in wt%
2.2.3 Résultats
2γvat
XCu (R) = XCu (∞) exp
RkB T
(2.5)
15. Deschamps (A.), Précipitation durcissante dans les matériaux de structure.
Mémoire d’Habilitation à Diriger des Recherches - INPG, 2003
Figure 2.8: La droite de calibration
ρ∆S = f ([Cu]) montre que l’on peut
utiliser la loi de Gorter-Nordheim pour estimer la teneur en cuivre de la solution
solide.
0
500°C
-1000
475°C
-2000
TEP (nV/°C) / Fe
Une série de revenus à des températures allant de 450◦ C à 700◦ C a été
réalisée et suivie en PTE (figure 2.9). Pour les températures supérieures à
500◦ C, il a été possible de suivre la cinétique de précipitation jusqu’à la fin
(stabilisation du PTE). Trois informations importantes peuvent être tirées
de ces cinétiques : (i) l’évolution sigmoı̈dale des courbes de PTE renseigne
sur la cinétique à laquelle la précipitation se déroule ; (ii) le niveau final
de PTE est directement lié à la teneur en soluté de la solution solide en fin
de précipitation et permet donc d’estimer la limite de solubilité ; (iii) à
partir de l’évolution de la teneur en soluté de la solution solide, on peut
facilement estimer la fraction volumique précipitée.
La diffusion des rayons X aux petits angles (SAXS) permet également
de suivre la cinétique de précipitation et d’accéder à la fraction volumique
précipitée. Cette technique donne aussi accès à l’évolution du rayon moyen
des précipités au cours du traitement. Pour plus de détails sur la diffusion
aux petits angles, on pourra se rapporter à la thèse de Fabien Perrard ou
au mémoire d’HDR d’Alexis Deschamps 15 . Sur la figure 2.10 on observe
un très bon accord entre les valeurs de fraction transformée (fraction volumique précipitée normalisée à 1) données par le PTE et par la diffusion
des rayons X.
A partir de la valeur de PTE en fin de cinétique de précipitation on peut
tracer l’évolution de la limite de solubilité du cuivre dans le fer pour des
températures allant de 500◦ C à 600◦ C (figure 2.12). Ces valeurs doivent
être corrigées de l’effet de Gibbs-Thomson qui modifie la solubilité d’un
élément quand le rayon R des précipités en équilibre avec la solution solide
est petit :
450°C
-3000
600°C
-4000
550°C
-5000
575°C
525°C
-6000
700°C
-7000
-8000
-9000
10
100
1000
10000
100000
1000000 1000000
0
Time (s)
Figure 2.9: Cinétiques de précipitation du
cuivre dans le fer suivies par mesure de
pouvoir thermoélectrique.
20
Techniques expérimentales de caractérisation de la précipitation
1
0.9
1
500°C
0.9
0.8
Transformed fraction
0.8
Transformed fraction
600°C
0.7
0.6
0.5
0.4
0.3
From TEP
0.2
From SAXS in-situ
0.1
0.7
0.6
0.5
0.4
0.3
0.2
From TEP
0.1
0
1.E+01 1.E+02 1.E+03 1.E+04 1.E+05 1.E+06 1.E+07
From SAXS in-situ
0
1.E+01 1.E+02 1.E+03 1.E+04 1.E+05 1.E+06 1.E+07
Time (s)
Time (s)
From SAXS ex-situ
Figure 2.10: Évolution de la fraction transformée (fraction volumique précipitée normalisée
à 1) à 500◦ C (gauche) et 600◦ C (droite). Le pouvoir thermoélectrique et la diffusion des
rayons X (SAXS) in situ sont en excellent accord.
100
500°C in-situ
Precipitate radius (nm)
600°C in-situ
700°C in-situ
10
500°C ex-situ
1
0.1
10
100
1000
10000
100000
1000000
Time (s)
Figure 2.11: Évolution du rayon moyen
des précipités mesuré in situ par diffusion
des rayons X aux petits angles.
800
750
Temperature (°C)
700
TEP
650
TAP
600
[Salje78]
Thermocalc [PKP]
550
Thermocalc [PBIN]
500
Extrapolation from [Salje78]
450
0
0.2
0.4
0.6
0.8
1
1.2
1.4
Le rayon des précipités a été mesuré par SAXS in situ (figure 2.11). On
remarque que même pour les temps longs, le rayon moyen des précipités est
suffisamment petit pour modifier la valeur de la limite de solubilité : celle
ci est augmentée de 6% à 500◦ C et de 1% à 700◦ C.
Même après correction des effets de Gibbs-Thomson, le PTE donne
des valeurs de limite de solubilité qui sont plus élevées que la plupart des
données disponibles dans la littérature. Cette tendance a été confirmée
à 500◦ C par une mesure à la sonde atomique qui donne une valeur en
très bon accord avec le PTE. Cette différence n’est pas surprenante car les
résultats de la littérature ne sont que des extrapolations de mesures réalisées
à des températures supérieures à 700◦ C. Le comportement complexe de la
matrice ferritique dans le domaine 500◦ C-700◦ C expliquerait certainement
cette différence entre extrapolations et mesures.
2.2.4 Conclusion
Le pouvoir thermoélectrique et la diffusion aux petits angles se sont
avérées être deux techniques tout à fait complémentaires : alors que la diffusion donne des résultats sur les précipités (fraction transformée et rayons
moyens) le PTE caractérise précisément la teneur en soluté de la solution
solide.
Ces grandeurs sont évidemment liées et le très bon accord observé sur la
cinétique de précipitation du cuivre dans le fer valide les deux techniques.
La mesure de la limite de solubilité du cuivre dans le fer est un bel exemple
de couplage de ces deux techniques car la solubilité donnée par le PTE en
fin de cinétique de précipitation doit être modifiée pour prendre en compte
la courbure des précipités, qui elle, est mesurée par la diffusion aux petits
Solubility limit (wt%)
Figure 2.12: Limite de solubilité du cuivre
dans le fer mesurée par PTE. Les valeurs
trouvées sont en désaccord avec les extrapolation habituellement utilisées dans
la littérature 16 .
16. Salje (G.) et Feller-Kniepmeier (M.), ≪ The diffusion and solubility of iron in
copper ≫, J. Appl. Phys., vol. 49, 1978, p. 229–232
2.3 Couplage PTE/MET : vieillissement de la martensite
21
angles.
La manipulation de diffusion aux petits angles est installée et développée
au LTPCM à Grenoble. C’est une grande chance que nous avons dans la
région Rhône-Alpes de pouvoir s’appuyer sur un réseau de collaborations
au sein de la fédération “FédéRAMS” (CNRS FR2145) pour développer
la complémentarité des approches expérimentales. L’étude que nous avons
menée avec Alexis Deschamps sur la limite de solubilité du cuivre dans le
fer en est un bel exemple.
2.3 Couplage PTE/MET : vieillissement de la martensite
H - 240°C
H - 200°C
H - 110°C
4
-1
(µV.K )
3
2
∆S
Dans le cadre de la thèse de Christine Sidoroff, nous avons utilisé le
pouvoir thermoélectrique pour tenter d’obtenir des informations quantitatives sur les évolutions des différents stades de vieillissement d’un acier
martensitique 100Cr6. Bien que les différents stades de vieillissement de
la martensite soient relativement bien connus, très peu de données (fraction des différentes phases, composition en carbone de la martensite) ou de
modèles quantitatifs ont été proposés.
Le but de cette étude était de fournir des données d’entrée à un modèle
mécanique de type “homogénéisation” capable de prévoir l’évolution dimensionnelle de l’acier.
1
0
1
10
100
1000
10000
Temps (min)
2.3.1 Vieillissement de la martensite
Les aciers martensitiques présentent une dureté très élevée qui est utilisée notamment dans le cas des roulements. Par contre, leur structure fortement métastable aura tendance à évoluer en cours d’utilisation, même
après un revenu. Après la trempe, l’acier martensitique a une microstructure fortement perturbée due à la mauvaise accommodation des différentes
variantes de martensite. Plusieurs paramètres vont contribuer à l’évolution
de la structure martensitique : (i) le carbone va avoir tendance à précipiter ;
(ii) la densité de dislocations va diminuer ; (iii) la structure très fine des
“grains” va progressivement grossir.
Le chemin cinétique conduisant à l’obtention d’un équilibre stable est
assez compliqué et dépend bien évidemment de la température de revenu.
Pour simplifier, imaginons un revenu à l’ambiante d’une durée infinie.
Différent stades seraient alors observés : (0) le carbone est piégé par les
dislocations ; (1) le carbone précipite sous une forme métastable appelée ǫ′ ;
(2) et (3) l’éventuelle austénite résiduelle se déstabilise simultanément à la
précipitation de la cémentite ; (4) les joints de grains de réorganisent pour
arriver à une structure plus grossière. Simultanément à ces quatre stades
on assiste aussi à la restauration des dislocations.
Figure 2.13: Vieillissement d’un acier
martensitique 100Cr6 caractérisée par
le pouvoir thermoélectrique. On observe
deux évolutions sigmoı̈dales qui semblent
convoluées avec une évolution linéaire.
22
Techniques expérimentales de caractérisation de la précipitation
2.3.2 Étude expérimentale
0,5µm
0,5µm
Figure 2.14: Image en champ clair de (1)
carbures ǫ et (2) cémentite qui prouvent
que les deux évolutions sigmoı̈dales mesurée en PTE sont liées à la précipitation
des carbures.(tiré de la thèse de C. Sidoroff 17 .)
Pour prendre en compte tous les stades du vieillissement de la martensite, des revenus à différentes températures allant de 110◦ C à 505◦ C ont été
effectués. Ces revenus ont été interrompus pour faire les mesures de PTE.
Ces mesures montrent deux évolutions sigmoı̈dales qui semblent convoluées
avec une évolution linéaire (voir figure 2.13). En parallèle, des observation
en MET (champ clair et cliché de diffraction) montrent que : (i) pour un
revenu de 5 heures à 140◦ C qui correspond à la fin de la première évolution
sigmoı̈dale, des précipités de type ǫ sont clairement identifiés (figure 2.141) ; (ii) pour un revenu de 2 heures à 240◦ C qui correspond à la fin de la
deuxième évolution sigmoı̈dale, des précipités de cémentite sont présents
(figure 2.14-2).
Ceci nous amène tout naturellement à faire les hypothèses suivantes :
– La première évolution sigmoı̈dale de PTE (revenu à basse
température) est due à l’appauvrissement de la solution solide en
carbone qui précipite sous forme de carbure ǫ ;
– La deuxième évolution sigmoı̈dale de PTE (revenu à plus haute
température) est due à l’appauvrissement de la solution solide en
carbone qui précipite sous forme de cémentite et à la disparition de
l’austénite résiduelle.
– L’évolution linéaire observée clairement en fin de revenu à 240◦ C
et vraisemblablement présente tout au long du revenu est due à la
restauration.
2.3.3 Analyse des résultats
4.5
4
3.5
La variation de PTE au cours du revenu se décompose donc en trois
termes : un terme lié à l’appauvrissement en carbone de la solution solide
∆SSS , un terme lié à la décomposition de l’austénite résiduelle ∆SγR =
fγR KγR et un terme lié à la restauration ∆SD = KD log(t) :
∆S (µ
µv/K)
3
2.5
∆S = ∆SSS + ∆SγR + ∆SD
(2.6)
2
Pour évaluer l’effet de la décomposition de l’austénite résiduelle, une
autre
série de revenus a été effectuée en faisant un passage par le froid
110°C
140°C
170°C
0.5
entre la trempe et les revenus afin de déstabiliser une partie de l’austénite
200°C
240°C
280°C
0
1
10
100
1000
10000
résiduelle dont la teneur a été mesurée dans les deux cas par analyse de
Time (min)
diffractogramme : fγR =10.3% sans et 4.7% avec passage par le froid. La
Figure 2.15: Évolution du PTE lors des mesure de la différence de PTE à la fin du revenu a permis d’estimer le
revenus à différentes températures allant coefficient d’influence de l’austénite (en faisant l’hypothèse d’une loi de
−1
de 110 à 240◦ C.
.
mélange simple) à KγR = 0.055 µV·K−1 · %γR
1.5
1
17. Sidoroff (C.), Analyse microstructurale et modélisation des évolutions dimensionnelles de l’acier 100Cr6 : structures martensitique et bainitique. Thèse de doctorat, INSA,
France, 2002. 205p
18. Speich (G. R.) et Taylor (K. A.), Martensite, chap. Tempering of ferrous martensites, p. 331p. ASM International, 1992
2.3 Couplage PTE/MET : vieillissement de la martensite
23
Y = 1 − exp [−(K.t)n ]
nm
Ym = 1 − exp [−(Km .t)
110°C
140°C
3
170°C
2.5
200°C
2
240°C
1.5
280°C
1
(2.7)
Pour prendre en compte la précipitation des phases métastable (ε) et
stable (Fe3 C) et la décomposition de l’austénite résiduelle, on utilise une
loi JMAK (équation 2.7) pour chacune des transformations. En considérant
que l’apparition de la phase stable va déstabiliser la phase métastable, on
a:
Ys = 1 − exp [−(Ks .t)ns ]
4
3.5
µv/K)
∆S (µ
Pour décrire les évolutions du PTE liées à la précipitation des carbures
et à la décomposition de l’austénite résiduelle, on utilise le modèle empirique de Johnson-Mehl 19 -Avrami 20 -Kolmogorov 21 (JMAK) qui évalue la
fraction précipitée Y en fonction du temps t et de deux paramètres K et
n qui décrivent respectivement le moment où la précipitation a lieu et la
vitesse de précipitation :
0.5
0
1
100
1000000
100000000
Time (min)
Figure 2.16: Les courbes de la figure 2.15
ont été décalées en utilisant une loi d’Arrhenius avec une énergie d’activation de
132 kJ/mol en accord avec Speich 18 .
(2.8)
] − Ys
(2.9)
L’indice m indique la phase métastable et s la phase stable. Les quantités de carbone cm et cf qui sont parties de la solution solide vers les
précipités métastables ou stables sont :
110°C
140°C
170°C
200°C
240°C
280°C
JMAK (Total)
Dislocations
JMAK (epsilon)
JMAK (cementite)
JMAK (retained austenite)
4
3.5
3
cs = (c0 − cfs )Ys
(2.10)
(2.11)
2.5
∆S (µ
µv/K)
cm = (c0 − cfm )Ym
css
10000
2
1.5
1
On peut donc facilement avoir la quantité de carbone en solution solide :
= c0 − cm − cs . De là, on tire une estimation du PTE :
0.5
0
1
100
10000
1000000
100000000
Time (min)
∆S = (cm + cs )KC + YS fγR KγR + KD log(t)
(2.12)
Les valeurs et l’origine des paramètres utilisés pour évaluer le PTE sont
rassemblés dans le tableau 2.1.
L’évolution temporelle du PTE est donnée sur la figure 2.17 ; elle
est comparée aux mesures expérimentales ramenées à 110◦ C grâce à
l’équivalence temps/température (loi d’Arrhenius).
Figure
2.17:
Décomposition
des
différentes contributions au PTE.
L’ajustement des paramètres des loi
JMA permet un très bon accord avec les
valeurs expérimentales de PTE.
0.16
%C epsilon
19. Johnson (W. A.) et Mehl (R. F.), ≪ Reaction kinetics in processes of nucleation
and growth ≫, Trans. Am. Inst. Min. Metall. Eng., vol. 135, 1939, p. 416–458
20. Avrami (M.), ≪ Kinetics of phase change. iii: Granulation, phase change an microstructures ≫, J. Chem. Phys., vol. 9, 1941, p. 177–184
21. Kolmogorov (A. N.), ≪ Statistical theory of crystallization of metals ≫, Izv. Akad.
Nauk SSSR, Ser. Mat, vol. 1, 1937, p. 355–359
22. Brahmi (A.), Etude de la précipitation des carbures de fer en présence du manganese et du nitrure d’aluminium dans les aciers extra-doux par mesure du pouvoir thermoélectrique. Thèse de doctorat, INSA, France, 1993. 212p
Concentration (wt%)
0.14
%C cementite
0.12
%C solid solution
0.1
0.08
0.06
0.04
0.02
0
1
10
100
1000
10000 100000 1E+06 1E+07
Time (min)
Figure 2.18: Répartition du carbone dans
la solution solide, et les différents carbures. Ces résultats servent de données
24
Techniques expérimentales de caractérisation de la précipitation
Paramètre
Ks
ns
Km
nm
c0
cfs
cfm
KD
KC
KγR
Valeur
1.0 × 10−6
0,71
7.6 × 10−3
0.69
0.15%
0
0,076%
0.12
−1
16 µV·K · (wt%C)−1
0.051 µV·K−1 · (vol%γR )−1
Origine
Ajusté
Ajusté
Ajusté
Ajusté
Ajusté
Diagramme de phase
Ajusté
Ajusté
Thèse de Brami 22
Passage par le froid
Tableau 2.1: Valeurs et origine des paramètres utilisés pour évaluer les variations du PTE au
cours du revenu de l’acier 100Cr6.
2.3.4 Conclusion
Grâce à cette approche, il a donc été possible de donner une estimation
des évolutions de la concentration de la solution solide (css ), de la quantité de carbone partie dans la phase métastable ε (cm ), et dans la phase
stable Fe3 C (cs ) (voir figure 2.18). Ce qui a permis d’alimenter un modèle
mécanique de type “homogénéisation” qui a donné des résultats en bon
accord avec les évolutions dimensionnelles mesurées en dilatométrie. Cette
étude mériterait d’être approfondie en utilisant un modèle plus physique
de type nucléation/croissance qui prendrait mieux en compte le carbone lié
aux dislocations.
L’utilisation du PTE dans le cas du vieillissement de la martensite
nécessite de nombreuses hypothèses à cause du nombre important de paramètres évoluant simultanément. Cet exemple illustre donc parfaitement
les potentialités et les faiblesses de cette technique.
Pour peu que l’on réussisse à interpréter ses différentes évolutions, le
pouvoir thermoélectrique est un outil très puissant qui peut fournir des
données quantitatives sur la microstructure.
2.4 Précipitation dans les aciers microalliés : couplage
MEB/MET/dissolution
Pour plus de détails, le lecteur
pourra se rapporter à l’article
noté [N] dans l’annexe B.
Nous avons démarré l’étude de la précipitation dans les aciers microalliés
en 2002 sous l’impulsion d’ASCOMETAL qui souhaitait lancer une collaboration sur le long terme avec des partenaires universitaires pour mieux
comprendre les évolutions microstructurales de leurs aciers lors de traitements en phase austénitique. En effet, l’austénitisation est une étape obligatoire du traitement thermomécanique de certains aciers “spéciaux” (aciers
à ressort, pignonnerie) : soit pour procéder à la cémentation, soit pour ob-
2.4 Précipitation dans les aciers microalliés : couplage MEB/MET/dissolution
25
tenir une structure martensitique après trempe. Il a été constaté qu’une
dispersion fine de précipités permettait de “tenir” le grain austénitique.
Le but d’ASCOMETAL est de mieux comprendre l’évolution de l’état de
précipitation d’aciers microalliés en cours d’austénitisation.
Ce travail a comporté deux volets : une partie modélisation qui sera
détaillée dans le chapitre suivant et une partie expérimentale qui visait
à caractériser différents états de précipitation de carbonitrures de type
(Ti,V,Nb)(C,N) dans l’austénite.
Le but de cette section n’est pas de présenter les techniques de caractérisation que nous avons utilisées dans les cas des aciers micro-alliés
(une telle présentation est rédigée dans la thèse de D. Acevedo 23 ), mais de
faire le point sur ces techniques en terme de potentialités et limites en ce qui
concerne la détermination de (i) la fraction volumique ; (ii) la distribution
de taille ; (iii) la cristallographie ; (iv) la chimie des précipités.
2.4.1 Fraction volumique précipitée
23. Acevedo (D.), Evolution de l’état de précipitation au cours de l’austénitisation
d’aciers microalliés au vanadium et au niobium. Thèse de doctorat, INSA Lyon, 2007
24. Le phénomène de double diffraction a tendance à diminuer l’intensité diffusée au
profit de l’intensité diffractée, et ce, d’autant plus que la taille de grains est petite
potentiostat
échantillon
panier
en
platine
électrolyte
Figure 2.19: Après dissolution de la matrice, les précipités sont récupérés dans
un panier puis analysés par spectrométrie
à plasma.
0.3%
Fraction Volummique
Pour déterminer la fraction volumique précipitée, on pourrait, sur la
lancée de l’étude sur le fer-cuivre (voir section 2.2.1), être tenté d’utiliser la
diffusion des rayons X et/ou le pouvoir thermoélectrique. Malheureusement, le fait d’étudier la précipitation dans l’austénite nous oblige
à réaliser une trempe (pour figer la structure) qui a pour conséquence
la formation de martensite. Celle-ci (i) masque totalement les effets du
vanadium et/ou niobium en solution solide sur le PTE et, (ii) affaiblit
considérablement le ratio signal sur bruit d’une expérience de SAXS à cause
du phénomène de double diffraction 24 ; ce qui rend impossible l’utilisation
de ces deux techniques.
Une autre possibilité pourrait être l’observation MEB en mode
électrons rétrodiffusés qui donne un signal fonction de la chimie (numéro
atomique) de la zone analysée. Les échantillons sont polis et non attaqués :
la fraction surfacique de précipités observés serait directement égale à la
fraction volumique recherchée. Cependant, le MEB FEG du laboratoire
n’a pas la résolution suffisante pour observer des carbonitrures de quelques
nanomètres de rayon dans ce mode-ci.
Une possibilité subsiste avec le MEB, en mode électrons secondaires
qui donne un signal fonction de la topographie de la surface analysée. Les
échantillons massifs sont donc polis et attaquées. Cependant, il est très difficile d’estimer à la fois la profondeur d’attaque et la quantité de précipités
qui est partie dans l’acide lors de l’attaque, ce qui empêche toute estimation
précise de la fraction volumique précipitée.
La technique utilisée et validée dans le cadre de cette étude est la dissolution électrolytique de la matrice martensitique et l’analyse par spec-
0.2%
0.1%
870°C Exp
0.0%920°C
1.E-01
Exp
950°C Exp
1.E+01
1.E+03
1.E+05
1.E+07
Temps (s)
Figure
2.20:
Fraction
volumique
précipitée, mesurée par dissolution,
de carbures de vanadium au cours de
26
Techniques expérimentales de caractérisation de la précipitation
ehg
efg
eig
Figure 2.22: Image MEB d’un alliage FeVC traité 8 jours à 700◦ C puis refroidi lentement : (a) image brut ; (b) image après détourage
manuel ; (c) distribution de taille résultante de l’analyse de 236 précipités 26 .
trométrie à plasma du résidu (précipités) qui permet d’accéder à la masse
des différentes espèces atomique précipités (voir figure 2.19). Dans le cas
de la précipitation de carbure de vanadium VCx , pour passer de la fracV mesurée par spectrométrie à la
tion massique de vanadium précipité fm
fraction volumique de carbures de vanadium précipités fvVCx , on utilise la
relation suivante (où MC et MV sont les masses molaires du carbone et du
vanadium) :
fvVCx
MEB en mode transmission
Faisceau
incident: ~30 kV
Détecteur
transmission
Faisceau
transmis
Demi-diode A:
image en
champ clair
Réplique
d’extraction
Électrons
diffusés
Demi-diode B:
image en
champ sombre
=
V
fm
ρFe
ρVCx
MC
x
+1
MV
(2.13)
On remarque qu’il est nécessaire de connaı̂tre la chimie et la cristallographie du carbure pour obtenir la fraction volumique précipitée.
Cette technique permet donc d’obtenir, par exemple, les cinétiques de
réversion 25 de carbures de vanadium à différentes températures (voir figure 2.20).
2.4.2 Distribution de taille des précipités
C’est au cours du DEA d’Agnès Bogner que nous avons démarré l’étude
des potentialités du MEB FEG, récemment acquis au laboratoire, pour une
Figure 2.21: Principe du mode transmiscaractérisation quantitative de différents états de précipitation de carbures
sion dans un microscope à balayage.
de vanadium dans l’austénite.
25. On appellera réversion un traitement thermique isotherme qui consiste, à partir
d’un état de précipitation à l’équilibre à une température T1 , à porter l’échantillon à une
température T2 > T1 .
26. Bogner (A.), ≪ Précipitation dans la ferrite et dissolution dans l’austénite d’un
alliage modèle Fe-C-V ≫. Rapport de DÉA, INSA Lyon, 2003
2.4 Précipitation dans les aciers microalliés : couplage MEB/MET/dissolution
j
lmn
27
µk
omn
olmn tu omn
pqq rs tu lmn
Figure 2.25: Comparaison de la même zone d’un échantillon observé sur réplique : (i) en MET conventionnelle ; (ii) en MEB conventionnelle ;
(iii) en MEB mode transmission (détecteur placé sous l’échantillon) ; et (iv) en MET mode HAADF (détecteur annulaire et mode balayage).
L’avantage indéniable d’un tel instrument est sa facilité de prise en main
et de préparation des échantillons pour lesquels un polissage miroir suivi
éventuellement d’une attaque suffit.
La figure 2.22 montre une dispersion fine de carbures de vanadium dans
la ferrite. Les précipités ont été détourés manuellement, ce qui a permis de
donner leur distribution. Notons ici que le contraste lié à cette technique
est assez mal adapté à une automatisation de l’étape de détourage, ce qui
limite ses possibilités pour traiter un grand nombre de précipités. De plus,
même à l’œil, il subsiste un doute sur un certains nombre de particules :
matrice ou précipités ?
C’est pourquoi, au cours de la thèse de D. Acevedo, nous avons choisi
de travailler sur réplique d’extraction pour permettre un traitement quasi
automatique sur toutes les particules.
C’est au cours de cette thèse qu’une étude comparative a été faite sur
les quatre modes possibles d’analyse d’une réplique d’extraction pour obtenir une distribution de taille : (i) en MET conventionnelle ; (ii) en MEB
conventionnelle ; (iii) en MEB mode transmission (détecteur placé sous
l’échantillon, voir figure 2.21) ; et (iv) en MET mode HAADF (détecteur
annulaire et mode balayage, voir figure 2.23).
La figure 2.25 compare la même zone observée avec les quatre techniques. Le contraste en MEB mode transmission et MET HAADF est excellent ce qui offre de bonne potentialités pour un traitement rapide des
images. De plus, les deux images MEB/transmission et MET/HAADF sont
quasi-identiques. Pour comparer ces deux techniques, une analyse statistique plus poussée a été menée sur un grand nombre de précipités : la
figure 2.24 montre que ces deux techniques donnent des distributions de
taille similaires.
HAADF
”ƒ••–‡ƒ„ ƒ„€~†{‚{ —
z†w| wzx{
˜Š‹™“Š‰ š‰›‹š š‹
œžŸ HAADF
MET
¡€w‚ƒxx„
¢†~…xƒ£–{¤
ˆ‰Š‹ŒŠ‹Ž
‘’“Ž‹
vwxwywz{ |{
x}~€w‚ƒxx„ …w†
xw ‡„|{
50 nm
Figure 2.23: Principe du HAADF en
mode balayage dans un microscope à
transmission.
STEM in SEM
HAADF in TEM
Ceci nous a amené à utiliser le MEB en mode transmission qui présente
le meilleur compromis qualité d’images/facilité d’utilisation pour caractériser les distributions de taille de précipités dont la chimie est
connue par ailleurs.
Figure 2.24: Comparaison des distributions de taille obtenues avec le MEB en
mode transmission (voir figure 2.21) et le
MET en mode HAADF (voir figure 2.23).
28
¥
Techniques expérimentales de caractérisation de la précipitation
µ¦
Figure 2.26: Cristallographie des carbures de vanadium après un traitement de 10 heures à 700◦ C, puis 10 jours à 800◦ C : (a) image
MET d’un carbure ; (b) cliché de diffraction du carbure ; (c) maille monoclinique V6 C5 ordonnée ; (d) cliché de diffraction d’un composé
massif de composition V6 C5 (tiré de la thèse d’État de T. Epicier 27 ). La comparaison des clichés de diffraction permet d’identifier sans
ambiguı̈té la structure V6 C5 ordonnée des précipités observés.
2.4.3 Cristallographie des précipités
Pour plus de détails, le lecteur
pourra se rapporter à l’article
noté [M] dans l’annexe B.
Bien que la cristallographie de la phase précipitée ne soit pas un paramètre capital pour caractériser un état de précipitation, elle nous renseigne souvent sur la chimie et permet de mieux identifier cette phase.
La technique reine pour identifier une structure cristallographique
est l’analyse des clichés de diffraction obtenus en MET. L’indexation de
différentes taches de diffraction permet, en se reportant à des tables (fiches
JCPDS), de se référer à des structures connues. Nous allons voir à travers
un exemple à priori simple comment l’étude d’un cliché de diffraction a
permis de trouver la cristallographie et la chimie de carbures de vanadium.
On pourrait croire que la précipitation de carbures de vanadium dans
la ferrite soit presque un cas d’école : le carbure VC étant un composé
stœchiométrique composé de deux réseaux CFC imbriqués type NaCl. Malheureusement il n’en est rien ! En effet, plusieurs structures sont reportées
dans la littérature : de V4 C3 à VC en passant par V6 C5 ou VC1−x . Toutes
ces structures comportent des lacunes dans le sous-réseau interstitiel du
carbone qui peuvent être ordonnées ou non.
Tous les précipités que nous avons observés après un traitement de 10
heures à 700◦ C, puis 10 jours à 800◦ C (germination homogène des carbures
dans la ferrite et mûrissement dans l’austénite) ont été positivement identifiés comme ayant la forme monoclinique du composé V6 C5 ordonné (voir
figure 2.26).
Il est intéressant de constater qu’un grand nombre de travaux, dont certain assez récents, identifient les carbures comme étant de type V4 C3 en se
basant sur l’article “historique” de Baker et Nutting 28 qui mentionne plu27. Epicier (T.), Contribution à l’étude des phénomènes d’ordre et des mécanismes de
plasticité dans les carbures métalliques. Thèse d’Etat, 1988
28. Baker (R. G.) et Nutting (J.), Precipitation processes in steels, chap. The tempering of a Cr-Mo-V-W and a Mo-V steel, p. 1–22. Iron and steel institute, 1959
2.4 Précipitation dans les aciers microalliés : couplage MEB/MET/dissolution
nombre (normalisé)
0.8
Brut
0.6
0.4
0.2
1
0.8
nombre (normalisé)
1
1
nombre (normalisé)
29
950°C
0.6
0.4
0.2
0
0
10
20
30
40
50
60
70
80
90 100
% atomique de V
§¨¨ ¬© ¬© ¬ª«
×
( + )
0.8
1200°C
0.6
0.4
0.2
0
10
20
30
40
50
60
70
80
90 100
% atomique de V
­®® ²¯ ²¯ ²°±
×
( + )
10
20
30
40
50
60
70
80
90 100
% atomique de V
­®® ²¯ ²¯ ²°±
×
( + )
Figure 2.27: Résultats obtenus par analyse EDX de la chimie des particules observées dans l’État Brut (traitement de 10 heures à 700◦ C,
puis 10 jours à 800◦ C) et deux états de réversion : État brut plus 6 jours à 950◦ ou 4 jours à 1200◦ C. Plus le traitement de réversion est
effectué à haute température, plus les précipités s’appauvrissent en vanadium.
sieurs fois la structure V4 C3 malgré la présence de tâches de sur-structure
compatibles avec la structure V6 C5 , inconnue à l’époque.
En fait, depuis les années 1970, on sait que la composition M4 C3 correspond a une structure M4 C3 , identifiée dans les carbures de métaux de
transition du groupe V (VC, NbC et TaC) à la limite entre le monocarbure
cubique MC1−x et l’hémicarbure hexagonal M2 C 29 . Cependant, une ancienne fiche JCPDS, qui a maintenant été supprimée, (♯01-1159) décrivait
V4 C3 comme une simple structure CFC de type B1 (groupe spatial Fm3m)
avec le paramètre a = 0.416 nm. Cette fiche peut être la cause d’erreurs
d’indexation dans la littérature (V4 C3 au lieu du monocarbure type NaCl
VC1−x ). Il convient de remarquer que dans un travail précédent sur les
carbures dans les fontes 30 , les auteurs constatent aussi qu’il n’y a aucune
évidence de la structure M4 C3 dans les carbures indexés comme VC0.75 ou
V4 C3 dans la littérature.
On peut alors se demander si nombre d’études qui mentionnent la
structure V4 C3 n’ont pas en réalité observé la structure V6 C5 ...
2.4.4 Chimie de précipités (Nb,V)C
La chimie des précipités est un paramètre clé pour comprendre et
modéliser les différentes phases susceptibles de se former. La technique
la plus adaptée pour la caractériser dans une première approche est la
spectroscopie “Energy Dispersive X-Ray” (EDX) en mode nanosonde dans
un MET. Nous avons travaillé sur un alliage quaternaire FeVNbC pour
lequel la chimie des précipités n’était pas connue par avance : aurait-on
29. Yvon (K.) et Parté (E.), ≪ On the crystal structure of the close packed transition
metal carbides. I. The crystal structure of the ζ-V, Nb and Ta carbides, ≫, Acta Cryst.,
vol. B26, 1970, p. 149–153
30. Kesri (R.) et Hamar-Thibault (S.), ≪ Structures ordonnées à longue distance
dans les carbures MC dans les fontes ≫, Acta Metall., vol. 36, 1988, p. 149–166
30
Techniques expérimentales de caractérisation de la précipitation
nombre (normalisé)
1
EDX: 97 particules
HAADF: 569 particules
0.8
0.6
0.4
0.2
0
0
10 20 30 40 50 60 70 80 90
% at de V
Figure 2.28: Chimie de précipités de type
(V,Nb)C mesurée soit par nanosonde
EDX soit par analyse du niveau de gris
d’une image HAADF. La similarité des
résultats valide la technique HAADF.
% at de Vanadium
100
80
60
40
20
modèle
'2 binaires'
0
dosage
phases
1.E-03 de
1.E-01
1.E+01
résultats HAADF
1.E+03
1.E+05
1.E+07
Temps (s)
Figure 2.29: Évolution de la chimie des
précipités de type (V,Nb)C pendant un
traitement de réversion à 950◦ C, mesurée
par analyse du niveau de gris d’une image
HAADF et par la technique de dissolution
électrolytique couplé à la spectrométrie à
plasma.
des précipités mixtes comme le prévoient les bases de donnée thermodynamiques ou deux familles de précipités : l’une riche en vanadium et l’autre
riche en niobium ?
Après un traitement de précipitation (10 heures à 700◦ C, puis 10 jours
à 800◦ C), on observe clairement la présence de deux familles de précipités :
l’une riche en vanadium et l’autre riche en niobium (figure 2.27). Après
un traitement de réversion (i) à 950◦ C : la proportion de VC diminue par
rapport à celle de NbC ; (ii) à 1200◦ C, on observe la quasi-disparition des
carbures de vanadium.
Bien que la sonde EDX couplée à un MET soit une technique
extrêmement puissante, son utilisation est relativement lourde puisqu’il faut
faire une analyse sur chaque précipité observé. C’est pourquoi, dans le cadre
de la thèse de D. Acevedo, nous avons été amenés à développer, sous l’impulsion de T. Epicier, les potentialités de l’imagerie HAADF (voir figure 2.23)
en matière d’analyse chimique. En effet l’intensité d’une image HAADF (le
niveau de gris) est liée (i) à l’épaisseur traversée par le faisceau d’électrons
et (ii) au numéro atomique Z moyen dans la particule. Après une étape de
calibrage effectuée avec la sonde EDX, le traitement des images HAADF
a permis de donner une estimation de la chimie des précipités avec une
incertitude de 20%, liée notamment à l’écart à la sphéricité des précipités
(figure 2.28).
Grâce à sa relative facilité d’utilisation et de traitement automatique, l’analyse d’images HAADF a été utilisée pour caractériser la chimie
moyenne de plusieurs états de précipitation au cours d’un traitement de
réversion à 950◦ C. La comparaison avec la chimie moyenne donnée par la
dissolution électrolytique (figure 2.29) montre un excellent accord entre les
deux techniques.
Le mode HAADF permet dévaluer rapidement la chimie d’un très grand
nombre de précipités de type C(Nb,V) avec une précision de 20%, liée
à la non sphéricité des particules observées.
2.5 Caractérisation de la précipitation : conclusions et
quelques perspectives
2.5.1 Conclusions
A travers les trois exemples présentés dans ce chapitre, nous avons vu
l’intérêt que présente le couplage de techniques de caractérisation globales
(pour savoir “rien sur tout”) et locales (pour savoir “tout sur rien”).
Pour évaluer la fraction volumique précipitée, le PTE est une technique
qui mériterait d’être plus fréquemment utilisée car elle est simple d’utilisation et donne une valeur moyenne sur un très large volume. Sa très grande
sensibilité à la teneur en solutés mais aussi à nombre de paramètres microstructuraux est un avantage, mais aussi son principal inconvénient : il faut
soit (i) avoir une idée très claire des paramètres qui évoluent et de ceux qui
2.5 Caractérisation de la précipitation : conclusions et quelques perspectives
n’évoluent pas, (ii) travailler sur des systèmes simples pour lesquels seule
la teneur en soluté évolue. La dissolution électrolytique de la matrice, si
elle est applicable, couplée à la spectroscopie plasma peut représenter une
bonne alternative si on connaı̂t la chimie des précipités.
En ce qui concerne la taille des précipités, la diffusion aux petits angles
permet d’estimer une très bonne statistique dans le cas où le contraste avec
la matrice est suffisant. Dans le cas contraire, la microscopie électronique
permet, après un traitement plus fastidieux, d’obtenir de bonnes distributions de tailles. Les répliques d’extraction sont à privilégier car elles offrent
un meilleur contraste. Dans le cas de précipités dont on connaı̂t la chimie
par ailleurs, le MEB en mode transmission est une technique très efficace et
relativement facile d’utilisation. Dans les cas de précipités plus complexes,
on ne peut pas échapper à l’analyse en MET et nanosonde EDX.
Il faut noter que le champ sombre annulaire en MET (HAADF) est une
technique très prometteuse qui permet d’accéder à la fois à la chimie, mais
aussi à la distribution de taille. Cependant, il faut faire une hypothèse sur
la forme des précipités pour décorréler intensité et chimie.
Une modélisation du type Monte-Carlo traitant des interactions rayonnement/matière a été entreprise au laboratoire pour mieux interpréter les
résultats de ce type de techniques en MEB.
2.5.2 Perspectives
Structures cœur-coquille des (Ti,V,Nb)(C,N)
Pour aller encore plus loin dans la caractérisation fine de précipités
dans les aciers microalliés, il serait nécessaire de prendre en compte deux
éléments supplémentaires présents dans ces aciers en très faible quantité,
mais dont les conséquences sont importantes : le titane et l’azote. En effet, les nitrures de titane, extrêmement stables, sont susceptibles de servir
de site de germination aux carbo-nitrures et donner ainsi lieu à des structures cœur-coquille, non observés dans les alliages sans titane. De plus, la
présence d’azote va modifier complètement la séquence de précipitation car
les nitrures sont beaucoup plus stables que les carbures.
Dans le cas de précipités de type (Ti,V,Nb)(C,N), le dosage des éléments
interstitiels n’est pas possible en EDX, il faut alors utiliser une autre technique disponible au laboratoire : la spectroscopie de perte d’énergie des
électrons (EELS) qui est sensible aux liaisons chimiques à l’intérieur des
précipités. Si l’on veut doser le rapport C/N de carbo-nitrures, les répliques
“carbone” usuelles ne suffisent plus car le signal de carbone intrinsèque
des précipités est évidemment masqué : il est alors nécessaire de pouvoir
réaliser des répliques “alumine” pour lesquelles un évaporateur spécifique
(déposant un film d’alumine au lieu du film de carbone) est nécessaire. Un
tel évaporateur est en cours d’acquisition dans le cadre de la thèse de C. Leguen (thèse CIFRE ASCOMETAL ; co-encadrement avec T. Epicier) dont
le but est, entre autres, de préciser le rôle du titane et de l’azote dans les
aciers microalliés.
31
32
Techniques expérimentales de caractérisation de la précipitation
Rôle des contraintes dans la précipitation - ANR “CONTRAPRECI”
La prise en compte des contraintes en cours de précipitation reste rarement abordée et constitue un verrou scientifique important. En effet, les
premiers stades de la précipitation font souvent apparaı̂tre des nano-objets
dont la forme (plaquette, ou sphère), et la chimie sont très mal comprises :
la taille de ces objets implique que la matrice joue un grand rôle dans
leur chimie et sur le plan mécanique (contrainte imposée par un désaccord
cristallographique matrice/précipité, un défaut type dislocation).
Pour mieux comprendre l’interaction entre précipitation et contrainte
et pour expliquer la forme et la chimie des nano-précipités observés, un
projet blanc “CONTRAPRECI” a été déposé et accepté fin 2006 par
l’Agence Nationale de la Recherche. Ce projet implique des acteurs du CPR
’Précipitation’ CNRS-ARCELOR-ALCAN-CEA (2001-2005). La réussite
de ce CPR, dont découle la création GDR ’TransDiff’, a été rendue possible grâce à (i) la confrontation de nombreuses techniques expérimentales
et de modélisation (ii) la multitude et la richesse des collaborations qui
ont eu lieu ; (iii) un programme cohérent qui associait plusieurs laboratoires complémentaires sur des aspects scientifiques et des matériaux
étudiés identiques. L’idée est ici de prolonger cette même démarche sur la
problématique particulière de l’interaction entre contrainte et précipitation.
Les deux techniques expérimentales de pointe qui seront principalement utilisées dans le cadre de ce projet sont la microscopie électronique en transmission haute résolution à correcteur de cS 31 récemment acquise au Centre
Figure 2.30: Faute d’empilement dans de
l’or observé en METHR avec correcteur d’Élaboration de Matériaux et d’Études Structurales (CEMES) de Toude Cs (cliché : Felix Van Uden, CEMES). louse(voir figure 2.30) et la sonde atomique tomographique développée au
Groupe de Physique des Matériaux (GPM) de Rouen(voir figure 2.2).
Au laboratoire MATEIS et/ou ailleurs ?
Grâce aux techniques expérimentales de pointe dont il dispose (microscopie électroniques, PTE) et aussi à la compétence de nombreux
expérimentateurs, on peut considérer que le laboratoire MATEIS est un
cadre excellent pour développer la caractérisation de la précipitation dans
bon nombre de systèmes.
Cependant, il est parfois nécessaire, voire indispensable de faire jouer la
complémentarité entre laboratoires, c’est d’ailleurs ce qui a été une des clés
de la réussite du CPR “précipitation” lancé en 2001, et ce qui fait l’intérêt
de l’ANR “CONTRAPRECI”.
31. Le correcteur de cS (aberration de sphéricité) permet d’augmenter la résolution
spatiale du microscope, et donc la netteté des images en haute résolution notamment
Modélisation des cinétiques de
précipitation
3.1 Un peu d’histoire...
L’histoire de la métallurgie remonte à plusieurs milliers d’années. Le
premier métal travaillé fut le cuivre (“cuivre” signifie étymologiquement
“bronze de Chypre” d’après l’endroit où furent créées les premières carrières
de cuivre dans l’antiquité et la fin de la préhistoire). Les hommes commencèrent probablement par travailler le cuivre par martelage, et ils
s’aperçurent sans doute qu’il était plus facile de le travailler lorsqu’il était
chauffé (restauration et/ou recristallisation). Puis, en chauffant de plus en
plus, ils s’aperçurent qu’il fondait et que l’on pouvait donc le mouler. Ceci
constitua l’Âge du cuivre, vers -4000.
Le premier alliage utilisé par l’homme fut le bronze (alliage de cuivre et
d’étain). L’Âge du bronze s’étendit d’environ -2500 à -1000. Puis, à mesure
que les fours se perfectionnèrent, vers -1000 commença l’Âge du fer dont les
alliages fondent généralement à plus haute température que le cuivre. L’une
des premières civilisation à utiliser le fer furent les Hittites, les historiens
expliquant nombre de leurs victoires militaires par la maı̂trise de ce métal
très résistant.
L’utilisation de moulins à eau pour assurer le soufflage permit d’atteindre de plus hautes températures. C’est ainsi que vers 1450 en Europe on
réalisa la première coulée de fonte avec un haut-fourneau. Mais la sidérurgie
connaı̂t son plus fort développement à la fin du XVIIIe siècle, ce qui permit
la révolution industrielle.
Si on met en regard l’histoire de la métallurgie physique
(compréhension/modélisation des phénomènes physiques mis en jeu
dans la métallurgie) à celle de la métallurgie, on est frappé par la jeunesse
de cette discipline : à peine 150 ans contre 6000 ans pour la métallurgie !
En effet, on peut associer la naissance de la métallurgie physique à la
découverte par Matthiessen en 1867 des solutions solides en étudiant la
résistivité des métaux (la règle de Matthiessen est d’ailleurs rappelée et
utilisée au chapitre 2, section 2.1). Grâce aux progrès de la métallographie,
développée notamment par Martens, les différentes phases des alliages ont
Figure 3.1: Travail du métal en 1568, Allemagne
34
Modélisation des cinétiques de précipitation
été progressivement observées. Ainsi, quelques années plus tard, en 1876,
Gibbs publia un article historique sur les équilibres entre phases : “On the
Equilibrium of Heterogeneous Substances” 1 . L’aspect cinétique des transformation était encore très mal compris quand Arrhenius proposa, en 1889,
le concept d’énergie d’activation. La même année, Roberts-Austen, publie
le premier diagramme de phase Fe-C (voir figure 3.3).
L’arrivée des rayons X, découverts par Röntgen en 1895, va
révolutionner la métallurgie physique avec Laue en 1912 et Braggs en 1914,
en permettant de caractériser finement les différentes phases.
Parallèlement, entre 1922 et 1927, les principes fondamentaux de la
mécanique quantique furent établit par Bohr, Dirac, De Broglie, Heisenberg,
Jordan, Pauli et Schrödinger. C’est une conception radicalement nouvelle
de la physique qui est en train de naı̂tre mais qui devra attendre plusieurs dizaines d’années avant de pouvoir être appliquée à des problèmes
de métallurgie physique qui impliquent un grand nombre d’atomes.
En 1926, Volmer reprend les concepts de capillarité et d’équilibre thermodynamique de Gibbs pour donner naissance à ce que nous appelons
maintenant la théorie de la nucléation . Ses travaux seront repris par Backer et Döring en 1935 qui donneront à cette théorie sa forme actuelle.
Les premiers stades de la précipitation (plaquettes monoatomiques) sont
observés en 1937-38 par Guinier et Preston en étudiant les diagrammes de
diffraction X.
En 1934, Polanyi, Orowan et Taylor, constatant que la limite élastique
des métaux est beaucoup plus faible que celle prévue par les théories de
la déformation de l’époque, introduisent alors le concept de dislocation. Il
faudra attendre 15 ans pour les observer grâce au microscope électronique !
Ainsi, les dislocations constituent un des plus bel exemple de modélisation
visionnaire qui firent définitivement passer la métallurgie d’une science emFigure 3.2: Josiah Willard Gibbs (1839- pirique à une science prédictive !
1903).
En 1939, Snoek mesure le frottement intérieur d’un acier et met en
évidence une relaxation liée au saut des atomes de carbones en solution
solide dans le fer. Il mesure une énergie d’activation correspondant à la
diffusion du carbone. Dix ans plus tard, Zener propose une expression analytique du coefficient de diffusion.
Une nouvelle façon de voir les choses est introduite en 1953 grâce à
l’algorithme de Metropolis : les mouvements aléatoires des atomes sont
alors implicitement pris en compte, donnant naissance aux méthodes de
Monte-Carlo.
En 1962, Wagner rajoute une pierre à l’édifice de la théorie de la
nucléation en décrivant la croissance de précipités sphériques.
Cahn et Hilliard proposent en 1971 une description de la décomposition
spinodale basée sur l’étude de fonctions thermodynamiques. Cette approche
constitue la base de ce qui deviendra plus tard les méthodes de champ de
phase.
Figure 3.3: Premier diagramme de phase
Fe-C publié par Roberts-Austen en 1899.
1. Gibbs (J.), Collected Works, chap. On the equilibrium of heterogeneous substances
(1876). Green and Co., 1928
3.1 Un peu d’histoire...
35
¶¶
ÿþ àáâãäåæ çèéêêåëìæ
ÜÝ Þ Û − Û Ù
Üß Ù = Ý αÛ Ú − Û Ù
1.5E-18
∆
1E-18
òó
÷ø
5E-19
Energy (J)
ùú û üýþÿ
0
ô ó ôõöó
ÒÓ ÀÓ ÁÖ ÂÃÄ ÆÊ ∆ÔÀ ÇÆËÊÅ ÂÃÄ ÌÈ Õ ÉÍÇË
ÒÕ = β
Ð− ×Ø Ñ Ð − Î − τ Ï Ñ
-5E-19
-1E-18
-1.5E-18
0
5
10
15
20
Radius (nm)
µ
¶
ðåîåï åã
µ¶
íãîïæðñéäèã ñåîâïåëìæ
³´
µ´
µ
´
¶´
´
·¸¹º¸
¶»¼´
´¼½¾¿¸
Figure 3.4: Les différentes échelles de modélisation de la structure des matériaux : Ab-initio : Calcul des énergies de configuration carbonelacune dans une matrice de fer ; Dynamique moléculaire : interaction carbone dislocation vis et coin ; DM “coarse grained” : structure
lamellaire d’un copolymère-bloc ; Monte-Carlo cinétique : séquence de précipitation à partir d’une solution solide sursaturée ; Champ
Moyen : équations de nucléation/croissance à la base de la théorie classique de la germination et logiciel PreciSo.
En 1957, Alder and Wainwright reviennent à la mécanique de Newton, mais appliqué à chaque atome : c’est la naissance de la dynamique
moléculaire.
En 1985, l’explosion de la puissance des ordinateurs permet à Car et
Parrinello de calculer la dynamique de particules grâce à la dynamique
moléculaire quantique.
A la fin du XXe siècle, le développement des méthodes de simulations de
l’échelle de l’électron à l’échelle macroscopique permet des approches multiéchelles (voir figure 3.4) dans lesquelles les données de sortie d’une échelle
servent de données d’entrée d’une modélisation à l’échelle supérieure. C’est
dans ce cadre que nous nous situons aujourd’hui.
Dans la suite de ce chapitre seront présentées les bases et les verrous
scientifiques actuels liés à la théorie classique de la germination (échelle
du champ moyen). Elle sera appliquée à la précipitation simultanée de
plusieurs phases. Puis, le logiciel PreciSo sera présenté et utilisé dans le
cas de la dissolution de carbures de vanadium dans l’austénite. Enfin, nous
aborderons la problématique de la prédiction de la chimie des précipités
dans les aciers micro-alliés.
C’est dans le chapitre suivant que l’approche multi-échelle trouvera tout
son sens puisque seront présentées et développées les techniques de simulation à l’échelle atomique.
36
Modélisation des cinétiques de précipitation
3.2 Retour sur la théorie de la germination
Cette section a pour but de présenter de façon aussi pédagogique que
possible les bases de la théorie de la germination. Bien que comportant
peu de résultats originaux, sa présence dans ce manuscrit me parait
justifiée car : (i) se situant à la frontière entre ouvrage généraliste
et article spécialisé, une telle présentation est assez difficile à trouver dans son intégralité (citons cependant quelques précieux ouvrages
de référence dans ce domaine a b c d ) ; (ii) la conséquence du point
précédent est qu’un certain nombre d’auteurs qui utilisent cette théorie
n’en maı̂trisent pas tous les aspects, ce qui conduit parfois à des erreurs
(voir en particulier le paragraphe 3.2.7) ; (iii) mais surtout, c’est avec
un grand plaisir que l’on voit rassemblés les idées et calculs, dont la
compréhension a nécessité parfois tant d’efforts !
a. Porter (D. A.) et Easterling (K. E.), Phase transformation in metals
and alloys. London: Chapman and Hall, 1992. 514p
b. Doherty (R. D.), Physical Metallurgy, chap. Diffusive phase transformations in the solid state, p. 1363–1505. North-Holland, 1996
c. Wagner (R.) et Kampmann (R.), Materials science and technology: a
comprehensive treatment, vol. 5, chap. Homogeneous second phase precipitation,
p. 213–302. John Wiley & Sons Inc, 1991. 213p
d. Russell (K. C.), Phase transformations, chap. Nucleation in solids,
p. 219–268. American society for metals, 1968
&$
&%
"#
∆g
!
Pour modéliser la précipitation d’une phase à partir d’une solution solide sursaturée, il faut prédire (i) le taux de nucléation dN/dt, (ii) la vitesse
de croissance dR/dt, et (iii) la chimie des précipités. Une fois leur nombre,
leur taille et leur chimie connus, un simple bilan de matière permet de calculer combien il reste de soluté dans la solution solide. On se place dans le
cadre d’un modèle de champ moyen dans le sens où l’on ne prend pas en
compte les évolutions spatiales de la concentration en soluté C(x, y, z, t),
mais on considère que chaque précipité est baigné dans une matrice de
concentration unique C(t).
Dans un premier temps, nous allons nous attarder sur l’estimation du
taux de germination. Pour cela, un bref retour sur la thermodynamique est
nécessaire.
G%
3.2.1 A la base : la thermodynamique !
G$
L’équation fondamentale qui régie l’équilibre d’un système sous une
pression et à une température imposées est l’expression de l’enthalpie libre,
ou énergie de Gibbs, G :
Figure 3.5: Variation des enthalpies libres
GS et GL de deux phases, solide et liquide.
G = H − TS
(3.1)
où H est l’enthalpie, S l’entropie et T la température. On associe à H
l’énergie potentielle, à T , l’énergie cinétique et à S la manière d’arranger les
3.2 Retour sur la théorie de la germination
37
différentes particules du système. Ainsi, à température et pression imposée,
tout système tend à minimiser son enthalpie libre G.
Lorsqu’un précipité de volume VP et de surface SP germe dans une
matrice α, l’enthalpie libre d’un système varie de :
(3.2)
où γ est l’énergie d’interface entre la matrice et le précipité et ∆g, la
force motrice volumique de précipitation (voir figure 3.5) 2 . Dans le cas de
précipités sphériques, on a les expressions de VP et de SP . La figure 3.6
représente la variation d’enthalpie libre lors de la création d’un germe
sphérique. A partir de là, deux informations sont nécessaires : (1) la force
motrice volumique de germination qui va dépendre des enthalpies libres du
précipité et de la matrice ; (2) le flux de précipités qui atteignent la taille
critique R∗ .
1.5E-18
∆G*
1E-18
kT
5E-19
Energy (J)
∆G = VP ∆g + SP γ
0
-5E-19
-1E-18
3.2.2 Équilibre
R*
R'(*
-1.5E-18
0
5
10
15
20
Radius (nm)
Imaginons un système contenant deux phases : une solution solide α
d’enthalpie libre Gα et un précipité β d’enthalpie libre Gβ .
Si les deux phases sont en équilibre, le transfert d’une toute petite quantité de matière d’une phase à l’autre ne change pas l’enthalpie libre globale
du système. Ainsi, si dn atomes i sont transférés de la phase α vers le
précipité, l’énergie de Gibbs globale du système ne varie pas :
−dni
∂Gβ
∂Gα
+
dn
=0
i
∂nαi
∂nβi
(3.3)
En définissant le potentiel chimique d’un élément i dans une phase ϕ :
µϕ
i =
∂Gϕ
∂nϕ
i
(3.4)
On trouve la célèbre règle énoncée dans tous les “bons” ouvrages de
thermodynamique : A l’équilibre thermodynamique, le potentiel chimique
de tous les éléments est le même dans chacune des phases :
µαi = µβi
Figure 3.6: Variation de l’enthalpie
libre en fonction du rayon du précipité
sphérique. R∗ est le rayon critique est
Rk∗B T le rayon de germination.
(3.5)
Mais que se passe-t-il quand la phase β est une phase stœchiométrique 3
Ax By par exemple ?
La condition d’équilibre s’écrit alors différemment : si xdn atomes de
A et ydn atomes de B sont transférés de la solution solide vers le précipité
2. Le terme de “force motrice” pour ∆g est en fait un abus de langage car ∆g est
une différence d’enthalpie libre volumique qui a la dimension d’une énergie par unité de
volume et pas celle d’une force.
3. Une phase Ax By est dite “stœchiométrique” si sa composition chimique est fixée.
Dans ce cas, x et y sont des nombres entiers.
Détermination des compositions et
fractions des différentes phases :
exemple de deux phases
Soit α (contenant i éléments chimiques) et β (contenant j ≤ i
éléments chimiques).
Dans le cas d’un précipité nonstœchiométrique, on a i + j − 1 inconnues (composition de α : i − 1 inconnues, composition de β : j − 1 inconnues, fraction de β : 1 inconnue)
et i+j −1 équations (équilibre des potentiels chimiques : j équations, bilan
de matière sur les i éléments présents :
i − 1 équations).
Dans le cas d’un précipité stœchiométrique, on a i inconnues (composition de α : i − 1 inconnues,
fraction de β : 1 inconnue) et i
équations (équilibre : 1 équation, bilan
de matière sur les i éléments présents :
i − 1 équations).
38
Modélisation des cinétiques de précipitation
pour former dn molécules de Ax By , l’énergie de Gibbs globale du système
ne varie pas :
−xdn
∂Gα
∂Gβ
∂Gβ
=0
−
ydn
+
dn
∂nαA
∂nαB
∂nβ
(3.6)
Contrairement au cas non stœchiométrique (où la chimie du précipité
est “libre”), on n’a cette fois qu’une seule équation, et non pas autant que
le nombre d’espèces chimiques de la phase β. Paradoxalement, lorsque l’on
traite des problèmes de changement de phases, on est souvent confronté
au cas stœchiométrique, mais c’est souvent la fameuse règle cité plus haut
(équation 3.5) qui est énoncée dans la littérature, alors qu’elle n’est pas
valable dans ce cas !
La règle qui stipule qu’à l’équilibre thermodynamique, on égale les potentiels chimiques de chacune des espèces atomiques n’est pas valable
dans le cas de phases stœchiométriques.
3.2.3 Force motrice de germination
En reprenant l’exemple du système contenant des atomes A et B, on
considère maintenant que l’on a une solution solide sursaturée de composition X = (XA , XB ). La force motrice de précipitation δg est la quantité
d’enthalpie libre que gagne le système en transférant dn molécules de Ax By
de la solution solide sursaturée vers le précipité qui est lui-même en équilibre
e , X e ). Elle est donnée par :
avec la solution solide de composition X e = (XA
B
δg = dnx
∂Gα ∂Gα ∂Gα ∂Gα −
−
+ dny
∂nA X e
∂nA X
∂nB X e
∂nB X
(3.7)
Pour calculer la variation d’enthalpie libre du système lors de l’apparition d’un précipité (équation 3.2), on a besoin de la force motrice volumique
de précipitation ∆g = δg/(v β dn) :
1
∂Gα ∂Gα ∂Gα ∂Gα ∆g = β x
−
−
+y
v
∂nA X e
∂nA X
∂nB X e
∂nB X
(3.8)
où v β est le volume d’une molécule de Ax By .
On peut facilement généraliser cette expression si on a un système comprenant N éléments chimiques et plusieurs phases ϕ de stœchiométrie s1 ϕ ,
s2 ϕ ... Si ni est le nombre d’atomes de l’espèce i dans la solution solide, la
force motrice volumique de germination de chaque phase ϕ est :
N
∂Gα 1 X ϕ ∂Gα si
−
∆g = ϕ
v
∂nαi X e
∂nαi X
ϕ
(3.9)
i=1
Toute la difficulté consiste donc à estimer l’expression de l’enthalpie
libre de la solution solide α pour en extraire les dérivées partielles par
3.2 Retour sur la théorie de la germination
39
rapport aux différents éléments chimiques. Dans la section suivante, nous
allons faire le tour des différentes solutions habituellement utilisées.
3.2.4 Calcul de l’enthalpie libre de la solution solide
Solution régulière diluée
On reprend l’exemple de la section précédente dans lequel on a une solution solide de nB atomes de B dans nA atomes de A. La solution solide
comprend au total ns = nA + nB sites ou atomes. Pour évaluer son enthalpie libre, on va procéder en deux temps. Dans un premier temps, on met
ensemble les nA atomes de A avec les nB atomes de B :
Gα0 = nA G0A + nB G0B
(3.10)
G0A et G0B sont les enthalpies libres atomiques des corps purs A et B.
Dans un deuxième temps, on va permettre aux différents atomes de se
mélanger pour former une solution solide α d’enthalpie libre :
Gα = Gα0 + ∆Gαmix
(3.11)
α −T ∆S α
∆Gαmix = ∆Hmix
mix représente l’enthalpie libre de mélange (voir
figure 3.7).
α , on peut faire l’hypothèse que l’enthalpie du
Pour évaluer ∆Hmix
système n’est due qu’aux interactions de premiers voisins. Trois types de
liaisons atomiques sont considérées A − A, B − B et A − B avec leur enthalpie correspondante : HAA , HBB et HAB . En supposant que le nombre de
coordination est Z, l’enthalpie du système avant mélange est donnée par :
Z
Z
HAA + nB HBB
2
2
L’enthalpie du système après mélange est :
H0α = nA
Z
Z
H = nB (XA HAB + XB HBB ) + nA (XA HAA + XB HAB )
2
2
α
(3.12)
**
**
**
**
**
**
**
**
**
**
A
B
+
+
G+ = n, G, + n- Gα
(3.13)
Ce qui donne l’enthalpie de mélange :
nA nB
(3.14)
ns
avec Ω = Z(HAA /2 + HBB /2 − HAB ). Le cas particulier où Ω=0 est
appelé solution idéale.
L’entropie est donnée par définition en fonction du nombre de configuration du mélange :
ns !
α
nB
(3.15)
∆Smix = kB ln Cns = kB ln
(ns − nB )!nB !
α
∆Hmix
=Ω
En utilisant l’approximation de Stirling (ln N ! = N ln N − N ), on peut
mettre l’entropie de mélange sous la forme :
))))))))
))))))))
))))))))
))))))))
))))))))
))))))))
))))))))
))))))))
))))))))
))))))))
))*))))*))
)))))*))*)
))*)))))))
)))))) * *))
* *))*)))))
)))*)))*))
)*)))*))*)
)*))))))))
)))*))))))
*))))*))*)
Gα = G.α + ∆G/01
Figure 3.7: Enthalpie libre de mélange de
la solution solide α.
40
Modélisation des cinétiques de précipitation
α
∆Smix
= −ns kB [XA ln XA + XB ln XB ]
(3.16)
L’enthalpie libre Gα de la solution solide est alors :
Gα = nA [G0A + kT ln XA ] + nB [G0B + kT ln XB ] + Ω
nA nB
ns
(3.17)
Cette expression se généralise relativement facilement pour un système
contenant N éléments chimiques de concentration Xi dans la solution solide :

Gα = ns 
N
X
Xi G0i + kT
i=1
N
X
Xi ln Xi +
i=1
N
−1
X
n
X
i=1 j=i+1

Ωi:j Xi Xj 
(3.18)
Modèle de sous réseau
Pour calculer l’enthalpie libre de phases contenant à la fois des atomes
substitutionnels et interstitiels (comme une solution solide de V, C, et N
dans le Fe par exemple), il faut travailler avec les fractions atomiques par
type de site : yks pour l’atome substitutionnel k et yli pour l’atome interstitiel
l. Ces fractions sont obtenues facilement à partir des fractions molaires Xk
et Xl :
ns
Xs
yks = P k s = P k s
k nk
k Xk
Figure 3.8: Modèle de sous-réseau. Le
réseau substitutionnel CC contient des
atomes S1 (orange) et S2 (rouge). Le
sous-réseau interstitiel contient des lacunes (bleu clair) et des atomes I1 (bleu
foncé) ou I2 (vert).
Xi
ni
yli = P l i = P l i
l nl
l Xl
(3.19)
On définit ensuite l’enthalpie des liaisons chimiques entre deux atomes
voisins d’un même réseau. Celle-ci dépend aussi du type d’atome qui se
trouve à proximité dans l’autre réseau :
– Hkl:m est l’enthalpie de liaison entre deux atomes k et l du réseau
substitutionnel dans un environnement d’atomes m dans le réseau
interstitiel
– Hk:lm est l’enthalpie de liaison entre deux atomes l et m du réseau
interstitiel dans un environnement d’atomes k dans le réseau substitutionnel
– Hk:l est l’enthalpie de liaison entre un atome k du réseau substitutionnel et un atome l du réseau interstitiel
On appelle Z s , le nombre de coordination dans le réseau substitutionnel,
Z i , le nombre de coordination dans le réseau interstitiel, et Z si le nombre
de coordination inter-réseau (nombre de liaisons substitutionnel/interstitiel
par site substitutionnel). L’enthalpie libre d’une phase α contenant ns sites
substitutionnels et ni = ξns sites interstitiels est donnée par :
3.2 Retour sur la théorie de la germination
Gα
41
"N N
"N N
#
#
Ni
Ns
s X
s
i X
i
i
X
X
X
X
Z
Zs
ns
ni
yli Hkl:m +
yks yls
yki yli
=
yls Hm:kl
2
2
m=1
m=1
k=1 l=1
k=1 l=1
#
"N N
s
i
XX
+ns Z si
yks yli Hk:l
+ns kB T
k=1 l=1
Ns
X
yks ln yks
k=1
+ ni kB T
Ni
X
yki ln yki
(3.20)
k=1
Comme dans le cas du réseau simple, on exprime l’enthalpie libre de
la phase α en fonction des enthalpies libres de phases de référence. Ainsi,
G0kl représente l’enthalpie libre atomique d’une phase dans laquelle tous
les sites substitutionnels sont occupé par l’atome substitutionnel k tous les
sites interstitiels sont occupés par l’atome interstitiel l :
Zi
Zs
Hkk:l + Hk:ll + Z si Hkl
(3.21)
2
2
Comme précédemment, on fait alors apparaı̂tre des termes croisés :
G0kl =
Ωkl:m =
Ωk:lm =
Zs
(2Hkl:m − Hkk:m − Hll:m)
2
Zi
(2Hk:lm − Hk:mm − Hk:ll )
2
(3.22)
Ce qui donne finalement pour l’enthalpie libre de la phase α :
α
G
= ns
"N N
s X
i
X
yks yli G0kl
k=1 l=1
NX
Ns
s −1 X
+
Ni
X
i
Ωkl:m + ξ
yks yls ym
k=1 l=k+1 m=1
+kB T
Ns
X
k=1
yks
ln yks
Ni
Ns N
i −1 X
X
X
i
Ωk:lm
yks yli ym
k=1 l=1 m=l+1
+ kB T ξ
Ni
X
k=1
yki
ln yki
#
(3.23)
Rappelons que cette expression est basée sur le calcul des énergies
d’interaction de paires entre atomes premiers voisins, ce qui est très restrictif et simplificateur. De plus, les enthalpies des phases de références
(équation 3.21) ne dépendent ici pas de la température.
Généralisation : banques de données thermodynamiques
L’élaboration de bases de données thermodynamiques toujours plus précises et plus complètes est une demande forte des
42
Modélisation des cinétiques de précipitation
élaborateurs/transformateurs d’alliages métalliques. Ainsi, la communauté scientifique CALPHAD 4 (Computer Coupling of Phase Diagrams
and Thermochemistry) s’est fixée pour but d’élaborer ces bases de données
à partir de nombreuses données expérimentales.
Dans cette optique, l’approche présentée plus haut ne permet pas de
bien estimer les énergies d’un grand nombre de phases. En effet, la prise
en compte des énergies d’interaction entre premiers voisins, même dans le
cadre du modèle de sous-réseau, est trop simple et trop “rigide” pour être
valide dans un large domaine de température et de composition.
Ainsi, une première possibilité consiste à établir une dépendance plus
complexe en composition des termes croisés Ωkl:m . On peut utiliser par
exemple les développements en série de Redlich-Kister :
Ωkl:m(T ) =
X
(yks − yls )ν Ω0kl:m(T )
(3.24)
ν
De tels développements permettent d’obtenir n’importe quelle forme
d’interaction croisée. Si nécessaire, on peut même rajouter un terme d’interaction croisé du type Ωklm:n qui représente les interactions des atomes
substitutionnels k, l et m en présence de l’atome n du réseau substitutionnel.
On introduit aussi une dépendance en température de toutes les enthalpies libres de référence :
G0kl (T ) = a + bT + cT ln(T ) +
X
dn T n
(3.25)
n
De la même façon, les termes croisés dépendent de la température :
Ω0kl:m (T ) = a + bT + cT ln(T ) +
X
dn T n
(3.26)
n
Finalement, grâce à de puissants algorithmes d’optimisation numérique,
il devient possible d’ajuster tous les paramètres (qui se retrouvent en
nombre très important !) pour donner des enthalpies libres en accord avec
la totalité des données expérimentales disponibles. Le grand avantage des
ces approches est qu’elles permettent de fournir des bases de données qui
rassemblent une énorme quantité de résultats expérimentaux.
Par contre cette approche présente trois gros inconvénients :
– les bases de données thermodynamiques sont la propriété de sociétés
à but lucratif (e. g. Thermo-Calc Software). Elles sont relativement
chères (environ 5000 euros pour la base TCFE des alliages base fer)
et surtout, livrées cryptées, ce qui empêche toute contribution de la
communauté scientifique qui ne passerait pas par le vendeur de la
base de données.
4. Kattner (U. R.), ≪ The themodynamic model of multicomponent phase equilibria ≫, JOM, vol. 49, no 12, 1997, p. 14–19
3.2 Retour sur la théorie de la germination
43
– Étant donné la forme arbitraire des équations 3.24 à 3.26, ainsi que
le nombre important de paramètres ajustables, on peut se demander
si l’on est plus proche d’une réelle approche thermodynamique basée
sur le formalisme de Gibbs ou d’un simple ajustement empirique de
résultats expérimentaux.
– Compiler un grand nombre de résultats expérimentaux est précieux,
mais ni les références expérimentales, ni les limites de validité n’apparaissent dans les bases de données : jusqu’où faut-il faire confiance
aux résultats ? 5
Malgré leurs défauts (aspect commercial, non ouvert et non référencé),
les bases de données (thermodynamiques ?) constituent un outil
intéressant car elles rassemblent un grand nombre de résultats
expérimentaux.
3.2.5 Taux de germination
Si l’on connaı̂t les enthalpies libres des différentes phases, on peut calculer la force motrice de germination ∆g (équation 3.9), et donc la variation
d’enthalpie libre du système ∆G lorsque l’on forme un précipité de volume
VP et de surface SP (équation 3.2).
Pour estimer le taux de germination, on part d’une solution solide
en équilibre thermodynamique à haute température qui est subitement
trempée. A t = 0, la solution solide sursaturée est constituée uniquement
d’atomes de soluté isolés, appelés monomères. Au fil du temps, ces monomères vont se rencontrer pour former des di-mères, puis des tri-mères,...
On suppose que seuls les monomères diffusent. On appelle Jn , le flux de
n-mères qui captent un atome pour se transformer en n+1-mères :
Jn = βn Nn − αn Nn+1
(3.27)
Nn est le nombre de n-mères. βn et αn sont respectivement les taux
de condensation d’un monomère sur les n-mères et d’évaporation d’un monomère sur les n+1-mères.
N
Jn
Jn-1
Équilibre
A l’équilibre thermodynamique, les flux nets Jn sont nuls entre les
différents n-mères, ce qui donne :
αn = βn
fn
N
]
N
n+1
(3.28)
5. Par exemple dans le cas de la solubilité du cuivre dans le fer, nous avons vu au
chapitre précédent que la base de donnée PBIN fournit des résultats en dessous de 600◦
qui ne reposent sur aucune expérience et qui sont en fait des extrapolations fausses de
données obtenues à plus haute température.
n-1
n
n+1
Figure 3.9: Nombre de précipités en fonction de leur taille. Jn est le flux de nmères qui captent un atome pour se
transformer en n+1-mères.
44
Modélisation des cinétiques de précipitation
fn est le nombre de n-mères à l’équilibre. Il est donné par la statistique
N
de Boltzmann :
∆G(n)
f
Nn = N0 exp −
kB T
(3.29)
Le flux Jn devient alors :
fn
Jn = −βn N
∂
∂n
Bilan de matière
Nn
fn
N
(3.30)
Un bilan de matière sur les n-mères donne :
∂
∂ Nn
∂Nn
f
= Jn−1 − Jn =
βn Nn
fn
∂n
∂n
∂n N
(3.31)
État stationnaire
A l’état stationnaire (qui n’est pas l’équilibre), les populations de chaque
n-mère restent constantes, ce qui implique :
fn ∂
βn N
∂n
Nn
fn
N
= Cste = −J s
(3.32)
Js est le flux stationnaire, indépendant de n, de n-mères qui se transforment en n+1-mères. L’équation précédente peut être réarrangée de la
façon suivante :
Z
∞
1
∂
∂n
Nn
fn
N
dn =
Z
0
∞
−J s
dn
fn
βn N
(3.33)
On fait alors les constatations suivantes : (i) la concentration en soluté
f1 ≈ 1) ;
(monomère) est constante (vérifié en début de précipitation : N1 /N
fn tend vers 0 quand n tend vers l’infini ; (iii) le taux
(ii) le rapport Nn /N
de condensation βn dépend faiblement de n et peut être sorti de l’intégrale
et remplacé par β ∗ . Ce qui donne finalement :
Js
1= ∗
β
Z
∞
0
1
h
i dn
N0 exp − ∆G(n)
kB T
(3.34)
L’intégrale de l’équation ci-dessus prend la majeure partie de ses valeurs autour du maximum de la fonction ∆G(n) qui se trouve en n∗
(voir figure 3.10). On peut alors remplacer la fonction ∆G(n) par son
développement limité autour de n∗ :
3.2 Retour sur la théorie de la germination
45
Z est le facteur de
Zeldovich 6
Z=
Temps d’incubation
s
1.4E-18
kBT
1E-18
8E-19
δ
6E-19
4E-19
n*23 4
n*
2E-19
0
:
0
−1 ∂ 2 G 2πkB T ∂n2 n=n∗
(3.37)
δ2
2β ∗
(3.40)
Pour évaluer la largeur δ, on reprend le développement limité de ∆G
autour de n∗ (équation 3.35) :
6. Zeldovich (Y. B.), ≪ On the theory of new phase formation: Cavitation ≫, Acta
Physicochim USSR, vol. 18, 1943, p. 1–22
7. Maugis (P.), Soisson (F.) et Lae (L.), ≪ Kinetics of precipitation: comparison
between Monte Carlo simulations, cluster dynamics and the classical theories ≫, Defect
and Diffusion Forum, vol. 237-240, 2005, p. 671–676
1
Cluster size 10
15
τ=5
0.9
0.8
0.7
0.6
J(t) / Js
Compte tenu des fluctuations thermiques, un précipité est considéré
comme stable si il contient plus de n∗kB T atomes (voir figure 3.10). On
considère que le passage d’une taille de 1 atome (monomère) à n∗ − δ/2
atomes prend moins de temps que le passage de n∗ − δ/2 à n∗ + δ/2 car ce
dernier s’effectue comme une marche au hasard compte tenu de l’agitation
thermique.
La physique statistique nous enseigne que le temps mis pour effectuer
une marche au hasard de distance δ à une fréquence de saut β ∗ est :
5
Figure 3.10: Variation d’enthalpie libre du
système lorqu’on forme un n-mère. A une
température T un précipité est stable si
il contient plus de n∗kB T atomes.
En réalité, le flux stationnaire J s ne s’établit pas immédiatement et il
est nécessaire d’attendre un “certain temps”, appelé temps d’incubation et
noté τ , pour passer de monomères à des précipités stables. On utilise alors
la relation suivante qui donne le flux de germination instantané :
τ
(3.38)
J(t) = J s exp −
t
On peut aussi utiliser la relation suivante qui donne des temps d’incubation en meilleur accord avec ceux prédits par un modèle Monte-Carlo 7 :
t
s
(3.39)
J(t) = J 1 − exp −
τ
τ=
∆G*
1.2E-18
Energy (J)
n − n∗ ∂ 2 G ∆G(n) = ∆G +
(3.35)
2
∂n2 n=n∗
p
R∞
En utilisant −∞ exp(−ax2 )dx = π/a, on trouve pour le flux de germination stationnaire J s :
∆G∗
s
∗
J = β N0 Z exp −
(3.36)
kB T
∗
 t
1 − exp  − 
 τ
0.5
0.4
0.3
 τ
exp  − 
 t
0.2
0.1
0
0.1
1
10
100
Time
Figure 3.11: Comparaison des deux expressions (équations 3.38 et 3.39) qui
prennent en compte de temps d’incubation.
46
Modélisation des cinétiques de précipitation
δ=
− 21
−1 ∂ 2 G 8kB T ∂n2 n=n∗
(3.41)
On trouve alors pour le temps d’incubation :
τ=
4 1
π 2β ∗ Z 2
(3.42)
Taux de condensation β ∗
R*
a
Le taux de condensation β ∗ est la fréquence à laquelle un atome de
soluté se condense sur un précipité lors de sa marche au hasard dans la
solution solide. Pour l’estimer, on peut faire le calcul simplifié suivant.
Les atomes de soluté sont en concentration C = X/vat = X/a3 dans la
matrice de paramètre de maille a. Leur coefficient de diffusion est D. Ils parcourent, lors de leur marche au hasard, une distance a en un temps t tel que :
a2 = Dt. Ainsi, la fréquence de saut est le produit du nombre d’atomes de
soluté contenus dans la coquille d’épaisseur a autour du précipité (C4πR∗ 2 )
par t−1 :
β ∗ = C4πR∗ 2 a
Figure 3.12: Estimation de la fréquence
de saut β ∗ .
4πR∗2 DX
D
=
a2
a4
(3.43)
Taux de nucléation
Le taux de nucléation est donc finalement donné par :
∆G∗
t
dN
∗
= J(t) = N0 β Z exp −
1 − exp −
dt
kB T
τ
(3.44)
Rayon des nucleii
Les précipités nouvellement formés ont un rayon Rk∗B T qui est
légèrement supérieur à R∗ pour assurer leur stabilité (voir figures 3.10
ou 3.6). Ce rayon de germination est donné par :
Rk∗B T = R∗ +
1
2
s
kB T
πγ
(3.45)
3.2.6 Taux de croissance
Pour déterminer la vitesse de croissance des précipités, on part de la loi
de Fick en coordonnées sphériques :
D ∂
∂C
2 ∂C
= 2
r
(3.46)
∂t
r ∂r
∂r
3.2 Retour sur la théorie de la germination
47
On fait l’hypothèse d’un profil de concentration stationnaire autour des
précipités (∂C/∂t = 0). Ce qui implique que la concentration a la forme
C(r) = −A/r + B. Les constantes A et B sont déterminées à partir des
conditions aux limites : C(R) = C i et C(∞) = C 0 :
R
(3.47)
C(r) = − (C i − C 0 ) + C 0
r
Le flux d’atomes de soluté qui arrivent sur le précipité vaut donc :
∂C R
J(R) = −D
= 2 (C i − C 0 )
(3.48)
∂r r=R r
Dans une coquille d’épaisseur dR à la surface du précipité, il y a
4πR2 dRCi atomes de soluté. Le flux calculé précédemment en amène
4πR2 |J(R)|dt pour donner une coquille de précipité d’épaisseur dR contenant 4πR2 dRCp atomes de soluté. Ce bilan de matière donne la vitesse de
croissance :
dR
D C0 − Ci
D X0 − Xi
=
=
dt
R Cp − Ci
R αX p − X i
C
Cp
C∞
Ci
R
Figure 3.13: Évolution de la concentration en soluté autour du précipité. Dans
un modèle de champ moyen, on considère
que chaque précipité est en interaction
avec une matrice infinie.
(3.49)
où X 0 , X i et X p sont les fraction molaires de soluté dans la solution
solide, à l’interface précipité/matrice et dans le précipités ; α est le rapport
M /v P .
des volumes atomiques de la matrice et des précipités : α = vat
at
3.2.7 Effet Gibbs-Thomson
Nous avons vu qu’il est primordial de bien connaı̂tre l’enthalpie libre des
différentes phases d’un système pour calculer les compositions et fractions
d’équilibre, ainsi qu’une éventuelle force motrice de changement de phase.
Cependant, dans l’estimation de cette enthalpie libre (présentée au paragraphe 3.2.4) un effet, n’a pas été pris en compte : l’influence de l’interface
(ou plutôt de sa courbure), ou effet Gibbs-Thomson. Il serait cependant
plus exact d’écrire “effet Gibbs 8 -Thomson 9 10 -Thomson 11 - Thomson 12 ”
(voir ci-contre).
Une des conséquences de l’effet Gibbs-Thomson est de modifier la limite de solubilité d’une espèce atomique dans une phase α en équilibre
avec des précipités β. On estime généralement la limite de solubilité d’un
élément dans α, ou concentration d’équilibre à l’interface précipité/matrice,
8. Gibbs (J.), Collected Works, chap. On the equilibrium of heterogeneous substances
(1876). Green and Co., 1928
9. Thomson (J.), ≪ On crystallization and liquefaction, as influenced by stresses
tending to changes of form of crystals ≫, Proc. R. Soc., vol. 11, 1862, p. 473–481
10. Thomson (J.), ≪ Theoretical considerations on the effect of pressure in lowering
the freezing point of water ≫, Trans. R. Soc. Edin., vol. 16, 1849, p. 575–580
11. Thomson (W.), ≪ On the equilibrium of vapour at a curved surface of liquid ≫,
Phil. Mag., vol. 42, 1871, p. 448–452
12. Thomson (J. J.), Application of Dynamics to Physics and Chemistry. Macmillan,
London, 1888
Pour plus de détails, le lecteur
pourra se rapporter à l’article
noté [H] dans l’annexe B.
Josiah Willard Gibbs, James Thomson, William Thomson (futur Lord
Kelvin, frère cadet de James Thomson), et Joseph John Thomson
développèrent un formalisme thermodynamique, basé sur l’expérience,
pour comprendre l’influence de nombreux paramètres, notamment la
géométrie de la substance considérée,
sur des propriétés physiques comme la
pression de vapeur ou la température
de fusion.
48
Modélisation des cinétiques de précipitation
X i (R) en fonction de sa valeur X i (∞) pour une interface plane (rapport
surface/volume nul), du rayon des précipités R (considérés sphériques), du
volume molaire des précipités Vm , de la température T et de la constante
des gas parfaits R :
2γVm 1
X i (R) = X i (∞) exp
(3.50)
RT R
Bien que l’équation précédente soit presque toujours utilisée dans la
littérature, elle n’est pas correcte dans le cas d’un précipité stœchiométrique
(Ax By ).
Reprenons le cas d’une solution solide α en équilibre avec un précipité β
de composition Ax By . La condition d’équilibre lorsque les interfaces ont un
rôle négligeable (interface plane ou rayon de courbure infini des précipités)
est donnée par l’équation 3.6 rappelée ci-après :
∂Gα ∂Gβ∞
∂Gα +
y
=
x
∂nαA X i (∞)
∂nαB X i (∞)
∂nβ
A
(3.51)
B
Si on prend en compte l’énergie qu’implique l’interface α/β de surface
S et d’énergie d’interface γ. L’enthalpie libre de la phase β est modifiée :
GβR = Gβ∞ + γS
(3.52)
Si les précipités sont sphériques, la dérivée de GβR s’exprime de la façon
suivante :
β
∂GβR
∂Gβ∞
∂S ∂R
∂Gβ∞
(x + y)vat
=
+
γ
=
+
γ8πR
∂nβ
∂nβ
∂R ∂nβ
∂nβ
4πR2
(3.53)
β
Le volume vat
est le volume atomique moyen de la phase β. Il s’exprime
en fonction du volume v β de la molécule Ax By dans la phase β :
β
(x + y)vat
= vβ
(3.54)
La condition d’équilibre entre les précipités β de rayon R et la phase α
i (R) et X i (R) est donc :
de composition XA
B
β
∂Gα ∂Gβ∞
∂Gα 2γvat
+
y
=
x
+
(x
+
y)
∂nαA X i (R)
∂nαB X i (R)
∂nβ
R
A
(3.55)
B
La différence entre les équations avec interface plane (3.51) et interface
de courbure R (3.55) donne l’équation de Gibbs-Thomson :
x
"
#
"
#
∂Gα ∂Gα ∂Gα ∂Gα −
+y
−
∂nαA X i (R)
∂nαA X i (∞)
∂nαB X i (R)
∂nαB X i (∞)
A
= (x + y)
A
β
2γvat
R
B
B
(3.56)
3.2 Retour sur la théorie de la germination
49
Dans le cas d’une solution régulière diluée, on trouve :
x i
y
i
XA
(R) XB
(R)
=
x i
y
i
XA
(∞) XB
(∞)
exp
β
2γ(x + y)vat
RkT
!
(3.57)
i (R) ≪ 1
Toujours d’un alliage binaire composé d’atomes A et B, on a XB
i
et XB (R) ≪ 1, ce qui implique :
i
XB
(R)
=
i
XB
(∞) exp
β
2γ(x + y)vat
yRkT
!
(3.58)
En comparant les équations 3.50 et 3.58, on s’aperçoit qu’elles ne
sont équivalentes que si le volume molaire Vm (dont la définition est
généralement ambiguë : volume d’une mole d’un élément ou d’une mole
de molécule Ax By ?) est égal au volume d’une molécule Ax By ET si y = 1.
Il est assez courant de trouver dans la littérature une utilisation erronée de
l’équation de Gibbs-Thomson.
Quand la solution solide est en équilibre avec un composé stœchiométrique, l’application de l’égalité des potentiels chimiques (voir
section 3.2.2) conduit à une expression erronée de l’équation de GibbsThomson souvent rencontrée dans la littérature.
Effet de Gibbs-Thomson et mûrissement d’Ostwald
Il est primordial de prendre en compte la courbure de l’interface dans
le calcul des concentrations d’équilibre précipité/matrice. L’équation de
croissance de précipités sphériques est donc modifiée ainsi :
D X 0 − X i (R)
dR
=
dt
R αX p − X i (R)
(3.59)
On remarque que les petits précipités sont moins stables que les gros.
En fin de précipitation, quand la fraction précipitée est constante, les petits
précipités vont se dissoudre et les gros vont croı̂tre : c’est le mûrissement
d’Ostwald, appelé souvent à tort coalescence, probablement à cause de la
ressemblance avec le terme anglais coarsening.
Bien que n’impliquant pas de transformation de phase à proprement
parler (se produisant à fraction précipitée quasi-constante), le mûrissement
d’Ostwald a une importance capitale pour les propriétés du matériau : les
précipités grossissant et leur nombre diminuant, ils vont constituer des obstacles à la déformation plastique ou au grossissement du grain de moins en
moins important. C’est donc une étape très importante de la modélisation
de la précipitation.
50
Modélisation des cinétiques de précipitation
En intégrant l’équation de Gibbs-Thomson appliquée aux solutions
diluées (équation 3.58) dans l’équation de croissance 3.59, Lifshitz et Slyozov 13 simultanément à Wagner 14 (LSW) ont établi qu’à partir de n’importe
quelle distribution de taille (de rayon moyen R) :
– La distribution de taille normalisée tend vers une distribution stationnaire
3
3
– Le rayon moyen varie comme : R (t) − R0 (t) ∝ t :
dR R0 D
Xi
4
=
dt coars 27 αX p − X i R2
(3.60)
– Le nombre de précipités diminue selon :
3
R0 D
Xi
4
R0 X i
dN =
− N − 3N
dt coars 27 αX p − X i R3 R(X p − X i ) 4πR3
(3.61)
où R0 = 2γvat /(kB T )
Nous verrons dans le paragraphe suivant que la résolution numérique
de l’équation de croissance 3.59 permet de retrouver sans effort les deux
résultats démontrés par LSW. Cela n’enlève en rien à la grande valeur de
leur travaux, mais nous dispense d’un développement analytique fastidieux
de la théorie LSW.
Le mûrissement d’Ostwald n’est que la conséquence de l’effet de GibbsThomson. Il est donc implicitement pris en compte dans l’équation de
croissance des précipités (équation 3.59).
3.2.8 Autres modèles pour décrire la précipitation
Après avoir passé un certain nombre de pages à détailler la théorie
de la germination, il est tout à fait légitime de se poser la question de
sa pertinence par rapport à deux autres approches à la même échelle : la
dynamique d’amas et le champ de phase.
Dynamique d’amas
Contrairement à la théorie de la germination, la dynamique d’amas
ne fait pas la distinction entre solution solide et précipités : il existe tout
simplement des amas d’atomes de soluté allant d’une taille de 1 atome
(monomères) à une taille infinie.
13. Lifchitz (I. M.) et Slyosov (V. V.), ≪ The kinetics of precipitation from supersaturated solid solution ≫, J. Phys. Chem. Solids, vol. 19, no 1/2, 1961, p. 35–50
14. Wagner (C.), ≪ Theorie der alterung von niedershlägen durch umlösen (ostwaldreifung) ≫, Z. Electrochem, vol. 65, 1961, p. 581
15. Lae (L.), Étude de la précipitation en dynamique d’amas dans les alliages d’aluminium et dans les aciers. Thèse de doctorat, INPG, 2005
3.2 Retour sur la théorie de la germination
51
567
587
597
5:7
Figure 3.14: Cinétique de précipitation en dynamique d’amas : (a) Distribution de taille des amas ; (b) Densité ; (c) Concentration en
soluté et fraction précipitée ; (d) Rayon moyen (thèse de L. Lae 15 ).
Il est souvent considéré que seuls les monomères diffusent. Une seule
équation maı̂tresse gère donc la cinétique de condensation/évaporation des
différents amas :
∂Cn
= βn−1 Cn−1 − (αn + βn )Cn + αn+1 Cn+1
(3.62)
∂t
Comme pour la théorie de la germination, αn et βn sont les fréquences
d’évaporation et d’absorbtion d’un amas de taille n. Dans le cas où la
diffusion des monomères est le phénomène limitant, ils sont donnés par :
C̃n
αn = βn
C̃n+1
Fn − nF1
C̃n = C̃1 exp −
kB T
βn =
Sn DC1
Rn
(3.63)
(3.64)
où C̃n est la concentration à l’équilibre, Fn l’énergie libre, Sn la surface,
Rn le rayon d’un amas de taille n. D est le coefficient de diffusion des atomes
de soluté. Toute la difficulté de la dynamique d’amas consiste à évaluer Fn .
En effet, on ne peut en donner une valeur exacte qu’en dénombrant toutes
les configurations spatiales possibles que peut prendre un amas de taille
n 16 , ce qui n’est possible que pour des n petits (typiquement n < 8). Un
algorithme de Monte-Carlo permet d’en donner une estimation pour les n
plus grands 17 .
L’approximation capillaire (dont la forme est très similaire à l’énergie
de formation d’un précipité de la théorie de la germination) est aussi très
souvent utilisée :
Fn = An + Bn2/3
(3.65)
Ainsi, dans le cadre de l’approximation capillaire et en supposant les
précipité sphériques, la cinétique de précipitation peut être modélise avec
16. Lépinoux (J.), ≪ Contribution of matrix frustration to the free energy of cluster
distributions in binary alloys ≫, Phil. Mag., vol. 86, 2006, p. 5053–5082
17. Perini (A.), Jacucci (G.) et Martin (G.), ≪ Cluster free energy in the simplecubic ising model ≫, Phys. Rev. B, vol. 29, 1984, p. 2689–2697
52
Modélisation des cinétiques de précipitation
seulement deux paramètres : le coefficient de diffusion D et l’énergie d’interface ! En fait, une telle approche ne résiste à la confrontation expérimentale
que pour des cas simples (par exemple, alliage Al-Sc 18 ), mais le rapport
simplicité/potentialité de l’approche est ici remarquable.
La dynamique d’amas permet de gérer toute la distribution des amas :
de l’atome de soluté seul au plus gros précipité à travers le même formalisme. Elle présente l’inconvénient de consacrer un important temps
de calcul à des petits amas instables, contrairement à la théorie de
la germination qui ne s’intéresse qu’aux précipités stables. Elle peut
cependant s’avérer très utile pour prédire les temps d’incubation, notamment lors de traitements non-isothermes.
Champ de phase
La méthode de champ de phase est une extension des modèles continus de physique statistique hors d’équilibre : elle permet de décrire les
évolutions spatio-temporelles de champs : concentration en soluté, paramètre d’ordre,...
Les travaux de Cahn et Hilliard 20 ont permis d’estimer l’énergie de la
solution solide. Dans le cas d’un système pour lequel on étudie seulement
le champ de concentration c(r, t) d’une espèce atomique (soluté) :
Z
f (c(r, t)) + Eel + K(∇c(r, t))2 dV
(3.66)
F (t) =
V
Eel est l’énergie élastique de distorsion de réseau liée à la présence de
précipités. La cinétique d’évolution du système vers un état d’énergie minimal est donnée par l’équation de Cahn-Hilliard :
(a)
(b)
Figure 3.15: Microstructure simulée (a)
et réelle (b) d’un alliage Ni-Al présentant
des domaines ordonnés L12 de phase
γ ′ 19 .
δF
∂c(r, t)
= M ∇2
+ ξ(r, t)
∂t
δc(r, t)
(3.67)
M est la mobilité des atomes de soluté et ξ(r, t) est un paramètre stochastique qui représente les fluctuations thermodynamiques (bruit de Langevin). La résolution numérique des deux équations précédentes permet de
donner une description spatio-temporelle de la microstructure.
La méthode de champ de phase est particulièrement adapté pour traiter
des problèmes déterministes de type décomposition spinodale pour lesquels
le système minimise son énergie à partir d’une petite fluctuation.
18. Clouet (E.), Nastar (M.), Barbu (A.) et al., ≪ Precipitation in Al-Zr-Sc alloys:
A comparison between kinetic monte carlo, cluster dynamics and classical nucleation
theory ≫, dans Howe (J.), Laughlin (D.), Lee (J.) et al., éditeurs, Solid-Solid Phase
Transformations in Inorganic Materials 2005, 2005
19. Wang (Y.), Banerjee (D.), Su (C. C.) et Khachaturyan (A. G.), ≪ Field kinetic
model and computer simulation of precipitation of l12 ordered intermetallics from f. c. c.
solid solution ≫, Acta Mater., vol. 46, no 9, 1998, p. 2983–3001
20. Cahn (J. W.) et Hilliard. (J. E.), ≪ Free energy of a nonuniform system I.
Interfacial free energy. ≫, J. Chem. Phys., vol. 28, 1958, p. 258–267
3.2 Retour sur la théorie de la germination
Cependant, les processus stochastiques de type germination sont plus
difficilement pris en compte : il est alors nécessaire de rajouter une
dépendance des termes de mobilité et de bruit en fonction des valeurs locales des champs 21 .
La méthode de champ de phase donne une description spatiotemporelle de la microstructure. La prise en compte de phénomènes stochatiques type germination est délicate, mais l’incompatibilité élastique
matrice précipité et tous les effets des contraintes sont bien gérés par
une telle approche.
3.2.9 Conclusion : peut-on encore contribuer à la théorie de la germination ?
La théorie de la germination a été largement éprouvée et l’on peut se
demander si il est encore possible d’y apporter une contribution. En regard
des progrès effectués dans les techniques de caractérisation fine (microscopie électronique, sonde atomique), certains points particuliers mériteraient
d’être mieux traités pour une meilleure compréhension/prédictions des
évolutions microstructurales.
Germination hétérogène - rôle des contraintes
La germination hétérogène est généralement prise en compte par l’intermédiaire d’un angle de mouillage, ce qui revient à multiplier la la barrière
de germination ∆G∗ par un coefficient compris entre 0 et 1. Une telle approche n’est pas totalement satisfaisante car : (i) ce coefficient est ajusté
et son estimation a priori est impossible ; (ii) l’aspect hétérogène de la germination peut être lié à une variation de la force motrice de germination
(qui peut dépendre de l’état de contrainte locale : cas de la germination
sur les dislocations), et non pas à un effet d’interface comme habituellement présenté. Ce dernier point, et notamment le rôle des contraintes sur
la germination mériterait d’être amplement développé.
Chimie des précipités
La théorie de la germination suppose que la chimie des précipité soit
fixée, notamment pendant les phases de croissance et de mûrissement. Deux
exemples de prédiction de la chimie de carbonitrures dans le fer seront
détaillés à la section 3.6.
Cinétiques anisothermes - temps d’incubation
Le temps d’incubation est un paramètre délicat pour lequel plusieurs
expressions sont proposées pour des cinétiques de précipitation isothermes.
21. Bronchart (Q.), Développement de méthodes de champs de phases quantitatives
et application à la précipitation homogène dans les alliages binaires. Thèse de doctorat,
Univ. Cergy-Pontoise, 2006
53
54
Modélisation des cinétiques de précipitation
Dans le cas anisotherme, son estimation devient impossible sans faire appel
à d’autres modélisations : dynamique d’amas ou Monte-Carlo cinétique.
Morphologie
La morphologie des précipités est habituellement considérée comme
sphérique. D’autres morphologies (notamment les plaquettes) et leur champ
de diffusion associé devraient pouvoir être mieux prises en compte.
Couplage d’échelle
Certains paramètres de la théorie de la germination sont difficiles à estimer : énergie d’interface, enthalpie libre des phases, temps d’incubation,
fréquence de condensation... La confrontation à des modèles à l’échelle atomique est extrêmement fructueuse 22 23 . Cette échelle de modélisation fera
d’ailleurs l’objet du chapitre 4.
3.3 Précipitation simultanée de plusieurs phases.
Pour plus de détails, le lecteur
pourra se rapporter à l’article
noté [F] dans l’annexe B.
Dès mon arrivée au laboratoire GEMPPM, j’ai démarré une étude en
collaboration avec A. Deschamps, sur la précipitation simultanée de plusieurs phases. Le but de cette étude était d’implanter au laboratoire une
activité de modélisation de la précipitation.
Dans de nombreux cas, l’apparition d’une phase stable à partir d’une
solution solide sursaturée ne s’effectue pas en une seule étape. On parle
alors de séquence de précipitation qui implique une ou plusieurs phases
métastables : SSS → ǫ → Fe3 C dans les aciers, SSS → zones GP → β ′′ →
β ′ → β (Mg2 Si) dans les alliages Al-Mg-Si par exemple.
Le but de cette étude était donc de présenter le formalisme nécessaire
pour traiter de la précipitation de plusieurs phases (stable et métastable)
en compétition. Il a été décidé de traiter le cas relativement simple de la
précipitation de carbures métastable (ǫ) et stable (Fe3 C) dans un alliage
Fe-C. Notons que les deux carbures précipitent indépendamment les uns
des autres et ne se “voient” que par l’intermédiaire de la solution solide.
Modèle : théorie de la germination et rayon unique
Pour chaque phase ϕ, on utilise l’équation de germination présentée
dans le paragraphe précédent :
ϕ
∆G∗ϕ
τ
dN ϕ
∗ϕ
= N0 Zβ exp −
exp −
(3.68)
dt
kT
t
22. Soisson (F.) et Martin (G.), ≪ Monte carlo simulations of the decomposition of
metastable solid solutions: transient and steady-state nucleation kinetics ≫, Phys. Rev.
B, vol. 62, no 1, 2000, p. 203–214
23. Clouet (E.), Nastar (M.) et Sigli (C.), ≪ Nucleation of Al3 Zr and Al3 Sc in
aluminum alloys: from kinetic Monte-Carlo simulations fo classical theory ≫, Phys. Rev.
B, vol. 69, 2004, p. 064109
3.3 Précipitation simultanée de plusieurs phases.
55
Pour la croissance, il a été décidé de prédire l’évolution du rayon moyen.
L’équation de croissance est alors légèrement modifiée pour prendre en
compte l’arrivée des nouveaux précipités de taille ζR∗ . Le paramètre ζ est
légèrement supérieur à 1 pour faire germer des précipités numériquement
stables (et non pas en équilibre instable) :
ϕ
1 dN ϕ
dRϕ
D XC − Xeq
exp(R0ϕ /(αXpϕ Rϕ ))
+
= ϕ· ϕ
·
(ζR∗ϕ − Rϕ ) (3.69)
ϕ
dt
R Xp − Xeq
exp(R0ϕ /(Xpϕ Rϕ )) N ϕ dt
Le bilan de masse donne ensuite le taux de carbone qui reste en solution
solide en fonction de la densité et du rayon moyen des phases métastable
(m) et stables (s) :
100
R (metastable)
XC =
XC0
3
3
(s)
(m)
− (4/3)π Xp N (m) R(m) + Xp N (s) R(s)
3
3
1 − (4/3)π N (m) R(m) + N (s) R(s)
(3.70)
Radius (nm)
R* (metastable)
Paramètres
10
R(stable)
R* (stable)
1
0.1
0.0001
0.01
1
100
10000
100
10000
Time (min)
Résultats
La figure 3.16 montre l’évolution du rayon moyen et de la densité des
deux phases précipités à 200◦ C. Les deux phases croissent simultanément
en suivant une même cinétique de croissance (limitée par la diffusion du
carbone dans les deux cas). Par contre, comme le taux de germination de
la phase métastable est beaucoup plus grand, les carbures ǫ se retrouvent
en plus grand nombre. Dans un deuxième temps, la phase métastable,
déstabilisée par la phase stable, se dissout, permettant à la phase stable
de poursuivre sa croissance jusqu’à épuisement total du carbone en solution solide.
24. Abe (H.), ≪ Carbide precipitation during ageing treatments
Met., vol. 13, 1984, p. 226–239
, Scandinavian J. of
≫
60
50
-3
Density (µ
µm )
Le modèle utilisé présente un grand nombre de paramètres. Cependant,
la majeur partie d’entre eux peuvent être trouvés dans la littérature ou
mesurées : le coefficient de diffusion du carbone est assez bien connu, les
limites de solubilité des différentes phases sont déterminés par frottement
intérieur ou pouvoir thermoélectrique. Seuls deux paramètres n’ont pas pu
être déterminés : les énergies d’interface γ (m) et γ (s) . Elles ont donc été
ajustées à une température donnée et gardées identiques pour toutes les
autres températures.
Les résultats ont été comparés à des expériences de suivi de précipitation
par mesure de résistivité 24 qui ont permis de caractériser la séquence de
précipitation d’un alliage binaire Fe-0.07at%C à différentes températures
(diagramme TTT).
40
Metastable
Stable
30
20
10
0
0.0001
0.01
1
Time (min)
Figure 3.16: Évolution du rayon moyen et
de la densité des deux phases précipitées
à 200◦ C. Elles croissent simultanément
avec une plus grande densité pour ǫ, qui
est déstabilisée par la phase stable.
56
Modélisation des cinétiques de précipitation
Ferrite carbon concentration @200°C
1.E-03
1.E-04
1.E-05
1.E-06
0.001
0.1
10
1000
100000
Time (min)
3.E-03
Transformed volume fraction
Metastable
Stable
2.E-03
Sur la figure 3.17, on voit apparaı̂tre les deux étapes caractéristiques
d’une séquence de précipitation : l’apparition de la phase métastable en
premier, puis sa disparition au profit de la phase stable qui est en équilibre
avec une solution solide plus pauvre en carbone.
Les cinétiques de précipitation ont été simulées pour des températures
allant de 100◦ C à 350◦ C et les résultats sont comparés aux travaux de
Abe 25 et présentés à la figure 3.18. Un très bon accord est observé entre
modèle et expérience.
Notons que l’apparition de la phase métastable a tendance à ralentir la
précipitation de la phase stable car la solution solide étant appauvrie par
la phase métastable, la force motrice de germination de la phase stable s’en
retrouve ralentie.
Total
La théorie de la germination peut être facilement adaptée au cas de
la précipitation simultanée de plusieurs phases à condition que les
différentes phases germent de façon indépendante.
1.E-03
0.E+00
0.1
1
10
100
1000
10000
Time (min)
Figure 3.17: Concentration de la solution solide et fraction précipitée. la phase
métastable apparaı̂t en premier, puis disparaı̂t au profit de la phase stable.
Pour plus de détails, le lecteur
pourra se rapporter à l’article
noté [P] dans l’annexe B.
3.4 Modèle par classes de tailles de précipités
3.4.1 Euler ou lagrange ?
Pour décrire l’évolution d’une distribution de taille de précipités, il est
nécessaire de disposer d’un modèle qui prend en compte plusieurs classes
de tailles de précipités. Une classe de taille est définit par sa taille (ou son
rayon R) et le nombre de précipités dont la taille est comprise entre R et
R + ∆R. A partir de là, deux visions s’opposent :
– ou bien l’on suit l’évolution du rayon des différentes classes de
précipités dont la population reste constante (vision lagrangienne)
– ou bien l’on suit l’évolution de la population de classes dont les bornes
sont fixes (vision eulérienne) 26
Par la suite, nous allons présenter ces deux approches et les comparer
à l’approche à rayon unique présentée à la section 3.3.
Model (stable phase)
400
Model (metastable phase)
350
3.4.2 Approche eulérienne
Experiment (stable)
Temperature (°C)
Experiment (metastable)
300
Model (only metastable phase)
Model (only stable phase)
250
200
150
100
50
0.1
1
10
100
1000
10000
Time (min)
Figure 3.18: Diagramme TTT de l’alliage
Fe–0.07at%C. Un très bon accord est observé entre modèle et expérience.
Dans le cadre de sa thèse, M. Nicolas 27 a développé et validé cette approche pour modéliser l’évolution d’une population de précipités MgZn2
lors de traitements de réversion dans un alliage Al-Zn-Mg. Par la suite,
l’étape de germination a été incorporée dans ce modèle grâce à une collaboration avec Alexis Deschamps.
25. Abe (H.), ≪ Carbide precipitation during ageing treatments ≫, Scandinavian J. of
Met., vol. 13, 1984, p. 226–239
26. Les appellations “euler” et “lagrange” proviennent de l’analogie que l’on peut effectuer avec la mécanique des fluides pour laquelle on peut utiliser les représentations
eulérienne (on gère les flux) ou lagrangienne (on suit une particule).
27. Nicolas (M.), Evolution de l’état de précipitation dans un alliage AlZnMg lors
de traitements thermiques anisothermes et dans la zone affectée thermiquement de joints
soudés. Thèse de doctorat, INPG - France, 2002
3.4 Modèle par classes de tailles de précipités
57
On part d’un système de classes dont les bornes (et donc la largeur)
sont fixes. Ces classes peuvent être vides (pas de précipités) ou représenter
une distribution de taille (expérimentale par exemple) dont on veut suivre
l’évolution à une certaine température.
Germination et croissance
L’étape de germination est réalisée en utilisant les équations donnant
le flux de germination dN/dt (équation 3.44) et le rayon des germes Rk∗B T
(équation 3.45). Ainsi, à chaque pas de temps (de taille ∆t), on ajoute δN
précipités dans la classe qui encadre Rk∗B T :
∆N =
dN
∆t
dt
−
∆t
υi−1,t [SIGN (υi−1,t ) Ni−1,t + SIGN (−υi−1,t ) Ni,t ]
∆R
∆t
υi,t [SIGN (υi,t ) Ni,t + SIGN (−υi,t ) Ni+1,t ]
∆R
(3.72)
où la fonction SIGN(x) vaut 1 si x > 0 et 0 sinon.
Pas de temps adaptatif
Le pas de temps ∆t est auto-adaptatif : il est calculé de façon à ce
qu’une classe de taille se déplace au maximum de ∆R/2 :
∆t =
∆R
1
2 MAX ( dR/dt|i )
dR
dt < −;
dR =
dt
(3.71)
Pour ce qui est de la croissance, on calcule les flux qui circulent aux
bornes de chaque classe i. Ces flux sont fonction des taux de croissance
υ = dR/dt donné par l’équation 3.59. On calcule les flux qui circulent aux
bornes de chaque classe i pour donner la nouvelle population de la classe
i:
Ni,t+∆t = Ni,t +
N
(3.73)
Gestion du nombre de classes
Lors de l’étape de croissance ou de mûrissement, si la classe la plus
grande a un taux de croissance positif, une nouvelle classe est créée. Pour
éviter la dérive du nombre de classes vers des valeurs trop élevées, un critère
de création de classe doit être proposé : par exemple une population minimum dans cette nouvelle classe.
3.4.3 Approche lagrangienne
A l’inverse de l’approche précédente, on peut choisir de suivre l’évolution
du rayon d’une classe de précipités dont la population est fixe. Une telle
dR
dt < +;
R
i-1
i
i+1
Class
index
Figure 3.19: Principe de la croissance des
précipités dans une approche eulérienne.
A chaque pas de temps, on calcule les flux
qui circulent aux bornes de chaque classe
i pour donner la nouvelle population de
la classe i.
58
N
Modélisation des cinétiques de précipitation
t = to
Nucleation
A
No
N
t = to
> dR/dt * ?t
N
Growth
o
R
t = t1
A
>
N1
Nucleation
Ro* R
Radius : Ro* + dR/dt x @t
Number : ∆No
N>
N1
>
No
No
t = t1
Growth
R
R
R
R o*
Radius : Ro*
Number : ∆No = dN/dt x @t
N
R1*
Radius: R1*
Number : ∆N1 = dN/dt x @t
dR/dt depends on class number
Numbers: constants
Figure 3.20: Séquence de germination/croissance dans une approche lagrangienne (PreciSo). A chaque pas de temps, une nouvelle classe
de précipités est créée (germination) et toutes les classes existantes croissent.
approche s’inspire du modèle Multi-Préci développé par Philippe Maugis 28 .
C’est cette approche que nous avons choisi de développer dans le cadre
de la thèse de Daniel Acevedo. Les raisons de ce choix seront discutées plus
loin.
A chaque pas de temps :
– une nouvelle classe est créée, elle a pour taille Rk∗B T (équation 3.45)et
pour population ∆N = dN/dt∆t. Le taux de germination est donné par
l’équation 3.44. Si ∆N est trop faible, la classe n’est pas créée.
– la nouvelle taille de toutes les classes existantes est calculée : R(t + ∆t) =
R(t) + dR/dt∆t. Le taux de croissance est donné par l’équation 3.59.
Pas de temps adaptatif
QM
PO
NLM
LK
JI
BCDE FGH
Figure 3.21: Évolution du pas de temps
dans le cas de la précipitation d’une phase
stable et d’une phase métastable (cas de
la section 3.3). En pointillé, les fractions
transformées des différentes phases. Le
pas de temps diminue pour bien gérer la
disparition de la phase métastable.
Dans cette approche, la taille du pas de temps ∆t détermine la précision
avec laquelle les équations différentielles donnant les évolutions du nombre
de germes et du rayon des précipités sont résolues. Un pas de temps trop
court est coûteux en temps de calcul et multiplie inutilement le nombre de
classes (rappelons que dans le régime de germination, une nouvelle classe est
créée à chaque pas de temps). Inversement, un pas de temps trop long risque
d’aboutir à des instabilités (oscillations d’amplitude croissante autour de
la solution), voire même à des aberrations (concentrations négatives).
Pour optimiser le pas de temps, on part sur la base d’un incrément
logarithmique du pas de temps (∆t ← 1.1∆t). Pour qu’un incrément de
temps soit validé, il faut respecter les deux conditions suivantes :
– toutes les concentrations en soluté doivent être comprises entre 0 et
1;
– le rayon d’équilibre R∗ (qui est la variable la plus sensible lorsque
le système atteint l’équilibre) ne doit pas varier de plus de 1% entre
chaque pas de temps (valeur déterminée empiriquement).
28. Maugis (P.) et Gouné (M.), ≪ Kinetics of vanadium carbonitride precipitation in
steel: A computer model ≫, Acta Mater., vol. 53, 2005, p. 3359–3367
3.4 Modèle par classes de tailles de précipités
59
Dans le cas où l’une des conditions n’est pas respectée, on reprend
le système tel qu’il était avant l’incrément (ce qui nécessite de garder en
mémoire l’état du système à t − ∆t) et on refait un essai avec un pas de
temps deux fois plus petit (∆t ← ∆t/2), cette dernière étape pouvant être
répétée autant de fois que nécessaire.
Gestion du nombre de classes
NS
RS + R − RS
R
Old i-1
New i-1
Class
i
i+1 index
i
Figure 3.22: Ajout d’une nouvelle classe
dans la description lagrangienne. La nouvelle classe doit être ajoutée de façon
à conserver la densité de distribution
Ni /(Ri+1 − Ri ).
2.0E+18
1.8E+18
1.6E+18
1.4E+18
Number (#/m3)
Dans cette approche, à l’inverse de l’approche eulérienne, le nombre de
classes diminue forcément pendant l’étape de mûrissement car les classes
de précipités instables disparaissent. Pour éviter d’avoir à gérer des distributions contenant trop peu de classes (typiquement moins de Nmin = 500),
un critère “d’éloignement” en rayon a été utilisé. Si Ri − Ri−1 > 2(Rmax −
Rmin )/Nmin , on ajoute une classe entre la classe i − 1 et i.
Lors de l’ajout d’une nouvelle classe, il serait souhaitable de conserver
à la fois le rayon moyen et la fraction transformée, or ceci est impossible
(système d’équations incompatibles). La véritable question qu’il convient
alors de se poser est : “Que se serait-il passé si le pas de temps avait été deux
fois plus petit au cours de la germination” ? On aurait eu une classe de plus
située au milieu des classes d’indice i − 1 et i (en supposant que dR/dt ne
varie pas trop). En, fait, c’est la densité de distribution Di = Ni /(Ri+1 −Ri )
et non pas la distribution qu’il convient de conserver.
Si l’on ajoute une classe entre les classe i − 1 et i, on décale de 1 tous
les indices supérieurs ou égaux à i. La nouvelle classe a donc un indice de i
et l’ancienne classe i devient i + 1. Par la suite, tous les indices mentionnés
sont les nouveaux indices.
′ , R′ , R′
Il faut alors déterminer les nouveaux rayons Ri−1
i
i+1 et popula′
′
′
tions Ni−1 , Ni , Ni+1 des classes i − 1, i et i + 1, ce qui fait 6 inconnues.
On suppose alors que :
– les rayons des anciennes classes sont conservés :
1.2E+18
1.0E+18
8.0E+17
6.0E+17
′
Ri−1
= Ri−1
et
′
Ri+1
= Ri+1
(3.74)
4.0E+17
2.0E+17
0.0E+00
0.E+00
– les densités des anciennes classes sont conservées :
2.E-09
4.E-09
6.E-09
8.E-09
1.E-08
8.E-09
1.E-08
Radius (m)
6E+28
′
Di+1
= Di+1
(3.75)
– la nouvelle classe est située au milieu des deux anciennes :
Ri′ = 0.5(Ri−1 + Ri+1 )
(3.76)
– on conserve la continuité de la densité de distribution
′
′
′
Di′ − Di−1
Di+1
− Di−1
=
′
′
′
Ri′ − Ri−1
Ri+1
− Ri−1
5E+28
4
et
Number density (#/m )
′
Di−1
= Di−1
4E+28
3E+28
'
2E+28
1E+28
(3.77)
Les conditions présentés ci-dessus permettent de déterminer les nombres
de précipités dans chacune des classes :
0
0.E+00
2.E-09
4.E-09
6.E-09
Radius (m)
Figure 3.23: Comparaison des distribution (Ni = f (R)) et des densités de
distribution (Di = Ni /(Ri+1 − Ri ))
de taille d’une population de précipités
après de nombreuses créations de nouvelles classes.
60
Modélisation des cinétiques de précipitation
′
Ni−1
= 0.5Ni−1
Ni′ =
Ni+1 Ri+1 − Ri−1 Ni−1
+
4 Ri+2 − Ri+1
4
′
Ni+1
= Ni+1 (3.78)
La figure 3.23 montre un exemple de distribution et densité de distribution après de nombreuses créations de classes. Un choix délibéré a été fait
de conserver la densité de distribution lors de l’ajout de nouvelle classe car
elle seule a un sens physique.
Nous avons vu qu’une telle démarche ne permettait pas de conserver la
fraction volumique précipitée. Pourtant, il est indispensable de ne pas la
changer pour ne pas violer le bilan de masse. Pour surmonter une telle difficulté, après la transformation [Ri , Ni ] → [Ri′ , Ni′ ], imaginons une nouvelle
transformation [Ri′ , Ni′ ] → [Ri′′ , Ni′′ ] telle que la fraction volumique finale
F V ′′ soit rigoureusement égale à la fraction volumique initiale F V .
F V ′′ =
X
3
Ni′′ Ri′′ =
i
X
Ni Ri3
(3.79)
i
Cette transformation consiste en un re-dimensionnement général des
nombres de précipités de chaque classe sans en changer le rayon :
Ri′′ = Ri′
Ni′′ = αNi′
et
(3.80)
Ce qui conduit naturellement à :
α=
FV
FV ′
(3.81)
Pour ajouter artificiellement une classe dans une distribution de taille
de précipité (lors du mûrissement par exemple), il convient de conserver
la densité de distribution Di = Ni /(Ri+1 − Ri ) ET de redimensionner toutes les populations de chaque classe pour conserver la fraction
précipitée.
3.4.4 Comparaison avec un modèle à rayon unique (mont-classe)
Une fois les deux types de modèles par classes élaborés, il nous a paru
intéressant de les comparer entre eux, mais aussi avec le modèle à une classe
(modèle à rayon unique) présenté dans la section 3.3.
Le principal avantage d’une description par classes de taille par rapport
à une description à rayon unique est la possibilité de prendre implicitement en compte l’étape de mûrissement. L’effet Gibbs-Thomson modifie
légèrement les concentrations d’équilibre à l’interface matrice/précipité en
fonction du rayon des précipités (équation 3.58) : les plus petits sont instables et décroissent et les plus gros sont stables et croissent.
3.4 Modèle par classes de tailles de précipités
61
fcoars = 1 − 1000
2
R
−1
R∗
0.99R∗ < R < 1.01R∗
(3.84)
Les paramètres choisis pour comparer quantitativement les trois types
d’approches (multi-classe eulerienne, lagrangienne et mono-classe) sont rappelés dans le tableau suivant :
X00
0.06
Xi
0.01
D (m2 /s)
5×10−20
γ (J/m2 )
0.13
vat (m3 )
1.6×10−29
a (m)
4.04×10−10
Multi-classes [Lagrange]
Rmoy
R*
1
10
29. Deschamps (A.) et Bréchet (Y.), ≪ Influence of predeformation on an ageing in
an Al-Zn-Mg alloy - II Modeling of precipitation kinetics and yield stress ≫, Acta Mater.,
vol. 47, no 1, 1999, p. 293–305
1000
10000
100000 1000000
1E+07
Time (s)
1E+23
8E+22
6E+22
4E+22
Multi-classe [Euler]
Mono-classe
2E+22
Multi-classe [Lagrange]
0
10
100
1000
10000 100000 100000 1E+07
0
Time (s)
Figure 3.24: Comparaison des évolutions
temporelles des rayons moyens et
densités de précipités pour les approches mutli-classes eulériennes et
lagrangiennes, et pour l’approche à
rayon unique. Dans le cas présent d’une
séquence de précipitation simple, la
correspondance est excellente.
0.07
T (◦ C)
160
La figure 3.24 compare les évolutions des rayons et densités de précipités.
Dans le cas présent d’une séquence de précipitation simple, la correspondance est excellente. Il est même presque surprenant qu’un modèle à rayon
unique représente aussi bien la transition d’un régime de croissance pure à
un régime de mûrissement pur.
Si l’on regarde les évolutions comparées de la concentration et de la
fraction transformée (figure 3.25), on constate encore un parfait accord
entre les trois types d’approche. Il est alors légitime de se poser la question
de la pertinence d’une approche par classe de taille qui est forcément plus
complexe à mettre en oeuvre et plus coûteuse en temps de calcul. Cette
question fait l’objet du paragraphe suivant.
100
1.2E+23
Precipitates density (#/m3)
(3.83)
Le problème d’une telle définition de la fraction du mûrissement est
qu’elle n’est pas définie dans le cas de la dissolution (R < R∗ ). Pour avoir
une expression plus générale, nous avons choisi :
10
(3.82)
0.06
Concentration (%)
fcoars
Mono Classe
0.1
fcoars est la fraction de mûrissement. Elle est donnée par :
R
−1
= 1 − erf 4
R∗
Multi-classes [Euler]
0.05
0.04
0.03
Multi-classes [Euler]
0.02
Mono-classe
0.01
Multi-classes [Lagrange]
0
1
10
100
1000
10000
100000 1000000
Time (s)
0.06
0.05
Transformed fraction
dR dR dR
= fcoars
+ (1 − fcoars )
dt
dt coars
dt growth
100
Radius (nm)
Ce phénomène ne peut pas avoir lieu dans un modèle à classe unique.
Il est alors nécessaire de rajouter implicitement une loi de mûrissement
pour les évolution des rayons et des densités de précipités. Cette loi est
directement tirée de la théorie LSW (équations 3.60 pour les rayons et 3.61
pour les nombres).
A. Deschamps et Y. Bréchet 29 ont proposé un critère pour passer
du stade de la croissance pure (dR/dt|growth équation 3.59) au stade de
mûrissement pur (dR/dt|coars équation 3.60) :
0.04
0.03
0.02
Multi-classes [Euler]
Mono-classe
0.01
Multi-classes [Lagrange]
0
10
100
1000
10000
100000 1000000 1E+07
Time (s)
Figure 3.25: Évolutions temporelles de la
concentration en soluté et de la fraction
transformée pour les approches mutli-
62
Modélisation des cinétiques de précipitation
3.4.5 Intérêt de la description par classes de tailles
Un modèle par classes présente une plus grande richesse d’information,
mais est-il indispensable pour décrire correctement l’évolution du rayon
moyen lors d’un traitement de réversion ?
Pour répondre à cette question, nous avons comparé les évolutions, au
cours d’un traitement de réversion à 920◦ , de deux distributions de taille
initiales d’allures différentes, mais qui présentent à la fois le même rayon
moyen et la même fraction volumique.
La figure 3.26 montre les deux distributions initiales : la première résulte
de la simulation d’un traitement de précipitation à 800◦ C pendant 10 jours
et la deuxième d’un ajustement par une loi log-normale d’une distribution
expérimentale après ce même traitement.
Il est tout à fait intéressant de noter ici que la distribution expérimentale
a une allure de type log normale alors que la distribution modélisée a une
allure de type LSW (log normale “inversée”). Cette différence de forme,
reportée de nombreuses fois dans la littérature n’a, à ma connaissance,
jamais été expliquée.
A partir de telles distributions, si l’on effectue une simulation d’un traitement de réversion à 920◦ C, on peut prédire l’évolution de la fraction
transformée et du rayon moyen dans les deux cas. La figure 3.26 compare
les évolutions des rayons moyens pendant ce traitement. On observe une
grande différence, notamment pour les temps intermédiaires. Ce qui justifie
pleinement l’utilisation d’un modèle par classes.
Figure 3.26: Haut : distributions de taille
résultantes d’un traitement de 10 jours à
800◦ : (a) Distribution simulée et (b) Distribution expérimentale ajustée par une
loi log normale. Ces deux distributions
ont les mêmes (i) rayon moyen et (ii)
fraction précipitée. Bas : prédiction de
l’évolution du rayon moyen après un traitement à 920◦ C pour chacune des deux
distributions : l’évolution du rayon moyen
dépend de la distribution initiale. .
Un modèle de description par classes de taille est indispensable pour
prendre en compte la forme de la distribution initiale. En effet, deux
distribution initiales de forme différentes mais de même rayon moyen et
de même fraction volumique conduisent à des évolutions très différentes
du rayon moyen lors de la simulation d’un traitement de réversion.
3.4.6 Conclusion
L’utilisation d’un modèle par classes de taille peut s’avérer très utile
quand on part d’une distribution de taille initiale complexe et/ou lorsque
l’on effectue un traitement thermique anisotherme.
La description eulérienne a l’avantage de ne pas nécessiter de
réajustement du nombre de classes mais présente l’inconvénient d’avoir un
pas de temps limité par la dissolution des petites classes dans la phase de
mûrissement (équation 3.73) qui permet difficilement d’atteindre des temps
de simulation longs.
Malgré un ajustement du nombre de classes délicat, la description lagrangienne basée sur un pas de temps logarithmique est beaucoup plus
rapide, mais moins stable numériquement. De plus, elle propose des potentialités supérieures en terme de modélisation de la chimie de précipités : la
vitesse de croissance dépendant de la chimie des précipités, il est nécessaire
3.5 PreciSo : un logiciel de simulation de la précipitation
63
Figure 3.27: Récapitulatif des classes et de leurs instances (objets) du logiciel PreciSo dans le cas de l’étude du système FeNbVC. Dans
ce cas ’NbC’ est un objet, instance de la classe “Precipite”.
d’utiliser la description lagrangienne quand chaque classe de précipités peut
avoir une chimie différente.
C’est surtout pour cette dernière raison que nous avons donc choisi de
développer l’approche lagrangienne pour l’implémenter dans un logiciel de
précipitation ’PreciSo’ qui va être développé dans la section suivante.
3.5 PreciSo : un logiciel de simulation de la précipitation
Lors de la thèse de D. Acevedo, ASCOMETAL a souhaité voir
développer un programme qui permette de prédire l’évolution de la distribution de taille de différentes familles de précipités pendant le traitement
thermique d’austénitisation.
Ce programme était appelé à être intégré par la suite dans une approche
globale de type Métallurgie Assistée par Ordinateur (MAO) dont le but est
de prédire la taille du grain austénitique et les propriétés mécaniques de
l’alliage pour des compositions et des traitements variables.
Le cahier des charges était d’implémenter un modèle de précipitation :
1. basé sur la théorie de la germination
2. permettant de prédire l’évolution de la distribution de taille des
précipités (modèle par classes de tailles)
3. programmé “orienté objet” pour une insertion plus facile dans un
code global.
Dans un premier temps, le formalisme de la théorie de la germination a
été adapté pour réaliser un modèle par classe de tailles. Dans un deuxième
temps, le logiciel a été conçu et implémenté en langage objet. Il a enfin
été validé sur un cas simple : la dissolution de carbures de vanadium dans
l’austénite.
PreciSo et programmation objet
L’approche traditionnelle du développement, dite fonctionnelle, est efficace quand le développeur sait “où il va”. Dans ce cas, on peut décomposer
64
Exemple de la partie du fichier
d’entrée contenant les données sur
les éléments chimiques.
[V]
TeneurPourcentMassique=0.2
MasseMolaire=50.9415
Diffusion0=0.08e-4
EnergieActivationDiffusion=240000
[C]
TeneurPourcentMassique=0.5
MasseMolaire=12
Diffusion0=1e-5
EnergieActivationDiffusion=137500
[Nb]
TeneurPourcentMassique=0.05
MasseMolaire=92.90638
Diffusion0=5.60E-05
EnergieActivationDiffusion=286000
Modélisation des cinétiques de précipitation
les programmes en “fonctions” : un processus global et des sous processus ou fonctions qui créent un arbre décomposant le problème en une série
d’actions (c’est une décomposition “algorithmique”).
Or, les logiciels vivent, de nombreuses évolutions peuvent être apportées, différentes personnes peuvent y contribuer... Avec une approche fonctionnelle, tout changement est susceptible d’avoir de lourdes
conséquences. Tant et si bien qu’il est même parfois plus rapide de tout
refaire, plutôt que de modifier un programme...
Pour résoudre ces problèmes, il faut considérer trois stratégies :
– modéliser différemment : ne plus séparer le programme en actions
(procédures), mais en modules (objets) concrets (e.g. VC) qui ont
une identité, un comportement (e.g. VC peut germer ou croı̂tre) et
des données (e.g. VC a une densité, un rayon moyen, une distribution
de taille...).
– modulariser : développer des modules séparés (objets) qui sont à la
fois indépendants et imbriquables les uns avec les autres (e.g. VCx est
un objet qui a toutes les propriétés de VC, plus quelques spécificités).
– encapsuler : pour éviter les bogues, il est nécessaire de cloisonner
au maximum les données à l’intérieur des objets (e.g. les données
nécessaires au calcul du rayon moyen des précipités VC ne doivent
pas interférer avec celles des précipités NbC).
La programmation objet répond clairement à ces trois objectifs. Il existe
plusieurs langages de programmation qui implémentent la programmation
orientée objet. Dans le cadre de la thèse de D. Acevedo, nous avons choisi
de développer conjointement le logiciel PreciSo en C++ et Delphi.
La figure 3.27 montre les différentes classes et leurs instances (objets)
du logiciel PreciSo dans le cas de l’étude du système FeNbVC. Dans ce cas
’NbC’ et ’VC’ sont des objets, instances de la classe ’Precipite’.
La figure 3.28 récapitule les données et fonctions membres des différentes
classes du logiciel PreciSo. La classe PreciSo contient des actions (simulation d’un profil thermique, tracé des résultats...), mais aussi des données
qui peuvent être elles-même des classes (Element, Precipite...).
La programmation orientée objet permet d’écrire des logiciels plus
clairs, plus portables et plus robustes.
3.5.1 Application à la dissolution de VC dans l’austénite
Pour valider l’approche présentée dans ce chapitre (croissance - modèle
par classe - PreciSo), nous avons choisi, dans le cadre de la thèse de D.
Acevedo d’étudier un cas simple : la dissolution de carbures de vanadium
dans l’austénite d’un acier Fe-0.5wt%C-0.2wt%V.
En partant d’un état initial résultant d’un traitement bi-palier (10
heures à 700◦ C, puis 10 jours à 800◦ ) contenant une forte fraction volumique de carbures de vanadium, des traitements de réversion à différentes
températures ont été effectués : 850◦ C, 920◦ C et 950◦ C.
3.5 PreciSo : un logiciel de simulation de la précipitation
65
Figure 3.28: Données et fonctions membres des différentes classes du logiciel PreciSo. Notons que les classes ’Element’, ’Precipite’,
’Matrice’, ’Temperature’ et ’Calcul’ sont elles-même membre de la classe ’PreciSo’..
DC XC0 − XCi (R)
dR
=
dt
R αXCp − XCi (R)
(3.85)
0 − X i (R)
dR
DV XV
V
=
p
i (R)
dt
R αXV
− XV
(3.86)
x
0.2%
0.1%
870°C Modèle
870°C Exp
920°C Modèle
0.0%920°C Exp
1.E-01
1.E+01
950°C Modèle
950°C Exp
1.E+03
1.E+05
1.E+07
1.E+05
1.E+07
Temps (s)
1E+20
V Cx
2γvat
R
(3.87)
On définit ∆GV CX = G0V Cx − xG0C − G0V comme l’enthalpie libre de
formation du carbure, la condition d’équilibre s’écrit alors :
1E+19
3
Densité (nombre / m )
Une étude préalable (présentée au chapitre précédent, section 2.4.3) a
permis d’identifier la structure des carbures de vanadium dans tous les états
caractérisés : forme monoclinique du composé V6 C5 ordonné. La chimie du
p
carbure est donc VCx avec x = XCp = 1 − XV
= 0.83.
En prenant un modèle de solution régulière diluée pour l’austénite, la
condition d’équilibre s’écrit :
i
= G0V Cx +
xG0C + kB T ln XCi + G0V + kB T ln XV
0.3%
Fraction Volumique
Pour décrire l’évolution de la distribution des carbures de vanadium, on
part de la distribution initiale caractérisée expérimentalement et on décrit
l’évolution de chaque classe de taille de précipités grâce à l’équation 3.59
donnant la vitesse de croissance du précipité.
Il existe une équation de type 3.59 par élément chimique constituant le
précipité :
1E+18
1E+17
1E+16
1.E-01
870°C Exp
870°C Modèle
920°C Exp
920°C Modèle
950°C Exp
950°C Modèle
1.E+01
1.E+03
Temps (s)
Figure 3.29: Évolution des fractions
précipités et des densités de précipités
pour différents traitements de réversion.
Les simulations sont en bon accord avec
les données expérimentales tirées de la
dissolution électrolytique et de l’analyse
66
Modélisation des cinétiques de précipitation
1.E-06
1.E-06
1.E-06
1.E-08
1.E-01
Modèle
MEB
1.E+01
1.E+03
1.E+05
1.E+07
1.E-07
1.E-08
1.E-01
Temps (s)
Y[VWX
Rayon moyen (m)
1.E-07
YZVWX
Rayon moyen (m)
Rayon moyen (m)
TUVWX
Modèle
MEB
1.E+01
1.E+03
Temps (s)
1.E+05
1.E+07
1.E-07
1.E-08
1.E-01
Modèle
MEB
1.E+01
1.E+03
1.E+05
1.E+07
Temps (s)
Figure 3.30: Évolution du rayon moyen des carbures de vanadium lors de différents traitements de réversion. Le modèle reproduit très
bien les évolutions caractérisée en MEB.
x
i
XV
XCi
"
#
#
"
V Cx
V Cx
∆GV CX
2γvat
2γvat
= exp
exp
= KV Cx exp
(3.88)
kB T
RkB T
RkB T
Le produit de solubilité du carbure KV Cx est déterminé à partir des
mesures de dissolution électrolytique. Pour trouver la vitesse de croissance,
il faut résoudre à chaque pas de temps le système formé par les trois
équations 3.85, 3.86 et 3.88.
Les figures 3.30 et 3.29 montrent montrent un très bon accord entre
le modèle et les mesures concernant les évolutions du rayon moyen, de la
fraction transformée et de la densité de précipités pour différents traitement
de réversion.
A partir de différentes données thermodynamiques recueillies dans la
littérature (coefficients de diffusion, énergie d’interface,...) et du produit de solubilité mesuré par dissolution électrolytique, le logiciel PreciSo permet de prévoir l’évolution d’une population de carbures de
vanadium dans l’austénite pour différents traitements de réversion.
3.5.2 Conclusion : sur l’intérêt de développer un logiciel de précipitation
Compte tenu de la quantité de logiciels de prédiction de cinétique de
précipitation, on peut se demander s’il est nécessaire d’en développer “un
de plus”. D’autant plus que certain de ces logiciels sont commerciaux (DICTRA 30 , MATCALC 31, 32, 33 ), très puissants et surtout extrêmement bien
finis (gestion des erreurs, interface utilisateur,..).
30. http ://www.thermocalc.com/Products/Dictra.html
31. http ://matcalc.tugraz.at/index.htm
32. Svoboda (J.), Fisher (F. D.), Fratzl (P.) et Kozeschnik (E.), ≪ Modelling of
kinetics in multi-component multi-phase systems with spherical precipitates I: Theory ≫,
Mat. Sc. Eng. A, vol. A385, 2004, p. 166–174
33. Kozeschnik (E.), Svoboda (J.), Fratzl (P.) et Fisher (F. D.), ≪ Modelling of
kinetics in multi-component multi-phase systems with spherical precipitates II: Numerical
solution and application ≫, Mat. Sc. Eng. A, vol. A385, 2004, p. 157–165
3.6 Vers la prédiction de la chimie des précipités ?
67
Pourtant, plusieurs arguments forts militent en faveur du
développement d’un logiciel “maison” :
– la conception d’un logiciel incorpore une dimension pédagogique
importante : de même que c’est en l’enseignant que l’on se rend vraiment compte de la maı̂trise d’un concept, la programmation est un
test sans appel sur la compréhension d’un problème.
– la souplesse d’un logiciel maison est infiniment plus grande que celle
d’un logiciel du commerce fermé (e.g. impossible à modifier) ou d’un
logiciel ouvert, mais très difficile d’accès.
– la maı̂trise de toutes les étapes de la modélisation (développement
du formalisme, intégration dans un code et résolution numérique)
permet de mieux appréhender un problème nouveau dans sa
globalité.
– cette maı̂trise permet aussi de mieux utiliser les logiciels du commerce parfois plus puissants ou indispensables : l’utilisation d’un logiciel comme une “boı̂te noire” me paraı̂t dangereuse (extrapolation
douteuse, confiance dans les résultats,..).
– le logiciel est un média supplémentaire qui permet notamment de
dialoguer entre modélisateurs. Ainsi, PreciSo est né du mélange du
programme qu’A. Deschamps avait rédigé durant sa thèse et du logiciel MultiPreci 34 développé par P. Maugis.
– enfin, pour terminer sur un argument plus personnel, la rigueur
nécessaire au développement d’un logiciel, est très complémentaire,
et donc très enrichissante, avec l’ouverture d’esprit du chercheur.
3.6 Vers la prédiction de la chimie des précipités ?
3.6.1 Dissolution de (Nb,V)C dans l’austénite
Dans le cadre de la thèse de D. Acevedo, nous avons étudié la dissolution
de carbures de niobium et de vanadium d’un acier Fe-0.5wt%C-0.2wt%V0.05wt%Nb en cours d’austénitisation.
Fraction Volumique
0.3%
0.2%
VC Modèle
NbC Modèle
VC Dosage
NbC Dosage
950°C
0.1%
0.0%
1.E-03
1.E-01
1.E+01
1.E+03
1.E+05
1.E+07
Temps (s)
0.3%
Fraction Volumique
Contrairement au cas de la précipitation de carbures de vanadium
dans un alliage Fe-V-C (section précédente) où la chimie des précipités
est connue, ou constante, il est de nombreux cas où la chimie des précipités
peut varier au cours de la cinétique. On se retrouve alors dans une situation très complexe dans laquelle la chimie peut influencer la cinétique de
précipitation, qui, elle-même a des conséquences sur la chimie.
Dans un premier temps, nous aborderons le cas relativement simple
d’un alliage quaternaire Fe-V-Nb-C dans lequel deux familles distinctes
de carbures précipitent, puis nous évoquerons la situation plus complexe
de la précipitation d’un alliage Fe-Nb-C-N dans lequel plusieurs types de
précipités dont la chimie évolue, sont observés.
1050°C
VC Modèle
NbC Modèle
VC Dosage
NbC Dosage
0.2%
0.1%
0.0%
1.E-03
1.E-01
1.E+01
1.E+03
1.E+05
1.E+07
Temps (s)
34. Maugis (P.) et Gouné (M.), ≪ Kinetics of vanadium carbonitride precipitation in
steel: A computer model ≫, Acta Mater., vol. 53, 2005, p. 3359–3367
Figure 3.31: Fractions volumiques de
VC et NbC au cours de traitements
de réversion à différentes températures :
comparaison entre le dosage par dissolution électrolytique et le modèle contenant
68
Modélisation des cinétiques de précipitation
En partant du même état initial que dans le cas de l’alliage ternaire
(section 3.5.1), résultant d’un traitement bi-palier (10 heures à 700◦ C, puis
10 jours à 800◦ ) contenant une forte fraction volumique de carbures, des
traitements de réversion à 950◦ C et 1200◦ C ont été effectués.
Rayon moyen (m)
Précipités mixtes homogènes, cœur-coquille ou deux familles distinctes ?
1.E-06
1.E-07
1.E-08
950°C modèle
950°C MET
1.E-09
1200°C
1.E-03 modèle
1.E-01
1200°C MET
1.E+01
1.E+03
1.E+05
1.E+07
Temps (s)
Figure 3.32: Évolution du rayon moyen
au cours de traitements de réversion à
différentes températures : comparaison
entre la caractérisation MET et le modèle
contenant deux familles de précipités distinctes : VC et NbC.
La majeure partie des études réalisées sur des alliages contenant du
vanadium et du niobium mentionnent la présence de précipités mixtes
(V,Nb)(C,N), dont la composition est corrélée à la taille : gros précipités
“primaires” riches en niobium et petits précipités riches en vanadium.
Aucune étude ne mentionne des structures cœur-coquille sauf dans le
cas des alliages au titane.
Très récemment, Inoue 35 a caractérisé une lacune de miscibilité dans le
système (Nb,V)C dont la température critique se situe autour de 1800 K
et pour lequel on a coexistence de deux familles quasi-binaires pour des
températures inférieures à 1200 K.
Deux stratégies de modélisation ont donc été envisagées : (i) considérer
deux familles distinctes de précipités purs NbC et VC ; (ii) à partir des
données expérimentales d’Inoue, construire un modèle capable de prédire
la chimie du carbure complexe (V,Nb)C.
Deux familles distinctes
-3
Densité (m )
1.E+21
1.E+19
1.E+17
1.E+15
950°C modèle
\]^_`abcdb
950°C calcul
1.E+13
1.E-03 modèle
1.E-01
1200°C
\ _a
` bcdb
1200°C ]^
calcul
1.E+01
1.E+03
1.E+05
1.E+07
Temps (s)
Figure 3.33: Évolution de la densité de
précipités au cours de traitements de
réversion à différentes températures :
comparaison entre le dosage par dissolution électrolytique couplé à la caractérisation MET et le modèle contenant deux familles de précipités distinctes : VC et NbC.
La stratégie la plus simple pour modéliser la réversion d’un tel alliage consiste donc à considérer deux familles VC et NbC totalement
indépendantes, (sauf par le biais de la solution solide) dont les paramètres
thermodynamiques sont tirés de la littérature.
Nous avons utilisé le logiciel PreciSo : modèle par classes (approche
lagrangienne, voir section 3.4.3) et bilan de matière prenant en compte
toutes les phases (voir section 3.3).
Les figures 3.32 et 3.33 montrent les évolutions des rayons moyens et
densités des précipités (considérés indépendamment de leur chimie) pour
deux températures de réversion : 950◦ et 1200◦ . On observe un bon accord
entres les densités et rayons moyens mesurés et prédits par le modèle.
L’évolution de la chimie moyenne des précipités (exprimée par le pourcentage de vanadium dans les précipités) a été caractérisée par deux
méthodes expérimentales indépendantes : la dissolution électrolytique et
le mode HAADF en MET (voir chapitre 2), et comparée à celle donnée par
le modèle. L’accord entre le modèle et ces deux techniques expérimentales
est ici tout à fait remarquable.
35. Inoue (K.), Ishikawa (N.), Ohnuma (I.) et al., ≪ Calculation fo phase equilibria
between austenite and (Nb,Ti,V)(C,N) in microalloyed steels ≫, ISIJ Int., vol. 41, 2001,
p. 175–182
3.6 Vers la prédiction de la chimie des précipités ?
69
La modélisation de la réversion d’un alliage Fe-C-V-Nb basée sur la
coexistence de deux familles de carbures distinctes et indépendantes
VC et NbC permet de prédire quantitativement (i) la densité ; (ii) le
rayon moyen ; (iii) la composition chimique moyenne des précipités.
Précipités mixtes
χVC + (1 − χ)NbC ⇆ (Vχ , Nb1−χ )C
= nPs χG0V:C + (1 − χ)G0Nb:C + χ(1 − χ)ΩVNb:C
+kB T [χ ln χ + (1 − χ) ln(1 − χ)]] + γS
(3.90)
L’enthalpie libre de la matrice est elle aussi calculée en considérant une
solution régulière et un modèle de sous réseau. L’équilibre thermodynamique entre la matrice et les précipités implique alors :
χ∆GVC + (1 − χ)∆GNbC + χ(1 − χ)ΩVNb:C
1−χ
χ
+ (1 − χ)kB T ln
+χkB T ln
XV XC
XNb XC
+
2γv Vχ N b1−χ C
=0
RkB T
(3.91)
∆GVC et ∆GNbC sont les enthalpies libres de formation des carbures.
L’enthalpie libre globale du système doit rester constante pour de faibles
variations de la valeur de χ, ce qui entraı̂ne que la dérivée de l’équation
précédente par rapport à χ doit être nulle. Cette dernière condition donne
i (R), X i (R) et X i (R) à l’interles valeurs des concentration molaires XV
C
Nb
face matrice/précipité de rayon R :
i
XV
(R)XCi (R)
2γv Vχ N b1−χ C
(1 − χ)2 ΩVNb:C
exp
(3.92)
= χKVC exp
kB T
RkB T
80
60
40
20
modèle
'2 binaires'
0
dosage
phases
1.E-03 de
1.E-01
1.E+01
résultats HAADF
1.E+03
1.E+05
1.E+07
Temps (s)
(3.89)
L’idée d’une telle approche est d’utiliser les produits de solubité KVC
et KNbC , disponibles dans la littérature, comme données d’entrée de la
simulation.
En utilisant le modèle de solution régulière développé à la section 3.2.4,
l’enthalpie libre des carbures, supposés sphériques de surface S est alors
donnée par :
GP
100
% at de Vanadium
Pour décrire plus finement la chimie des précipités, et surtout, pour
disposer d’un modèle capable de prédire leur composition, nous avons
développé une approche dans laquelle l’enthalpie libre des précipités dépend
de leur composition à travers un paramètre χ qui donne la fraction molaire
de vanadium dans le carbure.
Ainsi, on considère que les carbures forment une solution régulière de
carbures stœchiométriques VC et NbC :
Figure 3.34: Évolution de la chimie
moyenne des précipités au cours d’un
traitement de réversion à 950◦ : comparaison entre le dosage par dissolution
électrolytique, la caractérisation de la chimie par HAADF et le modèle contenant
deux familles de précipités distinctes : VC
et NbC.
70
Modélisation des cinétiques de précipitation
i
XNb
(R)XCi (R)
2γv Vχ N b1−χ C
χ2 ΩVNb:C
exp
(3.93)
= (1−χ)KNbC exp
kB T
RkB T
A ces deux équations, s’ajoutent les équations de croissance pour les
trois éléments V, Nb et C :
XC0 − XCi (R)
dR
DNb
=
dt
R (1 − χ)α/2 − XCi (R)
(3.94)
0 − X i (R)
DV XV
dR
V
=
i (R)
dt
R χα/2 − XV
(3.95)
DC XC0 − XCi (R)
dR
=
dt
R α/2 − XCi (R)
(3.96)
Le système formé par les 5 équations 3.92, 3.93, 3.94, 3.95 et 3.96 permet
i (R), X i (R), X i (R), la composition
de déterminer les concentrations XV
C
Nb
χ et l’épaisseur de la couronne dR/dt∆t à rajouter (si dR/dt > 0) ou à
retirer (si dR/dt < 0) aux précipités.
A chaque pas de temps, après avoir procédé à la croissance (ou à la
décroissance) de chaque classe de précipités, on homogénéise la composition chimique des précipités avant de faire le bilan de matière. Ainsi,
chaque classe i de précipités est définie par un nombre Ni , un rayon Ri et
une chimie moyenne χi .
Pour modéliser des traitements de réversion après le traitement bi-palier
de précipitation initial, il faut déterminer la distribution initiale de taille
et de chimie. Ceci a été réalisé grâce à une analyse MET qui a permis de
tirer une corrélation chimie/taille (voir figure 3.35).
La figure 3.36 rassemble les résultats obtenus lors de la modélisation de
la réversion à 950 et 1200◦ C. On observe un accord relativement satisfaisant avec les mesures de rayon (MET) et de fraction précipitée (dissolution
électrolytique).
Cependant, certains problèmes restent à l’heure actuelle non résolus et
conduisent aux résultats saccadés de la figure 3.36 :
– la résolution numérique du système non linéaire de 5 équations à 5 inconnues est loin d’être triviale : actuellement un ensemble de 5 valeurs
initiales est déterminé par Monte-Carlo puis la méthode de Newton
est appliquée. Ce couplage Monte-Carlo/Newton est puissant, mais
pas suffisamment stable
– l’ajout ou la suppression d’une classe de précipités (voir secFigure 3.35: Correlation entre la chimie
et la taille des particules de l’état brut
tion 3.4.3) pose problème car il faut conserver la fraction précipitée
obtenue en couplant le mode HAADF a
ET la quantité d’atomes précipités. Nous avons vu qu’un simple rel’analyse EDX au MET.
dimensionnement permettait de conserver la fraction précipitée (section 3.4.3), mais pour ce qui est de la chimie, ce re-dimensionnement
peut conduire à des valeurs de χ inférieures à 0 ou supérieur à 1, ce
qui est aberrant.
3.6 Vers la prédiction de la chimie des précipités ?
71
Figure 3.36: Simulation de l’évolution de l’état de précipitation de l’alliage FeCVNb, obtenues en considérant une seule famille de précipités
mixtes, lors d’une réversion isotherme à deux températures :950 et 1200◦ C. a) Rayon moyen des précipités à 950◦ C ; b) Rayon moyen des
précipités à 1200◦ C : l’accord entre les prédictions et les résultats expérimentaux est satisfaisant pour les deux températures ; c) Fraction
volumique précipitée : seule la valeur obtenue après un traitement long à 1200◦ C est bien reproduite par les simulations ; d) Densité de
précipités.
– lors de la décroissance de certaines classes de précipités, il se peut
que la composition de la couronne à retirer soit telle que le précipité
ne peut fournir tous les atomes nécessaires.
La modélisation de la réversion d’un acier micro-allié contenant deux
populations de précipités (l’une riche en niobium et l’autre riche en
vanadium) peut se faire de deux façons : (i) en considérant que l’on a
deux familles distinctes NbC et VC ; (ii) en considérant que l’on a une
famille de précipités mixtes Vχ Nb1−χ C. La première approche donne
un très bon accord avec les expériences. La deuxième approche est
plus complexe, mais présente un fort potentiel. Elle donne des résultats
satisfaisants malgré quelques problèmes qui restent à l’heure actuelle
non résolus.
3.6.2 Précipitation de Nb(C,N,La) dans la ferrite
Dans le cadre de la thèse d’E. Courtois 36 , sous la responsabilité de
T. Epicier, et financée par le Contrat de Programme de Recherche (CPR)
“Précipitation”, nous avons proposé et validé un scénario de précipitation
relativement complexe sur la base d’observations en microscopie fine (haute
résolution et perte d’énergie).
Le but de cette thèse était d’étudier les premiers stades de la
précipitation de carbonitrures de niobium dans la ferrite, en validant la
technique de spectroscopie de perte d’énergie (EELS) pour doser le carbone et l’azote contenus dans les précipités.
Caractérisation en MET
L’alliage étudié était une coulée modèle fournie par ARCELOR
contenant un rapport Nb/(C+N) proche de l’unité pour permettre la
36. Courtois (E.), Etude de la précipitation des carbures et des carbonitrures de niobium dans la ferrite par microscopie électronique en transmission et techniques associées.
Thèse de doctorat, INSA-Lyon, 2005
Pour plus de détails, le lecteur
pourra se rapporter à l’article
noté [L] dans l’annexe B.
72
Modélisation des cinétiques de précipitation
Figure 3.37: Précipités observés à partir de répliques d’extraction après un traitement à 650◦ . (a) champ clair MET après 30 minutes,
montrant des précipités de tailles variés ; (b) cliché de diffraction du précipité cerclé en (a) ; (c) idem (a) mais pour 126 heures montrant
des grosses et des petites particule (labellisées 1 et 2 respectivement) ; (d) spectre EELS des particules 1 et 2 montrant que les grosses
particules sont des nitrures de niobium et que les petites sont des carbonitrures de niobium. Pour comparaison, le spectre d’une poudre
commerciale de NbN pur est ajouté.
précipitation de la quasi-totalité du niobium, du carbone et de l’azote contenus dans l’alliage. Sa composition en ppm était la suivante :
Nb
507
C
274
N
255
S
40
Mn
13
Al
41
O
154
C/N
1.1
Nb/(C+N)
1.0
Après une remise en solution solide à 1250◦ C pendant 20 minutes, l’acier
a été trempé et un traitement de précipitation à 650◦ C a été effectué.
Au temps courts (5 minutes), deux types de précipités ont été observés :
(i) des plaquettes monoatomiques enrichies en niobium et azote ; (ii) des
carbonitrures CFC dont la chimie, difficile à déterminer en MET, a été
caractérisée en sonde atomique tomographique (thèse de E. Bemont 37 CPR “Précipitation”).
Pour des temps plus long (30 minutes et 126 heures), deux familles de
précipités ont été identifiées et caractérisées : (i) des nitrures de niobium
purs ; (ii) des carbonitrures complexes de taille plus petite dont la chimie a
été mesurée par EELS :
Durée à 650◦
30 min
126 heures
(C+N)/Nb
0.85
0.87
C/Nb
0.58
0.52
C/(C+N)
0.68
0.59
D’après le tableau précédent, les carbonitrures sont sousstœchiométriques en éléments interstitiels et sont plus riches en carbone
qu’en azote, résultat qui peut paraı̂tre surprenant, compte tenu de la très
grande stabilité des nitrures comparée aux carbures.
37. Bemont (E.), La germination du carbure de niobium NbC dans la ferrite vue par
tomographie atomique. Thèse de doctorat, Univ. Rouen, 2003
3.6 Vers la prédiction de la chimie des précipités ?
73
Scénario de précipitation
De ces observations, on peut dérouler un scénario (illustré par la figure 3.38) : pendant les premiers stades de la précipitation, des plaquettes
monoatomiques de nitrure de niobium précipitent de façon homogène simultanément à des carbonitrures CFC, qui, eux, semblent s’aligner sur
les dislocations (voir figure 3.39). Ces plaquettes monoatomiques sont les
précurseurs des futurs nitrures purs observés pour les temps plus long. Pour
les temps long, les nitrures coexistent avec les carbonitrures.
Pour tester ce scénario, nous avons développé un modèle dans lequel
précipitent simultanément des nitrures purs et des carbonitrures sousstœchiométriques en éléments interstitiels. Le but de ce modèle est (i) de
décrire la cinétique de précipitation des deux types de précipités ; (ii) de
prédire la chimie des carbonitrures, notamment le rapport C/N (qui semblait en contradiction avec la thermodynamique).
Précipitation des carbonitrures NbCx Ny
Nous avons utilisé un modèle de sous-réseau (solution régulière diluée)
pour la matrice. Pour les nitrures, nous avons utilisé exactement la même
approche que celle développée dans le cas de la précipitation de carbures
de vanadium (voir section 3.5.1). Enfin, nous avons considéré que les carbonitrures étaient une solution idéale de NbC et de NbNZ :
NbCx Ny ⇆ χNbC + (1 − χ)NbNZ avec x = χ et y = (1 − χ)Z
Figure 3.38: Scénario de précipitation
déduit des analyses MET et EELS. (a)
microstructure schématique des premiers
instants de la précipitation ; (b) même
chose pour des temps plus longs.
(3.97)
De la même manière que dans la section précédente, le paramètre χ
représente la fraction molaire de NbC dans le carbonitrure.
Équilibre :
L’enthalpie libre du précipité est donnée par :
GP
= nPs [χGNbC + (1 − χ)GNbNZ
+kB T [χ ln χ + (1 − χ) ln(1 − χ)]] + γS
(3.98)
L’équilibre entre la matrice et les carbonitrures implique :
χ ∆GNbC
3χ
+(1 − χ)∆GNbNZ + χkT ln
XNb XC
Z
2γv P
3 (1 − χ)
+
=0
+(1 − χ)kT ln
Z
RkB T
XNb XN
(3.99)
∆GNbC et ∆GNbNZ sont les enthalpies libres de formation des carbures
et des nitrures et v P est le volume d’une molécule de NbCx Ny .
38. Epicier (T.), ≪ Transmission electron microscopy and nanoprecipitation
Eng. Mat., vol. 8, 2006, p. 1–5
≫
, Adv.
Figure 3.39: Champ sombre au MET
conventionnel des précipités de nitrures
de niobium et de carbonitrues de niobium
sur l’alliage étudiés dans le cadre de la
thèse d’E. Courtois (voir section 3.6.2)
L’alignement des carbonitures suggère
une germination hétérogène sur les dislocations (tiré de 38 ).
74
Modélisation des cinétiques de précipitation
Comme dans la section précédente, l’enthalpie libre globale du système
doit rester constante pour de faibles variations de la valeur de χ, ce qui
entraı̂ne que la dérivée de l’équation précédente par rapport à χ doit être
nulle. Cette dernière condition donne les valeurs des concentration molaires
i (R), X i (R) et X i (R) à l’interface matrice/précipité de rayon R :
XNb
C
N
i
(R)XCi (R)
XNb
Z
i
i
XNb
(R)XN
(R)
Z−1
=3
2γv P
= χKNbC exp
RkB T
2γv P
(1 − χ)KNbNZ exp
RkB T
(3.100)
(3.101)
Force motrice de germination : La force motrice de germination des
carbonitrures δg est obtenue en transférant dn molécules de NbCx Ny de la
solution solide de concentration X=(XNb , XC , XN ) dans le précipité (qui
e ,
est lui-même en équilibre avec la solution solide de concentration X e =(XNb
e )). En utilisant le formalisme développé à la section 3.2.3, on obtient
XCe , XN
alors :
kT
−∆g = P S
v
S = ln
"
(XNb XC )χ XNb XN Z
(1−χ)
[χKNbC ]χ [3Z−1 (1 − χ)KNbNZ ](1−χ)
#
(3.102)
Composition du germe : On suppose que la composition chimique du
germe (χ) est celle qui maximise le flux de germination. Or, dans notre cas,
seule la force motrice de germination dépend de la chimie du germe : le
terme cinétique β ∗ (taux de condensation) est lié à la diffusion du niobium
car celui-ci diffuse beaucoup moins vite que le carbone et l’azote. Maximiser
la force motrice revient à résoudre ∂∆g/∂χ = 0, ce qui donne :
"
XNb XC
χ = 1+
3KNbC
−1 XNb Z XN
3Z KNbNZ
#−1
(3.103)
Germination : Le taux de germination est calculé en utilisant la théorie
classique de la germination (section 3.2) :
∆G∗
t
dN
∗
= N0 Zβ exp −
1 − exp −
dt
kT
τ
(3.104)
Mentionnons ici que le taux de condensation est limité par la diffusion
de l’espèce la plus lente : le niobium. Ce qui donne :
β∗ =
2γv P
R0
4πR∗ 2 DNb XNb
et R0 =
avec R∗ =
4
a
S
kT
(3.105)
3.6 Vers la prédiction de la chimie des précipités ?
∆G∗ =
75
4
16 γ 3
∆G0
π 2 = − 2 avec ∆G0 = πR0 2 γ
3 δg
S
3
r
1
vat
R0
τ = ∗ 2 avec Z =
2
∗
2β Z
2v
2πR
at
(3.106)
(3.107)
Croissance : Aux deux équations d’équilibre (3.100 et 3.101), s’ajoutent
les équations de croissance pour les trois éléments V, Nb et C :
0 − X i (R)
dR
DNb XNb
Nb
=
P − X i (R)
dt
R αXNb
Nb
(3.108)
dR
DC XC0 − XCi (R)
=
dt
R αXCP − XCi (R)
(3.109)
0 − X i (R)
dR
DN XN
N
=
P − X i (R)
dt
R αXN
N
(3.110)
P = 1/(1 + x + y), X P = x/(1 + x + y) et X P = y/(1 + x + y)
où XNb
C
N
sont les compositions de la couronne de précipité d’épaisseur dR formée
pendant le temps dt. Le système non-linéaire formé par les deux équations
d’équilibre (3.100 et 3.101) et les trois équations de croissance (3.108, 3.109
et 3.110) permet de déterminer la vitesse de croissance et la composition
chimique χ de la couronne.
Nous avons vu dans la section précédente que la résolution de ce système
non linéaire est problématique. Or, nous avons la chance dans ce cas précis,
de pouvoir faire l’approximation DN , DC ≫ DNb , ce qui implique :
"
XNb XC
χ= 1+
3KNbC
−1 XNb Z XN
3Z KNbNZ
#−1
(3.111)
On retrouve ici exactement la même composition chimique que celle du
germe ! Ceci n’est nullement surprenant car c’est cette même composition
chimique qui maximise l’enthalpie libre de transformation de la matrice au
précipité (germe ou couronne pendant la croissance).
Nitrures pures NbN
La précipitation des nitrures purs est beaucoup plus simple. Les
équations de germination et de croissance ne sont qu’un cas particulier
de celles dérivées dans le cas des carbonitrures.
Implémentation
Les équations de germination et croissance ont été implémentées dans le
logiciel PreciSo en utilisant un modèle par classes de type lagrangien (voir
section 3.4), seule solution qui permettre de gérer une chimie différentes
des précipités selon leur date de nucléation.
76
Modélisation des cinétiques de précipitation
Paramètres
La plupart des paramètres thermodynamiques ont été tirés de la
littérature (coefficient de diffusion, volumes atomiques, produits de solubilité KNbN et KNbC .
Les énergies d’interface γNbN et γNbC ont été ajustées à ±10% de la
valeur 0.8 J/m2 fréquemment trouvée dans la littérature. La valeur Z de
la sous-stœchiométrie en azote de NbNZ a aussi été ajustée pour retrouver
la sous stœchiométrie globale du carbonitrure mesurée en MET 39 .
1.E-03
Tr_Fraction_NbN
Tr_Fraction_NbCN
Transformed Fraction
9.E-04
8.E-04
7.E-04
6.E-04
5.E-04
4.E-04
3.E-04
2.E-04
1.E-04
0.E+00
1
100
10000
1000000
Time (s)
Figure 3.40: Évolution des fractions
transformées de nitrures et carbonitrures
qui précipitent simultanément.
6.E-04
1.E-04
5.E-04
Atom Fraction
1.E-05
4.E-04
3.E-04
1.E-06
1000
10000
2.E-04
100000
1000000
Concentration_N
Concentration_C
1.E-04
Concentration_Nb
0.E+00
1
10
100
1000
Time (s)
10000
100000 1000000
Figure 3.41: Évolution de la concentration en soluté. L’azote est le premier
élément à disparaı̂tre de la solution solide.
1
0.9
Résultats
La figure 3.40 montre que les carbonitrures et les nitrures précipitent
simultanément et coexistent jusqu’à 107 s. Ce qui semble prouver que les
deux phases sont stables.
Sur la figure 3.41, les fractions de soluté sont représentées en fonction
du temps. On observe que, comme prévu par la thermodynamique, l’azote
disparaı̂t en premier car le produit de solubilité des nitrures est beaucoup
plus faible que celui des carbures. Dès lors qu’il n’y a plus d’azote disponible
en solution solide, c’est le carbone qui est absorbé par les précipités.
L’évolution du paramètre χ donnant la composition du germe ou de
la couronne en croissance (figure 3.42) permet de mieux comprendre la
séquence de précipitation complexe du carbonitrure. Les carbonitrures
formés sont d’abord riches en azote jusqu’à ce qu’il n’en reste plus en solution solide. Puis, ils s’enrichissent en carbone. La décroissance de la teneur
en carbone des carbonitrures observée à 200 s est due au mûrissement des
nitrures : dissolution des petits précipités qui remet ainsi de l’azote en solution solide. Un équilibre semble finalement atteint où l’azote et le carbone
se redistribuent dans les différents précipités pour équilibrer leur potentiel
chimique.
La figure 3.43 montre l’évolution de la chimie moyenne des carbonitrures. Un très bon accord est observé avec les mesures effectuées en MET
(EELS) et en sonde atomique.
0.8
0.7
χ
0.6
0.5
0.4
0.3
0.2
0.1
0
1
100
10000
1000000
Time (s)
Figure 3.42: Évolution du paramètre χ
donnant la composition du germe ou de
la couronne en croissance. Les carbonitrures formés sont d’abord riches en
azote jusqu’à ce qu’il n’en reste plus en
solution solide. Puis, ils s’enrichissent en
carbone.
On peut interpréter maintenant clairement l’apparente contradiction
entre le rapport C/N des carbonitrures et le rapport des produits de
solubilité des carbures et des nitrures. Alors que les carbonitrures riches
en azote sont plus stables que s’ils étaient riche en carbone, les nitrures
purs ayant absorbé une grande partie de l’azote disponible, les carbonitrures contiennent donc plus de carbone que d’azote
39. Courtois (E.), Epicier (T.) et Scott (C.), ≪ EELS study of niobium carbonitride nano-precipitates in ferrite ≫, Micron, vol. 37, 2006, p. 492–502
3.7 Développement du modèle de précipitation
77
3.6.3 Conclusion : la chimie mais pas les rayons ni la morphologie !
Tels qu’il est actuellement, bien que donnant de bons résultats sur la chimie des carbonitrures, le modèle de précipitation ne décrit pas correctement
l’aspect hétérogène de la germination des carbonitrures qui sont clairement
alignés sur les dislocations. Ce qui a pour conséquence une mauvaise description des tailles et densités de précipités relatives des nitrures purs et
des carbonitrures : le modèle prédit des tailles et densités équivalentes alors
que l’expérience montre de plus petits et plus nombreux carbonitrures.
De plus la précipitation des plaquettes monoatomiques (précurseurs des
nitrures purs) n’est pas prise en compte. Pour cela, il faudrait être capable
de comprendre la morphologie des précipités, vraisemblablement due à des
aspects chimique et mécaniques.
3.7 Développement du modèle de précipitation
Parmi les différents points en suspend mentionnés dans ce chapitre,
plusieurs d’entre eux mériteraient d’être traités à court ou moyen terme.
0.6
Forme des distributions : log normale ou LSW ?
0.5
Xp_Nb_NbCN
Prise en compte d’une structure cœur-coquille
Dans les aciers microalliés, de nombreuses études expérimentales
montrent des structures de précipités cœur-coquille relativement complexes
(e. g. cœur en titane, couronne interne riche en niobium et périphérie riche
en vanadium), alors que les observations que nous avons menées sur des
alliages modèles FeVNbC ont systématiquement montré des structures homogènes. Le titane serait-il à l’origine de cette structure ?
Pour étayer cette hypothèse, il serait nécessaire de développer une
version du logiciel PreciSo capable de garder en mémoire la chimie des
40. Danoix (F.), Bemont (E.), Maugis (P.) et Blavette (D.), ≪ Atom probe tomography I. Early stages of precipitation of NbCN and NbN in ferritic steels ≫, Adv. Eng.
Mat., vol. 8, 2006, p. 1202–1205
Xp
0.4
Toutes les distributions caractérisées expérimentalement sont très bien
décrites par une loi log-normale, alors que toutes les distributions issues de
modèles divers sont décrites par une loi LSW (forme inverse de la loi lognormale). Paradoxalement, ce désaccord, n’a pas suscité un grand nombre
d’études expérimentales ou théoriques pour en comprendre les causes : les
petites particules sont-elles tout simplement “manquées” par le microscope
du fait de leur taille ou serait-ce plutôt les grosses qui sont très mal décrites
par un modèle pour lequel seule la diffusion en volume est prise en compte ?
Une approche PTE/SAXS/MET en réversion sur un alliage modèle (type
Fe-Cu) combinée à une modélisation prenant en compte les différents chemins de diffusion (en volume, sur es dislocations, au joint de grain...) permettrait sûrement de mieux comprendre la forme des distributions.
Xp_N_NbCN
Xp_C_NbCN
0.3
Xp_Nb (EELS)
Xp_N (EELS)
0.2
Xp_C (EELS)
Xp_Nb (TAP)
Xp_N (TAP)
0.1
Xp_C (TAP)
0
1
10
100
1000
10000
100000 1000000
Time (s)
Figure 3.43: Composition chimique des
carbonitrures : comparaison avec les mesures EELS et TAP 40 .
78
Modélisation des cinétiques de précipitation
différentes couronnes qui se sont agglomérées sur le précipité lors de sa
croissance, voire de gérer la diffusion des différentes espèces chimiques à
l’intérieur du précipité ! Cette modification est loin d’être triviale car il est
impossible de conserver physiquement en mémoire la chimie de toutes les
couronnes pour toutes les classes de précipités.
Cette possibilité permettrait aussi de mieux comprendre les structures
cœur-coquille observées quand les espèces chimiques formant le précipité
ne diffusent pas à la même vitesse. L’alliage AlZrSc, pour lequel on dispose
de nombreuses données expérimentales (Sonde atomique, SAXS,..) grâce
au CPR “Précipitation”, serait un excellent candidat pour cette étude.
Effet des contraintes - germination hétérogène
Comme mentionné dans la conclusion du chapitre précédent, la prise en
compte des contraintes en cours de précipitation reste rarement abordée et
constitue un verrou scientifique important.
Le projet “CONTRAPRECI” (financement ANR) que nous avons
initiée avec T. Epicier en 2006 comporte un volet “modélisation” très important : (i) à l’échelle microscopique (théorie de la germination), il est envisagé
d’inclure un terme de désaccord cristallographique (énergie supplémentaire
lié au désaccord paramétrique entre matrice et précipité) ; (ii) à l’échelle
atomique, il est envisagé de faire un lien entre Dynamique Moléculaire et
Monte-Carlo Cinétique. Ce dernier aspect sera amplement développé dans
le chapitre suivant.
La prise en compte des contraintes dans la théorie de la germination
est assez complexe car un grand nombre de paramètres sont liés : énergie
d’interface-chimie-énergie des phases-taille des précipités... Si l’on reprend
l’exemple des carbonitrures de niobium qui germent vraisemblablement sur
les dislocations (voir figure 3.39), on peut se demander si leur plus petite
taille et leur plus grand nombre, par rapport aux nitrures purs est lié à
la nature hétérogène de leur nucléation : en d’autres termes, le champ de
contrainte situé autour de la dislocation (i) faciliterait la nucléation des
carbonitrures (dont le paramètre de maille est trop grand par rapport à celui
de la ferrite) au cœur de la dislocation ; (ii) mais limiterait leur croissance
car le champ de contrainte s’atténue quand on s’éloigne de la dislocation.
Pour valider cette hypothèse, il faudrait introduire une énergie élastique
Eel (σ, R), dépendante de la contrainte extérieure et de la taille du précipité,
dans l’expression de l’enthalpie libre du précipité.
Ainsi, il serait nécessaire de revisiter le concept de germination
hétérogène comme n’étant pas seulement un effet d’interface, mais un effet
mécano-chimique.
Vers l’échelle atomique
Les principaux avantages de l’approche développée tout au long de ce
chapitre sont sa relative simplicité, sa facilité de mise en œuvre, et surtout,
son adaptabilité à des cas toujours plus spécifiques.
3.7 Développement du modèle de précipitation
Cependant, certains paramètres comme l’énergie d’interface ou la
barrière de germination hétérogène qui jouent tous deux un rôle primordial dans la théorie de la germination, restent des paramètres ajustables,
difficilement mesurables par ailleurs.
De plus, la théorie de la germination telle qu’elle a été développée dans
ce chapitre s’appuie sur des hypothèses fortes : pas de désaccord cristallographique entre matrice et précipités, interface parfaite, précipités et
champs de diffusion sphériques,..
Nous avons vu que la chimie pouvait être prédite dans un cas simple,
mais qu’en est-il de la cristallographie et de la morphologie des précipités ?
C’est justement pour tenter d’apporter un autre éclairage sur toutes ces
questions que la modélisation de la précipitation à l’échelle atomique prend
tout son sens. Le chapitre suivant lui sera donc consacré.
79
80
Modélisation des cinétiques de précipitation
Vers l’échelle atomique
Des simulations à la portée de tous...
Revisiter la science des matériaux ?
Pour autant, ce sont peut-être plus les progrès dans les techniques de
caractérisation à l’échelle atomique (microscopies), qui vont contribuer à
revisiter dans les prochaines années, un grand nombre de concepts laissés
en suspend dans le domaine de la métallurgie (transformation de phase,
plasticité...), mais aussi, plus largement, en science des matériaux.
En effet, il est beaucoup plus facile de comprendre ou modéliser un
phénomène déjà observé, qu’un phénomène dont on n’observe que les
conséquences à l’échelle macroscopique. Par exemple, à moyens de calculs égaux, la compréhension de la plasticité des cristaux est bien plus
avancée que celle des matériaux désordonnés pour lesquels les modélisateurs
avancent “dans l’obscurité”.
Dans le domaine des transformations de phases, nous avons la
chance extraordinaire de pouvoir bénéficier à la fois : (i) de résultats
expérimentaux nouveaux grâce aux récents développements des techniques
de caractérisation à l’échelle atomique ; (ii) d’énormes puissances de calcul
en augmentation continue.
Dans d’autres domaines, où les techniques de caractérisation se prêtent
moins à l’échelle atomique, la modélisation à cette échelle est tout aussi
utile, mais doit être plus considérée, dans un premier temps, comme une
wjfkx yhzmqjk{f
s|w}v
1.E+17
1.E+14
Puissance (Flops)
Au cours des 70 dernières années qui on vu un développement extraordinaire des outils de calcul, la puissance des calculateurs a été multipliée
par 1015 . Depuis la naissance de ce que l’on peut appeler le premier ordinateur : le Zuse 1 en 1938, le nombre d’opérations décimales par seconde
(Flops) a été multiplié par 1000 tous les 15 ans !
Actuellement cette progression est encore tellement rapide qu’un simple
PC du commerce est équivalent, en terme de puissance de calcul, aux supercalculateurs d’il y a une quinzaine d’années !
Réaliser des simulations à l’échelle atomique, qui nécessitent un grand
nombre d’opérations par seconde, est donc maintenant à la portée des chercheurs.
}fj~ €
1.E+11
1.E+08
1.E+05
nqml rlil
stnuv
efghijklmf
njojpml
‚mƒl „
1.E+02
1.E-01
1900
1920
1940
1960
1980
2000
2020
Année
Figure 4.1: Évolution de la puissance des
caclulateurs en Flops (Floating operations per second) au cours du dernier
sciècle.
82
Vers l’échelle atomique
“boı̂te à idées” que comme un véritable outil prédictif.
Contenu du chapitre
Dans ce chapitre, sera d’abord présentée la démarche utilisée pour s’attaquer à quelques verrous scientifiques identifiés au chapitre précédent et
liés au premiers instants de la précipitation : forme et chimie des germes,
rôle des contraintes...
Ensuite, une méthode originale qui permet de combiner les avantages
des techniques de Monte-Carlo cinétique et de dynamique moléculaire sera
présentée et validée dans un cas simple : l’étude du frottement intérieur du
carbone dans le fer.
Enfin, une large place sera faite aux projets et perspectives de
développement de la modélisation à l’échelle atomique appliquée à la
précipitation.
Ouverture...
Dans le domaine de la science des matériaux, et au laboratoire MATEIS tout particulièrement, nous avons la chance de pouvoir (de devoir ?)
travailler sur différentes classes de matériaux : ce qui est enrichissant à la
fois du point de vue personnel et collectif. Ainsi, un petit détour sera fait
du côté des matériaux polymères où l’approche développée dans le cadre de
mes travaux en métallurgie a été utilisée pour tenter de mieux comprendre
la structure et les propriétés mécaniques spécifiques des copolymères nanostructurés.
4.1 Coupler
Moléculaire
Monte-Carlo
Cinétique
et
Dynamique
4.1.1 Présentation
Les méthodes de Monte-Carlo Cinétique (MCC) atomique traitent
des sauts de différentes espèces atomiques dans un réseau généralement
rigide. La connaissance des énergies de col associées à chaque transition permet d’évaluer les probabilités de saut et les temps de résidence.
Ces méthodes permettent de donner une description spatio-temporelle
de différents phénomènes de transport (e. g. la précipitation) pour des
systèmes allant jusqu’à plusieurs millions d’atomes et pour des durées de
plusieurs milliers d’heures, mais elles ne prennent pas en compte implicitement tous les phénomènes qui vont perturber la régularité du réseau :
dislocations, réseaux cristallins différents,.. ainsi que toutes les contraintes
mécaniques qu’ils impliquent.
La Dynamique Moléculaire (DM) classique est basée sur la mécanique
newtonienne. Les forces appliquées sont calculées à partir de la connaissance des potentiels d’interaction entre les atomes voisins. Cette technique
4.1 Coupler Monte-Carlo Cinétique et Dynamique Moléculaire
83
a été utilisée avec succès pour modéliser la dynamique de dislocations ou
certaines transformations de phases simples. Cependant, elle demeure très
limitée à cause du faible nombre d’atomes (de l’ordre de quelques millions)
et surtout du temps simulé extrêmement court (environ 1 ns, c’est à dire
quelques sauts d’un atome de carbone à 1000◦ C).
Les deux techniques précédentes ont été utilisées séparément avec beaucoup de succès au cours des dernières années (citons trois ouvrages de
références 1 2 3 ). Pour traiter des problèmes de diffusion et de mobilité de
dislocations, ces deux techniques paraissent tout à fait complémentaires :
les phénomènes cinétiques liés à la diffusion des atomes peuvent être
modélisés par la méthode de MCC, alors que la structure cristallographique
des différentes phases, et surtout les champs de contraintes associés à la
présence d’interfaces, de défauts ponctuels, ou de dislocations pourraient
être évalués par la DM.
La principale difficulté réside dans la mise en place d’un dialogue entre
ces deux techniques :
– comment prendre en compte les phénomènes caractérisés par la DM (champ
de contrainte, cristallographie des phases,..) dans la modélisation des
phénomènes de transport par MCC ?
– comment intégrer l’évolution microsctructurale modélisée par MCC dans
la DM ?
Après une brève présentation de ces deux techniques, la stratégie
adoptée (procéder en différentes étapes de complexité croissante) sera
détaillée. Les résultats de nos premiers pas dans cette approche seront
présentés et les perspectives à court et plus long terme seront évoquées.
4.1.2 La Dynamique Moléculaire
Le principe de la dynamique moléculaire est tellement simple qu’elle
pourrait être enseignée dès le lycée ! En effet, la deuxième loi de Newton,
ou relation fondamentale de la dynamique, qui est abordée assez tôt dans
la scolarité, relie les forces Fij appliquées à un système i, à l’accélération
(ou variation de vitesse v) de ce système :
X
j
Fij = mi
dvi
dt
(4.1)
Si l’obsession du calcul littéral n’était pas aussi poussée en France, on
pourrait apprendre aux élèves que cette équation s’intègre numériquement
de façon extrêmement simple pour donner l’évolution de la vitesse vi :
1. Binder (K.) et Heermann (D. W.), Monte-Carlo simulation in statistical physics:
an introduction. Springer, 2002
2. Allen (M. P.) et Tildesley (D. J.), Computer Simulation of Liquids. Oxford
University Press, 2002
3. Frenkel (D.) et Smit (B.), Understanding Molecular Simulations: From Algorithms to Applications. Academic Press, 2002
84
Vers l’échelle atomique


X
∆t 
vi (t + ∆t) = vi (t) +
Fij 
mi
(4.2)
ri (t + ∆t) = ri (t) + ∆tvi (t + ∆t)
(4.3)
j
Puis l’évolution de la position ri du système i :
Pour ne pas effrayer ces élèves, on pourrait omettre de leur préciser que
cette méthode s’appelle la méthode de Verlet et qu’elle est utilisée par de
nombreux chercheurs sur les calculateurs les plus puissants du monde !
Deux grosses difficultés (car il y en a !) limitent l’utilisation de la DM
à l’échelle atomique :
1. Le pas d’intégration ∆t nécessaire pour bien rendre compte de la dynamique
des atomes est de l’ordre de 10−15 s. Les intervalles des temps modélisés
par DM sont de l’ordre de la nanoseconde.
2. Il est nécessaire de connaı̂tre la résultante
P des forces qu’exercent tous
les atomes j sur un atome i considéré :
j Fij . Cette résultante dérive
de potentiels d’interaction atomique entre les différentes espèces chimiques qui constituent le système étudié. La construction de ces potentiels est assez délicate et nécessite une validation à la fois sur les propriétés expérimentales macroscopiques (enthalpie de sublimation, modules
élastiques,..), mais aussi sur de nombreuses propriétés microscopiques calculées par des méthodes ab-initio (mécanique quantique). Un exemple de
validation d’un potentiel d’interaction fer-carbone sera présenté à la section 4.1.6.
On dispose actuellement de potentiels relativement bons pour les
métaux purs, voir les alliages binaires, mais très peu de potentiels décrivent
correctement les interactions entre plus de deux espèces atomiques (e. g.
fer+interstitiel+subtitutionel). Cependant, de nombreux potentiels de plus
en plus complexes devraient voir le jour dans les prochaines années car leur
développement est en pleine expansion.
25
Box Size (σ
σ)
24
Tg
23
Tf
22
21
20
0
0.2
0.4
0.6
0.8
1
1.2
1.4
kT (εε)
Figure 4.2: Changement de phase en dynamique moléculaire (logiciel SOMM).
Évolution de la taille de la boı̂te
de simulation contenant 40000 atomes
en interaction de type Lennard-Jones
(E = 4ε[(σ/r)12 − (σ/r)6 ]) lors d’une
montée/descente en température à pression imposée (ensemble NPT). On voit
apparaı̂tre la température de fusion et la
zone de température correspondant à la
transition vitreuse.
Le principe de la dynamique moléculaire est extrêmement simple, mais
(i) tous les résultats reposent sur la qualité (voir l’existence !) des potentiels inter-atomiques nécessaires à la modélisation du système étudié ;
(ii) l’échelle de temps décrite est au maximum de l’ordre de la nanoseconde.
4.1.3 Le Monte-Carlo Cinétique
Les méthodes de Monte-Carlo tiennent leur nom de la ville renommée
pour ses jeux de hasard. L’idée générale est d’utiliser des nombres aléatoires
pour explorer au hasard différentes configurations d’un système. Un critère
d’acceptation ou de refus de la transition entre deux configurations permet d’atteindre un certain état du système, tout en passant par des états
4.1 Coupler Monte-Carlo Cinétique et Dynamique Moléculaire
85
métastables. Cette méthode est tout particulièrement adaptée à l’étude des
transformations de phases, et notamment de la germination et de la croissance.
Le Monte-Carlo Cinétique (MCC) permet en plus de prendre en compte
le temps de résidence associé à chaque état du système. Il permet d’accéder
aux cinétiques des transformations.
Imaginons un système à l’état i d’énergie Ei . Ce système a Z transitions
possibles pour aller de cet état i à un état voisin j. Chaque transition j
implique le passage par un col (saddlepoint) : état intermédiaire d’énergie
Ejsp . La barrière d’énergie pour effectuer la transition j est donc ∆Eij =
Ejsp − Ei et sa probabilité associée est :
pij = exp
−∆Eij
kT
(4.4)
La probabilité que cette transition se déroule pendant un intervalle de
temps dt est alors :
w0 pij dt = w0 exp
∆Eij
kT
dt = wj dt
(4.5)
où wj est la fréquence de jème transition et w0 est la fréquence d’attaque
(fréquence de vibration des atomes).
La probabilité pour qu’aucun événement ne se déroule pendant un intervalle de temps δt = ndt est :

1 −
Z
X
j
n
wj dt ≈ exp(−Ωδt)
(4.6)
P
où Ω = Z
j wj . Le temps de résidence τR lié à la configuration i est
alors évalué par le tirage d’un nombre aléatoire r1 entre 0 et 1 :
τR = −
ln r1
Ω
(4.7)
Pour sélectionner la transition qui sera effectuée après le temps τR , un
deuxième nombre aléatoire r2 est tiré entre 0 et 1. La transition choisie est
celle qui intercepte le bout du segment de longueur Ω · r2 (voir figure 4.3).
Ainsi, pour décrire une cinétique de précipitation, on peut introduire
une lacune L (ou un interstitiel) qui peut diffuser sur les sites voisins.
En supposant connues, l’énergie de col de diffusion de la lacune et les
énergies de liaison des différentes espèces atomiques (i.e. ELA , ELB , EAA ,
EAB et EBB ), on peut acceder relativement facilement à la cinétique de
précipitation (voir figure 4.4).
La technique de MCC est extrêmement puissante puisqu’à partir des
potentiels de liaison des différentes espèces atomiques, on peut modéliser
w1
w2
w3
wZ
Γ⋅r2
Γ
Figure 4.3: Parmi les Z transitions possibles de probabilité wi dont la somme
vaut Ω, la transition choisie est celle qui
correspond à r2 · Ω, où r2 est un nombre
aléatoire compris entre 0 et 1.
86
…†‡† ˆ ˆ† ˆ‡Š
‰
Vers l’échelle atomique
‹Œ Ž‡† Ž
‹Œ Ž‡† Ž
Figure 4.4: Exemple de séquence de précipitation obtenue par Monte-Carlo Cinétique dans un alliage binaire de l’état initial à 109 sauts
de la lacune.
une cinétique de précipitation qui peut faire intervenir des phases stables
et métastables 4 ou des précipités dont la chimie varie de façon complexe 5 .
Par contre, le MCC doit forcément gérer un nombre de transition fini ;
ce qui a pour conséquence que toutes les espèces atomiques doivent se
trouver sur un réseau rigide dont la cristallographie est figée. De plus les
contraintes liées au désaccord de paramètre entre matrice et précipités, ou
à d’éventuels défauts dans le réseau cristallin ne sont pas prises en compte.
L’influence de la contrainte sur la chimie du précipité ou la germination
hétérogène sur une dislocation ne peut donc pas être traitée efficacement
par cette technique.
La technique de Monte-Carlo Cinétique permet de modéliser des
cinétiques de précipitation complexes, mais elle est limitée par le réseau
rigide qui empêche de prendre en compte l’interaction élastique entre
matrice et précipité.
4.1.4 Principe du couplage
L’idée du couplage MCC/DM consiste à faire dialoguer le MCC avec la
DM selon la démarche suivante :
1. A partir des énergies de col associées à toutes les transitions possibles ∆Eij ,
on effectue n pas de MCC sur réseau rigide en utilisant un algorithme à
temps de résidence
2. Le réseau est relaxé par dynamique moléculaire
4. Gent (D.), Cinétiques de précipitation du carbure de niobium dans la ferrite. Thèse
de doctorat, Univ. Paris XI, 2001
5. Clouet (E.), Laé (L.), Epicier (T.) et al., ≪ Complex precipitation pathways in
multi-component alloys ≫, Nature Materials, vol. 5, 2006, p. 482–488
4.1 Coupler Monte-Carlo Cinétique et Dynamique Moléculaire
¤¥¦§¨©
§¨©ª«¬­¥ ª®¦¯§ ®°±¨
²™³³´•™ž š –’• ’•”µ›’•
›¶™“™· ´’•
87
½¾
¦«¿®°±¨ ¤¥ ­¯À±­«®¬¨
¾¦
¡› ´¡ –’• ˜š’—¹™’• –’ ›ž¡
¸
∆ º»¼
Õ
Ô
Ó
Ò
Ñ
Ð
‘’“”• –’ —˜•™–’š›’œ
τ
—žŸ Ÿ™¡™¢˜ ¢ — š•™¢ ™ž š ™ œ
Γ£
ä
å
ß ç
á ß = ÛÜÝ æ − ∆âã
Þ
è à é
Þ
×Ø
êë êì
êí
êî
Ö
Ω⋅r2
τÙ = − Ú
Ç
∆ ÅÆ È
ÉÊËÌÍÎÏ
Á’ ¡  ¢ ™ž š – ´ —˜•’ ´
› —™•¢ ¡¡™š
Ω
Ω
‘ž ´• ¡’• à ” • –’ Ä
¸¸
Figure 4.5: Principe du couplage entre Monte-Carlo Cinétique de Dynamique Moléculaire.
3. Les énergies de col ∆Eij sont réévaluées par statique moléculaire 6 en fonction de la contrainte locale due à la présence de précipités, défauts,..
4. on retourne en 1.
L’étape la plus délicate est l’étape 3. En effet, il n’est pas raisonnable de
mesurer l’énergie de col de toutes les transitions possibles. Deux solutions
s’offrent alors à nous :
– sachant que la contrainte modifie les énergies de col (pour un environnement chimique identique), on peut, dans un premier temps, valider une
loi de type ∆Eij = f (σ) et, en cours de simulation (étape 3) mesurer la
contrainte σ(xP , yP , zP ) en différents points P par dynamique moléculaire.
Les énergies de cols seront alors calculées en interpolant la contrainte
σ(xi , yi , zi ) à la position de la transition i considérée dans le MCC (étape 1),
avec celles mesurées précédemment et en utilisant la relation ∆Eij = f (σi )
– on peut, lors de cette étape 3, tester différentes énergies de cols en différents
points donnés ∆E(xP , yP , zP ), et interpoler l’énergie de col ∆E(xi , yi , zi )
en fonction des énergies de col mesurées précédemment pendant l’étape de
MCC (étape 1).
4.1.5 Stratégie envisagée
Compte tenu du contexte scientifique (problématique de la précipitation
dans les aciers micro-alliés, demande industrielle dans le domaine des
aciers,..), il nous a paru judicieux de démarrer cette étude sur le système
6. La statique moléculaire vise à trouver la position d’équilibre stable de tous les
atomes lorsqu’ils sont immobiles.
88
Vers l’échelle atomique
–
–
–
–
Fe-C. L’objectif ambitieux à long terme de ce projet nous a obligé à le
décomposer en plusieurs étapes distinctes de complexité croissante :
Validation d’un potentiel inter-atomique Fe-C. La première étape
consiste donc à valider un potentiel d’interaction Fe-C. Cette première
étape sera présentée à la section 4.1.6.
Validation de l’approche dans un cas simple : la modélisation du
pic de Snoek. Le pic de Snoek est lié au déplacement des atomes de
carbone d’un site octaédrique à l’autre lors d’une sollicitation mécanique
cyclique. Dans ce cas, le nombre de transitions possibles est extrêmement
limité, ce qui facilite la mise à jour par DM, des énergies de col en fonction
de la contrainte appliquée. La modélisation du pic de Snoek sera détaillée
à la section 4.1.7.
Modélisation de la formation des atmosphères de Cottrell. Le
problème est ici plus complexe qu’à l’étape précédente puisque le champ de
contrainte n’est plus uniforme, mais varie autour de la dislocation. L’idée
est donc de prendre en compte les interactions carbone/dislocation dans les
énergies de col utilisées dans le MCC en fonction de la position des atomes
de carbone autour de la dislocation.
Vers la prédiction des premiers instants de la précipitation. C’est
l’étape ultime de la démarche. Comme dans l’étape précédente, le champ
de contrainte varie en fonction de la position par rapport au précipité. La
difficulté supplémentaire est de mettre à jour le réseau cristallin du précipité
au cours de sa croissance.
La globalité de ce projet est réalisée en collaboration avec C. Becquart du LMPGM de Lille. Les deux premières étapes ont été réalisées
dans le cadre du stage post-doctoral de S. Garruchet (financement ANR
“CONTRAPRECI”). Elles seront détaillées par la suite. Les deux derniers
points sont en cours de réalisation.
4.1.6 Un potentiel Fe-C...
Pour plus de détails, le lecteur
pourra se rapporter à l’article
noté [J] dans l’annexe B.
Le carbone est l’un des éléments en solution solide les plus fréquemment
rencontré dans le fer. En effet, l’ajout de quelques dizaines de ppm de
carbone peut changer notablement les propriétés finales de l’acier car celuici interagit fortement avec les défauts présents dans la ferrite (dislocations,
atomes substitutionnels,..). La modélisation de ces interactions à l’échelle
atomique (Dynamique Moléculaire) suppose de disposer d’un bon potentiel
d’interaction Fe-C. A l’heure actuelle, les potentiels Fe-C disponibles ne
sont pas satisfaisants car ils conduisent à de mauvaises propriétés (site
tétraédrique favorable, mauvaise prédiction de la structure de cœur d’une
dislocation pour la partie Fe-Fe,..).
Dans le cadre d’une étude menée en collaboration avec C. Becquart du
LMPGM et C. Domain d’EDF, nous avons, avec S. Garruchet, participé à
la validation d’un nouveau potentiel FeC. Notre contribution à consisté à
réaliser différentes “expériences” numériques en DM pour vérifier certaines
grandeurs connues par ailleurs : énergie de col du site tétraédrique, varia-
4.1 Coupler Monte-Carlo Cinétique et Dynamique Moléculaire
89
tion du paramètre de maille en fonction du taux de carbone, coefficient de
diffusion,..
Potentiel EAM : ajustement
Pour décrire correctement les interactions atomiques au sein d’un métal,
les potentiels de paires qui décrivent l’énergie potentielle entre un atome i
et son voisin j, Φij (rij ) ne sont pas satisfaisants.
P On rajoute généralement
un terme lié à la densité électronique ρi = j ρ(rij ) autour de l’atome i
Fi (ρi ). La somme de ces deux contribution constitue ce que l’on appelle un
potentiel EAM (Embedded Atom Method) :


X
X
X
X
1
Φij (rij ) +
Fi 
(4.8)
ρ(rij )
Etot =
2
i
j6=i
i
j6=i
Dans le cas du système Fe-C, où le carbone est dilué, nous avons 6
fonctions à déterminer : ΦFeFe (r), ΦFeC (r), ρFe (r), ρC (r), FFe (ρ) et FC (ρ).
Il a été décidé de partir sur la base du potentiel eam du fer proposé par
Ackland 7 qui est admis comme étant une référence. Ceci a permis de fixer
ΦFeFe (r), FFe (ρ) et ρFe (r).
Les autres fonctions ont été ajustées pour avoir un bon accord avec les
calculs ab-initio réalisés avec VASP (Vienna Ab initio Simulation Package)
sur deux configurations : C en site octaédrique et C en site tétraédrique.
Validation
Test sur d’autres configurations ab-initio Divers configurations ont
été testées et les énergies d’interaction entre atomes de carbones, lacunes et
dumbells (deux atomes de fer dans un site) en différentes positions ont été
comparées aux valeurs calculées par ab-initio sur des systèmes contenant
une centaine d’atomes de fer.
L’énergie d’interaction de deux éléments A1 et A2 est définie comme la
différence entre l’énergie du système quand A1 et A2 sont voisins et interagissent et quand ils sont très éloignés. Or, comme les boı̂tes de simulation
ab-initio ne comportent que 128 atomes, on ne peut pas calculer directement l’énergie d’interaction. Elle est alors définit par :
Eb (A1 , A2 ) = [E(A1 ) + E(A2 )] − [E(A1 + A2 ) + Eref ]
(4.9)
où E(Ai ) représentent l’énergie du système ne contenant que Ai , E(A1 +
A2 ) l’énergie du système contenant A1 et A2 en interaction et Eref l’énergie
du système ne contenant que la matrice. La figure 4.6 montre un bon accord
entre les énergies d’interaction données par le potentiel développé et les
calculs quantiques.
7. Ackland (G. J.), Mendelev (M. I.), Srolovitz (D. J.) et al., ≪ Development of
an interatomic potential for phosphorus impurities in α-iron ≫, J. Phys.: Condens. Mat.,
vol. 16, 2004, p. S2629–s2642
Figure 4.6: Énergies d’interaction en eV
calculées par ab-initio et grâce au potentiel Fe-C développé ici.
90
Vers l’échelle atomique
1.01
Lattice parameter (dimensionless)
c*
a*
a* [Cheng]
c* [Cheng]
1.005
1
0.995
0
0.2
0.4
0.6
0.8
1
% at Carbon
Figure 4.7: Évolution du paramètre de
maille en fonction du taux de carbone
dans la ferrite à 300K : comparaison
entres les simulations en DM (points) et
un recueil de données de la littérature
(lignes) 8 .
Paramètre de maille de la structure tétragonale Mesurer la distorsion de la maille tétragonale martensitique en fonction du taux de carbone
est un bon moyen de tester notre potentiel. En effet, le site octaédrique dans
lequel vient se placer le carbone est fortement asymétrique : la présence du
carbone cause donc un allongement de la maille dans la direction des deux
proches voisins (distants de a/2) et une contraction dans√le plan perpendiculaire contenant les quatre autres voisins (distants de a 2/2).
Dans le cadre du travail post-doctoral de S. Garruchet, nous avons
réalisé des simulations en DM avec le code LAMMPS 9 en gardant le nombre
d’atomes, la pression et la température constantes (NPT, ensemble canonique). La variation des paramètres de la maille tétragonale (dilatation pour
c et contraction pour a) en fonction du taux de carbone est bien reproduite
par notre potentiel et se compare avec succès à des données de la littérature
(voir figure 4.7). Notre potentiel sous-estime cependant la dilatation de la
maille tétragonale d’une vingtaine de pourcents.
Énergie de col du site tétraédrique Pour calculer la barrière de diffusion liée au saut d’un site interstitiel à l’autre, il faut connaı̂tre le chemin
0.8
0.7
d’énergie minimum pour passer d’un site octaédrique S1 à un autre site
0.6
octaédrique
S2 . Celui-ci est déterminé en plaçant l’atome de carbone sur
0.5
le segment S1 S2 et en relaxant grâce à un algorithme de gradient conjugué
0.4
0.3
dans lequel on autorise le déplacement de l’atome de carbone dans le plan
0.2
perpendiculaire à S1 S2 .
0.1
La figure 4.8 montre le chemin d’énergie minimum pour aller d’un site
0
0
0.2
0.4
0.6
0.8
1
octaédrique
à son voisin. On remarque que la position de col correspond
distance (lattice unit)
exactement au site tétraédrique. La barrière de diffusion est de 0.85 eV, en
Figure 4.8: Chemin d’énergie minimum accord avec les calculs quantiques et la valeur expérimentale.
E n e rg y (e V )
0.9
pour la diffusion du carbone à 0K.
Avec les structures de l’atome de carbone (atomes rouges) dans la matrice
de fer (atomes bleus) au états initiaux, intermédiaire (sites octaédriques
1 et 2) et aux états de transition (site
tétraédrique).
où r(t) est la position du carbone à l’instant t. Connaissant les positions successives de l’atome de carbone r(tn ) = r(n∆t), le déplacement
quadratique moyen est donné par une moyenne glissante sur l’ensemble des
positions de l’atome de carbone :
29
27
Weller
Simulation
25
- ln(D )
Diffusion du carbone Pour comparer le coefficient de diffusion du carbone à des valeurs expérimentales de la littérature, nous avons réalisés des
simulations à différentes températures (de 850 à 1150K) dans l’ensemble
NPT avec 2000 atomes de fer et un atome de carbone sur 2×107 pas de simulation. Le coefficient de diffusion D est obtenu en mesurant le déplacement
quadratique moyen (équation d’Einstein) :
E
D
(4.10)
6Dt = |r(t) − r(0)|2
23
21
19
17
15
0.00085
0.00095
ïðñòó
0.00105
1/T
0.00115
Figure 4.9: Logarithme du coefficient de
diffusion du carbone expérimental 10 et
mesuré par dynamique moléculaire en
fonction de l’inverse de la température.
En insert, sont représentés les différents
sauts du carbone à travers les sites
8. Cheng (L.), Böttger (A.), Keijser (T. H. D.) et Mittemeijer (E. J.), ≪ Lattice parameters of iron-carbon and iron-nitrogen martensites and austenites ≫, Scripta.
Mater., vol. 24, 1990, p. 509–514
9. LAMMPS, http://lammps.sandia.gov/, 2006
10. Weller (M.), ≪ The snoek relaxation in bcc metals: from steel wire to meteorites ≫, Mat. Sc. Eng. A, vol. 442, no 1-2, 2006, p. 21–30
4.1 Coupler Monte-Carlo Cinétique et Dynamique Moléculaire
D
|r(t) − r(0)|
2
E
=
Pnmax −n
j=0
|r((n + j)∆t) − r(j∆t)|2
nmax − n + 1
91
(4.11)
La mesure du coefficient de diffusion à plusieurs températures nous a
permis de déterminer l’énergie d’activation ∆Q = 0.85 eV, en parfait accord avec l’énergie de col du site tétraédrique à 0K. La figure 4.9 compare
les simulations du coefficient de diffusion avec un recueil de données de
la littérature (en insert, on voit la projection des différentes positions de
l’atome de carbone à 850K). L’accord observé permet de valider le potentiel
Fe-C développé.
Interaction dislocation/carbone La structure de cœur de la dislocation vis de vecteur b = a/2 < 111 > a été examinée. La figure 4.10 montre
une configuration relaxée dans laquelle les déplacements des atomes dus à la
dislocation sont représentés par des flèches (méthode de Vitek). Notons que
la configuration observée contient un cœur compact (champ de déplacement
des atomes proche du cœur) , en accord avec les calculs ab-initio. La configuration dans laquelle le cœur est dégénéré (champ de déplacement des
atomes plus étalé), prédite par de nombreux potentiels empiriques, n’est
pas stable avec notre potentiel.
Effet d’un champ extérieur sur la barrière de diffusion
La contrainte a un effet important sur la barrière de diffusion du carbone
avec pour conséquences le frottement intérieur lié au pic de Snoek, ou la
formation d’atmosphères autour des dislocations.
Dans la maille CC de la ferrite, il existe trois types de sites octaédriques
(voir figure 4.11). Sous contrainte nulle, ils sont tous équivalents. Par contre
l’application d’une contrainte uniaxiale va dissocier les sites dont la direction des deux plus proches voisin (distorsion) est parallèle (sites 1) ou
perpendiculaire (site 2) à l’axe de traction.
Nous avons donc appliqué un état de traction uniaxial (positif ou
négatif) à une boı̂te contenant 2000 atomes de fer et un atome de carbone. A partir ce cet état, nous avons mesuré le chemin d’énergie minimum
pour passer d’un site de type 1 à un site de type 2 et inversement.
La figure 4.12 représente les énergies de col ∆E12 pour passer d’un site
1 à un site 2 (et ∆E21 pour passer d’un site 2 à un site 1) en fonction de
la contrainte uniaxiale appliquée.
On remarque que l’application de la contrainte va favoriser certains sites
au détriment des autres : les sites 1 voient leur énergie baisser en traction
et augmenter en compression, alors que les sites 2 ont un comportement
inverse. Ceci est tout à fait logique compte tenu de la dissymétrie des sites.
De ces résultats, on peut donner les expressions des énergies de col en
fonction de la contrainte :
Figure 4.10: Configuration relaxée
d’une dislocation vis représentée selon
la méthode de Vitek : les flèches
représentent l’amplitude du déplacement
des atomes dans la direction [111] lié à
la présence de la dislocation.
Figure 4.11: Trois différents types de sites
octaédriques dans la maille CC du fer.
(a) En l’absence de contrainte, ils sont
tous équivalents. (b) L’application d’une
contrainte dissocie les sites dont la distorsion est parallèle (1) ou perpendiculaire
(2) à l’axe de traction.
92
Vers l’échelle atomique
octa 1 to octa 2
(
octa 2 to octa 1
0.88
∆E ôõ
0.87
Diffusion barrier (eV)
0.86
2
∆E12 = −β σ2 + ασ + ∆E0
2
∆E21 = −β σ2 − ασ + ∆E0
(4.12)
0.85
∆Eõ ô
0.84
0.83
0.82
0.81
-1
-0.5
0
0.5
1
Stress (GPa)
Figure 4.12: Barrière de diffusion
nécessaire à franchir pour passer d’un
site 1 à un site 2 (et vice versa).
où α = 0.024 eV/GPa, β = 0.012 eV/GPa2 et ∆E0 = 0.85 eV.
Ces données seront très précieuses pour modéliser par exemple le frottement intérieur lié aux sauts du carbone d’un site 1 à un site 2 lors de
l’application d’une contrainte cyclique. cet aspect sera détaillé à la section 4.1.7.
Conclusion
Nous avons donc validé le potentiel Fe-C développé par C. Becquart,
J. M. Raulot, G. Bencteux et C. Domain sur la base du potentiel du
Fe d’Ackland. Ce potentiel constitue un outil précieux pour étudier
les interactions carbone/défauts (lacunes, dislocations,..). Cependant,
il n’a pas été validé dans le cas de carbures de fer : en effet, dans cette
phase, la nature covalente et directionnelle des liaisons n’est pas prise
en compte par un potentiel de type eam...
4.1.7 Un cas simple de couplage : le pic de Snoek
Pour plus de détails, le lecteur
pourra se rapporter à l’article
noté [K] dans l’annexe B.
Frottement intérieur : Si l’on applique une contrainte cyclique σ =
σ0 cos(ωt) à un échantillon dont on
mesure la déformation ǫ = ǫ0 cos(ωt+
φ), on définit le frottement intérieur
par le rapport de l’énergie dissipée
∆W sur l’énergie élastique mise en jeu
Wel :
∆W
=
δ=
Wel
R
2π
ω
σdǫ
0
1
el
2 σ0 ǫ0
= 2π tan φ
(4.13)
Par analogie avec le facteur de qualité
introduit en électricité, le frottement
intérieur est souvent définit comme
Q−1 = δ/(2π) = tan φ.
Le frottement intérieur lié aux mouvements des atomes de carbone est
un cas idéal pour tester le couplage MCC/DM : en effet, l’influence de la
contrainte sur les énergies de col peut être caractérisée par DM alors que
la cinétique de répartition du carbone dans les différents sites est très bien
gérée par MCC.
Qu’est-ce que le pic de Snoek ?
Nous avons vu dans la section précédente que : (i) l’application d’une
contrainte favorise la présence des atomes de carbone dans certains types
de sites octaédriques au détriment d’autres ; (ii) la présence des atomes de
carbone cause une déformation anélastique de la maille cubique du fer.
L’application d’une contrainte cyclique va conduire à un phénomène de
relaxation : (i) à basse fréquence (ou haute température), les atomes de carbone ont le temps de se répartir dans les sites favorables, conduisant à une
déformation anélastique en phase avec la contrainte ; (ii) à haute fréquence
(ou basse température), les atomes de carbone n’ont plus le temps de se
déplacer, ce qui anule la déformation anélastique ; (iii) pour une fréquence
intermédiaire, cette déformation anélastique est élevée ET déphasée de π/2
par rapport à la contrainte, ce qui conduit à un maximum de frottement
intérieur : c’est le fameux pic de Snoek.
4.1 Coupler Monte-Carlo Cinétique et Dynamique Moléculaire
93
La théorie linéaire des défauts ponctuels (linear point defect theory)
développée originellement par Nowick and Berry 11 suppose l’existence d’un
tenseur λij qui relie linéairement la déformation anélastique ǫan
ij à la concentration C p de défauts ponctuels de type p :
∂ǫan
ij
λpij =
∂C p
∆E,G ωτ
1 + (ωτ )2
(4.14)
(4.15)
où ∆E,G = 2Q−1
max est donné en fonction du type de sollicitation : (traction ∆E et cisaillement ∆G ) :
4 C0 v0
(λ11 − λ22 )2 G(Γ)Γ
3 kB T
(4.16)
2 C0 v0
(λ11 − λ22 )2 E(Γ)(1 − 3Γ)
9 kB T
(4.17)
∆G =
∆E =
∆E
∆Eö÷
1
Pour de faibles niveaux de contrainte appliquée, la fréquence de saut ν
des atomes de carbone ne dépend ni de la contrainte, ni du type de site
considéré, mais suit une loi d’Arrhenius ν = ν0 exp[−∆E0 /(kT )] avec pour
temps de relaxation τ = (3ν)−1 12 .
Dans le cadre de cette théorie et pour le cas de défauts tétragonaux
dans une matrice cubique, le frottement intérieur est alors donné par :
Q−1 =
Energy
Théorie linéaire des défauts ponctuels
où C0 est la concentration de défauts ponctuels, v0 le volume atomique,
G le module de cisaillement, E le module d’Young et Γ le paramètre d’orientation qui exprime la désorientation entre la sollicitation mécanique et les
axes du système cubique.
La variation des paramètres de la maille tétragonale du fer avec le taux
de carbone (voir figure 4.7) donne pour notre potentiel λ2 − λ1 = 0.67,
légèrement inférieure aux valeurs caractérisées expérimentalement : λ2 −
λ1 = 0.83. On retrouve l’écart lié à la sous-estimation de la dilatation de
la maille tétragonale (voir section précédente).
La modélisation du frottement intérieur lié au pic de Snoek représente
donc un cadre idéal pour valider notre approche couplant MCC et
DM puisqu’elle est très bien documentée aussi bien du point du vue
expérimental que théorique.
11. Nowick (A.) et Berry (B.), Anelastic Relaxation in Crystalline Solids. Academic
Press, 1972
12. Weller (M.), Point defect relaxations. in: Mechanical spectroscopy Q−1 2001,
Trans tech Pub., 2001. 683p
∆Eý
σ =0
øù
∆Eúûü
2 or 3
Distance
σ ≠0
Figure 4.13: Diagramme énergétique
pour les différents sites octaédriques. Au
repos les sites 1, 2 et 3 sont équivalent,
alors que l’application d’une contrainte
dissocie les sites dont la distorsion est parallèle (1) ou perpendiculaire (2 et 3) à
l’axe de traction.
94
−
3
×
1Hz
0.5Hz
2Hz
0.5Hz
1Hz
2Hz
2
1
0
270
2
290
310
330
350
Temperature (K)
370
!"! # $
%
!"!& $
%
!"# $
%
!"& $
%
# $
'(-,
4
'(-+
'(-*
Experiments
'(-)
7
6 '(-'
5
43 '(',
2
'('+
3
'('*
%
'(')
'(''
'
'()
'(*
'(+
. /01
'(,
-
0
270
290
310
330
350
Temperature (K)
370
390
(a)
Simulations
2
1
1
4
3
4
-1
4
ÿ
Q *10
þ
Q − ×10
Vers l’échelle atomique
0
250
(b)
300
350
400
Temperature (K)
(c)
Figure 4.14: Résultats de l’approche MCC/DM. (a) Évolution du frottement intérieur en fonction de la température pour différentes
fréquences d’oscillation : on observe un très bon accord avec la théorie linéaire des défauts ponctuels (trait plein) ; sur l’insert, toutes les
courbes ont été ramenée à 1 Hz. (b) Pic de Snoek en fonction du taux de carbone : comme observé expérimentalement, l’amplitude du
pic est proportionnelle au taux de carbone. (c) Comparaison avec les données expérimentales : une fois le type de sollicitation pris en
compte (traction ou torsion) le frottement intérieur prédit par nos simulations se compare avec succès aux données expérimentales.
Principe du couplage MCC/DM
–
–
–
–
–
–
La modélisation du frottement intérieur lié aux sauts du carbone se fait
en plusieurs étapes :
évaluation de la contrainte σ = σ0 cos(ωt)
calcul des énergies de col ∆E12 (σ) et ∆E21 (σ) (statique moléculaire :
équations 4.12)
Réalisation d’un pas de MCC qui donne la nouvelle répartition des atomes
de carbone dans les différents types de sites (C1 , C2 , C3 ) et le temps de
résidence τR
calcul de la déformation anélastique par DM en fonction de (C1 , C2 , C3 ) 13
calcul de la déformation totale et du frottement intérieur (équation 4.13)
mise à jour du temps : t ← t + ∆t
Résultats
Pour valider la méthode présentée plus haut, nous avons réalisé des
simulations couplant MCC et DM dans le cas des faibles contraintes (domaine linéaire) pour les comparer à la théorie linéaire des défauts ponctuels
(équation 4.15).
La figure 4.14 montre une compilation des résultats obtenus :
(a) Si l’on mesure le frottement intérieur en fonction de la température, on
observe bien un pic (pic de Snoek) qui se décale suivant la fréquence d’excitation, en très bon accord avec la théorie linéaire des défauts ponctuels
(représentée en trait plein).
13. L’étape de calcul de la déformation anélastique par DM n’est pas réalisée à chaque
pas de MCC : elle doit être réalisée assez souvent pour bien décrire les oscillations de la
déformation, mais pas trop pour ne pas perdre du temps de calcul.
4.1 Coupler Monte-Carlo Cinétique et Dynamique Moléculaire
95
(b) En faisant varier le taux de carbone, seule l’amplitude du pic de Snoek
est affectée, et, ce de façon linéaire avec le taux de carbone, comme observé
expérimentalement.
(c) En utilisant la correspondance entre traction uniaxiale sur monocristal dans l’axe [100] (cas de nos simulations) et torsion sur polycristaux
(équations 4.16 et 4.17), on peut comparer quantitativement notre approche à des expériences de frottement intérieur. L’accord observé est très
bon (25%) compte tenu du potentiel utilisé qui a tendance à sous-estimer
la distorsion anélastique lié à la présence d’un atome de carbone (sousestimation de la dilatation de la maille tétragonale en présence de carbone,
voir section 4.1.6)
Les résultats obtenus nous ont donc permis de valider notre approche
de couplage MCC/DM dans un cas simple et linéaire : la modélisation
du frottement intérieur lié aux sauts des atomes de carbone lors d’une
sollicitation cyclique.
Vers le non-linéaire...
Le principal intérêt de cette approche couplant MCC et DM est de pouvoir l’appliquer dans des cas ou le carbone interagit de façon non linéaire
avec un défaut (champ de contrainte extérieur, atome interstitiel, dislocation, précipité,..). Pour illustrer l’importance de la non linéarité, nous avons
représenté le pic de Snoek dans le cas d’une sollicitation à forte contrainte
(σ0 = 4.5 GPa) et nous l’avons comparé à la théorie linéaire des défauts
ponctuels (figure 4.15) : le pic de Snoek est fortement décalé, son amplitude
diminuée et sa forme est élargie.
4.1.8 Couplage MCC/DM : quelques perspectives...
Interaction interstitiels/subtitutionels
Les interactions entre atomes interstitiels et substitutionnels dans les
aciers bas carbone est une problématique industrielle (vieillissement des
aciers) et scientifique majeure. Par exemple, l’ajout de manganèse diminue l’amplitude du pic de Snoek du carbone et fait apparaı̂tre, dans le cas
de l’azote, un nouveau pic. Ces différences ne sont à l’heure actuelle pas
expliquées. S’agit-il d’interactions chimiques, mécaniques, ou plus vraisemblablement couplées ? Le développement de nouveaux potentiels de type
Fe-Mn-C(-N) intégrés dans l’approche présentée ci-dessus permettrait certainement de mieux comprendre ces interactions...
Interaction dislocation/carbone
L’étude des interactions dislocation/carbone présente un double intérêt :
d’une part, le champ de contrainte de la dislocation va perturber le champ
de diffusion du carbone, et, d’autre part, la présence de carbone au cœur
de la dislocation va changer l’énergie de migration de la dislocation. Ces
4
Q − ×10
8
9
Simulation
linear point defect theory
3
2
1
0
250
300
350
400
Temperature (K)
Figure 4.15: Comparaison entre la théorie
linéaire et la modélisation issue du couplage MCC/DM.
96
Al
B
Figure 4.16: Atmosphère de Cottrell dans
le système Al-B observée grâce à la sonde
atomique du GPM à Rouen. Deux point
intéressants sont à noter : (i) les atomes
de bore ne se situent à priori pas seulement dans les zones en traction mais
tout autour de la dislocation ; (ii) l’atmosphère n’a pas encore été observé en
sonde atomique dans le système Fe-C.
Vers l’échelle atomique
deux mécanismes sont d’ailleurs à l’origine du vieillissement statique et/ou
dynamique observé dans les aciers.
Dans un premier temps, on pourra étudier la cinétique de formation
d’une atmosphère de Cottrell autour de la dislocation. Pour cela, il faudra
être capable de tenir compte de la contrainte dans les énergies de col entre
les sites du voisinage de la dislocation. Il faudra ensuite “mettre à jour”
ces énergies de col en fonction du champ de contrainte réel de l’ensemble
carbone/dislocation.
Dans un deuxième temps, on pourrait étudier les forces de désancrage
de la dislocation en fonction de la quantité d’atomes de carbone qu’elle
contient.
Cette perspective s’inscrit pleinement dans la démarche de collaboration avec C. Becquart du LMPGM de Lille. Une thèse co-encadré entre
Lille et Lyon et financée par EDF qui s’intéresse à la compréhension des
mécanismes à la base du vieillissement dynamique dans les aciers, devrait
démarrer en 2008.
Vers la modélisation de la précipitation
C’est l’étape ultime de la démarche proposée. En plus des interactions
chimiques et mécaniques entre atomes de soluté et précipités, il faut relaxer le réseau autour du précipité pour lui permettre de cristalliser avec
la bonne structure. De nombreux problèmes apparaissent alors : (i) quelle
est la relation d’orientation entre matrice et précipité ? (ii) quelle va être la
morphologie du précipité ? (iii) quel va être le champ de contrainte autour
du précipité ?..
Cette perspective de long terme s’inscrit tout à fait dans la
problématique abordée à la fin du chapitre précédent sur l’influence des
contraintes sur la précipitation. Elle devrait constituer un outil précieux
pour mieux comprendre la chimie et la morphologie des précipités au cours
des premiers instants de leur formation.
4.2 Un petit tour du côté des polymères
4.2.1 Contexte : ANR “NANOMECA”
Bien que les matériaux à base polymère soient utilisés massivement
dans des domaines aussi divers que l’emballage, la distribution des fluides,
l’automobile, l’aéronautique,.. la compréhension et la modélisation de leur
propriétés mécaniques reste essentiellement phénoménologique avec l’utilisation de lois qui s’avèrent peu performantes dès que l’on s’éloigne de la
gamme de conditions sur laquelle elles ont été ajustées.
Le besoin d’outils (micro)mécaniques est particulièrement criant pour
Figure 4.17: Maille orthorhombique de les polymères hétérogènes, forme sous laquelle les polymères sont majoricémentite stabilisée par notre poten- tairement utilisés industriellement (polymères semi-cristallins, élastomères
tiel Fe-C dans l’ensemble NPT à 300K.
chargés, (nano)composites,..). Cependant, la complexité de la microstrucMême si les paramètres de maille ne
sont pas exactement ceux observés
expérimentalement, il est tout à fait remarquable de pouvoir stabiliser une telle
structure avec un potentiel validé pour de
4.2 Un petit tour du côté des polymères
ture des polymères multiphasés et des couplages entre phases rend la
modélisation mécanique basée sur les micro-mécanismes de déformation
très délicate. En effet, les mécanismes de déformation se situent à l’échelle
nanométrique et les couplages entre phase sont complexes.
Dans ce contexte, une ANR “NANOMECA” pilotée par le duo O.
Lame/J. Y. Cavaillé (MATEIS) a démarré en 2006. Elle regroupe différents
laboratoires autour de la synthèse (Laboratoire de Chimie des Polymères
Organiques : LCPO - Univ. Bordeaux), de la caractérisation (Laboratoire
de Structure et Propriétés de l’Etat Solide : LSPES - Univ. Lille) et de
la modélisation mécanique (Laboratoire de Mécanique des Solides : LMS École Polytechnique) de polymères nanostructurés : les copolymères à bloc
et les semi-cristallins.
Les polymères semi-cristallins constituent la grande majorité du contingent des polymères thermoplastiques pour applications structurales du fait
de leur grande versatilité aussi bien en terme de procédés de mise en
forme qu’en terme d’applications (tube de distribution de gaz, sac d’emballage,..). Or, de récents progrès dans le domaine de la synthèse ont permis
l’émergence de matériaux semi-cristallins présentant de nouvelles architectures moléculaires et une durée de vie en service considérablement accrue
via une maı̂trise des structures à l’échelle nanométrique.
Un autre marché émergent concerne les copolymères à blocs. Ces
matériaux présentent des structures très régulières à l’échelle nanométrique
(voir figure 4.18) et sont envisagés pour remplacer les élastomères vulcanisés dans bon nombre d’applications en raison de leur aptitude au recyclage. Pour ces deux types de systèmes, il s’agit de mieux comprendre et
de décrire finement les mécanismes de déformation menant aux propriétés
mécaniques.
Dans le cadre de ce projet ANR, il a été envisagé d’utiliser la dynamique moléculaire à l’échelle “coarse grained” (chaque nœud ne représente
pas un atome mais un ensemble d’unités structurales) comme une boı̂te à
idées pour mieux comprendre les phénomènes de couplage entre phases à
l’échelle nanométrique, et plus particulièrement l’effet des molécules liantes
qui appartiennent à plusieurs phases (voir figure 4.19).
Avec F. Léonforte, chercheur post-doctoral recruté grâce au projet “NANOMECA” (financé par l’ANR), et O. Lame, nous avons d’abord travaillé
sur un algorithme spécifique d’élaboration numérique de chaı̂nes macromoléculaires. Un fois validée, cette approche a pu être utilisée pour élaborer
des polymères di et tri-bloc en vu de tester leur propriétés mécaniques.
97
Figure 4.18: Microstructure observée en
TEM du Polystyrène-bloc-polybutadiènebloc-polystyrène (SBS) (tiré de la thèse
de Rafael Garcia 14 ).
T >T
: ;
T <T
: <
10 nm
T >T
: ;
4.2.2 Génération numérique de chaı̂nes macromoléculaires
Figure 4.19: Schématisation d’un copolymère bloc nanostructuré composé
d’une superposition de lamelles vitreuses
et caoutchoutiques. Certaines molécules,
appelées molécules liantes, assurent une
cohésion forte entre les lamelles de polymères.
Générer un ensemble de chaı̂nes macromoléculaires proches de
l’équilibre à haute température (fondu) est loin d’être trivial. Contrairement à un liquide de monomères, où quelques milliers de pas de DM suf-
Pour plus de détails, le lecteur
pourra se rapporter à l’article
noté [O] dans l’annexe B.
14. Garcia (R.), Etude du comportement sous déformation de copolymères à blocs SBS
et SBM à morphologie lamellaire. Thèse de doctorat, INSA Lyon, 2005
98
Vers l’échelle atomique
fisent à explorer toutes les configurations spatiales possibles, l’équilibration
d’un ensemble de chaı̂nes nécessite un temps de calcul rédhibitoire, et ce,
d’autant plus que les chaı̂nes sont longues.
Pour pallier cette difficulté, on essaie de générer les chaı̂nes avec une
structure assez proche de l’équilibre. L’algorithme habituellement utilisé,
appelé FPO 15 (Fast Push-Off ) est basé sur le principe suivant :
– on part de N “germes” disposés aléatoirement dans une boı̂te de
simulation (conditions aux limites périodiques)
– à partir de chaque “germe”, on choisit une position voisine aléatoire
avec des longueurs et angles de liaison déterminés par une distribution
de Boltzmann
– on fait croı̂tre les chaı̂nes jusqu’à la longueur désirée et on ajuste la
taille de la boı̂te pour obtenir la densité voulue
L’avantage d’une telle technique est qu’elle permet de générer des
chaı̂nes dites “gaussiennes” puisqu’elles respectent une statistique de
marche aléatoire (modèle de la pelote statistique). Cependant, son principal
inconvénient est que rien n’empêche le recouvrement des particules. Il est
donc nécessaire d’utiliser un potentiel de répulsion mou (“soft potential”)
pour permettre aux particules éventuellement superposées de s’éloigner progressivement les unes des autres.
De plus, il est ensuite indispensable de bien équilibrer le système par
un nombre important de pas de DM avec des potentiels attractif-répulsif
appropriés de type Lennard-Jones (typiquement 107 pas de DM).
Enfin, si cette méthode respecte bien l’idée que l’on peut se faire de
la chaı̂ne gaussienne, son élaboration est purement numérique et donc très
éloignée de la polymérisation telle qu’elle s’effectue dans les systèmes réels.
Nous avons donc décidé de créer une autre façon de générer des chaı̂nes
macromoléculaires, basée sur la polymérisation “radicalaire”. Nous verrons que cette technique est particulièrement bien adaptée au cas de la
génération des polymères nanostructurés...
Polymérisation de type “radicalaire”
Le principe de la polymérisation radicalaire est basé sur trois étapes :
– l’amorçage : un radical (molécule active qui réagit avec les monomères) est créé à partir d’une molécule active A : A → P ∗ , puis
réagit avec un premier monomère :
P∗ + M → PM∗
– la propagation : le radical capte un nouveau monomère et se positionne en bout de chaı̂ne :
PM∗ + M → PMM∗
15. Kremer (K.) et Grest (G. S.), ≪ Dynamics of entagled linear polymer melts: a
molecular-dynamics simulation ≫, J. Chem. Phys., vol. 92, 1990, p. 5057–5086
4.2 Un petit tour du côté des polymères
Paramètre
nat
Nch
p
Nrelax
NG
Lch
NM D
99
Signification
Nombre total d’atomes dans la boı̂te
Nombre de chaı̂nes macromoléculaires
Probabilité pour chaque particule d’être radical
Nombre de pas de DM entre chaque pas de croissance
Nombre de pas de croissance
Taille maximale des chaı̂nes (paramètre optionnel)
Nombre de pas de DM d’équilibration
Tableau 4.1: Paramètres utilisés dans la génération des chaı̂nes.
– la terminaison : quand il ne reste que très peu de monomères, deux
radicaux sont susceptible de s’annihiler :
P M..M ∗ + P M..M ∗ → P M..M + P M..M
Potentiels utilisés
Pour modéliser de la façon la plus simple possible un ensemble de
chaı̂nes de polymères, on utilise deux types de potentiels :
– pour les liaisons entres particules non voisines d’une même chaı̂ne
ou de deux chaı̂nes différentes, ou entre particules d’une chaı̂ne et
monomères, on utilise un potentiel Lennard-Jones (LJ) :
4
1
2
3
Figure 4.20: Polymérisation de type “radicalaire”. Le radical (blanc) choisit
l’un de ses voisins monomères (bleus,
numéroté de 1 à 4) au hasard pour créer
une liaison covalente et augmenter ainsi
la taille de la chaı̂ne.
1
100
Lennard-Jones
FENE
Potentiel U(r)
La polymérisation radicalaire se déroule généralement au sein d’un solvant contenant les monomères. Dans notre cas, le liquide de monomères
constitue lui-même le solvant pour permettre aux chaı̂nes de se “voir” pendant la croissance.
L’idée n’est pas ici de modéliser la polymérisation radicalaire, mais de
s’inspirer de son principe pour générer les chaı̂nes de polymère.
Ainsi, on part d’une boı̂te de simulation contenant un bain liquide de
nat monomères :
– amorçage : on choisit les radicaux parmi les nat monomères avec
une probabilité p (le nombre de radicaux, et donc, de chaı̂nes vaut
Nch = nat p)
– propagation : on choisit au hasard un monomère, s’il y en a un, parmi
les voisins du radical (voir figure 4.20) ET on effectue Nrelax pas de
DM pour relaxer le système entre chaque pas de croissance
– terminaison : plusieurs critères peuvent être utilisés : (i) si l’on veut
une distribution monodisperse, on arrête arbitrairement la croissance
des chaı̂nes à partir d’une certaine taille Lch ; (ii) si l’on veut une
distribution polydisperse, on arrête la croissance à partir d’un certain
taux de conversion (rapport du nombre de particules appartenant à
une chaı̂ne sur le nombre de particules total)
– élimination du solvant et équilibration en fin de polymérisation, les
monomères restants sont retirés et on effectue NM D pas de DM pour
équilibrer le système.
0
50
-1
0
0
1
2
3
4
Distance r
Figure 4.21: Potentiels utilisés dans le
cadre de la génération de chaı̂nes de
polymères : les liaisons faibles sont
modélisées avec un potentiel de LJ(1,1)
alors que les liaisons covalentes sont
modélisées par un potentiel de type
100
Vers l’échelle atomique
σ 12 σ 6
ULJ(ε,σ) (r) = 4ε
−
r
r
(4.18)
– pour les liaisons entre deux particules voisines d’une même chaı̂ne
(liaison covalente), on utilise un potentiel FENE (Finitely Extensible
Nonlinear Elastic) :
"
2 #
r
kr02
ln 1 −
UF EN E(ε,σ,k,r0) (r) = ULJ(ε,σ) (r) −
2
r0
(4.19)
L’intérêt principal du FENE est qu’il représente un puits infini (liaison
incassable), tout en ayant une rigidité du même ordre que le potentiel LJ. Il
ne sera cependant pas adapté lorsque l’on voudra modéliser des propriétés
dynamiques ou la rupture des chaı̂nes. Dans notre cas, pour la génération
des chaı̂nes macromoléculaires, nous avons utilisé des potentiel LJ(1,1) et
FENE(1,1,30,1.5).
Résultats
Effet de la probabilité p. La probabilité p de former un germe va directement donner le nombre de chaı̂nes Nch = pnat . Pour une probabilité
p trop faible, on aura peu de chaı̂nes qui vont croı̂tre “sans se voir” (polymérisation dans un solvant), et, après retrait des monomères, le système
sera loin de l’équilibre car les chaı̂nes seront peu interpénétrées les unes dans
les autres. A l’inverse pour une probabilité p trop grande, la croissance va
très vite ralentir, faute de monomères disponibles. Nous avons déterminé
de façon empirique un taux de conversion optimal τ = Nch Lch /nat = pLch
autour de 85%.
Figure 4.22: Exemple de boı̂te de simulation après polymérisation. Les couleurs
représentent les différentes chaı̂nes (attention : il y a plus de chaı̂nes que de
couleurs).
200
180
N_moy_10MDSBG
Mean Chain Length
160
N_moy_30MDSBG
140
N_moy_100MDSBG
120
N_moy_300MDSBG
100
Effet du nombre Nrelax de pas de DM entre chaque pas de croissance. Si l’on n’effectue aucun pas de DM entre chaque pas de croissance,
toutes les particules sont immobiles (polymérisation à 0K) et nombre de
radicaux vont se trouver “bloqués” dans des zones où plus aucun monomère
n’est disponible ; ceci donnera forcément lieu à une distribution polydisperse
de chaı̂nes qui seront assez loin de l’équilibre.
On voit sur la figure 4.23 que plus le nombre de pas de DM entre chaque
pas de croissance est grand, plus la réaction de polymérisation est ralentie
au début. Mais comme la réaction est de toute façon ralentie à la fin par
manque de solvant, la réalisation d’un mélange monodisperse nécessite le
même nombre de pas de MD pour des nombres Nrelax allant de 1 à 300.
Un nombre Nrelax de 300 semble donc correspondre à un optimum.
80
Effet du nombre NM D de pas d’équilibration. Pour caractériser la
qualité de l’équilibration d’un ensemble de chaı̂nes, on utilise une fonction
appelé MSID (Mean Square Internal Distance) et notée < r 2 > /n qui
60
40
20
0
10
100
1000
10000
100000
1000000
MD Steps
Figure 4.23: Évolution de la longueur
moyenne des chaı̂nes au cours de la
4.2 Un petit tour du côté des polymères
101
donne le rapport de la distance moyenne séparant deux particules ne voisines d’une même chaı̂ne sur la distance n. Pour une chaı̂ne rectiligne, cette
fonction vaut < r 2 > /n = n. Dans le cadre de la théorie de la pelote statistique, pour les grands n, la distance < r 2 > est proportionnelle à n, ce
qui implique que la fonction MSID tend vers une valeur constante pour les
grands n. Auhl 16 a montré que l’équilibre est atteint quand cette fonction
a une certaine forme, appelée “fonction cible”.
La figure 4.24 compare les fonctions MSID résultant : (i) d’une
génération “à 0K” non équilibrée (Nrelax = 0, NM D = 0) ; (ii) d’une
génération sans limitation de taille (Nrelax = 10, NG = 10000 et NM D =
106 ) ; (iii) d’une génération monodisperse avec limitation de taille (Nrelax =
300, Lch = 200 et NM D = 107 ) ; (iv) de la méthode classique FPO équilibrée
pendant 107 pas de DM ; (v) la fonction cible de Auhl. On voit que la
génération monodisperse permet d’obtenir une configuration équilibrée au
moins aussi rapidement que la méthode classique.
L’algorithme original de génération de chaı̂nes polymères permet d’obtenir une configuration équilibrée pour un nombre de pas d’équilibration
du même ordre que celui de la méthode habituellement utilisée.
4.2.3 Copolymères nanostructurés
Dans le cadre de l’ANR “NANOMECA” il est envisagé d’étudier les
propriétés mécaniques de copolymères nanostructurés sous forme de lamelles (voir figure 4.18). L’obtention d’une morphologie lamellaire dans
un mélange A-B est conditionnée par la fraction des différentes phases, la
longueur des chaı̂nes N et le paramètre d’interaction de Flory :
χ=
εAB − 0.5(εAA + εBB )
kB T
Figure 4.24: MISD (Mean Square Internal Distance) : comparaison entre la
méthode classique de génération (FPO)
et la génération de type “radicalaire”. La
fonction cible de Auhl est également rappelée.
(4.20)
C’est en réalité le produit χN 17 qui détermine le degré de ségrégation
du système : quand χN < 10, ce sont les forces entropiques qui dominent
donnant lieu à une structure homogène. Pour χN > 10, le système tend
à la démixtion en plusieurs phases dont la morphologie est ordonnée. La
morphologie lamellaire est habituellement observée lorsque la fraction des
différentes phases est à peu près identique.
Élaboration
L’élaboration numérique de copolymères à morphologie lamellaire n’est
pas aisée. La “force brute” consiste à réaliser un mélange de chaı̂nes de
type A − A − ... − A − B − B − ... − B par la méthode classique (FPO),
16. Auhl (R.), Everaers (R.), Grest (G. S.) et al., ≪ Equilibration of long chain
polymer melts in computer simulations ≫, J. Chem. Phys., vol. 119, 2003, p. 12718–12728
17. Murat (M.), Grest (G. S.) et Kremer (K.), ≪ Statics and dynamics of symmetric
diblock copolymers: a molecular dynamic study ≫, Macromolecules, vol. 32, 1999, p. 595–
609
Figure 4.25: Évolution du profil de densité gαβ (z) en fonction de la distance z
pour les espèces A et B. Insert : concen-
102
χ N = 0.4
χ N = 400
Vers l’échelle atomique
et à effectuer un certain nombre de pas de DM qui devraient conduire à la
démixtion du système pour χN < 10. Le problème est que cette démixtion
demande un temps de calcul rédhibitoire.
La deuxième solution consiste à simuler cette démixtion par MonteCarlo. Un algorithme puissant, mais relativement complexe (“single chain
in mean field”) a été proposé par Daoulas et al 18 . Il permet d’observer
la transition odre/désordre en fonction du paramètre χN et de simuler la
transition de type spinodale qui conduit à une structure lamellaire.
Pour obtenir plus simplement une structure lamellaire, Grest et al 19 ont
proposé une méthode basée sur la génération classique des homopolymères
(voir plus haut). Cette méthode est adaptée en bloquant une extrémité des
chaı̂nes sur un plan et en réalisant une symétrie par rapport à ce même
plan pour obtenir les deux types de polymères.
Enfin, une dernière solution consiste à utiliser l’approche présentée dans
le paragraphe précédent : la polymérisation de type “radicalaire”. Imaginons que l’on veuille réaliser un copolymère di-bloc A-B de longueur de
chaı̂ne 100-100. Il suffit de délimiter deux zones dans la boı̂te de simulation : chaque radical qui apparaı̂t (nucléation) est le début d’une chaı̂ne A
(ou B) selon la zone dans laquelle il se trouve. Après avoir absorbé 100 monomères de la zone A (ou B), le radical est “attiré” dans l’autre zone, par
un potentiel adéquat pour poursuivre sa polymérisation de l’autre espèce.
On obtient alors relativement facilement des structures di ou tri-blocs.
Il est ensuite indispensable de réaliser un certain nombre de pas de DM
pour équilibrer l’interface A-B :
– épaisseur de l’interface : un χN fort va donner lieu à une interface
abrupte alors qu’un χN faible aboutira à une interface diffuse (voir
figure 4.25) ;
– surface de l’interface ou épaisseur des lamelles : pour conduire à une
structure libre de contraintes, il est nécessaire d’équilibrer la boı̂te
de simulation dans l’ensemble NPT anisotrope : en effet, un fort χN
va donner lieu à une énergie d’interface importante, et donc à des
lamelles épaisses : ceci est effectué en déformant la boı̂te de simulation pour avoir une contrainte nulle dans les trois directions (voir
figure 4.26).
L’élaboration numérique de chaı̂nes polymères de type “polymérisation
radicalaire” est un outil particulièrement adapté pour élaborer simplement des copolymères à blocs nanostructurés.
Figure 4.26: Exemple de copolymères simulés par dynamique moléculaire. Haut :
en cours de démixtion. Bas : forme
d’équilibre pour χN = 400.
18. Daoulas (K. C.), Müller (M.), de Pablo (J. J.) et al., ≪ Morphology of multicomponent polymer systems: single chain in mean field simulation studies ≫, Soft Matter,
vol. 2, 2006, p. 573–583
19. Grest (G. S.), Lacasse (M. D.), Kremer (K.) et Gupta (A. M.), ≪ Efficient
continuum model for simulating polymer blends and copolymers ≫, J. Chem. Phys., vol.
105, 1996, p. 10583–10594
4.2 Un petit tour du côté des polymères
Vers les propriétés mécaniques...
Une fois les copolymères à blocs élaborés, ils seront sollicités
mécaniquement. Le but n’est pas seulement de tracer une courbe contraintedéformation, mais (i) de développer des outils de mesure de contrainte et de
déformation locale pour tenter de mieux comprendre le développement de la
plasticité et l’amorce de la rupture ; (ii) d’étudier l’influence des molécules
liens dans les propriétés mécaniques globales des copolymères.
Réaliser un essai de traction en dynamique moléculaire n’est pas trivial : on pourrait se contenter de déformer uniformément et progressivement la boı̂te de simulation et mesurer la contrainte résultante ; mais cette
technique risque de provoquer des événements irréversibles irréalistes : un
nœud chimique ou physique extrêmement rigide peut rompre si on impose
une déformation uniforme.
Par contre, si on impose une force sur les extrémités de l’éprouvette,
on risque de manquer l’instabilité liée au seuil d’écoulement plastique. La
solution la plus réaliste, mais aussi la plus complexe, consiste à imposer un
déplacement aux extrémités de l’éprouvette.
4.2.4 Propriétés mécaniques de polymères nanostructurés : perspectives
A la suite du travail préliminaire réalisé dans le cadre du stage postdoctoral de F. Léonforte, nous avons proposé, avec O. Lame et J. L. Barrat
un sujet de thèse au Master “Matériaux” de Lyon : “Propriétés mécaniques
de polymères nano-structurés : approche par dynamique moléculaire”. Ce
projet a été accepté et une thèse devrait démarrer en octobre 2007. Les
pistes qui vont être explorées sont détaillées par la suite.
Potentiels “coarse-grained”
Les potentiels Lennard-Jones utilisés représentent qualitativement la
structure des polymères. Ils présentent de nombreux avantages : simplicité,
rapidité de calcul, ajustement aisé de la température de transition vitreuse
(Tg ≈ 0.4ε),.. mais ne donneront jamais qu’un accord qualitatif avec les
expériences.
Il serait tout d’abord nécessaire de valider précisément les échelles de
temps et d’espace liées à ces potentiels : combien d’unité structurales sont
représentées par une particule en DM coarse-grained ? quelle est la vitesse
de déformation lors d’un essai mécanique “numérique” ?
De plus, une validation des potentiels coarse-grained sur des potentiels
“tout-atome” (où chaque particule représente réellement un atome) serait
intéressante pour avoir des résultats plus quantitatifs.
Étude des morphologies
Au sein de l’ANR “NANOMECA”, nous avons la chance de travailler
avec des chimistes qui maı̂trisent le procédé d’élaboration à un point tel
103
104
Vers l’échelle atomique
qu’il leur est possible de réaliser différentes morphologies (lamellaires, hexagonales, cubiques,..). Il serait tout à fait enrichissant de profiter de cette
expérience pour tenter de modéliser, à l’échelle atomique, la démixtion qui
conduit à de telles morphologies. Des approches de type “Single Chain in
Mean Field” pourraient être utilisées (voir figure 4.27).
Déformation non-élastique : quels indicateurs ?
Tout l’intérêt de la dynamique moléculaire est de pouvoir faire le lien
entre des indicateurs globaux (déformation et contrainte moyenne, énergie
du système,..) et locaux (volume, contrainte, énergie, associés à chaque
particule ou groupe de particules, ainsi que les enchevêtrements, voir figure 4.27). Ce lien pourrait être étudié au cours de la transition linéaire/non
linéaire et réversible/irréversible, notamment autour du seuil de contrainte
(yield stress) observé lors d’essais en déformation imposée. La principale
question à laquelle nous essaierons de répondre sera :
Quels sont les prémisses, à l’échelle locale, de l’irréversibilité observée
à l’échelle globale (problématique des micro-domaines cisaillés) ?
Figure 4.27: Analyse des chemins primitifs : pour mettre en évidence les enchevêtrements, on remplace le potentiel
FENE des liaisons covalentes par un potentiel purement attractif en fixant les
deux extrémités de chaque chaı̂nes.
Lien avec l’expérience et les autres échelles
Le but d’une étude des copolymères nanostructurés par DM n’est
pas à l’heure actuelle de prédire leurs propriétés mécaniques, mais bien
d’améliorer la compréhension des mécanismes à l’échelle atomique ou nanométrique qui régissent ce comportement. Pour cela, il sera indispensable de se baser sur les questions que se posent les expérimentateurs. Par
exemple, comment expliquer la rupture en chevrons de la phase dure des
copolymères lamellaires ?
Pour cela, nous nous appuierons sur l’expérience du groupe PVMH (polymères verres et matériaux hétérogènes) au niveau expérimental (diffusion
aux petits angles, spectroscopie mécanique, essais mécaniques) et théorique.
L’un des buts affichés de l’ANR “NANOMECA” est aussi de faire le lien
avec la modélisation mécanique (type homogénéisation) réalisée au LMS à
Palaiseau.
L’étude proposée se situe à l’interface entre chimistes/élaborateurs,
expérimentateurs et modélisateurs à différentes échelles.
LAMMPS ou SOMM ?
De la même façon que pour le logiciel PreciSo développé dans le cadre de
la thèse de D. Acevedo pour prédire l’état de précipitation dans un alliage
métallique, on peut se demander s’il est judicieux de développer un logiciel
“maison” de dynamique moléculaire.
Sans revenir sur les arguments développés à la section 3.5.2, la maı̂trise
d’un code au niveau local présente le double avantage de mieux comprendre
4.3 Modélisation à l’échelle atomique : perspectives
et utiliser les codes (plus puissants) disponibles, et de pouvoir réaliser rapidement des applications spécifiques.
Nous avons donc, avec O. Lame, élaboré et développé un code de DM :
SOMM (Software of Open Molecular Modeling) en langage C++ orienté objet. Ceci nous a permis (i) de mieux utiliser, par ailleurs (et sans complexe !),
un code extrêmement performant et largement répandu : LAMMPS 20 , tout
en (ii) développant certaines routines sous SOMM, notamment toute la partie “polymérisation radicalaire”.
L’optimum consiste à jongler entre le code “maison” SOMM pour le
développement, et le code LAMMPS pour les opérations plus standards
(équilibration, essais mécaniques).
4.3 Modélisation à l’échelle atomique : perspectives
Les progrès récents dans les techniques de caractérisation et la
démocratisation des moyens de calcul puissants vont nous permettre au
cours des prochaines décennies de revisiter un certain nombre de problèmes
encore mal compris à l’heure actuelle. Pour preuve, il est remarquable de
constater le nombre très important d’articles traitant de modélisation à
l’échelle atomique dans une grande revue “généraliste” comme Acta Materialia.
Sans revenir sur toutes les perspectives énoncées au cours de ce chapitre,
deux domaines pourraient être développés avec profit dans les prochaines
années :
La modélisation des premiers instants de la précipitation. Le
développement de techniques de caractérisation à l’échelle atomique a permis d’apporter des idées nouvelles sur la précipitation. Pour tester, valider,
ou tout simplement mieux comprendre les premiers instant de la germination, le couplage entre deux techniques numériques complémentaires :
la dynamique moléculaire et le Monte-Carlo cinétique paraı̂t très prometteur. Le développement très rapide de potentiels d’interaction atomiques
toujours plus complets auquel nous assistons actuellement devrait pouvoir
nous aider à faire le lien à l’échelle atomique entre expérimentation et simulation.
Les propriétés mécaniques des copolymères nanostructurés.
Dans le cas des polymères nanostructurés, ce sont les chimistes qui ont
réussi à élaborer des matériaux aux propriétés de plus en plus spécifiques.
Stabiliser des structures lamellaires à l’échelle nanométrique sur de larges
distances ouvre la voie à de nombreuses applications, notamment dans le
domaine du recyclage. Par contre, il demeure à l’heure actuelle un déficit
de compréhension des mécanismes d’endommagement de ces matériaux. A
20. LAMMPS, http://lammps.sandia.gov/, 2006
105
106
Vers l’échelle atomique
l’interface entre la chimie, la physique et la mécanique, la simulation de ces
matériaux à l’échelle atomique devrait pouvoir servir de boı̂te à idées pour
alimenter des modèles mécaniques.
Pluridisciplinarité Pour finir sur l’un des charmes du développement de
techniques de modélisation à l’échelle atomique ( !), rappelons que c’est un
excellent moyen (sans être le seul !) de rester ouvert à une large gamme d’applications en science des matériaux tout en étant en contact avec différentes
communautés scientifiques. Loin de nous enfermer dans un domaine restreint, cette approche nous ouvre l’esprit et nous évite de tomber dans le
piège du “savoir tout sur rien” !
Cette invitation à la pluridisciplinarité aide le chercheur à être toujours enthousiaste, à garder un regard neuf dans des domaines allant de la
métallurgie, à la physique des polymères, en passant par la mécanique des
milieux enchevêtrés...
Perspectives
Tout au long de ce mémoire, de nombreuses perspectives ont été proposées et détaillées. Sans en refaire une liste exhaustive, je débuterai ce
chapitre par une synthèse des perspectives de recherche liées à l’étude de
la précipitation dans les matériaux de structure.
Travailler pendant plusieurs années dans le domaine de la métallurgie
physique, en utilisant la physique des matériaux, la thermodynamique,
les méthodes numériques, la programmation,.. m’a aussi fortement motivé
pour transmettre aux autres ce que j’ai appris. Je développerai donc aussi
quelques perspectives d’enseignement liées à mon activité de recherche.
Enfin, comment terminer sans parler du contexte national et international dans lequel nous sommes plongés ? Nous assistons actuellement à une
réorganisation de la recherche : d’une structure pyramidale vers une structure en réseau beaucoup plus complexe dont on peut se poser la question
des avantages et des limites.
5.1 Recherche
Trois domaines (qui correspondent aux trois chapitres de ce document)
me paraissent avoir un fort potentiel de développement : (i) les techniques
de caractérisation de la précipitation ; (ii) la modélisation thermodynamique ; (iii) la modélisation à l’échelle atomique.
5.1.1 Caractérisation de la précipitation
Le
développement
des techniques
de caractérisation
de
la précipitation est le premier maillon de la chaı̂ne de
compréhention/modélisation/optimisation des microstructures. C’est
ce développement qui a permis, ou va permettre, de revisiter un certains
nombre de concepts (qu’est ce que l’énergie d’interface dans le cas de
plaquettes monoatomiques ? Qu’est-ce que la germination hétérogène ?
Comment expliquer la morphologie et la chimie des précipités ? Parmi
la multitude de techniques en développement actuellement, j’aimerais
revenir sur deux d’entre elles.
108
Perspectives
Le pouvoir thermoélectrique
Le pouvoir thermoélectrique, technique phare du laboratoire MATEIS
développée actuellement par X. Kleber et V. Massardier et M. Morin,
souffre à ce jour de deux principales lacunes : (i) d’un point de vue
expérimental, son extrême sensibilité, très appréciable dans le cas des
microstructures relativement simples, rend l’interprétation des résultats
délicate car il est très difficile de décorréler les causes multiples d’une
variation de PTE ; (ii) d’un point de vue théorique, cette technique voit
son développement et sa reconnaissance handicapés par un manque de
compréhension des mécanismes responsables du PTE, notamment les composantes de diffusion (électrons) et de réseau (phonons).
Deux pistes permettraient peut-être de progresser dans l’interprétation
des résultats de PTE :
PTE en fonction de la température. La réalisation d’un appareil
de mesure de PTE en température (de 10 à 400K) en collaboration avec
Air Liquide et le CETHIL est sur le point de s’achever. Celui-ci ouvre la
voie à de nombreuses études, notamment à très basse température pour
décorréler les composantes de diffusion et de réseau. Des mesures de PTE à
basse température permettraient, par exemple, de comprendre des données
expérimentales qui sont pour le moment inexpliquées, tel que l’effet important des dislocations sur le Fer à température ambiante qui n’est pas
observé dans le cas de l’Aluminium.
Couplage phonons/électrons. En parallèle, sur le plan théorique, une
collaboration avec P. Chantrenne du CETHIL, permettrait de mettre au
point les bases d’une meilleure compréhension du PTE : l’idée est de coupler
à l’échelle atomique, la modélisation de la conductivité phonique par dynamique moléculaire et celle de la conductivité électronique par différences
finis. En introduisant un coefficient de couplage entre les énergie phoniques
et électroniques d’un atome, il serait peut-être possible de prédire la conductivité thermique et le PTE de métaux simples. Dans un deuxième temps,
l’effet d’éléments d’alliages ou de défauts pourrait être étudié. L’effet de
ces défauts sur la composante phonique pourrait être tiré de la dynamique
moléculaire. Pour ce qui est de la composante électronique, il faudrait s’appuyer sur des calculs de structure de bande (collaboration avec X. Blase du
LPMCN à Lyon).
Les microscopies
Étudier les transformations de phases, et notamment la précipitation,
sans faire de microscopie, revient à faire du vélo en fermant les yeux ! En
complément des techniques globales comme le PTE, la résistivité, le bruit
Barkhausen, la diffusion aux petits angles,.. , la microscopie électronique
(ou plutôt faut-il parler des microscopies électroniques) permet d’apporter
5.1 Recherche
une information locale indispensable sur la morphologie, la cristallographie,
la chimie, et la taille des précipités.
Parmi les développements récents en lien avec la caractérisation de la
précipitation qui pourraient être approfondis au laboratoire, citons le champ
sombre annulaire et la spectroscopie de perte d’énergie.
Champ sombre annulaire aux grands angles (HAADF). Cette
technique permet d’avoir une information sur la chimie des précipités (“Zcontrast”). En effet, la sonde EDX permet d’avoir une bonne description
de la chimie des précipités, mais elle comporte deux limitations : (i) les
éléments légers (interstitiels C ou N) ne sont pas détectables ; (ii) son utilisation systématique pour un grand nombre de précipités est très longue
et fastidieuse et rend donc le travail d’analyse statistique très difficile. Si
elle reste impuissante pour le point (i), la technique du champ sombre annulaire permet, après corrélation, d’analyser rapidement un grand nombre
de précipités par un travail sur l’intensité du signal reçu.
Spectroscopie de perte d’énergie (EELS). La caractérisation fine
de la chimie des précipités, notamment pour les éléments légers comme
le carbone ou l’azote, n’est pas possible par sonde EDX. Pourtant, c’est
une information capitale pour mieux connaı̂tre la structure et la stabilité
des précipités. Pour doser le rapport C/N des précipités, il est nécessaire
de travailler sur répliques d’alumines, ce qui n’est pas courant. Pour cela,
MATEIS vient d’acquérir un évaporateur qui devrait permettre de faire des
dépôts de films minces d’alumine. L’analyse des spectres EELS est, quand à
elle, assez compliquée, et les meilleurs résultats semblent devoir être obtenus
à partir de spectres de références (par élément chimique) qu’il faut “caler”
sur le spectre expérimental en utilisant de nombreux paramètres. L’analyse
systématique du rapport C/N d’une population de précipités passe donc
par une phase d’optimisation des paramètres qui donnerait les fractions
des différents éléments chimiques, comme cela a été démarré dans la thèse
d’E. Courtois 1 .
Et bien d’autres...
En plus de celles citées plus hauts, de nombreuses autres techniques
pourraient être développées ou utilisées avec profit en collaboration avec
les nombreux partenaires du laboratoire MATEIS. Citons :
– la diffusion au petits angles (SAXS, A. Deschamps, SIMAP) qui
donne une information globale sur la distribution de taille, la fraction volumique, mais aussi la morphologie moyenne.
– la microscopie ionique (F. Danoix, GPM) et la sonde atomique tomographique (TAP, D. Blavette, GPM) qui donnent la position et la
nature des atomes à l’échelle d’une zone nanométrique.
1. Courtois (E.), Epicier (T.) et Scott (C.), ≪ EELS study of niobium carbonitride nano-precipitates in ferrite ≫, Micron, vol. 37, 2006, p. 492–502
109
110
Perspectives
Les traitements thermiques subis par les alliages métalliques lors de
l’élaboration sont de plus en plus complexes, c’est pourquoi le laboratoire
MATEIS va acquérir dans l’année qui vient un simulateur de traitement
thermomécanique (Gleeble). Ce dispositif, piloté par D. Fabregue, va permettre de revisiter un large domaine de la métallurgie et ouvre la voie à
une quantité d’applications (simulation de trempes, de recuits, de soudage
(HAZ), ductilité à chaud...).
5.1.2 Modélisation thermodynamique
L’approche thermodynamique de la modélisation de la précipitation que
nous avons développée et qui est présentée au chapitre 3 n’est, somme toute,
qu’un début. Elle mériterait d’être approfondie pour être appliquée à des
cas plus complexes, pour lesquelles on ne connaı̂t pas à priori la chimie des
précipités. De plus, en liaison avec les modélisations à l’échelle atomique
et les expériences, l’influence des contraintes locales ou globales devra être
prise en compte.
Systèmes complexes : chimie des précipités
L’approche que nous avons développée dans le cadre de la thèse de D.
Acevedo a été validée dans des cas relativement simples (alliages ternaires
ou quaternaires). Il est envisagé maintenant de développer le logiciel PreciSo
pour traiter le cas des alliages plus complexes de type (Ti,V,Nb)(C,N).
D’un point de vue théorique, il sera nécessaire de remettre à plat le
formalisme décrivant l’équilibre d’un tel précipité avec la solution solide
pour obtenir à la fois la force motrice de germination et la composition de
la coquille lors de la croissance.
D’un point de vue numérique, il faudra optimiser la résolution du
système d’équations non-linéaires donnant la composition de la coquille
lors de la croissance.
Quant à la programmation, il faudra que PreciSo puisse garder en
mémoire les compositions des différentes coquilles créées lors de la croissance. En effet, les études préliminaires menées en MET ont montré une
structure cœur-coquille dans les précipités contenant du titane.
Effet des contraintes : germination hétérogène
La prise en compte de la contrainte dans la précipitation est le sujet
de du projet “CONTRAPRECI” que nous avons monté avec T. Epicier
en 2006. L’idée est de comprendre à la fois la chimie et la morphologie
de certains précipités pour lesquels on soupçonne que la contrainte liée au
précipité lui-même, ou à une dislocation environnante joue un grand rôle.
Le cas d’un précipité germant sur une dislocation est un exemple de
germination hétérogène. Par contre, il semblerait que ce phénomène ne soit
pas dû à une diminution de l’énergie d’interface précipité/matrice, mais
bien une interaction mécanique entre précipité et matrice. Ainsi, il sera
5.1 Recherche
nécessaire de comprendre pourquoi les nitrures de niobium germent de façon
homogène alors que les carbures de niobium germent sur les dislocations.
Introduire l’énergie élastique dans le bilan énergétique de formation du
précipité (germination et croissance) par une approche de type “inclusion
d’Eshelby” permettrait peut-être d’interpréter ce type de résultat.
5.1.3 Échelle atomique
L’ensemble du chapitre 4 présente plus une méthode et des perspectives que de réels aboutissements. Par contre, les premiers résultats sont
très encourageants et la poursuite d’une activité de modélisation à l’échelle
atomique pour mieux comprendre les premiers stades de la précipitation
pourrait se faire selon deux axes : (i) le développement et la validation
de potentiels inter-atomiques ; (ii) le couplage entre Monte-Carlo cinétique
et dynamique moléculaire pour décrire les phénomènes de transport sous
contrainte.
Développement et validation de potentiels
Les utilisateurs de la dynamique moléculaire sont tributaires de l’existence de bons potentiels inter-atomiques qui reproduisent un maximum de
propriétés physiques ou mécaniques. Le développement de nouveaux potentiels nécessite donc un dialogue avec de nombreux aller-retours entre le
physicien du solide, qui cherche les fonctions à intégrer dans le potentiel à
partir de configurations de références, et le physicien des matériaux qui va
tester le potentiel avec plusieurs types de sollicitations.
Dans le cas de potentiels de métaux purs, ces deux physiciens n’en sont
souvent qu’un seul, mais si l’on veut rajouter un ou plusieurs éléments (par
exemple carbone dans le fer) et, qu’en plus, on veut décrire la solution solide
(ferrite) et le précipité (cémentite), le problème devient si complexe qu’une
collaboration entre plusieurs équipes permet une synergie. C’est dans cet
esprit que nous avons travaillé avec C. Becquart du LMPGM et C. Domain
d’EDF pour développer et valider le nouveau potentiel Fe-C.
Dans l’avenir, il serait nécessaire d’ajouter à ce potentiel un terme d’interaction C-C pour mieux représenter les interactions entre atomes de carbone dans la cémentite, et ainsi mieux décrire la maille orthorhombique de
cette structure.
Couplage Monte-Carlo cinétique et dynamique moléculaire
Le couplage de ces deux techniques très complémentaires pour décrire,
à l’échelle atomique, les premiers instants de la précipitation est un projet
à long terme. Le chemin pour y arriver ne manque pas d’embûches, c’est
pourquoi, la stratégie envisagée repose sur plusieurs étapes successives :
Formation des atmosphères de Cottrell. Le champ de contrainte de
la dislocation influence la diffusion du carbone autour de celle-ci. Dans un
111
112
Perspectives
premier temps, la dynamique moléculaire devrait permettre de prédire les
énergies de col liées à la diffusion d’un atome de carbone en fonction de
sa position. La question de savoir s’il faudra (i) construire un catalogue
avec un maximum de positions et d’énergies de col associées ; ou plutôt, (ii)
trouver une relation entre la contrainte tri-axiale et l’énergie de col, n’est
pas tranchée.
Dans un deuxième temps, il faudra prendre en compte la présence de
l’atmosphère qui va modifier elle-même le champ de contrainte autour de
la dislocation. Ce qui pourrait rendre obligatoire la solution (ii) présentée
ci-dessus.
Interactions dislocation/carbone sous sollicitation mécanique.
Les interactions carbone/dislocation sont à la base des phénomènes de
vieillissement dynamique au cours desquels la dislocation est plongée dans
un champ de contrainte extérieur qui tend à la faire bouger, mais subit aussi
une interaction avec les atomes de carbones qui tendent à l’immobiliser.
La dynamique moléculaire est un outil tout à fait adapté pour modéliser
l’ancrage/désancrage de la dislocation par une atmosphère de Cottrell. Ce
travail initié par C. Becquart du LMPGM se situerait dans la continuité de
la modélisation de la cinétique de formation des atmosphères.
Précipitation La modélisation de cinétiques de précipitation par couplage Monte-Carlo cinétique et dynamique moléculaire constitue une sorte
de “Graal” personnel. C’est l’aboutissement de la démarche présentée au
cours du dernier chapitre.
En plus de la prise en compte des contraintes liées au précipité dans
la diffusion des espèces chimiques, il faut relaxer le précipité pour qu’il
adopte sa propre cristallographie en incorporant éventuellement des lacunes (comme cela a été observé dans le cas de carbures de niobium et
de vanadium).
La gestion du mouvement de l’interface precipité/matrice promet d’être
extrêmement délicate : le réseau imposé par le Monte-Carlo cinétique ne
peut pas être relaxé à chaque pas de temps de simulations, mais comment
faire bouger l’interface (croissance) sans faire relaxer la position des atomes
dans son entourage ?
5.2 Enseignement
Le métier d’enseignant/chercheur repose sur une relation étroite entre
ces deux activités. Pour autant, l’idée n’est pas de calquer mécaniquement
l’enseignement sur les activités de recherche. En ce qui me concerne, l’enseignement de premier cycle que j’effectue à l’INSA est tout à fait enrichissant,
notamment pour ce qui concerne le calcul formel.
Cependant, acquérir une expérience dans un domaine de la recherche
motive fortement pour transmettre ses connaissances aux plus jeunes. Ceci
5.2 Enseignement
se fait naturellement par l’intermédiaires de thèses ou de projets de master/fin d’études, mais pourrait aussi donner lieu à des enseignements plus
classiques (en Licence, Master ou école d’ingénieur).
Voici quelques idées, motivées par la compréhension, l’acquisition de
concepts, méthodes ou techniques que j’aurais beaucoup de plaisir à mettre
en œuvre au cours des prochaines années. Elles pourraient servir aussi bien
aux étudiants qu’aux chercheurs.
Thermodynamique
L’enseignement de la thermodynamique de premier cycle en France est
basé sur des expériences du XIXe siècle (machines thermiques), et un formalisme mathématique assez lourd, qui tend parfois à pousser les étudiants
au bachotage plus qu’à la réflexion.
Combien d’étudiants manient avec dextérité le cycle de Carnot (pas
trop longtemps après l’examen tout de même), mais n’ont pas intégré les
concepts de température, de pression ou d’entropie ?
Pourtant ces concepts ne se comprendraient-ils pas plus facilement si
l’on faisait appel à un grand nombre de particules (physique statistique) ?
C’est en programmant le code SOMM de dynamique moléculaire que j’ai
réalisé que nombre de phénomènes qui sont sensés être modélisés par la
thermodynamique ne sont en fait que la conséquence de la relation fondamentale de la dynamique appliquée à un grand nombre d’objets.
D’où vient la loi des gaz parfaits ? Pourquoi les matériaux semiconducteurs conduisent-ils mieux l’électricité quand on les chauffe ? Pourquoi un aimant perd-il ses propriétés magnétiques à haute température ?
Pourquoi un caoutchouc est-il élastique ?..
Toutes ces questions pourraient trouver leur réponse dans un enseignement de thermodynamique fondé sur des expériences statistiques réalisées
sur un grand nombre de particules. Cet enseignement serait d’autant plus
bénéfique que les étudiants seraient actifs (enseignement par projets), tout
en les formant à l’utilisation des méthodes numériques simples (résolution
d’équations différentielles, moyennes,..).
Cette discipline aurait l’immense avantage de dé-compartimenter la
science enseignée en premier cycle, en faisant le lien entre mécanique, thermique, chimie et physique.
Science des matériaux
Il est tout à fait remarquable de constater que les évolutions des propriétés des matériaux sont en grande partie due à une maı̂trise toujours plus
grande de leur élaboration (chimie, traitement thermomécanique,..). D’une
approche empirique (qui a pourtant fait ses preuves depuis plusieurs milliers
d’années !), la volonté de mieux comprendre les mécanismes responsables
des propriétés finales des matériaux a permis des progrès spectaculaires
Citons par exemple :
113
114
Perspectives
– les aciers multi-phasés “dual phase” ou TRIP résultant d’un traitement thermomécanique particulier.
– les polymères semi-cristallins : les chimistes arrivent à mieux contrôler
la densité de chaı̂nes liantes entre phases amorphe et cristalline, ce
qui améliore grandement les propriétés finales.
– les céramiques nanostructurées : la technique du SPS (Spark Plasma
Sintering) permet d’atteindre des vitesses de chauffe tellement élevées
que les grains n’ont pas le temps de grossir, conférant une structure
nanométrique très avantageuse.
– les matériaux enchevêtrés ou les mousses : une bonne maı̂trise du
procédé d’élaboration, notamment une bonne homogénéisation des
propriétés, a permis de trouver nombre d’applications pour ces
matériaux.
– ...
Sans diminuer l’importance des relations microstructure/propriétés
d’usage, il me semble que l’élaboration pourrait prendre plus de poids dans
l’enseignement de la science des matériaux. L’idée ne serait pas de faire
un catalogue (indigeste !) des procédés d’élaboration, mais de présenter
quelques innovations spectaculaires dans l’élaboration de matériaux en allant jusqu’aux propriétés d’usage.
Approche des phénomènes complexes et méthodes numériques
L’enseignement des sciences en France repose essentiellement sur un
formalisme mathématique important : il suffit d’ouvrir un ouvrage de physique anglo-saxon pour constater que nos voisins utilisent beaucoup plus de
raisonnements qualitatifs que de modèles quantitatifs.
Pourtant, au terme d’une espèce d’imposture, on fait croire aux
étudiants français que la science décrit bien tout ce qui nous entoure avec
des lois qui sont en générales linéaires. Pour preuve : n’enseigne-t-on pas
que des théories simples qui marchent ? ! ?
Le discours consistant à dire que la nature est compliquée et que l’on
n’en comprend qu’une infime partie me paraı̂t plus honnête. Plutôt que de
cacher “sous le tapis” tout ce qui ne se modélise pas par une loi linéaire, on
pourrait présenter aux étudiants une approche des phénomènes complexes,
à commencer par les phénomènes non linéaires. Par exemple, que va-t-il se
passer si l’on écarte un pendule loin de sa position d’équilibre ?
Pour répondre à cette question, et à tant d’autres, il sera alors nécessaire
de fournir et d’expliquer aux étudiants quelques méthodes numériques :
intégration, différences finies, Monte-Carlo,..
Un des grands avantages de cette approche est que les méthodes
numériques utilisées sont forcément fausses, résultants d’approximations intrinsèques. Elles n’enferment donc pas l’esprit dans des lois (que la nature
est censée suivre) bridant l’imagination qui manque un peu aux ingénieurs
français.
L’enseignement des méthodes numériques se situe pleinement dans une
5.3 Organisation de la recherche : avantages et limites de la logique de réseau
démarche de recherche (au sens de chercher la solution d’un problème) dont
l’apprentissage serait tout aussi utile à l’ingénieur qu’au futur chercheur.
Cet enseignement pourrait aussi se décliner pour un public de futur
chercheurs (Master) pour lequel un tour d’horizon des méthodes numériques
utilisées pour résoudre un problème physique est indispensable, ne serait-ce
que pour décomplexer les étudiants vis à vis de l’outil informatique...
Programmation orientée objet
L’enseignement de la programmation peut se révéler indispensable pour
certains et complètement inutile pour d’autres. C’est donc plutôt dans le
cadre d’une formation continue destinée à des personnes qui désirent se
lancer dans la programmation que pourrait s’adresser cet enseignement.
La logique de la Programmation Orientée Objet (POO) objet nécessite
de repenser dans son ensemble la construction d’un logiciel ou d’une application. Chacun pourrait donc venir avec son propre projet. Le but de cette
formation serait de donner à tous les bases de la POO puis de réaliser un
“tutorial” de quelques séances pour permettre à chacun d’être autonome
dans le développement de son projet.
5.3 Organisation de la recherche : avantages et limites de
la logique de réseau
Il y a quelques dizaines d’années la recherche française était organisée
de manière relativement simple et pyramidale : au sommet, le ou les ministère(s) de l’éducation nationale et de la recherche, puis l’université ou
école de rattachement et le CNRS, et enfin, le laboratoire.
Depuis quelques années, nous avons assisté à une multiplication vertigineuse des structures à la fois sur une échelle verticale (groupe, laboratoire, fédération, cluster, région, CNRS, ministère de l’éducation, Europe,..) mais aussi sur une échelle plus transversale avec les multiples appels d’offres (ANR, PCRD,..) générant ainsi une organisation en réseau
extrêmement complexe. Le chercheur moyen, s’il n’est pas complètement
perdu au milieu des toutes ces structures et de leurs sigles (on trouvera
un glossaire quelques pages plus loin), passe donc aujourd’hui une grande
partie de son temps à rédiger des projets au moins autant administratifs
que scientifiques !
Avantages
On peut tout de même trouver plusieurs avantages à une telle organisation de la recherche.
Épanouissement. La multiplicité des échelons dans lesquels s’investir
devrait mécaniquement multiplier les chances d’épanouissement de chacun :
certain préféreront l’échelle locale, d’autres l’échelle d’une fédération de
115
116
Perspectives
laboratoires, et d’autres encore, l’échelle internationale et/ou européenne.
Elle permet aussi de débloquer des situations pour lesquels une hiérarchie
verticale aurait tendance à enfermer le chercheur. La complémentarité des
caractères et des compétences des chercheurs aboutit à ce que tous les
échelons soient relativement bien occupés.
Efficacité. Ceci conduit naturellement au problème de l’efficacité globale
du système. On donne à chacun sa chance de s’épanouir à l’échelon qui lui
convient, en libérant ainsi les énergies créatives dans un environnement de
compétition entre chercheurs, laboratoires, universités,.. : que le plus fort
gagne !
Dynamisme. Cette organisation a le mérite de favoriser le dynamisme
des individus, donc celui de toute la structure. Dans l’ancien système, le “retour sur investissement” lié au dynamisme du chercheur était relativement
long et passait par la reconnaissance d’une équipe (le laboratoire) dans son
ensemble par la communauté scientifique. Dorénavant, chaque chercheur
pourra trouver une reconnaissance plus rapide par le biais de projets ou
d’appels d’offre, au sein de l’échelon et/ou de l’équipe de son choix pour
laquelle les frontières sont à géométrie variable.
Limites
Cependant, cette logique de réseau montre aussi ses limites dans ses
conséquences sur cette (dés)organisation de la recherche.
Perplexité du chercheur. Devant le nombre impressionnant de structures dont l’articulation peut paraı̂tre obscure, les chercheurs se retrouvent
extrêmement perplexes, voire déroutés, ce qui en conduit un certain nombre
à baisser les bras.
Ségrégation. Le développement d’un système dans lequel la concurrence entre chercheurs et institutions est clairement affichée et organisée
va nécessairement conduire à une ségrégation. D’un côté les chercheurs
brillants et mobiles formeront les équipes les plus dynamiques dans quelques
universités prestigieuses, et, d’un autre côté, la plupart des universités (qui
auront toujours besoin d’enseignants) risqueront de rester à un niveau bien
modeste pour la recherche. C’est d’ailleurs déjà ce qui est observé au niveau
mondial, où la concurrence prime sur la logique des états comme le note J.
Attali dans son dernier ouvrage 2 , ce qui conduit à une société dans laquelle
les “hypernomades”, créatifs et mobiles, dirigent l’organisation du monde
où le concept de justice n’existe plus.
2. Attali (J.), Une brève histoire de l’avenir. Fayard, 2006
5.3 Organisation de la recherche : avantages et limites de la logique de réseau
Démotivation. La logique de réseau organisée autour de la concurrence
permet aux meilleurs d’avoir une reconnaissance rapide, mais laisse un certain nombre de chercheurs sur le bord de la route. En effet, l’environnement
concurrentiel n’est pas celui qui permet à tous de donner le meilleur de luimême. Et pourtant, n’est-ce pas là le but ultime d’une organisation ?
Conclusion : les racines, une nécessité !
Dans un environnement de plus en plus concurrentiel entre les chercheurs, la logique de réseau permet, certes, d’encourager le dynamisme des
individus, mais promet d’en décourager un grand nombre, ce qui pose la
question de l’efficacité globale du système.
Sans remettre en cause cette logique de réseau, il est nécessaire de trouver un compromis entre dynamisme et efficacité globale. Actuellement, en
France, il faut bien admettre que ce compromis autour duquel la concurrence entre les chercheurs est contrebalancée par le statut de fonctionnaire,
est à peu près équilibré pour les permanents. Par contre, ce sont les nonpermanents qui supportent l’intégralité du risque lié à cette organisation.
Paradoxalement, ces jeunes sont les moins bien armés pour s’investir dans
cette logique de réseau. Ce qui pose un gros problème vis à vis de l’avenir,
voir, de justice dans le présent.
Pour équilibrer cette organisation concurrentielle nécessaire de la recherche de façon plus juste, il est indispensable de définir ou de renforcer
un échelon protecteur, qui permette à la fois de stabiliser les personnes dynamiques (hypernomades) et de stimuler (manager) ceux qui le sont moins,
pour que chacun puisse donner le meilleurs de lui-même.
Cet échelon, nécessairement proche, articulé autour de relations conviviales entre les chercheurs, se nomme laboratoire ou équipe de recherche.
117
118
Perspectives
Curriculum Vitae
Formation
1991 : Baccalauréat (mention TB)
1996 : Ingénieur INSA et DEA “Génie des Matériaux” (mention TB)
1997-2000 : Thèse au GPM2 à Grenoble. Mesure de viscosité sans contact par lévitation de gouttes sur
film de gaz. Dir. : Y. Bréchet et M. Suéry (mention THFJ)
Enseignement
1997-2000 : Mesures Physiques - Mise en place Cours et TD - IUP
L’objectif de ce cours était de sensibiliser des étudiant de 1ère année d’IUP (bac+2) à la mesure
physique autour du calcul différentiel et de l’analyse statistique.
1999-2001 : Science des Matériaux TD - ENSEEG
Nous avons monté avec M. Verron et A. Deschamps une série d’une dizaine de TD pour les étudiants
de 2ème année de l’ENSEEG.
2001-2003 : Ondes - Mise en place cours et des TD et polycopié - INSA 2ème année
J’ai pris en main l’enseignement des ondes pour la première promotion AMERINSA de l’INSA de
Lyon ! Il a fallu mettre en place le cours et les TD dans un système cours/TD intégrés. J’ai rédigé un
polycopié d’une centaine de page en gardant ce schéma ou les exercices sont intégrés dans le cours.
2003-2005 : Mécanique du Point Mise en place cours, TD et TP et polycopié - INSA 1ère année
Dès mon arrivé à l’INSA, je me suis impliqué dans la section FAS (formation active en science)
pour laquelle les étudiants issus du bac STI reçoivent une pédagogie tout à fait particulière basée
sur l’apprentissage par projet et sur la situation-problème. J’ai monté un système de Cours/TD/TP
d’une cinquantaine d’heure fortement imbriqué qui se base sur 4 situations-problèmes : (i) découverte
des champs ; (ii) chute libre ; (iii) mouvement de rotation ; (iv) mesure physique.
2005-2007 : Sciences des Matériaux - TD - INSA-GMC
En 2005, nous nous sommes lancés avec A. Fazekas et J. Y. Buffière dans une refonte totale de tous
les TD, ainsi que dans la rédaction d’un polycopié d’une quinzaine de séance (un thème par séance).
120
Curriculum Vitae
Recherche
Mesure de viscosité par lévitation (1997-2000) - Thèse : Hydrodynamique et milieux bi-phasés.
Dans le cadre de ma thèse j’ai monté une manipulation et contribué à valider une technique de mesure
de tension de surface et de viscosité par lévitation d’une goutte sur film de gaz.
Vieillissement de la martensite (2000-2002) : Dosage des phases et éléments chimiques du 100Cr6.
A partir de mesures de pouvoir thermoélectrique, j’ai proposé une approche pour quantifier les proportions des différentes phases en cours de vieillissement (thèse de C. Sidoroff - MATEIS / SNR).
Précipitation du cuivre dans les aciers (2002-2005) : Caractérisation et modélisation.
Dans le cadre d’une collaboration avec le LTPCM (Grenoble) et le GPM (Rouen), nous avons combiné modélisation, techniques de caractérisation locales et globale (Thèse de F. Perrard - LTPCM
/ ARCELOR). Nous avons ainsi mesuré, par la technique du pouvoir thermoélectrique, la limite de
solubilité du cuivre dans le fer à basse température, dans un domaine pour lequel il l’existait pas de
donnée dans la littérature (stage post-doctoral de G. Covarel - MATEIS).
Précipitation dans les aciers micro-alliés (2003-...) : Caractérisation et de modélisation.
J’ai développé une approche thermodynamique et numérique de la précipitation, ce qui a permis de
revisiter l’effet Gibbs-Thomson, et de modéliser la précipitation simultanée de plusieurs phases.
Sur ces bases thermodynamiques, nous avons développé et validé un logiciel de prédiction de la
précipitation (PreciSo). Une technique originale de caractérisation de la précipitation par microscopie
à balayage en mode “transmission” (STEM in SEM ) a aussi été validée (thèse de D. Acevedo co-dirigée avec T. Epicier - MATEIS / ASCOMETAL).
J’ai modifié l’approche thermodynamique pour permettre de prédire la chimie de carbonitrures complexes (thèse de E. Courtois - MATEIS / ARCELOR).
Fin 2006, nous avons démarré une deuxième thèse avec ASCOMETAL pour caractériser et modéliser
la dissolution de précipités de type (Ti,V,Nb)(C,N) dans l’austénite ainsi que leur effet sur la taille
de grains (thèse de C. Leguen co-dirigée avec T. Epicier - MATEIS / ASCOMETAL).
Couplage dynamique moléculaire / Monte-Carlo cinétique (2006-...) : Développement de techniques de modélisation de la précipitation à l’échelle atomique.
Un projet blanc de l’ANR (“CONTRAPRECI”, piloté avec T. Epicier) sur le rôle des contraintes
dans les premiers stades de la précipitation a débuté en 2006. Ce projet comporte un large volet
dont le but est d’utiliser des outils de simulation à l’échelle atomique. Nous avons ainsi validé une
approche originale couplant Monte-Carlo cinétique et dynamique moléculaire sur un cas simple : la
modélisation du pic de Snoek (stage post-doctoral S. Garruchet).
Ce projet va se poursuivre dans le cadre d’une collaboration avec le LMPGM (Thèse co-dirigée avec
C. Becquart - MATEIS / LMPGM / EDF, 2008-2011 ).
Propriétés mécaniques de copolymères blocs (2006-...) : J’ai été impliqué dans un projet blanc
de l’ANR (“NANOMECA”, piloté par O. Lame et J. Y. Cavaillé) sur les propriétés mécaniques de
polymères nanostructurés. Ma contribution a consisté dans la mise en place d’outils en dynamique
moléculaire (logiciel SOMM) pour générer et tester les propriétés mécaniques de polymères nanostructurés (Thèse de A. Makke co-dirigée avec J. L. Barrat - MATEIS / LPMCN, 2007-2010 ).
Liste de Publications
Journaux internationaux
[A] Perez (M.), Bréchet (Y.), Papoular (M.) et al., ≪ Oscillation of liquid drops under gravity :
influence of shape on resonance frequency ≫, Euro. Phys. Lett., vol. 47, no 2, 1999, p. 189–195
[B] Perez (M.), Salvo (L.), Suéry (M.) et al., ≪ Contactless viscosity measurement by oscillation
of gaz-levitated droplet ≫, Phys. Rev. E, vol. 61, no 3, 2000, p. 2669–2675
[C] Barbé (J. C.), Perez (M.) et Papoular (M.), ≪ Microstructure and viscosity of semi-solid
mixtures ≫, J. Phys. : Cond. Matter, vol. 12, 2000, p. 2567–2577
[D] Perez (M.), Barbé (J. C.), Neda (Z.) et al., ≪ Computer simulation of the microstructure
and rheology of semi-solid alloys under shear ≫, Acta Mater., vol. 48, no 14, 2000, p. 3773–3782
[E] Haumesser (P. H.), Brancillon (J.), Daniel (M.) et al., ≪ Hight-temperature contact-less
viscosity measurement by the gas-film levitation technique : application to oxide and metallic
glasses ≫, Rev. Sc. Instr., vol. 73, no 9, 2002, p. 3275–3285
[F] Perez (M.) et Deschamps (A.), ≪ Microscopic modelling of simultaneous two-phase precipitation : application to carbide precipitation in low-carbon steels ≫, Mat. Sc. Eng A, vol. A360,
2003, p. 214–219
[G] Deschamps (A.), Nicolas (M.), Perrard (F.) et Perez (M.), ≪ Quantitative characterization and precipitation kinetics : towards the non-isothermal precipitation and the coupled
phenomena ≫, Rev. Met., vol. 5, 2004, p. 361–379
[H] Perez (M.), ≪ Gibbs-Thomson effect in phase transformations ≫, Scripta Mater., vol. 52, 2005,
p. 709–712
[I] Perez (M.), Perrard (F.), Massardier (V.) et al., ≪ Low temperature solubility of copper
in iron : expertimental study using ThermoElectric Power, Small AngleX-ray Scattering and
Tomographic Atom Probe ≫, Phil. Mag., vol. 85, no 20, 2005, p. 2197–2210
[J] Becquart (C. S.), Raulot (J. M.), Benecteux (G.) et al.,
≪
Atomistic modeling of Fe
Liste de Publications
system with small C concentration
≫
, Comp. Mat. Sc., vol. 40, 2007, p. 119–129
[K] Garruchet (S.) et Perez (M.), ≪ Modeling the snoek peak by coupling molecular dynamics
and kinetic monte-carlo methods ≫, Comp. Mat. Sc., vol. 43, 2008, p. 286–292
[L] Perez (M.), Courtois (E.), Acevedo (D.) et al., ≪ Precipitation of niobium carbonitrides
in ferrite : chemical composition measurements and thermodynamical modelling ≫, Phil. Mag.
Lett., vol. 87, 2007, p. 645–656
[M] Epicier (T.), Acevedo (D.) et Perez (M.), ≪ Crystallographic structure of vanadium carbide
precipitates in a model Fe-C-V steel ≫, Phil. Mag., vol. 88, 2008, p. 31–45
[N] Acevedo-Reyes (D.), Perez (M.), Epicier (T.) et al., ≪ Characterisation of precipitates size
distribution : validation of low voltage SEM. ≫, J. of Microscpy, vol. 232, 2008, p. 112–122
[O] Perez (M.), Lame (O.), Léonforte (F.) et Barrat (J. L.), ≪ Polymer chain generation
for coarse grained models using radical-like polymerization ≫, J. Chem. Phys., vol. 128, 2008,
p. 234904
[P] Perez (M.), Dumont (M.) et Acevedo (D.), ≪ Implementation of the classical nucleation
theory for precipitation ≫, Acta Mater., vol. 56, 2008, p. 2119–2132
Chapitres d’ouvrages
[A] Bréchet (Y.), Perez (M.), Neda (Z.) et al., ≪ Rheology of concentrated suspensions : a lattice
model ≫, in : Continuum scale simulation of engineering materials, Wiley, 2004, p. 639–644
Journaux liés à colloque
[A] Perez (M.) et M. Morin, ≪ Internal friction measurement during stress induced martensitic
transformation of cu zn al shape memory single crystal ≫, J. Phys. IV, vol. 6, 1996, p. 433–436
[B] Perez (M.), Barbé (J. C.), Patroix (C.) et al., ≪ Contactless viscosity measurement by a
gas film levitated technique ≫, Matériaux et Techniques, vol. 9-10, 2000, p. 19–24
[C] M. Perez, Barbé (J. C.), Neda (Z.) et al., ≪ Investigation of the microstructure and the
rheology of semi-solid alloys by computer simulation ≫, J. Phys. IV France, vol. 11, 2001,
p. 93–100
[D] M. Perez*, Perrard (F.), Massardier (V.) et al., ≪ Low temperature solubility limit of
copper in iron ≫, Mat. Sc. Forum, vol. 500-501, 2005, p. 08 :00
[E] Acevedo-Reyes (D.), Perez (M.), Pecoraro (S.) et al., ≪ Vanadium carbide dissolution
during austenitisation of a model microalloyed fecv steel ≫, Mat. Sc. Forum, vol. 500-501, 2005,
p. 695–702
123
[F] M. Perez*, Courtois (E.), Acevedo-Reyes (D.) et al., ≪ Precipitation of niobium carbonitrides : Chemical composition measurements and modeling ≫, Mat. Sc. Forum, vol. 539-543,
2007, p. 4196–4201
Actes de colloques
[A] J. C. Barbé, Garandet (J. P.), Delannoy (Y.) et Perez (M.), ≪ Viscosity measurement by
gas-film levitation : rheology of metallic semi-solid alloys ≫, dans Proc. Of fourteenth symposium
on Thermophysical properties. Boulder, 2000
[B] M. Perez, Barbé (J. C.), Neda (Z.) et al., ≪ Simulation of microstructure and rheology of
semi-solid alloys ≫, dans Chiarmetta (G. L.) et Rosso (M.), éditeurs, Proc. of the 6th Intl.
Conf. on Semi-solid Processing of Alloys and Composites, p. 181–186. Brescia : Edimet, 2000
[C] Perez* (M.), Bréchet (Y.), Salvo (L.) et al., ≪ Mesures de viscosité sans contact par
lévitation de gouttes sur film de gaz ≫, dans Proc. Of Ecole de Mécanique des Matériaux.
Aussois : Mecamat, 2002
[D] F. Léonforte, Perez (M.) et Lame (O.), ≪ Molecular dynamics simulation study on nanostructured polymers ≫, dans Proc. of European Polymer Congress, 2007
[E] Acevedo (D.), Perez (M.), Epicier (T.) et al., ≪ Kinetics of precipitation and dissolution in
model FeCV and FeCVNb alloy, and a microalloyed ultra high strength spring steel. ≫, dans
New Developments on Metallurgy and Applications on High Strengh Steels. TMS, 2008
Rapports
[A] Colin (A.), Perez (M.) et Vincent (A.). ≪ Apport du pte dans la caractérisation des traitements thermiques de l’acier 100cr6. ≫. Rapport SNR, 2002
[B] Covarel (G.), Perez (M.), Kleber (X.) et al. ≪ Suivi de la précipitation du cuivre dans un
acier par mesure du pouvoir thermo-éléctrique. ≫. Rapport ASCOMETAL, 2002
Ouvrages liés à l’enseignement
[A] Perez (M.), Mécanique du point. http ://cipcinsa.insa-lyon.fr/∼mperez/champs.pdf, 2006. 42p
[B] Perez (M.), Ondes. http ://cipcinsa.insa-lyon.fr/∼mperez/ondes.pdf, 2006. 114p
[C] Perez (M.), Unités et Incertitudes. http ://cipcinsa.insa-lyon.fr/∼mperez/tsi.pdf, 2006. 33p
124
Liste de Publications
Glossaire à l’usage du chercheur...
...perdu dans les structures administratives.
ACI (Actions Concertées Incitatives) : Perdu ! Rendez-vous à la case ANR...
ANR (Agence Nationale de la Recherche) : Organisme qui rapporte beaucoup mais qui ne
fait aucun effet dans les conversation mondaines (voir CNRS).
ANRT (Association Nationale pour la Recherche Technique) : Décharge des charges.
ATER (Attaché Temporaire d’Enseignement et de Recherche) : Attaché détachable
BQR (Bonus Qualité Recherche) : Pour mettre du beurre dans les épinards.
CIFRE (Conventions Industrielles de Formation par la Recherche) : La Rolls des thèses
MACODEV (cluster MAtériaux et COnception pour un DEVeloppement durable) :
Fédération plus d’autres laboratoires du coin pour faire politiquement correct.
CNU (Conseil National des Universités) : Pour être calife...
CNRS (Centre National de la Recherche Scientifique) : Organisme qui rapporte peu mais
qui fait un certain effet dans les conversation mondaines (voir ANR).
CPER (Contrat de Plan État-Région) : Héritage de l’économie planifiée ?
FEDERAMS (FEDEration Rhône-Alpes Matériaux de Structure et propriétés d’usage) :
Ensemble de copains qui officialisent le fait de travailler ensemble.
Équipe : Ensemble de personnes qui boivent le café ensemble.
INSA (Institut National des Sciences Appliquées) : Sorte d’attracteur étrange
Laboratoire : Héritage du passé à préserver pour l’avenir
MENRT (Ministère de l’Éducation Nationale, la Recherche et la Technologie) : voir
MEN, non ça a changé, plutôt MENRS. Non, ça a encore changé, MENJS, MENC,
MENESRIP, MENESR,..
PCRD (Programme-Cadre de Recherche et de Développement de la com. européenne) :
Le septième est identique au sixième. C’est clair, non ?
RTRA (Réseau Thématique de Recherche Avancée) : Ligne direct haut débit avec le ministère. Ceux qui ne l’ont pas devront rester avec leur vieux modem 56K.
RNMP (Réseau National Matériaux et Procédés) : Encore perdu ! Rendez-vous toujours à
la case ANR...
PRES (Pôle de Recherche et d’Enseignement Supérieur) : Et maintenant, comble du
comble, il faut que nous nous mélangions avec de vulgaires universités.
UMR (Unité Mixte de Recherche) : Mixte entre quoi et quoi déjà ? ? ?
126
Glossaire à l’usage du chercheur...
Sélection de trois articles
[A] Perez (M.), Perrard (F.), Massardier (V.) et al., ≪ Low temperature solubility of
copper in iron : expertimental study using ThermoElectric Power, Small AngleX-ray
Scattering and Tomographic Atom Probe ≫, Phil. Mag., vol. 85, no 20, 2005, p. 2197–
2210
[B] Perez (M.), ≪ Gibbs-Thomson effect in phase transformations
52, 2005, p. 709–712
≫
, Scripta Mater., vol.
[C] Garruchet (S.) et Perez (M.), ≪ Modeling the snoek peak by coupling molecular
dynamics and kinetic monte-carlo methods ≫, Comp. Mat. Sc., vol. 43, 2008, p. 286–292
128
Sélection de trois articles
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertising