RAPPORT D`ACTIVITES GENCI 2010

RAPPORT D`ACTIVITES GENCI 2010
RappoRt d’activités
2010
Depuis 2007,
les investissements réalisés par GENCI ont permis de mettre à disposition de la communauté scientifique française une puissance de calcul significative, de l’ordre de 600 teraflop/s, soit un gain d’un facteur 30 en quatre ans.
Cette dynamique
s’est poursuivie en 2010 avec l’extension du supercalculateur JADE à Montpellier (voir pages 16 et 17) et l’installation de la première tranche de la machine CURIE
à Bruyères-le-Châtel (voir pages 14 et 15) qui est également la concrétisation de l’engagement de la France
au niveau européen (voir page 19). Installée dans le Très Grand Centre de Calcul du CEA (TGCC), CURIE a été
ouverte aux scientifiques français et européens le 1er janvier 2011.
Avec Equip@meso, qui figure parmi les lauréats de l’appel à projets « Equipements d’excellence » lancé en 2010 par les pouvoirs publics dans le cadre des Investissements
d’avenir, ce sont les moyens régionaux (dits de Tier-2) qui vont être significativement
renforcés, rendant possible la constitution d’un écosystème intégré du calcul intensif (régional/national/européen) pour faire, à tous les niveaux et chaque fois
que possible, de la simulation numérique et du calcul intensif un vecteur de
développement scientifique et économique. Ce projet est coordonné par
GENCI en lien avec dix partenaires, universitaires et académiques, en région
(voir page 13).
RAPPORT D’AcTiviTés 2010
AvAnt-propos - 4
GEnCI En quElquEs mots - 6
BIlAn 2010 - 10
MaitRisE d’oUvRaGE NatioNaLE - paRtENaRiats EURopéENs coLLaBoRatioNs dE R&d - pRoMotioN dU caLcUL iNtENsiF
rApport sCIEntIfIquE - 28
AvAnt-propos & pErspECtIvEs
ContrIButIon dEs ComItés thémAtIquEs
ENviRoNNEMENt - MécaNiQUE dEs FLUidEs, FLUidEs RéactiFs, FLUidEs coMpLEXEs
- siMULatioN BioMédicaLE Et appLicatioN À La saNté - astRopHYsiQUE Et GéopHYsiQUE
- pHYsiQUE tHéoRiQUE Et pHYsiQUE dEs pLasMas - iNFoRMatiQUE, aLGoRitHMiQUE Et
MatHéMatiQUEs - sYstÈMEs MoLécULaiREs oRGaNisés Et BioLoGiE - cHiMiE QUaNtiQUE Et
ModéLisatioN MoLécULaiRE - pHYsiQUE, cHiMiE Et pRopRiétés dEs MatéRiaUX - NoUvELLEs
appLicatioNs Et appLicatioNs tRaNsvERsaLEs dU caLcUL
© GENCI - Directeur de la publication : Catherine RIVIERE
CoordInation : Laetitia BAUDIN avec Alain LICHNEWSKY, Virginie MAHDI et Stéphane REQUENA
Conception graphique, rédaction et réalisation : Laetitia BAUDIN
Contribution des MOE : Christine MéNACHé (CEA/CCRT), Francis DAUMAS (CINES), Denis GIROU (CNRS/IDRIS)
Impression : XXX - Photo de couverture : © calatheaphoto.com
2 - RappoRt d’activités GENci 2010
GENCI est pleinement investi
dans la création d’un écosystème
français et européen
du calcul intensif
FZJ / Jülich
JUGENE
Stuttgart
LRZ / Munich
SuperMUC
CRIHAN
CRIHAN
Haute-Normandie
Université de Reims
Champagne-Ardenne
Université Pierre et Marie Curie
PRES Paris Sciences et Lettres
T
itane
Titane
Mercure
T / Bruyères-le-Châtel
TGCC - CCR
CCRT
IDRIS / Orsay
Babel, Brodie
Vargas
argas
V
Maison de
la simulation
Université
de Strasbourg
CURIE
Bernard
Université Claude Bernard
Lyon
Lyon I
Centres européens
Université Joseph Fourier
Grenoble I
Centres nationaux
Equip@meso
PRES Université
de Toulouse
Toulouse
CINES
CINES / Montpellier
Anakin, Jade
Université
d'Aix-Marseille
d'Aix-Marseille I
BSC/
/ Barcelone
CINECA
A / Bologne
Avant-propos
par Catherine rivière, pdG de GEnCI
la simulation numérique s’impose progressivement
dans le monde comme un vecteur de développement
scientifique et économique. l’ambition de GEnCI est de
donner à la france, dans le domaine du calcul intensif,
les moyens de s’inscrire de manière pérenne, et à la
place qui lui revient, dans le concert des nations, notamment européennes.
l’
Europe du calcul intensif
est en route. En effet, aujourd’hui, aussi bien dans
l’industrie que dans la recherche, le
recours au calcul intensif et aux supercalculateurs est nécessaire pour
développer produits et services innovants comme pour soutenir la production de nouvelles connaissances.
c’est un enjeu d’autant plus grand
que se profile déjà le prochain saut
vers l’Exascale.
La simulation numérique par le calcul
intensif est devenue une démarche
essentielle de la recherche scientifique d’excellence à côté de la théorie
et de l’expérimentation. Moins de dix
ans après le séquençage du génome
humain, on envisage déjà d’exploiter
la masse de données contenues dans
les gènes de populations entières
pour concevoir des traitements individualisés de maladies graves. Une révolution scientifique se joue.
Le calcul intensif et la simulation numérique sont également des outils
stratégiques d’un point de vue économique.
ils sont un élément essentiel de la
productivité industrielle, en permettant de réduire considérablement le
temps de conception et de mise sur
le marché et en contribuant fortement à l’innovation et à l’optimisation
des étapes de production et de maintenance.
4 - RappoRt d’activités GENci 2010
Enfin, de façon générale, pour les services et l’ensemble de la société, le
calcul intensif offre des possibilités
nouvelles d’amélioration de la vie
quotidienne, comme les transports
intelligents, la distribution d’énergie,
le design de nouveaux concepts de
production d’électricité, l’aide au
diagnostic médical, la prévision météorologique comme celle des risques
naturels (séismes, tsunamis).
De tels enjeux ne peuvent être abordés qu’en mutualisant nos forces à
l’échelle européenne.
En tant que porteur de la politique
française en matière de calcul intensif
pour la recherche académique, GENci
se devait d’accélérer ses efforts pour
participer, à la meilleure place, à la
construction d’un écosystème européen du calcul intensif. Les résultats
de l’année 2010 attestent que cette
feuille de route a été respectée.
Une infrastructure européenne du
calcul intensif a été créée en juin
2010 à Barcelone. GENci est membre
fondateur de la pRacE aisBL, au côté
de 19 autres représentants d’états
européens. Les premiers scientifiques
européens ont eu accès, dès mi-2010,
au supercalculateur allemand JUGENE, première composante de l’infrastructure pRacE. parmi eux, figure
Jérémie Bec, premier scientifique
français lauréat d’heures « européennes » de calcul. son témoignage
DR
illustre bien la nécessité de donner
accès aux plus puissants supercalculateurs pour que la science progresse
(page 21), comme le montrent par ailleurs les résultats scientifiques présentés dans ce rapport.
pRacE, c’est aussi une organisation
collaborative mise en place en 2010,
dont un conseil scientifique. son président, le physicien britannique Richard Kenway, livre, dans son
interview (page 32), les espérances
que porte une telle organisation, non
seulement pour répondre aux besoins des scientifiques mais aussi
pour accroître la compétitivité européenne.
Enfin, l’engagement de la France - représentée par GENci - s’est concrétisé
en 2010, par l’installation en fin d’année de la deuxième composante,
française, de pRacE. Le supercalculateur cURiE a été mis à disposition des
scientifiques européens dès le début
2011, comme prévu.
Le calcul intensif permet d’accroître
la compétitivité des entreprises françaises.
c’est ce chemin qui a été tracé par
GENci, l’iNRia et osEo en lançant en
juillet 2010, l’initiative « Hpc-pME »,
en partenariat avec quatre pôles
mondiaux de compétitivité : system@tic, axelera, aerospace valley et
Minalogic.
L’enjeu de l’initiative « Hpc-pME » est
d’amener les pME à évaluer la pertinence de l’utilisation de la simulation
numérique au regard de leur modèle
d’activité, en mobilisant les acteurs
du calcul intensif les mieux à même
de les accompagner dans cette évaluation.
Quelques mois plus tard, une dizaine
de pME ont exprimé leur volonté
d’être ainsi accompagnées. Elles sont
issues de différents secteurs : industrie automobile, industrie maritime,
aéronautique, microélectronique, assistance médico-technique et sociale.
cette initiative a une année environ
pour démontrer son succès, qui se
concrétisera lorsque des pME françaises auront gagné en compétitivité,
en se risquant à changer de méthode
de travail pour utiliser la simulation
numérique dans leurs procédés industriels.
aux côtés des pME, pour lesquelles
un accompagnement spécifique est
indispensable, GENci a donné accès à
ses moyens de calculs, en 2010, à de
grands groupes industriels, en cohérence avec les politiques portées par
ses associés, pour leur permettre de
changer d’échelle. ainsi la mission de
GENci, de promouvoir l’utilisation du
calcul intensif au service de la compétitivité nationale, a-t-elle pu se déployer pleinement au cours de
l’année passée.
Le calcul intensif doit être accessible
à tout scientifique sur le territoire national.
pour démultiplier son action au niveau régional, GENci a obtenu le fi-
nancement d’Equip@meso auprès du
commissariat général à l’investissement.
Le projet associe dix acteurs nationaux et régionaux pour faire, partout
en France et chaque fois que possible,
du calcul intensif et de la simulation
numérique un vecteur de développement scientifique et économique. ce
rapprochement avec les Universités
doit permettre de mettre en oeuvre
une démarche de formation de spécialistes maîtrisant le calcul intensif et
la simulation numérique.
Equip@meso a trois grands objectifs :
développer au niveau régional la stratégie nationale portée par GENci en
matière de calcul intensif, avec des
centres de calcul universitaires ; renforcer les compétences et les capacités de calcul de ces centres ; offrir un
service d’excellence et de proximité,
qu’il s’agisse de formation, d’éducation ou de calcul, complémentaire
des moyens nationaux.
olivier pironneau, président du comité stratégique du calcul intensif
(csci), souligne l’importance de ce
projet (page 31), qui permettra d’accélérer la construction d’une véritable
pyramide du calcul intensif autour de
ses trois strates géographiques : les
moyens de calcul accessibles au niveau européen, les ressources des
trois centres de calculs nationaux et
les moyens coordonnés en région.
pide, des objectifs aussi ambitieux
n’ont de sens que si, à chaque étape
de cette route, nous prenons le temps
de la réflexion et du questionnement
méthodologiques.
comment anticiper l’étape suivante ?
comment fédérer le plus grand nombre autour de notre vision ? comment permettre aux utilisateurs
français d’innover ?
Nous y parvenons en nous appuyant
sur ce qui a prévalu à la création de
GENci, il y a quatre ans : la mutualisation des moyens et la possibilité de
dialogue avec tous les acteurs français du calcul intensif, au premier rang
desquels, bien sûr, les cinq associés
de GENci. c‘est la force de GENci et
c’est ce qui nous a permis d’obtenir
l’effet de levier décisif pour remettre
le calcul intensif à sa juste place en
France.
Nous allons poursuivre sur cette voie,
bien sûr, avec pour objectif de réussir
les challenges de demain, en premier
lieu celui de préparer la communauté
scientifique française à l’arrivée de
l’Exascale en 2018.
Je suis certaine que cet enjeu, décisif
pour la compétitivité tant scientifique
qu’industrielle de notre pays, sera
abordé avec l’implication et le pragmatisme requis dont nous avons toujours su faire preuve.
Qu’il me soit enfin permis de remercier tous ceux et celles qui ont contribué à la réalisation de ce rapport
d’activités, en souhaitant à ses lecteurs autant de plaisir à le lire que
nous en avons eu à le rédiger.
ainsi sommes-nous en route pour inscrire la France, de manière pérenne
et à la place qui lui revient, dans l’Europe du calcul et lui permettre également de poursuivre son engagement
en faveur de la constitution de l’Espace Européen Inauguration de la PRACE
de la Recherche.
AISBL à Barcelone (Espagne)
le 9 juin 2010 © PRACE
Bien sûr, dans un monde
du Hpc en évolution ra-
GEnCI
Grand é q u i p e m e nt n at i on a l d e ca l c u l i nte n s i f
Créé en 2007 par les pouvoirs publics pour placer la France au meilleur niveau
européen et international dans le domaine du calcul intensif, GENCI associe les
principaux acteurs de la recherche académique dans ce domaine (CEA, CNRS,
INRIA et Universités).
GENCI a pour missions de :
 financer et coordonner la mise en œuvre d’un plan stratégique d’équipements des trois centres nationaux
de calcul intensif pour la recherche civile ;
 être un acteur majeur dans l’organisation et la réalisation d’un espace européen du calcul intensif pour
la recherche. A ce titre, GENCI représente la France au sein de PRACE ;
 mettre en place les collaborations de R&D nécessaires à démultiplier ses actions ;
 promouvoir la simulation et le calcul intensif dans la recherche fondamentale et industrielle.
GENCI est une société civile détenue à 49 % par
l’Etat, représenté par le Ministère de la recherche
et l’enseignement supérieur, 20 % par le CEA, 20
% par le CNRS, 10 % par les Universités qui sont
représentées par la conférence des présidents
d’université et 1 % par l’INRIA.
GOuveRnAnce
La gouvernance de GENci est organisée autour d’un conseil et de différences instances techniques.
Le Conseil remplit le rôle d’une assemblée Générale. il représente la collectivité des associés où les décisions
majeures sont prises (budget, orientations stratégiques). Le conseil se réunit au moins quatre fois par an.
pour mener à bien ses missions, le conseil s’appuie sur l’expertise des instances suivantes :
 le Comité Consultatif Administratif et financier (CCAf), composé de représentants des associés, sur toutes
les questions financières et administratives
 la Commission des marchés, obligatoirement consultée lors des procédures de mise en concurrence en
raison du caractère public des financements de GENci
 le Groupe technique, composé de représentants des associés, sur les questions techniques
Composition du Conseil de GEnCI au 31 décembre 2010
président du Conseil : catherine RiviERE, pdG de GENci
représentant l’état : Robert pLaNa, directeur scientifique du secteur mathématique, physique, nanosciences, sciences et technologies de l'information et de la communication (stic) à la direction générale de la recherche et de l'innovation au Ministère de
l’enseignement supérieur et de la recherche (MEsR/dGRi) et Bernard caRRiERE, conseiller au Ministère de l’enseignement supérieur et de la recherche (MEsR/dGEsip). représentant le CEA : Jean-paul dURaUd, directeur adjoint des sciences de la matière
(cEa/dsM) et christophe BEHaR, directeur de l’énergie nucléaire (cEa/dEN). représentant le Cnrs : philippe BaptistE, directeur
de l’institut national des sciences informatiques et de leurs interactions (cNRs/iNs2i) et Jean-François stEpHaN, directeur de
l’institut national des sciences de l’Univers (cNRs/iNsU). représentant les universités : daniel EGREt, directeur de l’observatoire
de paris et Guy coUaRRaZE, président de l’Université paris Xi. représentant l’InrIA : antoine pEtit, directeur général adjoint.
Au titre du contrôle économique et financier de l’état : Jean-Yves toUiN, contrôleur d’état.
Composition du Comité consultatif administratif et financier de GEnCI au 31 décembre 2010
représentant l’état : sylvie aMBLaRd, chargée d'études au département de la gestion et du pilotage budgétaires des programmes
à la dGRi (MEsR/dGRi). représentant le Cnrs : isabelle aLEci, chef du pôle d’appui financier à la science. représentant le CEA :
patrick GUYaRd, directeur financier adjoint. représentant les universités : Michel dELLacasaGRaNdE, ancien directeur financier
de l’Education nationale.
6 - RappoRt d’activités GENci 2010
Composition de la Commission des marchés de GEnCI au 31 décembre 2010
représentant l’état : philippe aJUELos, chef de la mission des achats du Ministère de l’Education Nationale, et claire paUpERt,
adjointe au chef du département de l'appui au pilotage des organismes et de la règlementation à la direction générale pour la recherche et l'innovation. représentant le CEA : olivier dERviEU, chef de service à la direction des achats et ventes du cEa et stéphane RENoUaRd, chef du service commercial du cEa/saclay. représentant le Cnrs : Myriam FadEL, chef du bureau de la
réglementation de la direction des affaires juridiques du cNRs et vincent GoUJoN, directeur de l’Ups 2295 achats et coordination
des achats du cNRs. représentant les universités : simon LaRGER, adjoint au secrétaire général de l’ENs, et Eric EspEREt, délégué
général de la cpU et président de la commission des marchés.
Composition du Groupe technique de GEnCI au 31 décembre 2010
représentant l’état : Laurent dEsBat, conseiller au Ministère de l’enseignement supérieur et de la recherche. représentant le
CEA : Laurent cRoUZEt, assistant du directeur des sciences de la matière - en charge du calcul intensif et de l’informatique
(cEa/dsM), et Jacques david, coordinateur pRacE/GENci/Hpc pour la direction de l’énergie nucléaire (cEa/dEN). représentant
le Cnrs : Michel daYdé, délégué scientifique de l’institut national des sciences informatiques et de leurs interactions (cNRs/iNs2i)
en charge des grilles de calcul et du Hpc, et serge FaYoLLE, directeur de l’idRis. représentant les universités : Francis daUMas,
directeur du ciNEs. représentant l’InrIA : thierry pRioL, directeur scientifique adjoint auprès de la direction de la recherche et
de la direction des partenariats européens - en charge du domaine « Réseaux, systèmes et services, calcul distribué », et Jean
RoMaN, responsable de l’équipe Hiepacs - iNRia Bordeaux-sud ouest.
équiPe
sous la conduite de catherine Rivière, GENci dispose d’une équipe de neuf personnes.
Catherine rIvIèrE
pdG
Alain lIChnEwsky
Responsable scientifique
stéphane rEquEnA
Responsable technique
laetitia BAudIn
responsable communication
Edouard BrunEl
Responsable juridique
Catherine lE louArn
Responsable des opérations
virginie mAhdI
Responsable de projets
maïté CAmpEAs
Assistante
fabien CAdEt
développement du daRi au ciNEs
ChiffRes clés
Le financement de GENci est principalement assuré par la
contribution de ses membres, à hauteur de leur participation
dans la société civile. a cette contribution, s’ajoutent des allocations de budget attribuées à GENci au titre de son implication dans différents projets européens (pRacE, Hpc
Europa).
pour l’année 2010, le budget de GENci s’est élevé à 29 millions
d’euros (voir répartition ci-contre).
L’installation puis l’exploitation du supercalculateur cURiE, implanté au très Grand centre de calcul du cEa (tGGc) à
Bruyères-le-châtel, est le principal investissement engagé par
GENci en 2010.
RappoRt d’activités GENci 2010 - 7
L
es performances des supercalculateurs actuels, capables d’effectuer des milliards d’opérations en une seule seconde, permettent aux scientifiques d’aborder des phénomènes de plus en plus complexes pour apporter des réponses
concrètes à des problèmes cruciaux du point de vue économique ou sociétal.
énergie, le rêve d’Icare
© dR
Disposer d’une énergie « sûre », propre et abondante. Parmi les
voies explorées, celle de la fusion, thermonucléaire ou inertielle, qui
permettrait de reproduire sur Terre ce qui se passe au coeur du So© itER
leil. Ces recherches concernent à la fois la maîtrise
des phénomènes en jeu et le design des futures
installations. Elles nécessitent un investissement
en modélisation et en simulation avant le passage
à l’échelle expérimentale puis pré-industrielle.
terre, l’avenir de la planète
© EsMa
Sauvegarder la planète en prenant les bonnes décisions. Comme l’actualité
récente l’a montré, modéliser avec la plus grande précision possible la propagation des ondes sismiques dans une région, un pays ou un continent
durant un tremblement de terre est un enjeu scientifique d’envergure, notamment pour progresser vers la prédiction des tremblements de terre et
de leurs répliques. De même, en climatologie pour connaître avec le plus
© cEa
de réalisme possible le passé de notre climat,
les conditions actuelles et son évolution.
santé, la voie du virtuel
© Mps
Mieux connaître le fonctionnement du corps humain. C’est une
quête universelle depuis, au moins, Ambroise Paré, le chirurgien
d’Henri II qui inventa la ligature des vaisseaux sanguins sur les
champs de bataille.Aujourd’hui, tester les « bonnes » thérapies par
© icMG
la modélisation et la simulation, par exemple de
nouvelles molécules-médicaments ciblées sur un
type d’affection, permet de réduire l’exploration
invasive et l’expérimentation in vivo.
industrie, la quête du durable
© ld-conseil
8- RappoRt d’activités GENci 2010
Améliorer les rendements en préservant l’environnement. Réduire l’impact
des activités industrielles sur l’environnement est une préoccupation à laquelle contribue pleinement la recherche académique française. Par exem© cERFacs
ple, en cherchant à améliorer les performances des
systèmes de combustion (brûleurs de fours industriels,
turbines) pour diminuer la consommation d’hydrocarbures et l’émission de CO2 et limiter les émissions polluantes (oxydes d’azote).
Calculer,
le propre de l’homme
depuis l’antiquité, l’homme n’a cessé d’inventer de nouvelles façons de calculer… pour compter des objets, des
hommes ou des animaux, faire du commerce, voyager,
comprendre le monde qui l’entoure ou encore anticiper
ou évaluer les risques.
développés dès la fin des années 30, les supercalculateurs
sont la dernière concrétisation de cette quête d’outils toujours plus performants. Leur puissance de calcul, à la fois
en termes de vitesse d’exécution et de volume de données traitées, est si grande qu’elle permet de réaliser, en
une seule journée, une tâche qu’un ordinateur de bureau mettrait au moins 150
ans à accomplir.
d’où le terme de calcul intensif qui
désigne, également, par extension, la science développée autour de ces équipements
(matériels, logiciels etc.).
aujourd’hui, la simulation numérique
par le calcul intensif est devenue une
démarche essentielle de la recherche,
en complément de
la théorie et de l’expérimentation.
Elle permet de remplacer les
expériences qui ne peuvent pas
être menées en laboratoire, surtout quand elles sont dangereuses
(simulation d’un incident industriel),
coûteuses (design d’avion, crash test), de longue durée
(climatologie) ou encore inaccessibles à l’échelle humaine
(astrophysique).
Le calcul intensif est aujourd’hui utilisé dans de très nombreux domaines académiques et industriels : l’environnement et le climat (prévision météorologique),
l’automobile (crash-tests), l’aéronautique et le
spatial (dimensionnement de différents
composants), la chimie, la médecine et
la biologie (conception de médicaments), les matériaux (usure, échauffement, résistance), l’énergie (prospection
pétrolière), la finance (évaluation de produits complexes), le multimédia (cinéma en
relief)…
dans le domaine du calcul intensif, on utilise le flop/s (FLoating point operations per second ou opération flottante à la seconde)
comme unité de mesure de la puissance des supercalculateurs. Les supercalculateurs actuels délivrent quelques centaines de teraflop/s, comme JadE à Montpellier et les plus récents ont été conçus pour atteindre le petaflop/s comme la machine cURiE fin
2011. La prochaine génération de supercalculateurs, attendue dans moins d’une dizaine d’années, atteindra l’exaflop/s.
1018
1 milliard de milliards d’opérations par seconde (EXAflop/s)
Puissance de calcul permettant d’aborder la modélisation du cerveau humain dans son ensemble
1015
1 million de milliards d’opérations par seconde (pEtAflop/s)
Puissance de calcul qui serait obtenue en faisant effectuer à l’ensemble de l’humanité une opération par seconde sur deux jours
1012
1000 milliards d’opérations par seconde (tErAflop/s)
Puissance de calcul équivalente à la quantité de jonctions entre les neurones du cerveau humain
109
1 milliard d’opérations par seconde (GIGAflop/s)
Puissance de calcul utilisée pour aborder la dynamique des fluides
106
1 million d’opérations par seconde (mEGAflop/s)
Puissance de calcul des 1ers « gros » calculateurs
102
100 opérations par seconde
Plus rapide que la puissance de perception des animaux
101
10 opérations par seconde
Plus rapide que la puissance de perception du cerveau humain
RappoRt d’activités GENci 2010 - 9
maître d’ouvrage
de la stratégie académique française en calcul intensif
La stratégie pluriannuelle d’équipement de GENCI a permis d’augmenter significativement la puissance de calcul disponible pour la communauté scientifique française.
porteur de la politique française dans le domaine du calcul intensif pour la recherche académique, GENci
assure la fonction de maîtrise d’ouvrage pour les moyens nationaux de calcul intensif, répartis dans trois
centres (ccRt du cEa, ciNEs pour l’enseignement supérieur et idRis du cNRs) qui ont un rôle de maîtrise
d’œuvre des équipements (voir pages 14, 16 et 18).
En 2010, la stratégie pluriannuelle d’équipement de GENci a permis de porter à 600 teraflop/s la puissance
de calcul mise à la disposition de la communauté scientifique française. ce gain, d’un facteur 30 en quatre
ans, s’est notamment concrétisé en 2010 par la mise en œuvre de l’extension de la machine JadE au ciNEs
(voir page 17).
par ailleurs, en fin d’année, l’installation du supercalculateur pétaflopique cURiE, acquis par GENci, a débuté
au très Grand centre de calcul du cEa (tGcc) à Bruyères-le-châtel (voir page 15).
pRès De 405 milliOns D’heuRes ATTRibuées
2010 est la deuxième année de mise en œuvre de la
procédure unifiée d’attribution des heures de calcul
sur les moyens nationaux.
au total, 634 dossiers avaient été déposés (un nombre en hausse de 11,4 % par rapport à 2009), dont
185 bénéficiant d’un soutien de l’agence nationale
de la recherche (aNR), soit près d’un tiers des dossiers (voir page suivante).
Lors des deux sessions de la campagne 2010, organisées en janvier et en juillet, près de 405 millions
d’heures (Mh) ont été globalement attribuées à 619
projets de recherche.
Leur répartition globale par comités thématiques
tend à s’équilibrer. ainsi les moyens de calcul nationaux ont-ils une vocation pluridisciplinaire qui bénéficie à l’ensemble des communautés scientifiques.
© GENci
La campagne 2010 s’est également caractérisée par
la forte augmentation du nombre de dossiers déposés auprès de trois comités thématiques : « Mécanique des fluides, fluides réactifs, fluides complexes »
(ct2, + 35 %), « simulation biomédicale et application à la santé » (ct3, + 50 %) et « systèmes moléculaires et biologie » (ct7, + 14 %).
répartition des dossiers par comités thématiques
1 - ENviRoNNEMENt / 2 - MEcaNiQUE dEs FLUidEs, FLUidEs REactiFs, FLUidEs coMpLEXEs
3 - siMULatioN BioMEdicaLE Et appLicatioN a La saNtE / 4 - astRopHYsiQUE Et GEopHYsiQUE
5 - pHYsiQUE tHEoRiQUE Et pHYsiQUE dEs pLasMas / 6 - iNFoRMatiQUE, aLGoRitHMiQUE Et
MatHEMatiQUEs / 7 - sYstEMEs MoLEcULaiREs oRGaNisEs Et BioLoGiE / 8 - cHiMiE QUaNtiQUE Et ModELisatioN MoLEcULaiRE / 9 - pHYsiQUE, cHiMiE Et pRopRiEtEs dEs MatERiaUX
10 - NoUvELLEs appLicatioNs Et appLicatioNs tRaNsvERsaLEs dU caLcUL
10- RappoRt d’activités GENci 2010
< 100 000 heures
Entre 100 000 et 1 million d’heures
Entre 5 et 10 millions d’heures
> 10 millions d’heures
dEs rEssourCEs plEInEmEnt utIlIséEs
sur l’année, les ressources de calcul sur machines généralistes ont augmenté de 35 % par rapport à l’année précédente.
À cela, trois raisons :
- l’extension de JadE (au ciNEs) a permis la mise à
disposition de 40 millions d’heures supplémentaires
pour la deuxième session de la campagne 2010 ;
- la mise à disposition de l’intégralité de la machine titaNE du cEa/ccRt, soit 41 millions
d’heures ;
- l’attribution des heures sur MERcURE et pLatiNE du
cEa/ccRt sur l’ensemble de l’année et non jusqu’à la
fin mars 2010 comme initialement prévu.
tous centres confondus, les porteurs de projets bénéficant d’allocations d’heures viennent majoritairement de sept régions françaises : Rhône-alpes (33 %),
ile-de-France (26 %), provence-alpes-côte d’azur (23
%), Midi-pyrénées (7 %), Haute-Normandie, aquitaine et Nord pas-de-calais (3 % chacun).
répartition des heures de calcul accordées par
région d’appartenance des porteurs de projets
en 2010
© MGM (Gs)
répartition thématique des dossiers bénéficiant
d’un soutien de l’Anr
Multi-thématiques : programmes chaire exc, Jc, blanc, cEp / sciences de la vie : programmes pcv, Genveg, techsan, cEs / Materiaux - Nano : programmes pNaNo,
Matepro / Bio Energies : programmes pNRB, co2, pREccod,capco2 / Hpc - it : programmes aRpEGE, cosiNUs, p3N, tLoG, Réseau du futur, EMER défis / chimie
: programmes cp2d, csd3 / climatologie : programmes vulnérabilité, vMcs, tERvicLiM, telluriques, Flowing / transports : programmes pREdit, vtt, siGLE / astrophysique : programme MaGNEt
RappoRt d’activités GENci 2010 - 11
En 2010, sur l’ensemble des heures attribuées, 44 projets
scientifiques (7 % des
projets retenus) se
distinguent avec des allocations supérieures à un million d’heures, et
jusqu’à dix millions, sur les supercalculateurs JadE
(ciNEs, 21 projets), BaBEL (cNRs/idRis, 12 projets)
et titaNE (cEa/ccRt, 11 projets). unE ConsommAtIon équIlIBréE
ces projets, gros consommateurs d’heures de calcul,
concernent globalement quatre thématiques de recherche : la chromodynamique quantique (Qcd ou
étude des interactions entre les constituants primaires du noyau de l’atome) et la fusion (ct5 - physique théorique et physique des plasmas), les
phénomènes de combustion (ct2 - Mécanique des
fluides, fluides réactifs, fluides complexes) et l’astrophysique (ct4 - astrophysique et géophysique).
renforcé (voir page suivante).
unE très BonnE dIsponIBIlIté
Globalement, sur l’année écoulée, l’ensemble des
heures allouées ont été consommées principalement
sur les supercalculateurs titaNE du cEa/ccRt, JadE
du ciNEs et BaBEL du cNRs/idRis.
tous ces supercalculateurs ont affiché, tout au long
de l’année 2010, un très bon taux de disponibilité,
permettant une utilisation soutenue y compris la nuit
et le week-end - et démontrant ainsi leur stabilité de
fonctionnement.
ces performances expliquent que leur taux de charge
global ait été important, en particulier pour le supercalculateur JadE du ciNEs (84 % de sa puissance disponible).
dEs pErspECtIvEs EnCourAGEAntEs
Une rapide analyse des 66 nouveaux dossiers dépoa contrario, 22 projets seulement (moins de 4 % de sés lors de la 2e session de la campagne 2010 montre
ceux qui ont été retenus en 2010) ont demandé et qu’une très grande partie des ressources a été attriobtenu moins de 5000 heures de calcul sur les ma- buée à des projets utilisant des logiciels de simulation
parallélisés.
chines JadE du ciNEs et titaNE du cEa/ccRt.
La majorité des projets scientifiques (553, soit 89 %
des projets retenus) ont reçu une allocation allant de
100 000 à un million d’heures.
cette répartition des allocations en heures de calcul
montre que la pyramide du calcul intensif a commencé à prendre tout son sens.
En particulier, le faible niveau de « petits » projets retenus sur les moyens de calcul nationaux démontre
que le rôle de relais que jouent les centres régionaux
et universitaires fonctionne bien et doit même être
La proportion de travaux exécutés sur plus de 1024
cœurs de calcul (11 %) laisse penser qu’ils pourront,
à court terme, bénéficier des moyens de calcul tier0
récemment mis en oeuvre par pRacE (voir page 20).
de même, la tranche 256-1024 cœurs (30 % des travaux) représente un vivier important de logiciels
aptes, à moyen terme, à migrer également sur les
moyens de calcul tier0, après d’éventuels efforts
d’optimisation ou de dimensionnement des jeux de
données.
Une partie de la machine BABEL de l’IDRIS, à Orsay © IDRIS
Equip@meso
Consolider l’écosystème du calcul intensif
Equip@meso figure parmi les 52 projets retenus dans le cadre de l’appel à
projets « Equipements d’excellence » dont les résultats ont été présentés
début 2011.
sur les 52 projets retenus, Equip@meso (Equipement d'excellence de calcul intensif de mésocentres
coordonnés - tremplin vers le calcul pétaflopique et
l'Exascale) fait partie des 12 qui ont obtenu plus de
10 M€, sa dotation s’élevant à 10,5 M€.
tres (représenté par l’observatoire de paris et l’Ecole
Normale supérieure), l’Université pierre et Marie
curie ainsi que la Maison de la simulation portée par
le cEa (avec le concours du cerfacs et du GdR calcul
du cNRs).
Equip@meso poursuit quatre objectifs :
• développer au niveau régional la stratégie nationale portée par GENci en matière de calcul intensif,
avec des centres de calcul universitaires ;
• renforcer les compétences et les capacités de calcul
de ces centres ;
coordonné par GENci, ce projet rassemble les dix • offrir un service d’excellence et de proximité, qu’il
partenaires universitaires et académiques suivants : s’agisse de formation, d’éducation ou de calcul, comle centre de ressources informatiques de Haute-Nor- plémentaire des moyens nationaux ;
mandie (cRiHaN), le pREs Université de toulouse, • enfin, démultiplier localement l’initiative lancée par
l’Université d’aix-Marseille i, l’Université claude Ber- GENci avec l’iNRia et osEo pour doper l’innovation
nard Lyon i, l’Université Joseph-Fourier Grenoble i, et la compétitivité des pME.
l’Université de strasbourg, l’Université de Reims
Moyens actuels du CALMIP à Toulouse
champagne-ardenne, le pREs paris sciences et Let© D. Grenouillet UPS-Scom
il associe des acteurs nationaux et régionaux pour
faire, partout en France et chaque fois que possible,
du calcul intensif et de la simulation numérique un
vecteur de développement scientifique et économique.
chaque partenaire :
- dispose d’un financement pour un équipement de calcul ;
- gère son système d’attribution d’heures ;
- accueille des hôtes externes à sa communauté, dans les limites prévues ;
- est garant de la qualité scientifique des travaux ;
- forme ses étudiants et chercheurs ;
- promeut auprès des équipes l’utilisation des calculateurs
nationaux ou pRacE ;
- établit les partenariats industriels locaux et relaie l’intiative Hpc-pME (GENci/iNRia/osEo).
Moyens actuels de l’Université de Reims
Champagne-Ardenne (DR))
Moyens actuels
Locaux de l’Université de Strasbourg (DR))
du CRIHAN
Locaux de la Maison de la
(DR))
Simulation (DR))
RappoRt d’activités GENci 2010 - 13
vu du CCrt
parole de maîtrise d’œuvre
Le Centre de calcul recherche et technologie (CCRT) est une des composantes
du complexe de calcul scientifique du CEA, situé à Bruyères-le-Châtel et qui
comprend aussi le TGCC où CURIE - acquis par GENCI - a été installé fin 2010.
l
a mission du centre de calcul recherche et technologie
(ccRt) est double. En tant que tier1 français, il contribue à la mise en œuvre des moyens de calculs nationaux
pour la recherche. En tant que centre de calcul ouvert à
des partenariats industriels, il favorise les échanges et les
collaborations entre le monde de la recherche académique et celui de l’industrie dans le domaine de la simulation numérique haute performance.
En 2010, l’ineris (institut national de l’environnement industriel et des risques) et areva, numéro un mondial du
nucléaire, ont rejoint EdF, snecma, turbomeca, techspaceaero, Eads/astrium en tant que partenaires industriels
du ccRt.
près des données, complète les services proposés aux utilisateurs pour la gestion de leurs données.
pour EXploItEr lE CCrt, unE équIpE d’unE quInzAInE dE
pErsonnEs AssurE lA hotlInE, l’AdmInIstrAtIon Et l’AssIstAnCE ApplICAtIvE. Un responsable opérationnel et un responsable du support applicatif pilotent ces prestations.
d’autre part, le ccRt s’appuie sur des experts cEa du domaine du Hpc (une cinquantaine de personnes), mutualisés au niveau du complexe de calcul, qui définissent les
évolutions des centres de calcul, participent à la R&d de
certains sous-ensembles et travaillent à l’optimisation de
la consommation énergétique.
lE CCrt proposE dIfférEntEs ArChItECturEs dE CAlCulAtEurs, pArAllèlEs, vECtorIEls Et hyBrIdEs, AfIn dE répondrE
AuX BEsoIns dE sEs 2500 utIlIsAtEurs. sA puIssAnCE dE CAlCul GloBAlE dépAssE, En 2010, lEs 380 tErAflop/s.
Le ccRt dispose notamment d’un calculateur hybride
BULL, nommé tItAnE et financé par GENci, comprenant
1068 nœuds de calculs généralistes à base de processeurs
intel Xeon/Nehalem (103 tflops), dont 96 sont équipés
d’accélérateurs GpU Nvidia (192 tflops sp). L’utilisation de
la partie hybride de ce calculateur était encore exploratoire en 2009 mais devient de plus en plus régulière à travers les appels à projets daRi. En effet, la demande pour
2011 est deux fois plus importante que les ressources GpU
disponibles.
La plateforme vectorielle nEC-sX9 (4,8 tflops) est entièrement dédiée à la communauté du climat pour permettre à la France de tenir ses engagements dans le projet
GiEc. afin d’héberger l’ensemble des résultats produits
par ces simulations, il a fallu augmenter la capacité de
stockage du ccRt. Le « déluge de données », produit par
les simulations d’aujourd’hui, met en avant l’enjeu du dimensionnement et de l’optimisation de l’architecture de
stockage des données dans un centre de calcul haute performance. Un cluster de dépouillement, installé au plus
Vue générale de TITANE
© CEA
L’équipe du CCRT
devant TITANE © CEA
La sécurité des accès et la confidentialité des données
sont des composantes fondamentales pour le ccRt.
Un système de supervision de la sécurité surveille en
temps réel l’état des systèmes et une équipe d’experts en
sécurité informatique permet d’anticiper les alertes et
d’apporter des solutions rapides et efficaces. ceci a permis
de garder le centre opérationnel, lors de la découverte de
deux failles de sécurité détectées successivement dans le
système Linux en 2010.
ConCErnAnt l’AnImAtIon sCIEntIfIquE, lA 7E édItIon dEs
journéEs sCIEntIfIquEs CCrt s’Est dérouléE lE 5 déCEmBrE
2010, à Bruyères-le-châtel, sur le thème « simulation et
innovation ». plus de 130 participants ont échangé sur les
apports de la simulation numérique au sein des entreprises, partenaires industriels et académiques du ccRt.
CurIE
Booster de recherche
C
e nouvel investissement dans le domaine du calcul intensif est
un outil stratégique de compétitivité pour les Etats et les entreprises,
et un instrument incontournable pour la recherche ».
ainsi s’exprimait valérie pécresse, ministre de l’enseignement supérieur et de la recherche, le 25 octobre
2010, à propos de cURiE lors de l’inauguration du
très Grand centre de calcul du cEa (tGcc) où est installé et opéré le supercalculateur.
bre 2010 pour une allocation d’une année d’heures
de calcul à compter du 1er mai 2011. cURiE est accessible aux chercheurs de toute l’Europe sur la base de
l’excellence scientifique de leurs travaux, depuis le 1er
janvier 2011 (voir page 20).
acquis par GENci et conçu par Bull, cURiE est le
deuxième supercalculateur pétaflopique installé en
Europe. il atteindra, fin 2011, une puissance totale
de plus de 1,6 petaflop/s.
Les performances de cURiE permettront à la communauté scientifique française et européenne de disposer d’un outil de pointe pour mener leurs travaux à
beaucoup plus grande échelle, avec une précision
beaucoup plus grande et dans tous les domaines
scientifiques : physique des plasmas et des hautes
énergies, chimie et nanotechnologies, énergie et développement durable, climatologie et évaluation des
risques naturels, médecine et biologie...
Baptisé cURiE, en hommage à pierre et Marie curie
dont les travaux ont fondé une grande partie de la
science moderne, ce supercalculateur permet à la
France de confirmer son engagement dans pRacE
(partnership for advanced computing in Europe)
dont elle est un des membres fondateurs (voir page
19).
pour bénéficier des dernières opportunités technologiques qui seront disponibles en 2011, cURiE est
mis en service en deux phases. La première phase
s’est déroulée avec succès fin 2010 et a permis au supercalculateur de délivrer les 105 teraflop/s attendus.
Fin 2011, la seconde phase permettra à cURiE d’atteindre une puissance de plus de 1,6 petaflop/s.
il sera également possible de traiter de problèmes
qui, du fait de leur envergure et de leur complexité,
ne pouvaient être résolus auparavant ou en partie
seulement.
www-hpc.cea.fr/fr/complexe/tgcc-curie.htm
La première « tranche » de cURiE a été intégrée au
deuxième Regular call de pRacE, lancé le 1er novemle supercalculateur Bull bullx CurIE bénéficie d’une architecture généraliste et modulaire, intégrant différents types de
nœuds de calcul dont notamment 5040 lames dotées de la prochaine génération de processeurs Intel® Xeon®. Il disposera au
total de plus de 90 000 cœurs de calcul et sera couplé à un système d’entrées-sorties lui permettant de stocker plus de 10 Po
de données à un débit de 150 Go/s.
La prise en compte de l’impact sur l’environnement est aujourd’hui un élément important dans la conception d’un supercalculateur. CURIE, comme le TGCC, ont été optimisés pour
minimiser la consommation électrique, tout en délivrant une
puissance de calcul considérable.
Bernard Bigot, administrateur général du CEA,
et Catherine Rivière, PDG de GENCI, présentent
CURIE à Valérie Pécresse, ministre de l’enseignement supérieur et de la recherche, lors de
l’inauguration du TGCC. © CEA
vu du CInEs
parole de maîtrise d’œuvre
Le Centre informatique national de l’enseignement supérieur (CINES) est un
établissement public à caractère administratif national placé sous la tutelle
du Ministère chargé de l’enseignement supérieur et de la recherche.
l
e ciNEs propose des moyens exceptionnels à l’ensemble de la communauté scientifique dans les domaines
suivants : le calcul numérique intensif et l’archivage pérenne de données électroniques.
ces missions sont adossées à des infrastructures sécurisées de haut niveau (2,6 MW disponibles et extensibles à
8 MW), respectant les nouvelles exigences en termes de
puissance électrique et de capacité de climatisation, qui
permettent d’héberger des serveurs stratégiques pour la
communauté de l’enseignement supérieur et de la recherche.
Le ciNEs, c’est également une cinquantaine d’agents comportant des équipes techniques d’ingénieurs et techniciens experts qui assurent l’exploitation et l’utilisation
optimale des ressources ainsi que la formation, l’assistance et le support aux utilisateurs.
l’utilisation des machines ; et de participer aux projets nationaux et européens dans le domaine du Hpc.
Le ciNEs assure ainsi le développement et l’exploitation
dAns lE domAInE du CAlCul IntEnsIf, lE CInEs héBErGE dEs
équIpEmEnts dE poIntE dont lE supErCAlCulAtEur jAdE ACquIs pAr GEnCI Et quI fIGurE à CE jour pArmI lEs prEmIèrEs
mAChInEs EuropéEnnEs. Résultat d’une procédure de dia-
l’ArChIvAGE pérEnnE a pour but de permettre la conservation à long terme de l’information numérique, en particulier pour s’affranchir de l’obsolescence des supports
physiques et de leurs défauts, ainsi que de l’évolution
constante des formats et standards logiciels. il permet de
garantir la restitution dans le temps de tout document à
des fins de diffusion. c’est un élément essentiel de toute
politique de dématérialisation et de numérisation des informations.
Le service d’archivage du ciNEs, qui s’appuie sur la plateforme opérationnelle pac, a reçu l’agrément des archives
de France. il permet d’adresser tout type de données numériques qu’elles soient scientifiques (issues d’observations ou de calculs), patrimoniales (revues, manuscrits...)
ou administratives. Une équipe dédiée a été constituée
incluant une archiviste, chargée de couvrir les aspects organisationnels (définition et expertise des processus métiers et des méthodes) et culturels (renforcement des
collaborations entre informaticiens, archivistes et bibliothécaires), en plus de l’aspect technique.
Le ciNEs est le centre officiel d’archivage des thèses électroniques, des revues en sciences humaines et sociales du
portail persée, des données du centre de Recherche pour
les données orales (cRdo), des archives ouvertes HaL etc.
il est impliqué dans le projet GEosUd, labellisé « équipements d’excellence », et dans le projet européen EUdat.
logue compétitif menée par GENci, ce supercalculateur
parallèle sGi icE 8200 EX, conçu par la société silicon Graphics inc. est hébergé au ciNEs depuis juillet 2008. Grâce
à une extension de la configuration réalisée en 2010, ce
système offre une puissance crête de 267 tflops (voir page
suivante).
a côté de ce très grand équipement, le ciNEs propose différentes ressources de calcul complémentaires de moindre puissance (iBM-power7 et BullX) mais donnant accès
à des technologies de pointe qui peuvent être utilisés
pour une grande variété de problèmes ainsi qu’à des services de pré-post traitement, notamment de visualisation
de résultats de simulations.
La puissance de calcul mise à disposition de la recherche
par le ciNEs permet d’adresser de grands défis scientifiques. Elle offre l’opportunité d’effectuer des simulations
jusque là inaccessibles. La dernière campagne de
« Grands challenges », réalisée en 2010 sur JadE, a notamment donné lieu à un dépôt de brevet par l’entreprise
véolia. Le département calcul intensif du ciNEs a pour
mission de former, conseiller et aider les chercheurs à utiliser les environnements de calcul ; de gérer et d’optimiser
16 - RappoRt d’activités GENci 2010
Une partie de l’équipe calcul intensif © CINES
de l’application nationale daRi et de l’outil de peer review
européen pour le compte de l’organisation pRacE aisBL.
jAdE
A pleine puissance
Le supercalculateur JADE du CINES a bénéficié en 2010 d’une « extension »
de 120 teraflop/s, qui porte à 267 teraflop/s sa puissance crête totale. Une
campagne de « Grands Challenges » a permis de vérifier ses performances.
acquis par GENci et installé au ciNEs à l’été 2008, le
supercalculateur JadE fourni par la société sGi a bénéficié en 2010 d’une extension de 120 teraflop/s de
sa puissance de calcul. La mise en production de
cette « tranche supplémentaire » lui permet désormais d’atteindre une puissance de 267 teraflop/s.
pour vérifier les performances de la « nouvelle »
JadE dans des conditions proches de celles de la production, une vingtaine d’équipes scientifiques ont été
invitées à utiliser ses ressources de calcul - parfois sur
la machine entière - en réalisant des simulations de
très grande taille : ce sont les « Grands challenges ».
une cAmPAgne De GRAnDs ChAllenges
organisés de mars à fin juin 2010, ces « Grands challenges » ont bénéficié du soutien des équipes de support du ciNEs et des experts de sGi, mobilisés pour
résoudre les problèmes éventuellement rencontrés
et optimiser les logiciels de simulation.
Un supercalculateur comme JadE, ce sont quelques
milliers de serveurs (ou nœuds de calcul), composés
de dizaines d’unités de calcul et reliés entres eux par
des réseaux à très haut débit. La mise en route de ce
type d’équipement s’avère toujours complexe et nécessite de s’assurer de son bon fonctionnement mais
également de valider l’ensemble des éléments matériels et logiciels qui le composent.
ils ont permis aux scientifiques de réaliser des simulations numériques des domaines aussi variés que la
fusion par confinement, la modélisation moléculaire
appliquée à la médecine ou à la biologie, le stockage
du co2, l’astrophysique, l’environnement ou encore
l’étude du climat…
après cette campagne qui a démontré ses performances remarquables, la « nouvelle » JadE a été
mise en production le 1er juillet 2010 dans le cadre
de la campagne unifiée d’attribution des heures de
calcul sur les moyens nationaux.
Les résultats scientifiques obtenus durant cette campagne de « Grands challenges » ont été présentés au
ciNEs, le 1er octobre 2010.
Modélisation, à l’échelle moléculaire, de la déformation d’une vési-
www.cines.fr
cule sous l’effet de champs électriques © M. Tarek
le cluster sGI Altix ICE 8200, jAdE, est un supercalculateur scalaire parallèle d’une puissance crête de 267 Tflop/s.
Conçu sur la base de nœuds de calcul à mémoire partagée interconnectés par un réseau InfiniBand, il est composé de 23040
cœurs Intel Xeon™ dotés chacun de 4 Go de mémoire. Une capacité de stockage local de 700 To permet d’effectuer des accès
rapides (15 Go/s) aux données gérées par le système de fichier
parallèle « Lustre ».
Il est complété par une machine hybride de 256 cœurs couplés
à des GPU.
Le supercalculateur JADE © CINES
vu de l’IdrIs
parole de maîtrise d’œuvre
L’Institut du développement et des ressources en informatique scientifique
(IDRIS), situé à Orsay, est le centre majeur du Centre national de la recherche
scientifique (CNRS) pour le calcul numérique de haute performance.
l
’idRis permet à environ 1000 utilisateurs, travaillant
sur 400 projets émanant de quasiment toutes les disciplines scientifiques, d’accéder à ses ressources informatiques qui comprennent, en 2010, les supercalculateurs
suivants :
• vArGAs, machine IBm de type smp à nœuds larges de
112 fois 32 processeurs power 6, pour une configuration
totale de 3584 processeurs et environ 17,5 to de mémoire
globale, délivrant une puissance crête cumulée de 67
tflop/s ;
• BABEl, machine IBm de type BlueGene/p de 10240
processeurs quadri-cœurs, soit en tout 40960 cœurs,
avec environ 20 to de mémoire globale, pour une puissance de crête cumulée de 139 tflop/s ;
• BrodIE, machine vectorielle nEC sX-8 de 10 nœuds de
8 processeurs vectoriels, soit au total 80 processeurs délivrant une puissance de crête cumulée de 1,3 tflop/s.
Fin 2010, le personnel de l’idRis se compose de 38 personnes, réparties de la manière suivante : quatorze dans
l’équipe système-exploitation ; treize dans l’équipe de support aux utilisateurs ; trois dans l’équipe réseaux ; deux
dans l’équipe de communication externe ; un responsable
de la sécurité des systèmes d’information ; trois dans le
groupe administratif et deux pour la direction.
l’AnnéE 2010 A été unE AnnéE d’EXploItAtIon dE l’ACtuEl
pArC dE mAChInEs, InstAllé En 2006 pour CE quI ConCErnE
lA mAChInE vECtorIEllE nEC Et En 2008 pour CE quI Est
dEs dEuX mAChInEs IBm, sAns InstAllAtIon dE nouvEAuX
CAlCulAtEurs. toutefois, les périphériques de stockage de
second niveau, sur cartouches magnétiques, ont été renouvelés avec le remplacement des anciens matériels par
un nouveau robot storagetek permettant l’utilisation automatisée de 5000 cartouches, pour une capacité totale
de stockage comprise entre 5 et 7,5 po selon le type de
cartouches employé.
CommE Il l’A toujours fAIt dEpuIs sA CréAtIon, l’IdrIs A
ContInué dE proposEr un proGrAmmE très soutEnu dE formAtIon à dEstInAtIon dE sEs utIlIsAtEurs, Et Au-dElà. Les
sessions de formation qu’il propose sont ouvertes non
seulement à l’ensemble du monde académique, utilisateur ou non de ses ressources informatiques, mais également à des représentants du monde industriel. ce sont
dix-sept sessions de deux à cinq journées chacune qui ont
été organisées par l’idRis dans ses locaux d’orsay, sessions consacrées notamment à Mpi, openMp, Fortran 95
et Fortran 2003. En 2010, deux nouvelles formations ont,
par ailleurs, été mises en place : un cours dévolu à la programmation hybride Mpi/openMp et une série de 4 modules complémentaires consacrés à la programmation
objet en c++.
lA fortE ImplICAtIon dE l’IdrIs dAns lEs projEts EuropéEns
du domAInE du CAlCul dE hAutE pErformAnCE s’Est poursuIvIE En
2010. Elle concerne en premier lieu le projet
dEisa2, alors à environ mi-parcours, où l’idRis est impliqué à la fois dans les activités d’exploitation des calculateurs - via les services communs déployés à l’échelle
européenne par tous les partenaires - dans les activités
de support utilisateurs dont l’idRis assume la responsabilité dans le projet depuis 2004 ainsi que dans le support
applicatif des projets dEci (dEisa Extreme computing initiative).
parallèlement, l’idRis s’est impliqué durant cette année
dans le projet pRacE-pp qui s’est terminé à l’été 2010 puis dans le projet
pRacE-1ip qui lui a succédé, première phase de déploiement des services communs sur l’infrastructure
européenne répartie pRacE.
L’équipe de l’IDRIS, à Orsay, devant le supercalculateur VARGAS © IDRIS
Europe
le pari réussi de prACE
Avec l’engagement de GENCI, la France a confirmé son rôle dans l’organisation et la réalisation d’un espace européen du calcul intensif pour la recherche, porté par PRACE.
au printemps 2010, l’entité légale
- qui porte l’infrastructure européenne distribuée de ressources
en calcul intensif pRacE (partnership for advanced computing in
Europe) - a été créée sous la forme d’une association
internationale à but non lucratif de droit belge
(aisBL). son objectif est de mettre à disposition de la
communauté scientifique européenne de 4 à 5 systèmes pétaflopiques (dits tier-0), c'est-à-dire visant
la compétitivité mondiale au-delà de la capacité offerte par les installations nationales (dites tier-1).
pour en bénéficier, les chercheurs doivent présenter
un projet de recherche effectué en collaboration avec
un laboratoire hôte et nécessitant des ressources en
calcul. Les projets sont évalués sur critères scientifiques et techniques par un panel unique d’experts
européens (voir page 28 l’interview de Richard Kenway, chairman du scientific steering committee de
pRacE).
pour soutenir le développement des activités opérationnelles de l’infrastructure de recherche pRacE, le
projet pRacE 1-ip (pRacE - First implementation
phase) a officiellement été lancé, le 1er juillet 2010. il
La pRacE aisBL - dont le siège est à Bruxelles - com- fait suite au projet pRacE-pp (pRacE preparatory
prend aujourd’hui vingt membres qui représentent phase) qui avait notamment permis, entre 2008 et
les pays suivants : l’allemagne, l’autriche, la Bulgarie, 2010, de définir les contours de la future pRacE
chypre, l’Espagne, la Finlande, la France, la Grèce, aisBL.
irlande, italie, Norvège, les paysd’une durée de deux ans (2010-2012), pRacE-1ip béBas, la pologne, le portugal, la
néficie d’un financement de la commission euroserbie, la République tchèque,
péenne d’un montant de 20 M€, dans le cadre du
le Royaume-Uni, la
programme « infrastructures » du 7ème pcRd. pRacEsuède, la suisse et
1ip sera suivi par le projet pRacE 2-ip (pRacE second
la turquie. La
implementation phase) qui a été présenté à la comFrance y est
mission européenne début 2011. pRacE 2-ip a pour
naturellement
objectifs à la fois de renforcer le soutien opérationnel
représenà la pRacE aisBL, notamment sur les aspects applitée par
catifs et de prototypage (prospective technologique),
GENci.
et d’intégrer, sous l’égide de pRacE, les activités
d’échanges entre tier-1 (projet dEisa).
Réunion de lancement de
En 2010, l’allemagne et la France qui ont avec l’Espagne et l’italie le
statut de membre hébergeur d’un
système tier-0 - ont concrétisé leur
engagement, en mettant à disposition les deux premières machines
tier-0 de pRacE : JUGENE à Jülich
en allemagne et cURiE à Bruyèresle-châtel en France (voir page suivante).
PRACE 1-IP à Garching en
Allemagne, les 30 et 31 août
2010 ©PRACE
prACE
Grandeur nature
Les deux premiers Tier-0 de PRACE ont été mis à disposition de la communauté scientifique européenne, dont
CURIE acquis par GENCI et opéré par le CEA.
c’est en juillet 2010 que JUGENE installée à Jülich en
allemagne a été officiellement mise à disposition de
pRacE. première machine tier-0 de l’infrastructure
de recherche, JUGENE est ouverte à hauteur de 30 %
dans le cadre de pRacE. Fin 2010, c’était au tour du
supercalculateur cURiE, installé au très Grand centre
de calcul (tGcc) à Bruyères-le-châtel, d’intégrer l’offre de pRacE à hauteur de 80 %.
En 2010, pRacE a mené trois appels à projets ; le premier dit Early access call au printemps pour tester
les performances de JUGENE et les deux suivants dits
Regular calls à l’été (voir témoignage page suivante)
et l’automne pour des allocations d’heures de calcul
d’une année. cURiE a été intégré au second de ces
Regular calls, ouvert le 1er novembre 2010 et clôturé
le 11 janvier 2011 pour des attributions d’une durée
d’un an, à compter du 1er mai 2011.
a partir de 2011, pRacE organisera deux Regular
calls par an. La sélection des projets est réalisée sous
l’autorité du comité scientifique de pRacE (scientific
steering committee) via un système unique, de revue
par les pairs (peer review), qui permet d’allouer les
ressources de calcul sur la base de l’excellence scientifique des projets présentés. Grâce aux compétences qu’il a développées pour mettre en place en
France un processus unifié d’attribution des heures
de calcul, le ciNEs s’est activement impliqué dans la
conception et la mise en place de l’outil.
parallèlement, pRacE propose tout au long de l’année des preparatory access calls : ces appels continus permettent aux scientifiques qui le souhaitent de
tester ou d’améliorer la scalabilité de leurs codes.
L’accès aux machines tier0 de pRacE se fait pour une
période courte afin de tester le passage à l’échelle
et/ou de (bien) préparer une demande d’allocation.
Les projets sont soumis à une évaluation technique
et peuvent, lorsqu’ils sont retenus et si besoin, bénéficier d’un support applicatif.
www.prace-ri.eu
Une partie de l’équipe du CINES responsable du développement de
l’outil de peer-review européen (de gauche à droite) : Cédric Noukpo,
Tyra Van Holmen et Fabien Cadet. © CINES
prACE mODe D’emPlOi
Quelques recommandations pour s’assurer de la qualité de son dossier avant de candidater à un Regular call de pRacE :
 la demande étant largement supérieure au nombre de projets pouvant être accueillis, le panel de sélection est très exigeant
sur les dossiers. La qualité scientifique reste le critère fondamental mais une grande importance est également donnée à la qualité
technique et à la forme de la présentation de la demande ;
durant la période de démarrage et de croissance de l’infrastructure, il est possible que même d’excellents projets ne se voient
pas attribuer d’heures par manque de ressources disponibles. toutefois, cette situation devrait notablement s’améliorer d’ici la
fin de l’année 2011 ;
 lors de l’évaluation des dossiers, une très grande importance est donnée à la vérification du passage à l’échelle des codes sur
les systèmes tier0. des critères minima de scalabilité sont fixés pour chaque machine.
Besoin d’aide ?
prace-appels@genci.fr
20 - RappoRt d’activités GENci 2010
prACE
premiers pas
Jérémie BEC (Observatoire de la Côte d’Azur) est un des neuf
lauréats du First Regular Call de PRACE dont les résultats ont
été annoncés en novembre 2010.
quelles ont été vos motivations pour répondre au
first regular Call de prACE ?
En quelques mots, comment définiriez-vous le
« passage à l’échelle » pétaflopique ?
Nos recherches portent sur l'étude des interactions entre
particules, telles que de la poussière ou des gouttelettes,
suspendues dans un fluide maintenu en écoulement turbulent. Nous nous intéressons en particulier à la question,
encore ouverte, du rôle que jouent les fluctuations turbulentes dans le déclenchement des précipitations des
nuages chauds.
ce problème physique est très complexe et pour s'y attaquer numériquement, il faut effectuer des simulations directes à très haute résolution spatiale pendant des temps
longs. Le temps de calcul nécessaire à ces simulations
s'obtient plus difficilement dans le cadre des appels nationaux français.
Les supercalculateurs pétaflopiques ouvrent une nouvelle
ère de la recherche, celle de l'expérimentation dans un laboratoire virtuel. Jusqu'à récemment, pour l'étude des
écoulements turbulents, les objectifs des plus grosses simulations se limitaient à comprendre le comportement
d'un système idéalisé, en fonction d'un seul paramètre le nombre de Reynolds - directement relié à la résolution
spatiale.
aujourd'hui un nouveau cap a été franchi puisqu'on peut
simuler, de façon confortable, des écoulements ayant un
suffisamment grand nombre d'échelles actives pour être
désignés comme pleinement turbulents. il est donc possible de s'attaquer à de nouveaux défis en augmentant la
complexité des phénomènes physiques modélisés. ce rapprochement vers des situations de plus en plus réalistes
permettra à terme d'étudier systématiquement un système complexe en fonction des paramètres qui le caractérisent.
qu’attendiez-vous du passage sur juGEnE ?
La partie hydrodynamique du code avait déjà été en production sur des machines comme BaBEL et JUGENE. il
était donc déjà optimisé pour ce type d'architecture. il utilise notamment une décomposition, de type crayon, du
domaine spatial.
Le véritable défi consistait à y intégrer de façon efficace
une version parallèle d'un algorithme de détection de collisions pour la dynamique des particules. Notre choix a été
de distribuer les particules selon leur position spatiale
dans le domaine, c'est-à-dire sur le même processeur que
celui qui intègre le fluide. Notre objectif était de pouvoir
intégrer le fluide avec 20483 points de grille, plusieurs milliards de particules et sur plusieurs dizaines de temps de
retournement à grande échelle (soit plusieurs centaines
de milliers de pas de temps).
vos objectifs ont-ils été atteints ?
Nous avons consacré un certain temps à optimiser le code
et à mener différentes études préliminaires qui nous ont
permis de mieux cerner les paramètres les plus pertinents. depuis plus de trois mois, nous sommes en phase
d’intense production. Les temps d'exécution du code sont
proches de nos estimations et nous avons obtenu les résolutions spatiales et le nombre de
particules que nous envisagions de simuler.
Et quels enseignements tirez-vous de ce passage à
l’échelle pétaflopique ?
Le passage à l'échelle pétaflopique nécessite d'adapter
son code, voire parfois même de le repenser. d’abord, il
faut cerner, de façon précise, les gammes de paramètres
qu'il sera opportun de simuler : l'équipe doit pouvoir
mener ce travail préparatoire sur un serveur de calcul de
taille intermédiaire entre la machine de laboratoire et les
centres nationaux ou européens. À cet égard, le développement des mésocentres est un complément essentiel à
celui des moyens pétaflopiques.
Ensuite, il faut définir la stratégie d'analyse des résultats
de la simulation à mettre en oeuvre pour que sa partie la
plus gourmande en mémoire et temps de calcul s’exécute
en ligne. Les volumes de données résultant de l'utilisation
des machines pétaflopiques sont tels que leur post-traitement nécessite généralement des moyens comparables
à ceux utilisés pour la simulation elle-même.
Le supercalculateur JUGENE à Jülich © Jülich
Europe
des concrétisations positives
Toujours dans le cadre de son action au niveau européen, GENCI est partie
prenante de différents projets visant à promouvoir et développer le calcul
intensif pour la recherche en Europe.
l’Europe d’amplifier fortement sa participation, notamment avec un focus spécifique dans le domaine
depuis novembre 2008, date de la mise en oeuvre de des applications scientifiques.
son premier appel à candidatures (huit autres se sont
succédés depuis lors), hpC EuropA2 a permis au EEsi est piloté par EdF autour de 7 autres partenaires
ciNEs - partenaire du programme avec GENci- d’ac- contractuels : GENci pour la France, EpsRc (Grandecueillir une cinquantaine de jeunes chercheurs euro- Bretagne), Jülich (allemagne), Bsc (Espagne), ciNEca
péens venus s’aguerrir sur ses moyens de calcul (voir (italie), NWo (pays-Bas) et aRttic, une société frantémoignage ci-contre). physique et chimie sont les çaise spécialisée dans le management de projets eudisciplines les plus représentées parmi les postulants ropéens. EEsi s’appuie également sur 17 partenaires
qui sont en majorité des étudiants ou des post-doc- associés dont le cEa, l’iNRia, le cNRs, totaL, le cERFacs et l’association ter@tec, pour la France.
torants.
fAvorIsEr lEs éChAnGEs trAnsnAtIonAuX
officiellement démarré en janvier 2009 et financé
dans le cadre du 7e pcRd, Hpc-EURopa 2 vise à favoriser les échanges et les coopérations transnationales
entre les équipes de recherche en leur donnant accès
à sept centres de calcul intensif répartis dans toute
l’Europe : ciNEca en italie, Bsc en Espagne, HLRs en
allemagne, ciNEs en France, Epcc au Royaume-Uni,
csc en Finlande et saRa aux pays-Bas.
Hpc EURopa2 prend en charge l’accès aux ressources
de calcul intensif et à un service de support personnalisé mais également le financement des frais de
transport, de logement et de séjour des chercheurs.
L’activité d’EEsi est principalement axée autour de
huit groupes de travail qui, au sein de deux sous-projets (« applications grands challenges » et « technologies vers le calcul exaflopique »), ont commencé à
examiner les points suivants : état de l’art, besoins et
défis scientifiques et techniques ; impact économique, environnemental et sociétal ; forces et faiblesses de l’Europe et sources de compétitivité pour
l’Europe ; besoins en formation ; collaborations existantes et potentielles ; calendrier prévisionnel de réalisation, estimation des coûts, besoins en ressources
humaines ; besoin de prototypes de machines Exascale en Europe.
http://www.hpc-europa.org EEsi a invité quelque 120 experts scientifiques europrépArEr lE pAssAGE à l’EXAsCAlE
officiellement lancé le 1er juin 2010 pour 18 mois, financé par la commission européenne dans le cadre
du Fp7, l’European Exascale software Initiative
(EEsI) a pour objectif de définir une vision européenne et d’établir un agenda de recherche dans le
domaine des applications scientifiques et des logiciels système afin de tirer parti des architectures exaflopiques de calcul qui sont attendues pour la fin de
la décennie. EEsi est organisé en lien avec l’international Exascale software program (iEsp) et permet à
22 - RappoRt d’activités GENci 2010
péens, issus de 14 pays différents, académiques et
industriels, à participer à ses travaux dont les résultats seront présentés lors d’une conférence internationale, organisée à Barcelone en Espagne, les 10 et
11 octobre 2011.
pilote du sous-projet « applications grands challenges », GENci organisera, en juin 2011 à paris, avec
l’aide de l’association ter@tec, un meeting interne
EEsi. par ailleurs, des représentants des associés de
GENci sont activement impliqués dans les groupes
de travail d’EEsi.
http://www.eesi-project.eu
hpC EuropA2
l’Europe des jeunes chercheurs
Jeune doctorant allemand, Volker Haiger a passé 3 mois en
France dont quelques semaines au CINES à Montpellier, dans
le cadre du projet européen HPC Europa2.
volker Haiger est
doctorant au German Research centre for Geosciences à
potsdam, en allemagne. Le groupe de
recherche auquel il
est intégré met en
oeuvre la simulation
numérique par le
calcul intensif pour
étudier la structure
DR
atomique et les propriétés thermodynamiques de certains matériaux comme les minerais,
les sels fondus et les fluides aqueux, dans le domaine
des sciences de la terre.
dans le cadre du programme Hpc Europa 2, il a séjourné en France, d’octobre à décembre 2010, pour
travailler avec Mathieu salanne, de l’Université pierre
et Marie curie (paris vi). La dotation de Hpc Europa2,
dont il a bénéficié, incluait du temps de calcul sur le
supercalculateur JadE du ciNEs, où il a passé
quelques semaines en octobre dernier.
qu’attendiez-vous de votre passage au CInEs ?
Je souhaitais utiliser les ressources du ciNEs pour
faire de la dynamique moléculaire dite « first principle », appliquée aux silicates liquides [famille de minéraux dérivés de la silice] présents dans le manteau
terrestre. L’objectif était de pénétrer dans la structure
atomique de ces éléments pour développer un modèle simple qui décrive les interactions entre les
atomes.
quels résultats avez-vous obtenu ?
Nous avons décrit la structure de différents silicates
liquides, en nous intéressant plus particulièrement à
celle de l’yttrium [élément présent dans un certain
nombre de minéraux]. Nous avons ensuite utilisé ces
résultats pour paramétrer et valider un modèle d’interaction de paires pour les silicates.
sur la base de ce modèle, nous avons cherché à élucider les liens entre la structure de l’yttrium et la
composition des solutés.
pour finir, comment résumeriez-vous votre « expérience » au CInEs ?
J’ai apprécié d’avoir eu accès à des ressources de calcul de haut niveau avec un support utilisateur à
Comment avez-vous eu connaissance du pro- l’écoute et dans une atmosphère accueillante.
gramme hpC Europa2 ?
plus globalement, j’aimerais souligner cette caractésandro Jahn, mon directeur de thèse, avait lui-même ristique intéressante de Hpc Europa2 : le programme
participé à un programme Hpc Europa il y a quelques ne propose pas seulement du temps de calcul à des
années. comme il avait trouvé cette expérience très utilisateurs mais il favorise également les collaborapositive, il m’a suggéré de candidater pour une allo- tions entre groupes de recherche.
cation de 10 semaines.
Le site du CINES
pourquoi avoir choisi le CInEs en france ?
Nous avions prévu de travailler avec Mathieu salanne
à paris et il nous est apparu que le ciNEs proposait
un environnement très intéressant pour notre projet
de simulation. Les codes que nous allions utiliser
(cpMd, cp2K) étaient déjà compilés et disponibles
sur les machines du ciNEs, ce qui nous a évité de perdre du temps à les installer.
à Montpellier
© CINES
r&d
fructueuses collaborations
Comme les années précédentes, GENCI s’est activement impliqué dans différentes collaborations de recherche & développement, notamment pour aider
les scientifiques français à disposer des technologies les plus en pointe.
toire EcR a pour objectifs de préparer et développer
d’ici la fin de la décennie les architectures matérielles
initiée en 2009, la collaboration avec caps entre- et logicielles (codes scientifiques et outils de proprise, start-up spécialisée dans la conception de lo- grammations) qui permettront de soutenir le niveau
giciels avancés pour la programmation et le de performance de l’exascale.
déploiement de systèmes manycores, s'est poursuivie en 2010. conclue pour un an à compter du 1er fé- pour réussir cette véritable rupture technologique, le
vrier 2010, elle concerne toujours la fourniture de laboratoire EcR a parié sur le « co-design », c’est-àressources d'ingénierie pour la formation, le portage dire mettre en commun les compétences des utilisasur machines hybrides d'applications scientifiques teurs finaux : académiques comme industriels, des
ainsi que la contribution au développement du logi- experts du calcul intensif et des spécialistes de la prociel HMpp, développé par caps et facilitant ces por- grammation numérique.
tages.
La contribution de GENci s’inscrit dans cette double
L’appel à projets GENci/caps a permis de sélection- perspective, anticipation et préparation à la rupture
ner cinq applications scientifiques (contre 3 en 2009) technologique, pour mettre la communauté scientidans des domaines très variés : tsunamis et inonda- fique française dans les meilleures conditions pour
tions, transferts thermiques radiatifs, dynamique mo- utiliser l’Exascale. il s’agit d’une part d’impliquer le
léculaire, astrophysique, combustion moteur. ces plus tôt possible les scientifiques français dans les
applications ont été portées sur machines hybrides travaux du laboratoire, d’autre part de lui donner
par les équipes de caps, en collaboration avec les accès aux moyens de calcul de GENci. L’objectif est
scientifiques concernés. Les résultats sont très pro- triple : bien connaître le comportement des applicametteurs et un exemple est présenté page suivante. tions qui sont exécutées sur les supercalculateurs actuels pour cibler les efforts algorithmiques à réaliser,
Enfin, pour démultiplier l'effort de formation initié en optimiser ces applications et en évaluer le résultat
2009 dans les centres nationaux, des sessions de for- sur les prototypes successifs qui seront mis à dispomation au calcul hybride et à la programmation avec sition par intel®.
www.exascale-computing.eu
les langages opencL et HMpp ont été organisées
dans trois centres régionaux de calcul (strasbourg,
AvEC Bull sur lE pEtAflop/s
toulouse et Grenoble) pour leurs utilisateurs et leurs
équipes de support.
La collaboration avec la société BULL s'est terminée
prEmIErs pAs du lABorAtoIrE ECr
en 2010 sur la thématique du développement et de
la validation de composants matériels et logiciels de
près d’un an après la signature d’un accord de colla- systèmes de calcul dits pétaflopiques. des travaux
boration entre le cEa, GENci, intel® et l’Université de ont été menés avec succès pour participer au déveversailles saint-Quentin-en-Yvelines (UvsQ) pour lan- loppement des outils système permettant de mieux
cer en France des actions de R&d de haut niveau in- utiliser les accélérateurs graphiques (GpU), optimiser
dispensables pour aborder l’Exascale, le laboratoire les performances du système de fichiers parallèle
européen de recherche sur l’exascale (laboratoire Lustre, participer au développement d’un environneEcR) a été inauguré, le 25 octobre 2010.
ment Mpi portable et enfin étudier les mécanismes
accueillant une vingtaine de chercheurs, le labora- de tolérance aux pannes.
poursuItE dE lA CollABorAtIon AvEC CAps EntrEprIsE
24 - RappoRt d’activités GENci 2010
portage
Accélérateur de codes
Spécialiste de l’énergie solaire et de sa valorisation dans tous
les domaines, le laboratoire PROMES du CNRS a bénéficié du
soutien de GENCI et de CAPS entreprise.
c’est dans le cadre de l’appel d’offres GENci/caps entreprise (voir encadré) que le Laboratoire procédés,
matériaux et énergie solaire du cNRs (pRoMEs, UpR
8521) a été sélectionné, en 2010, pour l’optimisation
du code du projet pEGasE (production of Electricity
from Gas and solar Energy).
L’approche itérative proposée par caps, en trois
étapes, a permis d’aborder et de résoudre progressivement les difficultés rencontrées afin de porter l’application sur un système hybride tout en conservant
une exécution efficace de l’application en mode scalaire (cpU).
Mené en partenariat avec le conseil général des pyrénées orientales, pEGasE a pour objectif de définir
et d'expérimenter un prototype d’installation solaire
à haut rendement, sur le site de l’ancienne centrale
à tour, thémis à targassonne (66).
trois versions du code ont successivement été mises
au point : une première version exploitant du GpU ;
une version hybride complète utilisant cpU et GpU ;
enfin, une version hybride distribuée capable d’exploiter des cpU et des GpU sur plusieurs nœuds interconnectés.
cette centrale fonctionne de la façon suivante : un La version finale (Mpi et openMp) permet d’atteinflux de lumière concentré par 80 miroirs (ou hélios- dre une accélération d’un facteur 23 sur un cluster
tats) est transformé en électricité par le biais d'un constitué de 8 nœuds par rapport à la version
fluide caloporteur chauffé dans un échangeur placé openMp de référence.
au sommet de la tour. cet échangeur, en cours d'industrialisation, utilise l'air et la plupart des transferts Les performances obtenues sur ce type d’architecthermiques entre l'échangeur et le fluide se fait par ture permettent de répondre désormais favorableconvection au niveau des parois.
ment à des besoins de simulation de plus en plus
précis.
Un des objectifs de pEGasE vise à simuler l'ensemble
des transferts thermiques, radiatifs et convectifs, chaque année depuis deux ans, GENci et caps entreprise,
pour concevoir et valider un nouveau prototype start-up essaimée de l’iNRia et spécialisée dans la conception
d’échangeur où l’air est remplacé par un mélange à de logiciels avancés pour le développement informatique, lanforte teneur en gaz à effet de serre et en estimer le cent un appel à projets pour le portage d’applications scientifiques sur machines hybrides (utilisant des accélérateurs de
bénéfice obtenu en termes de rendement.
or, modéliser les transferts radiatifs aux températures de l’échangeur (environ 700°c) a longtemps été
considéré comme inaccessible, en dehors de quelques
situations extrêmement simplifiées. il était
donc nécessaire de définir l’architecture adéquate (disposant d’un nombre important d'accélérateurs matériels) permettant d’atteindre
la puissance de calcul suffisante pour réaliser
des simulations précises, indispensables au
projet.
Le site de Thémis : au sommet de la tour, l’échangeur transforme le rayonnement solaire en énergie électrique.
© David66 - Creative Commons
calcul graphiques - GpU). Le 3e appel à projets GENci/caps a
été clôturé le 18 mars 2011.
www.caps-entreprise.com
promotion
le calcul intensif à l’honneur
Comme les années précédentes, GENCI a apporté son concours à différentes
initiatives de promotion du calcul intensif. Et lancé un programme à destination des PME, en association avec l’INRIA et OSEO.
2E édItIon du prIX Bull-fourIEr
GENci est partenaire de ce prix qui récompense des
chercheurs ayant obtenu, grâce au calcul intensif, des
résultats remarquables au plan scientifique et dont
l’impact sociétal ou économique est important. trois
prix sont décernés chaque année, dont deux sont
dotés d’heures de calcul gratuites sur les machines
de GENci.
le troisième prix (300 000 heures Cpu) a été attribué
à vincent Moureau, chercheur en combustion turbulente, chargé de recherche au cNRs, au coRia (complexe de Recherche interprofessionnel en aéro
thermo chimie à Rouen). portant sur la simulation de
phénomènes d'écoulements turbulents dans les systèmes de combustion (brûleurs de fours industriels,
turbines pour l'aéronautique), ses travaux visent à
améliorer leur rendement tout en diminuant la
consommation d’hydrocarbures et l’émission de co2,
et limiter les émissions polluantes (oxydes d’azote).
le premier prix a été décerné à dimitri Komatitsch,
chercheur à l’Université de pau et iNRia sud-ouest,
pour sa contribution à une meilleure connaissance
de la physique du globe terrestre.
ses travaux ont permis de modéliser, à très haute résolution, la propagation d'ondes sismiques à l’échelle
d’un continent. il s’agit d’un enjeu scientifique et sociétal particulièrement important, comme l’actualité
l’a montré en italie en 2009 (magnitude 6.3 à environ
10 km de profondeur, 215 morts) et à Haïti en 2010
(magnitude 7.2 à environ 15 km de profondeur, entre
100 000 et 200 000 morts).
Les destructions provoquées par les séismes sont
dues aux ondes sismiques qui font vibrer et casser les
constructions. ces ondes peuvent être amplifiées par
la géologie de la région (présence de sédiments peu
consolidés par exemple) ou par la topographie (collines, montagnes). il est donc essentiel de pouvoir
calculer la propagation de ces ondes avec une grande
précision, à la fois pour améliorer la connaissance de
la structure du globe terrestre et progresser vers la
prédiction des tremblements de terre et de leurs répliques. dimitri Komatitsch a ainsi été sollicité par les
autorités italiennes, soucieuses de disposer d’éléments d’aide à la décision, pour modéliser les répliques du tremblement de terre de l’aquila.
le deuxième prix (100 000 heures Gpu) est revenu
à sébastien Jan, spécialiste de l’imagerie moléculaire
à la direction des sciences du vivant du cEa. dans le
domaine de la santé, la simulation numérique par le
calcul intensif présente un potentiel de progrès consilABEl dE CompétEnCEs C3I
dérable. ses travaux contribuent à améliorer la précision offerte par la tomographie par émission de
positons, à la fois pour mieux détecter des tumeurs seize premiers labels c3i (pour certificat de compécancéreuses et pour optimiser certains traitements tences en calcul intensif) ont été annoncés lors du
Forum de l’oRap le 31 mars 2010. attribué par GENci
thérapeutiques.
en association avec la conférence des présidents
 www.prix-bull-fourier.fr
d’université, le label c3i distingue de jeunes scientifiques ayant développé et appliqué des compétences
en calcul intensif durant leur thèse ou leur post-doctorat. par nature multidisciplinaire, ce label couvre
tous les domaines scientifiques, de la théorie à la recherche appliquée.
 www.c3i.genci.fr
De gauche à droite : Philippe Miltin, vice-président Produits & Systèmes de Bull, Catherine
© Ter@tec
Rivière, PDG de GENCI, et Dimitri Komatitsch, lauréat 2010 du prix Bull Fourier
hpC-pmE
soutenir l’innovation
Avec l’INRIA et OSEO, et en partenariat avec quatre pôles mondiaux de compétitivité, GENCI a lancé l’initiative HPC-PME pour aider les PME françaises
à « franchir le cap » de la simulation numérique par le calcul intensif.
près d’une dizaine de candidatures en quatre mois
issues de différents secteurs industriels (automobile,
aéronautique, microélectronique) : ce sont les premiers résultats obtenus par l’initiative Hpc-pME, depuis son démarrage le 1er septembre 2010.
barqués), axelera (chimie et environnement), Minalogic (solutions miniaturisées intelligentes pour l'industrie) et systematic (systèmes complexes).
des rendez-vous ont été organisés dans ces pôles
pour présenter le dispositif à leurs pME adhérentes :
portée par GENci, l’iNRia et osEo, l’initiative Hpc- en décembre 2010 à saclay (systematic) et Grenoble
pME a pour objectif de démocratiser l’utilisation de (Minalogic) ; dans le courant du premier trimestre
la simulation numérique par le calcul intensif pour 2011 à toulouse (aerospace valley) et Lyon (axelera).
renforcer et accroître la compétitivité des pME fran- ces rendez-vous ont réuni au total quelques dizaines
çaises. Elle s’inscrit dans une logique d’accélération de pME et se sont, chaque fois, concrétisés par le
des transferts de technologie entre la recherche aca- dépôt d’une ou plusieurs candidatures.
démique et l’industrie, qui sont indispensables pour
irriguer l’économie nationale en soutenant la créa- L’initiative Hpc-pME était également représentée au
congrès annuel de la NaFEMs (National agency for
tion de produits et de services innovants.
Finite Element Methods and standards - commurEnforCEr lEs pAssErEllEs EntrE rEChErChE Et IndustrIE nauté internationale regroupant utilisateurs et vendeurs de technologies de simulation numérique),
ce dispositif unique permet d’accompagner les pME dont l’édition 2010 avait pour thème « La simulation
qui souhaitent intégrer les capacités de développe- numérique : moteur de performance » et qui s’est
ment offertes par le Hpc dans leur stratégie d’inno- tenu les 12 et 13 octobre 2010 à paris.
vation. il s’agit de les amener à évaluer la pertinence
un poInt d’EntréE unIquE
de l’utilisation de la simulation numérique au regard
de leur modèle d’activité, en mobilisant les acteurs
ouvert depuis le 1er septembre 2010, le site de l’inidu calcul intensif les mieux à même de les aider.
tiative Hpc-pME constitue un point d’entrée unique
pour mener à bien cette évaluation et cette démons- pour les pME. il a fait l’objet de plus de 3800 pages
tration des gains pouvant être obtenus par le recours vues, pour une moyenne d’environ 25 visiteurs par
au Hpc (productivité, qualité etc.), l’initiative Hpc- jour. Bien qu’entièrement rédigé en français, et despME s’appuie sur les compétences de chaque parte- tiné à l’information des pME nationales, ce site a été
naire : expertise technologique, formation et partage visité par plus d’une centaine d’internautes dans le
de bonnes pratiques, accès aux ressources de calcul, monde, européens en tête mais également africains
maîtrise des enjeux financiers et économiques. au (notamment du Maghreb), américains (du Nord
terme de la démonstration, la pME est mise en rela- comme du sud), russes et asiatiques.
tion avec les acteurs industriels du Hpc, notamment
les fournisseurs de temps de calcul.
www.initiative-hpc-pme.org
L’initiative Hpc-pME est menée en partenariat avec
des acteurs industriels reconnus, quatre pôles mondiaux de compétitivité qui ont tissé, chacun dans leur
domaine, des liens forts avec les pME régionales : aerospace valley (aéronautique, espace, systèmes emRappoRt d’activités GENci 2010 - 27
30 - AvAnt-propos - alain LicHNEWsKY, responsable scientifique de GENci
31 - pErspECtIvEs
Entretiens avec olivier pironneau, président du comité stratégique du calcul intensif (csci) et Richard Kenway, chairman
du scientific steering committee de pRacE.
34 - AvAnCéEs sCIEntIfIquEs
Contribution des comités thématiques
Environnement (ct1 - patrick MascaRt) - 34
Mécanique des fluides, fluides réactifs, fluides complexes (ct2 - Luc vERviscH) - 38
simulation biomédicale et application à la santé (ct3- Marc tHiRiEt) - 42
astrophysique et géophysique (ct4 - Edouard aUdit) - 44
physique théorique et physique des plasmas (ct5 - sylvie JacQUEMot) - 48
informatique, algorithmique et mathématiques (ct6 - Jacques BLUM) - 52
systèmes moléculaires organisés et biologie (ct7 - Yves-Henri saNEJoUaNd) - 56
chime quantique et modélisation moléculaire (ct8 - Yves ELLiNGER) - 60
physique, chimie et propriétés des matériaux (ct9 - alain pastUREL) - 64
Nouvelles applications et applications transversales du calcul intensif (ct10 - thierry MassaRd) - 68
l’AttrIButIon dEs hEurEs sur lEs moyEns nAtIonAuX
AppEls à projEt
2 sessions par an
dépôt des demandes sur www.edari.fr
évAluAtIon sCIEntIfIquE
Deux appels à projets sont organisés chaque année pour tout utilisateur (académique ou industriel) souhaitant accéder aux moyens de calcul nationaux pour
des travaux relevant d’une mission de service public de recherche ou d’enseignement supérieur.
dix comités thématiques (Ct)
ComItE d’évAluAtIon
Evaluation scientifique des projets
et proposition d’attribution
président : le président du csci
La première session a lieu durant le dernier trimestre de l’année n-1 pour une
attribution des heures au 1er janvier de l’année n ; elle concerne le dépôt de nouveaux projets ou le renouvellement de projets existants.
La seconde session, complémentaire, est réalisée durant le deuxième trimestre
de l’année n pour une attribution au 1er juillet de l’année n ; elle concerne le dépôt
de nouveaux dossiers ou des demandes complémentaires pour les dossiers acceptés lors de la première session.
membres : les présidents des comités thématiques
Invités : les directeurs des centres de calcul
& un représentant par associé de GENci
Le dépôt des demandes se fait sur le site www.edari.fr
Leur sélection est réalisée sur la base de l’excellence scientifique du projet de recherche, avec obligation d’en publier les résultats.
ComItE d’AttrIButIon
Arbitrage
président : le pdG de GENci
membres : les présidents du comité d’évaluation
Pour inciter les utilisateurs à consommer régulièrement les ressources qui leur
ont été attribuées, une procédure d’ajustement est réalisée à la fin du premier
trimestre de l’année n. L’application de ces modalités d’ajustement peut entrainer une reprise d’heures allant jusqu’à 40 % des heures initialement attribuées.
& les directeurs des centres de calcul
Invités : les présidents des comités thématiques
& un représentant par associé de GENci
AttrIButIon
28 - RappoRt d’activités GENci 2010
Par ailleurs, tout au long de l’année, des compléments d’heures peuvent être accordés de manière exceptionnelle à des projets existants ; ces demandes dites
« au fil de l’eau » sont faites au travers du portail DARI.
rApport sCIEntIfIquE
2010
Avant-propos
par Alain lIChnEwsky,
responsable scientifique de GEnCI
C
e rapport scientifique s’attache à décrire les résultats
obtenus grâce aux allocations effectuées par GENci
sur les ressources des trois centres nationaux du cEaccRt, du ciNEs et du cNRs-idRis, mais aussi à vérifier que
les impacts scientifiques sont à la hauteur des enjeux et
des ambitions. il nous permet de rendre compte de
l’usage fait des moyens sous la responsabilité de GENci et
opérés par ses associés. Les travaux scientifiques ont également été soutenus par l’aNR et le pcRdt de la commission Européenne.
Nous nous sommes efforcés de présenter les résultats
sous une forme concrète et parlante, mais aussi de mettre
en avant les perspectives qu’ils ouvrent. L’organisation en
chapitre suit celle des dix comités thématiques (ct),
groupes d’experts en charge de l’évaluation des demandes
d’utilisation ; c’est une maille assez large pour que se dégagent les voies de progrès des connaissances au-delà des
travaux individuels. Les résultats sont accompagnés d’un
échantillon des publications les plus significatives, souvent
dans des revues prestigieuses.
Rédigé par les présidents de ct, chaque chapitre de ce rapport constitue une vue des apports scientifiques d’un domaine au vu de l’ensemble des dossiers retenus après
l’évaluation. Bien souvent, l’impact ne sera pleinement
réalisé qu’au fil du temps. plusieurs résultats proviennent
de campagnes « Grands challenges », réalisées sur nos
calculateurs les plus récents par l’attribution de capacités
de calcul exceptionnelles aux projets sélectionnés. plusieurs premières mondiales ont ainsi été réalisées, par
exemple celles qui concernent les instabilités de combustion dans un turbomoteur d’hélicoptère (page 39) ou encore la dispersion d’énergie liée à la turbulence dans itER
(page 49).
L’utilisation des calculateurs de GENci couvre un grand
nombre de disciplines scientifiques ou de projets de développement technologique ainsi que le montre l’aNR dans
un rapport récent intitulé « Le calcul intensif : technologie
clé pour le futur ». des connaissances fondamentales sont
produites, ce qu’illustre l’exemple qui concerne l’étude du
couplage électron-phonon dont l’impact est non négligeable sur les propriétés des matériaux (page 67). d’autres
contributions présentent un intérêt majeur, technologique
ou pour la santé, qu’il s’agisse de synthétiser de nouvelles
30 - RappoRt d’activités GENci 2010
nanostructures aux propriétés bien définies (page 66), de mieux connaître le
mode d’action de certains anesthésiques d’usage courant dans les hôpi- © GENCI
taux (page 57) ou d’améliorer le fonctionnement de la
prochaine génération de centrales électronucléaires (page
69). L’ensemble des contributions inclues ci-après montrent que nombre de projets préparent les méthodes et
les modèles numériques de demain, notamment en couplant la modélisation de plusieurs phénomènes en interaction. La simulation numérique confirme ainsi sa capacité
à exploiter l’interaction de connaissances nombreuses,
concepts ou données.
L’accroissement des capacités des calculateurs proposés
par GENci a permis des résultats novateurs : généralisation des modèles « ab initio » basés sur les principes fondamentaux dans les domaines de la chimie et des
matériaux, obtention des données essentielles à la base
de nouvelles méthodes expérimentales. avec les progrès
de la modélisation, et l’adaptation des codes de calcul aux
nouveaux calculateurs, la frontière des connaissances
s’établit maintenant en confrontant l’état de l’art en simulation et la nature des problèmes étudiés. il est permis,
par exemple, d’envisager des applications d’un grand intérêt technologique concernant les matériaux et la fabrication de nano-objets comme le montrent les étonnants
résultats obtenus avec un alliage or-silicium (page 65).
Responsable scientifique de GENci, je souhaite également
mettre en valeur l’investissement humain que représente
chacun des projets présentés ici. ils sont conduits dans la
durée par des équipes motivées, interdisciplinaires et internationales ; leurs réalisations sont confrontées les unes
aux autres. ainsi progresse la science soutenue par des réseaux humains internationaux fondés sur la coopération
et la compétition, arbitrées par une évaluation scientifique rigoureuse entre pairs.
préparer le futur, notamment en accompagnant la montée
en puissance de l’infrastructure de recherche pRacE et en
anticipant l’arrivée de l’Exaflop/s vers 2018, avec son lot
de défis scientifiques et technologiques, fait ainsi converger les efforts déployés par GENci et par nos utilisateurs.
ils doivent être poursuivis dans la durée tant les défis sont
grands et la compétition internationale farouche.
perspectives
Spécialiste de science computationnelle, membre de l’Académie des
sciences, Olivier Pironneau préside
le Comité Stratégique du Calcul Intensif, qui est chargé de conduire
DR
des études et des réflexions ainsi
que de formuler des propositions sur l’organisation
et le renouvellement des équipements de calcul intensif en France.
Quelle est votre vision de l’évolution actuelle des architectures matérielles et logicielles ? Quels gains peut-on
en attendre ?
permettez-moi d’abord, en tant que président du comité
d’attribution des heures de calcul sur moyens nationaux,
de dire quelques mots de l’utilisation de ces moyens. Leur
augmentation significative ces dernières années répond
parfaitement à la croissance des demandes, et les perspectives restent positives en 2011.
plus globalement, sur les défis que nous aurons à relever
durant la prochaine décennie, le comité stratégique du
calcul intensif a interrogé quelques-uns des principaux
constructeurs. au premier rang de leurs préoccupations,
figure la prise en compte des impacts environnementaux
- un élément de plus en plus crucial dans le contexte sociétal actuel.
comment faire fonctionner un supercalculateur avec le
maximum d’efficacité énergétique ? des résultats encourageants ont déjà été obtenus avec des systèmes innovants de refroidissement, comme sur la machine cURiE
au tGcc, mais ils doivent être poursuivis et démultipliés,
notamment si on considère la prochaine génération de supercalculateurs.
Et c’est l’autre défi de taille : le passage à l’Exascale. ce
n’est pas une vue de l’esprit et il viendra plus vite que nous
ne l’avions envisagé, vers 2018. pour être prêt à cette nouvelle transition, il y a de grands chantiers à mener : sur
l’amélioration des communications dans les puces - des
progrès ont été réalisés mais seulement au stade expérimental ; sur les logiciels à développer compte-tenu du
nombre de processeurs qui seront nécessaires pour atteindre le milliard de milliards d’opérations à la seconde ;
sur le système de pannes, enfin, qui devrait bénéficier de
la virtualisation.
Quelles conséquences peut-on tirer
de la première place obtenue par la
Chine dans le dernier Top500 ? La relance de la « course
à la puissance » profitera-t-elle à tous ?
La première place de la chine est une information très importante même si cette annonce n’a pas spécialement surpris les experts du calcul intensif.
J’en tire, pour ma part, trois enseignements essentiels.
d’abord que la chine a réussi à se hisser en tête en une
année en partant d’une situation comparable à celle de la
France, pour disposer du supercalculateur pétaflopique le
plus puissant au monde, tianhe-1.
Ensuite, bien qu’étant équipé de processeurs américains,
ce supercalculateur a fait la démonstration de la capacité
des équipes chinoises à réussir les interconnexions, l’intégration cpU/GpU et les développements applicatifs nécessaires.
Enfin, en franchissant cette première étape, la chine s’est
positionnée comme un concurrent de plus en plus sérieux. L’étape suivante confortera son indépendance, d’un
point de vue technologique comme économique : le pays
s’est lancé dans la fabrication de ses propres processeurs
et son prochain supercalculateur sera entièrement chinois.
c’est, une nouvelle fois, l’illustration d’une capacité formidable d’organisation au service d’une volonté politique
sans faille : le calcul intensif est un investissement majeur
du Ministère pour la science et la technologie chinois depuis près de quinze ans.
Quel impact cette nouvelle donne a-t-elle ? Comment la
France se positionne-t-elle aujourd’hui ?
Les chinois viennent de démontrer qu’on pouvait ‘gagner
la course’ à condition de bénéficier à la fois du soutien politique, des compétences techniques et technologiques et
du budget nécessaires. d’autres pays dans le monde,
comme la Russie, la corée ou le Japon, semblent s’engager
aujourd’hui sur la même voie. En France, les investissements récents ont permis de relancer la dynamique.
Grâce à GENci et maintenant pRacE, dont la France est le
deuxième contributeur, notre pays est actuellement dans
le peloton de tête des nations qui donnent accès à des
équipements de pointe à leurs chercheurs. il occupe
même en Europe une place de choix, aux côtés des allemands qui ont mis en oeuvre une stratégie semblable à
la nôtre.
RappoRt d’activités GENci 2010 - 31
Comment voyez-vous l’apport et
les interactions avec l’infrastructure européenne de recherche
PRACE ?
Le grand avantage de pRacE c’est
de réunir les acteurs académiques européens du calcul intensif autour d’une
même table et de les faire discuter sur un pied d’égalité.
L’attribution d’heures sur les moyens de calcul de pRacE
se fait indépendamment des investissements consentis
par chacun au niveau national. ce principe directeur a une
grande vertu : celle d’obliger nos scientifiques à être à la
fois irréprochables dans les dossiers qu’ils soumettent et
scientifiquement innovants dans leurs projets.
© University of Edinburgh
Comment peut-on renforcer l’écosystème français du calcul intensif ?
L’écosystème français du calcul intensif est actuellement
confronté à une double difficulté. d’une part, les scientifiques capables de faire de la simulation numérique par
le calcul intensif sont encore trop peu nombreux et cette
approche ne bénéficie pas toujours de la même recon-
Le physicien britannique Richard
Kenway préside le Scientific Steering
Committee de PRACE.
Il s’exprime sur les enjeux du calcul
intensif en Europe.
Quel est le rôle du Scientific Steering Committee (SSC) ?
Le rôle du ssc est de faire des recommandations au
conseil de pRacE en matière scientifique et technique. Le
succès de pRacE dépend des résultats scientifiques qui
seront obtenus et qui devront être reconnus parmi les
meilleurs au monde, et c’est là un objectif fondamental
pour le ssc. La démonstration de notre réussite est un
pré-requis pour élargir le nombre d’Etats membres de
pRacE qui contribueront de manière substantielle au
fonctionnement de l’infrastructure de recherche. ces nouvelles contributions permettront à pRacE de mettre à disposition des ressources toujours plus compétitives qui
favoriseront à leur tour la production d’une meilleure
science… c’est un cercle vertueux.
L’exemple du cERN montre que c’est possible. cependant,
pRacE étant une infrastructure distribuée de recherche
couvrant toutes les disciplines, c’est un défi encore plus
grand que de convaincre la communauté scientifique dans
son ensemble de parler d’une seule voix en faveur de
pRacE. Une première étape, déterminante, est de démontrer que notre processus d’évaluation est équitable et vise
32 - RappoRt d’activités GENci 2010
naissance que l’expérimentation et la théorie. d’autre
part, la pyramide idéale - celle qui garantit à chacun un
accès ‘à la bonne échelle’ aux moyens de calcul - n’est pas
encore réalisée.
aujourd’hui, nous ne disposons pas réellement d’un niveau intermédiaire entre les supercalculateurs, nationaux
et européens, et les machines de laboratoire. développer
les moyens des centres universitaires est une priorité et
je me félicite que le projet Equip@meso, coordonné par
GENci, soit désormais lancé.
outre le renforcement attendu des moyens de calcul à
l’échelle régionale, il permettra également de soutenir l’effort pédagogique nécessaire pour étoffer l’offre en formation, dans le domaine de la simulation et du calcul intensif,
à l’instar par exemple du master « Modélisation et simulation », mis en place par le cEa, l’Université de versailles
saint-Quentin en Yvelines et l’Ecole polytechnique.
autant de perspectives qui contribuent à soutenir la vitalité de la science française !
seulement à sélectionner les meilleurs projets. ce qui est
d’ailleurs le cas aujourd’hui, puisque notre seul critère
d’appréciation est l’excellence scientifique.
Comment le HPC contribue-t-il au progrès des connaissances ?
depuis plusieurs années, la simulation par le calcul intensif (ou Hpc) promettait de nous aider à comprendre les
phénomènes à l’œuvre dans le monde qui nous entoure,
qu’ils soient trop rapides ou trop lents, se produisant à
trop grande ou trop petite échelle, ou encore présentent
une complexité, une dangerosité ou un coût trop élevés
pour une expérimentation directe.
Les progrès réalisés dans les modèles théoriques, les algorithmes et les applications, ainsi que les performances
de nos matériels, font que nous sommes aujourd’hui près
de concrétiser ce potentiel. En même temps, l’explosion
des données obtenues expérimentalement demande de
développer une nouvelle méthodologie pour déduire des
faits scientifiques directement des données brutes, sans
avoir nécessairement une théorie intermédiaire.
La science que nous labellisons ‘Hpc’ est en train de se
développer plus vite que n’importe quelle autre. Et elle
concerne des problèmes cruciaux, donc incontournables,
qui ont des implications majeures en matière économique, environnementale et de santé. Quand bien même,
in fine, les nouvelles découvertes doivent reposer sur les
résultats expérimentaux, notre capacité d’abord à les
comprendre puis à les appliquer dépendra de plus en plus
du calcul intensif. derrière cela, se cache un défi pour la
science : alors qu’augmente notre capacité à modéliser le
monde et à extraire la connaissance d’une masse de données, se tromper sera de plus en plus coûteux, voire catastrophique. Nous devons donc valider davantage les
résultats de nos simulations et faire ainsi en sorte que leur
interprétation ne soit pas remise en cause par des erreurs
non détectées de matériel, de logiciel ou de données.
Comment répondre aux besoins sociétaux en Europe ?
d’une part, ces dernières années, nous avons vu les applications et les performances du Hpc s’ancrer dans nos
vies personnelles et professionnelles : mon téléphone mobile est actuellement aussi puissant que le superordinateur que j’utilisais pour mes recherches il y a vingt ans !
Et il n’y a aucune raison de penser que cela va cesser.
ainsi, le gain que nous pouvons attendre du passage à
l’Exascale sera probablement basé sur des technologies
très basse puissance que le marché grand public met en
œuvre dans les dispositifs de téléphonie mobile.
d’autre part, les systèmes tier-0 vont permettre de résoudre des problèmes de trop grande taille ou trop complexes
pour être résolus autrement. L’atout majeur du Hpc est
sa capacité à prédire précisément et rapidement un comportement, permettant de tester les hypothèses par l’expérience simulée avant de prendre une décision. cette
dernière s’appuiera de plus en plus sur les applications «
temps réel » du calcul intensif, qu’il s’agisse de diriger une
équipe de pompiers dans un immeuble en feu, de prévoir
comment un médicament affectera un organisme humain
ou encore de mesurer les effets que les décisions politiques d’aujourd’hui auront sur le climat dans les prochaines années.
cela présente aussi un intérêt économique en termes de
conception et de réalisation, tout comme la modélisation
permet de réduire grandement voire d’éliminer le recours
aux expérimentations coûteuses.
Comment contribuer à la compétitivité européenne ?
Le Hpc est la partie haute d’un écosystème de calcul de
plus en plus répandu et joue un rôle pionnier dans le développement de nouvelles applications. c’est déjà un élément essentiel pour des industries majeures telles que
l’aéronautique, l’automobile et l’énergie ou encore l’industrie pharmaceutique. couplé aux données obtenues
expérimentalement, il jouera un rôle grandissant pour
l’entretien des infrastructures et la gestion de la santé et
de l’environnement. toutes ces applications n’utiliseront
pas de systèmes tier-0 mais elles seront très dépendantes
des logiciels et des compétences développées pour les
mettre en
œuvre. Nous
allons avoir
besoin d’un nombre croissant de jeunes scientifiques fo r m és a u x technologies de
calcul les plus pointues, capables de comprendre, de développer et de maintenir les logiciels nécessaires. Le progrès technologique, décrit par la loi de
Moore, demeure et continue à générer de nouvelles demandes en logiciels. Le progrès scientifique, qui résulte
des performances croissantes du Hpc, débouchera sur de
nouvelles perspectives économiques. La compétitivité européenne dépend bien plus de nos possibilités de développer des logiciels à tous les niveaux de l’écosystème que
de sa place dans le domaine du matériel.
Quels sont les grands défis du HPC ?
Le prochain passage à l’Exascale provoquera un changement au moins aussi radical que la transition vers le calcul
parallèle dans les années 80. cela impliquera probablement l’augmentation d’un facteur mille du nombre de
processeurs nécessaires, la réduction d’un même facteur
de la bande passante mémoire qui leur est accessible ainsi
que des erreurs non détectées toutes les deux ou trois minutes. Nous aurons besoin de nouveaux algorithmes et
de nouveaux logiciels, de meilleures méthodes de validation et de vérification ainsi que de développer et d’optimiser de nouveaux outils.
du fait que, pour nombre d‘applications scientifiques, le
coût du calcul augmente plus vite que la taille du problème à résoudre, nous ne pourrons pas tirer de bénéfice
des machines exaflopiques simplement en résolvant des
problèmes de plus grande taille - nous aurons à renforcer
le parallélisme de nos algorithmes. soit nous trouvons le
moyen d’extraire des résultats significatifs d’un modèle
stochastique du calcul, soit nos algorithmes devront être
tolérants aux fautes. Le parallélisme croissant et la réduction de la bande passante mémoire auront des effets au
niveau des microprocesseurs et donc des conséquences
sur le marché grand public de l’électronique, autant que
le Hpc. c’est un défi passionnant.
cela nous ouvre également d’immenses opportunités en
termes d’innovation. ceci mis à part, même s’il s’agit seulement de maintenir notre compétitivité, il nous faudra
investir massivement dans le développement logiciel, la
mise en place d’une e-infrastructure qui interagira, de
façon homogène, depuis l’international jusqu’au niveau
local et un programme de formation au calcul couvrant toutes les disciplines.
pRacE a commencé à relever ces défis. La course
est lancée et il est temps de prendre de la vitesse !
RappoRt d’activités GENci 2010 - 33
Environnement
Comité thématique 1
Bilan & perspectives - patrick mascart, président du Ct1
l
e secteur thématique du ct1 « Environnement » concerne le calcul intensif en
sciences du climat, de l'océan et de l'atmosphère. En 2010, le ct1 a sélectionné 58 projets,
soit 4 projets de plus qu’en 2009. il s’agit, en grande majorité, de projets ayant une durée de vie
sur plusieurs années, ce qui est dans la logique des développements logiciels importants liés à
la modélisation climatique : 8 projets sont de nouveaux projets, 50 sont des projets pluriannuels.
Les attributions réalisées ont concerné 9 des machines de GENci : 66 attributions de ressources
ont été faites sur 5 des machines scalaires - parallèles au ciNEs, à l’idRis du cNRs et au ccRt du
cEa ; 4 attributions ont été faites sur les processeurs graphiques (GpU) de la machine titaNE du
ccRt du cEa ; enfin 30 attributions ont été faites sur les machines vectorielles au cEa/ccRt et
au cNRs/idRis. Une analyse grossière du volume d’heures attribué montre que les propositions
du ct1 représentent 19 millions d’heures scalaires, en croissance de 7 % par rapport à 2009.
cette attribution scalaire représente 7 % du potentiel brut GENci, soit presque le double de l’an
dernier. L’attribution de ressources vectorielles s’élève à environ 683 000 heures vectorielles,
soit environ 75 % du potentiel vectoriel brut GENci, et à 25 000 heures sur processeurs graphiques GpU, soit moins de 1 % du potentiel GENci.
comme annoncé l’an dernier les attributions vectorielles du ct1 servent en grande majorité à la
réalisation des simulations du GiEc (Groupe d’experts intergouvernemental sur l’évolution du
climat). comme le taux de parallélisation des modèles climatiques augmente rapidement, c’est
sans doute une des dernières fois qu’un projet majeur de GENci est presque totalement tributaire d’une attribution vectorielle. L’utilisation de la machine Blue-Gene, BaBEL au cNRs/idRis
à orsay, reste assez faible et cette consommation devrait encore se réduire au profit de la machine européenne pRacE du même type, JUGENE.
Une caractéristique primordiale du calcul intensif dans le secteur du ct1 est le regroupement
des chercheurs autour d'un petit nombre d'outils logiciels communautaires spécialisés, de taille
quasi-industrielle comportant parfois plus d’un million de lignes de code. ces grands logiciels de
modélisation très spécifiques sont développés par des consortiums scientifiques qui structurent
fortement les recherches du ct1. Les principaux exemples de ces logiciels communautaires sont
les modèles de circulation générale atmosphérique LMd-Z ou aRpEGE, le modèle de circulation
générale océanique opa/NEMo, les outils de couplage oasis et paLM pour la modélisation climatique couplée du système terre.
Les recherches du secteur Environnement sont aussi très intégrées dans les grands programmes
internationaux (GiEc pour le climat), et nationaux du cNRs, de l'iNsU, ou de l'aNR. ces activités
bénéficient aussi d’un fort soutien d’organismes comme Météo-France, le cEa, l'iRd, l'iFREMER,
le sHoM (service hydrographique et océanographique de la Marine), l'iNRa, et le cNEs.
En 2010, les projets GENci du ct1 ont donné lieu à une centaine de publications dans de très
bons journaux internationaux à relecteurs de la discipline (J. of climate, J. atmos sciences, J.
Fluid Mech., atm. phys. chem., ocean Modelling, deap sea Res., J. phys. oceanogr., J. Geoph.
Res., tellus…). cinq publications sont parues dans des journaux à impact majeur, tels que science,
Nature, Nature Geoscience et physical Review Letters.
34 - RappoRt d’activités GENci 2010
modélisation du climat et de son évolution
simulations cMip5 pour le 5eme rapport du GiEc et développement des modèles du « système terre »
projets Ct1 : 0040, 0239, 0292, 0826, 1167, 2201, 2211, 2212, 6178, 6328 et 6659
moyens GEnCI : sX9 (cEa/ccRt), JadE (ciNEs), titaNE vaRGas et BRodiE (cNRs/idRis)
Le climat global de la terre a connu des phases cycliques de
Cet ensemble de projets vise à la modélisation climatique de la
Terre, qu’il s’agisse de phénomènes naturels ou anthropogéniques (générés par l’homme). Un développement récent a permis de mieux comprendre les mécanismes de formation des
précipitations orageuses sur les continents tropicaux, et d’évaluer leur représentation dans les modèles de climat.
réchauffement alternant avec des refroidissements qui diffèrent
par leur durée (de quelques milliers à plusieurs millions d'années) et par leur amplitude. observé depuis les dernières décennies du XXe siècle, le réchauffement climatique est un sujet
majeur, à la fois scientifique et sociétal. L’étude des climats passés comme des phénomènes actuellement observables permet
de simuler, avec le plus de réalisme possible, l’évolution future
L’eau est présente dans l’atmosphère sous la forme de 3 iso- en fonction de différents scénarios.
topes stables (Hdo, H218o, H217o) et joue un rôle prépondérant
dans le transport d'énergie autour de la planète : elle s’évapore des étendues d’eau, se condense (d’où notamment la
formation des nuages) et précipite sous forme de pluies.
ses trois isotopes se comportant un peu différemment dans la formation de la pluie et l’évaporation de l’eau du sol.
ces processus subtils ont été introduits dans le modèle climat de l’institut pierre simon Laplace - ipsL (Risi et al., JGR,
115, 2010).
La figure ci-dessous illustre les résultats obtenus. En comparant les teneurs en Hdo observées par le satellite tEs (a)
et modélisées par trois versions différentes du modèle climatique LMd-Z (b, c, d,), la comparaison permet de discuter
l’origine des biais de simulation.
comparaison des concentrations en Hdo (exprimées en perturbation δd par rapport à une référence en ‰), observées et simulées
(d’après Risi et al., 2010). © projet 292, J.-Y. Granpeix, LMd-ipsL.
RappoRt d’activités GENci 2010 - 35
modélisation océanique
simulations de l’océan global à haute résolution dRaKKaR, des couplages dynamique biogéochimie et du rôle des
processus de sous-mésoéchelle dans les couches de surfaces océaniques
projets Ct1 : 727, 227, 1268, 1140, 1532 et 2175
moyens GEnCI : JadE (ciNEs), vaRGas et BRodiE (cNRs/idRis)
Ce groupe de projets s’intéresse à divers aspects de la modélisation des océans. Les problèmes étudiés vont de la dynamique
globale à haute résolution (DRAKKAR), à sa variabilité, au couplage entre processus biogéochimiques et dynamiques, ainsi
que l’importance des échelles très fines prés de la surface.
L’océan joue un rôle fondamental dans l'équilibre thermique
de la terre et ses interactions avec l'atmosphère est une clef de
l'évolution du système climatique. ce système ressemble à une
immense machine thermique dont les mécanismes sont notamment basés sur les échanges entre les circulations atmosphériques (les vents) et océaniques (les courants). Les océans
dans une configuration théorique, la nature et le rôle des mou- agissent donc, en quelque sorte, comme un thermostat régulavements turbulents océaniques de proche surface (aux teur du climat. Mieux connaître et comprendre les échanges
échelles comprises entre environ un et vingt km) sont exami- entre océan et atmosphère est un élément décisif de la modélinés. a ces échelles, qui constituent ce qu’on appelle la sous- sation du climat et de son évolution.
mésoéchelle en comparaison des structures mésoéchelles
(tourbillons de 50 à 200 km de diamètre), l’océan est constitué d’une multitude de fronts intensifiés en surface. Les
caractéristiques de ces fronts (extension verticale, intensité...) sont fortement contraintes par les paramètres environnementaux (écoulement grande échelle et mésoéchelle, stratification ambiante, forçages atmosphériques).
La figure ci-dessous montre la vorticité du champ de courant à deux profondeurs de l’océan superficiel (surface et 800
mètres). on constate une asymétrie cyclone/anticyclone fonction de la profondeur. Les cyclones dominent entre 0 et
600 mètres de profondeur, soit une extension verticale nettement supérieure à celle observée dans des études récentes, alors que la vorticité anticyclonique domine entre 600 et 1000 mètres de profondeur (Roullet et Klein, phys.
Rev. Lett., 2010).
cette forte asymétrie sur la verticale qui caractérise des dynamiques différentes est en cours de rationalisation, en
termes de flux de chaleur verticaux.
champ de vorticité relative en surface (panneaux du haut) et 800 mètres de profondeur (panneaux du bas), totale (panneaux de gauche) et quand les filaments sont filtrés (panneaux de droite). © projet 268, p. Klein, Lpo-iFREMER.
36- RappoRt d’activités GENci 2010
modélisation atmosphérique
simulations de la météorologie, de la couche limite d’Ekman stratifiée, de la formation des nuages et des précipitations, de la physico-chimie des aérosols, ainsi que des feux de forêts
projets Ct1 : 0005, 569, 1605, 2178, 6033, 6069, 6309 et 6660
moyens GEnCI : JadE (ciNEs), vaRGas et BRodiE (cNRs/idRis)
Ce groupe de projets s’intéresse aux processus complexes qui influent sur la structure de la basse atmosphère, la formation des
précipitations, et la physico-chimie des aérosols. L’exemple choisi
illustre une application de la modélisation atmosphérique à la
simulation des incendies de forêts en région méditerranéenne :
les cas de Lançon-de-Provence en 2005 et de Lisbonne en 2003.
Ce projet est lié au projet ANR/IDEA.
Les incendies de forêt peuvent avoir un effet important sur
l’écosystème terrestre, localement ou plus globalement, notamment si on considère les émissions de carbone. depuis la fin du
XXe siècle, malgré les mesures de lutte et de surveillance prises,
le nombre d’incendies touchant de vastes surfaces (plus de
1000 hectares) est en augmentation, non seulement en fréquence mais aussi en gravité. Mieux comprendre leurs interactions avec l’atmosphère contribue également à renforcer la
La figure produite ci-dessous présente des résultats d’une simu- connaissance de tous les facteurs qui concourent au système
lation à échelle hectométrique idéalisée préparant des études climatique.
ultérieures sur cas réel. pour ces simulations, le modèle atmosphérique était perturbé par des flux de chaleur sensible et des flux de chaleur latente correspondants à des incendies
de forêt de type méditerranéen ou boréal.
Le modèle reproduit correctement le comportement des panaches de fumée pour chacun des cas étudiés.
cette simulation, pour laquelle le comportement de la couche limite perturbée est résolu par la turbulence tridimensionnelle, offre une solution de référence pour développer le modèle complet pour la modélisation des incendies qui
ont frappé la région de Lisbonne au portugal en 2003 (coopération avec l'Université d'aveiro au portugal).
coupe verticale altitude - distance au feu de l'énergie cinétique turbulente et de la concentration en aérosols de combustion pour le cas
de l'incendie de Lançon-de-provence en 2005 - maille horizontale (dx=200 m). Le front d’incendie est à l’abscisse 0 au sol.
© aNR/idEa.projet 005, c. Mari, La-oMp.
RappoRt d’activités GENci 2010 - 37
mécanique des fluides, fluides
réactifs, fluides complexes
Comité thématique 2
Bilan & perspectives - luc vervisch, président du Ct2
C
e comité thématique regroupe 140 projets de recherche bénéficiant des supercalculateurs de GENci et dédiés à l’analyse des propriétés physiques des écoulements de
fluides. Le spectre des applications concernées est très large, depuis l’aérodynamique externe
jusqu'aux écoulements chargés en polymères ou en interaction avec un champ électrique, en
passant par les écoulements de liquide réactifs ou encore les flammes.
La description de la complexité, qui résulte du couplage entre les phénomènes fortement non
linéaires observés dans ces écoulements, a considérablement progressée avec la mise à disposition des supercalculateurs de GENci. par la mise en œuvre de calculs utilisant plusieurs milliers
de processeurs, comme le démontre les trois exemples ci-après, il est aujourd'hui possible d’analyser le comportement détaillé d’un écoulement complexe dans des systèmes réels.
En complément, des études plus fondamentales préparent les méthodes et les modèles numériques de demain, avec une croissance sensible sur l’année 2011 des projets présentant un caractère multi-physique marqué, donc couplant la modélisation de plusieurs phénomènes en
interaction, comme le rayonnement, les changements de phase (condensation, évaporation, ébullition) ou encore les écoulements chargés en particules et les interactions entre fluide et structure.
cette diversité confirme le dynamisme de la communauté « mécanique des fluides », qui bénéficie et tire pleinement parti des moyens mis à disposition par GENci pour faire progresser la
connaissance et préparer les outils qui seront indispensables demain à l’optimisation des systèmes industriels.
ces travaux ont donné lieu à des publications dans les meilleures revues scientifiques spécialisées
en mécanique des fluides, telles que « Journal of Fluid Mechanics » publiée par cambridge University press ou « physics of Fluids » publiée par l’american institute of physics.
L’analyse des bases de données numériques générées à partir des calculateurs de GENci a aussi
contribué au développement d’outils utiles à l’analyse des diagnostics expérimentaux et ces travaux ont trouvé leur place dans la revue « Experiments in Fluids » publiée par springer. En complément, on trouve des articles dans les grandes revues concernant les écoulements réactifs telle
que « combustion and Flame » ou les écoulement polyphasiques comme « international Journal
of Multiphase Flow ». 
38 - RappoRt d’activités GENci 2010
simulation de la combustion turbulente et démonstrateur
calcul intensif pour l’optimisation des chambres de
combustion aéronautiques
centre Européen de Recherche et de Formation avancée en calcul scientifique (cERFacs) et institut de Mécanique
des Fluides de toulouse (UMR cNRs 5502)
responsables projet : p. Wolf et t. poinsot
moyens GEnCI : JadE (ciNEs)
trouver des moyens toujours plus efficaces, plus propres et
Parmi les voies explorées pour disposer de sources énergétiques moins polluants de produire de l‘énergie est une thématique
plus efficaces et plus propres, le CERFACS s’est concentré sur une majeure de recherche. Y parvenir nécessite de bien comprendre
technologie couramment utilisée pour la production électrique ce qui se passe au cœur des processus énergétiques afin de les
et la propulsion des véhicules (hélicoptères, avions de ligne, ba- optimiser pour améliorer leurs rendements tout en réduisant
teaux) : les turbines à gaz. Ces dernières constituent, en effet, les niveaux de pollution.
aujourd’hui la technologie la plus efficace utilisant des énergies
fossiles : leur rendement pour la production d’électricité est l’un des meilleurs tandis que le niveau de pollution qu’elles
produisent reste très faible. Malgré ces avancées techniques, la compréhension et l’optimisation du comportement
des turbines sont indispensables pour améliorer encore significativement leur rendement et réduire les niveaux de pollution.
Les études réalisées sur le supercalulateur JadE du ciNEs ont permis de simuler certaines des instabilités (dites azimuthales) se produisant dans la chambre de combustion d’un démonstrateur de turbine à gaz industrielle (moteur
d’hélicoptère), en prenant en compte la totalité de la chambre ainsi que tous les détails géométriques la constituant.
Une tâche inenvisageable il y a seulement deux ans.
L’utilisation de la machine JadE a permis de vérifier que le résultat obtenu est lié au maillage défini préalablement
(en passant de 41 à 93 et enfin à 330 millions de cellules). ce résultat constitue une première mondiale, qui a été
reprise comme exemple aux Etats-Unis dans le rapport du department of Energy (doE) consacré à l’avenir du calcul
scientifique (the opportunities and challenges of Exascale computing. summary of the advanced scientific computing
advisory subcommitte - ascac. departement of Energy, Fall 2010) et, en Europe, dans le rapport pRacE (the scientific
case for a European super computing infrastructure. petascale computing in Europe. HEt European High performance
computing initiative. Report of the pRacE initiative 2010).
L’analyse de cette simulation a été effectuée au summer program 2010 du
center for turbulence Research de l’Université de stanford en californie
(Etats-Unis). La figure ci-contre montre la géométrie 360° de la chambre de
combustion : tous les injecteurs de la turbine y sont simulés avec les détails
décrivant la complexité du système.
visualisation de champs instantanés de température (au premier
plan) et de pression dans une simulation grande échelle (LEs) de
chambre complète d’hélicoptère © cERFacs.
RappoRt d’activités GENci 2010 - 39
simulation d'écoulements incompressibles et turbulents autour de
géométries complexes
Laboratoire de Mécanique des Fluides (UMR cNRs 6598), Ecole centrale de Nantes
responsable projet : M. visonneau
moyens GEnCI : vaRGas (cNRs/idRis)
Les outils numériques développés dans le domaine de la
L’une des applications liées à l’hydrodynamique navale consiste
à rechercher, par la simulation, les positions d’équilibre de carènes de navires à échelle réelle. Ce type de simulation implique
la prise en compte de nombreux phénomènes physiques couplés,
dont certains restent encore à découvrir ou à éclaircir. Les données obtenues ont permis de montrer l’adéquation entre résultats
expérimentaux et numériques.
mécanique des fluides ont atteint un degré de maturité tel
qu’on peut aujourd’hui élargir leur application au domaine
naval, notamment. ainsi l’étude d’écoulements réels autour
de corps en mouvement est-elle désormais abordable avec
les moyens de calculs actuels : position d’équilibre d’un bateau à une vitesse donnée, comportement dynamique, tenue
à la mer...
Le logiciel isis-cFd, développé par le cNRs et qui permet la résolution des équations de Navier-stokes en moyenne
de Reynolds, est bien adapté à l’étude des écoulements incompressibles multi-fluides. La méthode de discrétisation
basée sur une approche volumes-finis non-structurée généralisée permet de traiter des géométries de complexité arbitraire avec des modélisations de la turbulence, comprenant des modèles statistiques linéaires isotropes on non-linéaires anisotropes ainsi que des modélisations hybrides pour le couplage avec la simulation des grandes échelles de
la turbulence.
a l’aide des supercalculateurs de GENci, il a été possible d’aborder avec précision des écoulements caractérisés par
des nombres de Reynolds de l'ordre du milliard. au cours des dernières années, l'effort a porté sur l'implantation de
procédures parallélisées d'adaptation de maillage automatiques anisotropes avec équilibrage de charge dynamique.
Les figures ci-dessous montrent un écoulement autour d'une plaque en incidence perçant la surface libre et illustrent
l’accord entre résultats expérimentaux et simulation numérique. on note, en particulier, l'existence d'un puissant tourbillon ventilé, prenant naissance au coin inférieur de la plaque et qui transporte sous la surface libre une quantité
d'air entraînée par succion. seule l’utilisation conjointe de schémas de capture d'interface compressifs et d'une procédure de raffinement automatique de maillage dans le cadre du calcul intensif permet de décrire ce phénomène
spectaculaire et très localisé.
Ecoulement autour d'une plaque en incidence perçant la surface libre : à gauche, l’essai en bassin de traction ; à droite, la simulation numérique avec isis-cFd
40 - RappoRt d’activités GENci 2010
simulations aérodynamique et propagation acoustique : application
aux voilures hypersustentées
institut Jean Le Rond d'alembert (UMR cNRs 7190), Université pierre et Marie curie
responsables projet : s. Galdéano et p. sagaut
moyens GEnCI : BaBEL (cNRs/idRis)
L'aéroacoustique est une section de l'acoustique dont
L’aéroacoustique numérique consiste à prédire le bruit généré par un
écoulement ; cette discipline est en plein essor, pour mieux comprendre les sources de bruit à travers l’analyse de certains écoulements
comme les jets ou les sillages mais également, depuis peu, avec la simulation d’écoulements autour de systèmes réels qui nécessitent un
contrôle affiné du bruit généré.
l’objet est d’étudier la génération d'un bruit par un écoulement turbulent (par exemple, dans un jet libre) ou en
interaction avec une surface (profil d’aile, pales de rotor
d’un hélicoptère, roues de compresseur ou de turbine,
cavité...). cette discipline intéresse le monde de l'aéronautique mais également celui de l'automobile (pour le
confort des passagers).
Le supercalculateur massivement parallèle BaBEL de l’idRis a permis
de simuler l’écoulement autour d’un profil dit « hypersustenté » d’aile d’avion (permettant à l’aile de conserver sa
portance à la vitesse la plus basse possible), caractéristique d’une phase d’atterrissage. Le champ acoustique a ensuite
été extrait de l’écoulement simulé.
L’objectif de ces simulations est de prédire le bruit émis par un tel dispositif. Les figures montrent l’évolution des structures aérodynamiques responsables du bruit, que la simulation a permis d’identifier, et une première tentative de détermination des sources acoustiques à la surface de l’aile étudiée, ainsi que leur intensité relative.
position et intensité relative des sources acoustiques
surfaciques
visualisation des structures aérodynamiques
RappoRt d’activités GENci 2010 - 41
simulation biomédicale
et applications à la santé
Comité thématique 3
Bilan & perspectives - marc thiriet, président du Ct3
l
es applications du calcul scientifique à la santé représentent un thème émergent
en calcul intensif. deux grands axes existent. La biologie computationnelle aborde les phénomènes biologiques par l'analyse des données. Elle a, par exemple, pour objectif de mettre en
évidence les circonstances qui déclenchent un processus particulier parmi tous les mécanismes
possibles. outre la modélisation mathématique et les simulations des cascades de signalisation
cellulaires dynamiques, la biologie computationnelle incorpore des techniques d'optimisation,
de calcul haute performance, de traitement des images médicales ainsi que la recherche de données (data mining) et leur analyse. En bioinformatique, branche qui correspond à la partie ingénierie de ce champ disciplinaire, les chercheurs conçoivent et fournissent des logiciels d'analyse
des données biologiques. L'enjeu est de déchiffrer les relations entre génotypes et phénotypes
et les corrélations entre le génôme des individus, la nutrition, l'environnement et le mode de
vie, parmi d'autres facteurs qui influencent leur histoire naturelle - leur santé et les pathologies
dont ils sont affectés.
L'analyse du cadre transcriptionel et translationnel (expression allèle-spécifique, expression génique variable selon le contexte, l'épissage alternatif, régulation par les petits RNas, etc.) est
nécessaire pour la mise en évidence des caractères associés aux affections.
La biologie computationnelle ne représente qu'un aspect - certes, le plus avancé - des applications du calcul scientifique intensif à la santé.
L'autre axe concerne les biomathématiques et la biomécanique. L'avenir va d'ailleurs solidariser
ces deux disciplines. il s'agit, cette fois, non plus de définir le sujet pour mieux cerner les risques
de développer une maladie donnée et, dans la mesure du possible, de prévenir son apparition
ou au moins de minimiser les complications susceptibles de survenir au cours de l'évolution de
cette maladie. L'objectif est de mieux comprendre de manière à compléter efficacement le bilan
diagnostique, planifier et optimiser le traitement, et améliorer le pronostic.
dans ce but, la modélisation et les simulations des processus biologiques à diverses échelles
d'espace et de temps sont couplées aux traitements des signaux et images médicales pour obtenir les données d'entrée et le domaine de calcul (après reconstruction tridimensionnelle et maillage adéquats). cependant, de nombreuses étapes restent encore à franchir avant de mettre à
la disposition du monde médico-chirurgical des outils de calcul performants.
Les simulations dans le domaine biomédical font, en effet, appel le plus souvent à des équations
aux dérivées partielles d'ordre et de complexité variables, à des couplages de méthodes de résolution numériques, à des phénomènes chimiques et physiques variés.
de nos jours, la médecine et la chirurgie minimalement invasives utilisent le transport de nanovecteurs par les conduits naturels et le transfert de chaleur (par exemple, les nanoaérosols ou
l’ablation radiofréquence et ultrasons haute fréquence pour le traitement des cancers). toute
simulation de telles techniques requiert un couplage multiphysique qui pourra être effectué sur
une plateforme de calcul intensif. ce cadre de recherche fait d'ailleurs l'objet d'appels d'offres
réguliers de la communauté Européenne (virtual physiological Human [vpH]).
42 - RappoRt d’activités GENci 2010
L'étude du fonctionnement d'un système physiologique (en règle générale, compliqué par sa
configuration et sa structure et complexe par son fonctionnement et sa régulation) fait intervenir
toutes les grandes branches de la science (chimie, physique, mathématique et biologie), aussi
bien aux échelles nanoscopiques (molécules en interactions générées par les multiples sources
de signalisation cellulaire qui déclenchent des cascades de réactions chimiques provoquant le
libération de molécules stockées ou la synthèse de protéines), microscopiques (cellules en interactions), mésocopiques (tissus biologiques) que macroscopiques (organes).
actuellement, les biomathématiciens se concentrent surtout sur les petites échelles (en lien avec
l'histologie et la biologie moléculaire) et les biomécaniciens travaillent à l'échelle macroscopique
(en lien avec l'anatomie et la physiologie). Le calcul sur des ordinateurs traditionnels ou des aggrégats de calculateurs est alors suffisant.
toutefois, le couplage de méthodes et techniques est indispensable car tout tissu biologique est
un milieu vivant, donc réactif. Un exemple : la mécanotransduction artérielle permet de réguler
localement le calibre vasculaire pour assurer un flot sanguin aux tissus et une postcharge cardiaque adéquats. Les cellules de la paroi artérielle captent et répondent aux sollicitations mécaniques engendrées par le mouvement du sang par une vasorelaxation ou constriction selon le
contexte. intégrer ce contrôle essentiel nécessite donc de prendre en compte les processus aux
petites échelles. de plus, isoler arbitrairement une partie d'un organe ou d'un réseau de vaisseaux pour une étude détaillée localisée n'est pas satisfaisant. ainsi différent niveaux de couplages existent.
Les approches multidisciplinaires et multiéchelles reposent sur le couplage de modèles et de
leur résolution. ce couplage ne pourra être efficacement résolu dans des temps raisonables
qu’avec le calcul haute performance. Les outils sont en cours de développement, ce qui explique
le faible nombre d'investigations dans le domaine. L'existence récente du ct3 a pour objectif de
favoriser toutes les avancées scientifiques et technologiques qui permettent de booster la recherche pour développer des outils médico-chirurgicaux. 
Actions soutenues en 2010
En bioinformatique
 imMunoGenetics information system, par l'équipe de v. Giudicelli de l'institut de Génétique Humaine (cNRs,
UpR 1142)
 annotations structurale, fonctionnelle et comparative des génomes de plantes tropicales et méditerranéennes
à partir des nouvelles méthodes de séquençage à très haut débit, par l'équipe de M. Ruiz du ciRad
En biomathématiques
 contrôle spatialisé d'un vecteur de la maladie de chagas dans un village réel, par l'équipe de s. Gourbière de l'Université de perpignan
 Modélisation des propriétés structurales et thermodynamiques de phospholipides, par l'équipe de t.
Mineva de l'institut charles Gerhardt à Montpellier (cNRs, UMR5253)
 Mécanismes d'interactions entre nanotubes de carbone et membranes biologiques, par l'équipe de L.
perrin à l'iNsa de toulouse.
En biomécanique
 pathologies artérielles par l'équipe de F. Nicoud de l'institut de Mathématique et Modélisation de
Montpellier
 Rhéologie de l'os chez la femme après la ménopause, par l'équipe d'Hélène Follet de l'iNsERM (U831)
à Lyon.
RappoRt d’activités GENci 2010 - 43
Astrophysique et géophysique
Comité thématique 4
Bilan & perspectives - Edouard Audit, président du Ct4
l
es thématiques du comité astrophysique et géophysique concernent pour 2010
52 projets, soit une légère augmentation par rapport à 2009. parmi ces projets, environ un
tiers (17 projets) correspondent à des nouvelles demandes : il s’agit d’un taux de renouvellement
assez important qui montre que de plus en plus d’équipes sont amenées à utiliser les grands
équipement de calculs pour leurs travaux de recherches. Quant à la répartition entre astrophysique et géophysique, elle demeure stable : 33 projets pour l’astrophysique et 19 pour la géophysique.
Les machines vectorielles ne sont quasiment plus utilisées par les projets relevant du ct4. La
consommation concerne très majoritairement les machines scalaires massivement parallèles classiques et ce comité représente environ 14 % de l’attribution sur ces machines. cette proportion
n’a pas évolué depuis 2009.
L’utilisation de la BlueGene reste très (trop…) faible. Les équipes ne se sont pas investies dans
le portage de leurs codes sur cette plateforme malgré le nombre d’heures important disponible
en France et les perspectives européennes dans le cadre de pRacE.
En revanche, il y a eu un travail substantiel de développement sur GpU et le ct4 utilise à lui seul
30 % des heures disponibles sur ce type de machine. Les GpU sont principalement utilisés par
des équipes souhaitant réaliser des études paramétriques nécessitant un nombre important de
simulations de tailles intermédiaires et, souvent, avec des évolutions temporelles longues. ces
éléments mériteraient sans doute d’être intégrés à une réflexion plus globale sur l’évolution des
moyens de calculs ainsi que sur le soutien et la formation des communautés.
parmi les 52 projets, 15 ont reçu un financement de l’aNR, essentiellement sur les programmes
blancs et jeunes chercheurs, et 14 ont bénéficiés de financements d’autres types (programme
nationaux, Europe, région,…).
La quasi-totalité des thématiques liées à l’astrophysique utilise les moyens de calcul nationaux.
depuis l’étude des systèmes planétaires et de leur formation jusqu’à l’évolution des galaxies et
la cosmologie en passant par la physique stellaire et la dynamique du milieu interstellaire, la plupart des simulations s’intéresse à l’évolution dynamique d’un système sous l’effet de la gravité,
du champ magnétique et de l’hydrodynamique. cependant, environ 10 % des dossiers concernent
la physique de base nécessaire à l’étude de systèmes astrophysiques, principalement les opacités
et les équations d’états.
dans le domaine de la géophysique, les projets concernent principalement les études sismiques
avec des aspects théoriques mais également la modélisation des tremblements de terre réels et
de leurs conséquences géophysiques. d’autres domaines à forte valeur sociétale, comme le
stockage de co 2 , sont également en émergence. 
44 - RappoRt d’activités GENci 2010
Collisions de molécules interstellaires
Equipe astRoMoL, institut de planétologie et d'astrophysique de Grenoble (ipaG), observatoire de Grenoble
Equipe aMplus, Laboratoire d'Etude du Rayonnement et de la Matière en astrophysique (LERMa), observatoire de
Meudon
responsable projet : a. spielfiedel
L’étude de la physique et des propriétés des objets de l'Unimoyens GEnCI : cNRs/idRis
vers (étoiles, planètes, milieu interstellaire, galaxies) repose
notamment sur l’analyse des radiations électromagnétiques
Notre compréhension de la physico-chimie du milieu interstellaire, composé de gaz et de poussières, repose en grande partie
sur l’observation des spectres de raies atomiques et moléculaires, émis et/ou absorbés par des nuages, des étoiles évoluées
ou des régions de formation stellaire. L'interprétation de ces
spectres s'appuie sur notre connaissance de la spectroscopie et
de la physique des collisions.
(ondes radio, infrarouge, ultraviolet, rayons X ou gamma) qu’ils
émettent. Elle permet de mieux connaître leur luminosité, leur
densité, leur température et leur composition chimique, et
ainsi de progresser vers la compréhension des mécanismes de
formation et d’évolution des étoiles et des structures cosmiques.
Les « coefficients de collision » permettent de quantifier l'importance relative des processus radiatifs et collisionnels,
en compétition dans les plasmas astrophysiques, et de contraindre les conditions de température et densité. Le calcul
de ces coefficients nécessite de résoudre numériquement et successivement les équations dites de schrödinger électronique (la «surface d'énergie potentielle») et nucléaire (le mouvement des noyaux).
ces deux étapes sont très demandeuses en temps de calcul et taille mémoire mais sont réalisables grâce aux moyens
offerts par les centres nationaux de calcul.
parmi les résultats marquants dans ce domaine, on citera le travail sur le système H2o-H2 pour lequel de nombreuses
comparaisons à l'expérience ont permis de valider toute la chaîne de calcul, avec une précision sur les observables (sections efficaces,
spectre des états liés, etc.) de l'ordre de
quelques pourcents. du point de vue astrophysique, ce travail a permis notamment de
confirmer la faible abondance de vapeur
d'eau dans les nuages sombres.
RappoRt d’activités GENci 2010 - 45
la formation des nuages moléculaires et des étoiles
Laboratoire d'Etude du Rayonnement et de la Matière en astrophysique (LERMa), observatoire de Meudon
responsable projet : p. Hennebelle
moyens GEnCI : JadE (ciNEs)
Notre galaxie, la voie Lactée, contient des centaines de mil-
Pour progresser dans la compréhension des mécanismes
de formation des étoiles, les astrophysiciens utilisent une
grande variété d’outils comme les modèles numériques qui
permettent de révéler l’existence de phénomènes et d’effets
qui ne pourraient être vus autrement.
liards d'étoiles qui semblent éternelles à l’échelle humaine.
pourtant, les étoiles ne sont pas des astres immuables mais des
objets « vivants », qui naissent, vivent et meurent. La compréhension des mécanismes de formation des étoiles dans le milieu interstellaire (composé de gaz et de poussières) est un
enjeu majeur pour les astrophysiciens.
La formation des étoiles est un sujet d'une grande importance en astrophysique et qui fait l'objet d'une intense compétition sur le plan international. Les dûes numériques soulevées par cette problématique sont de taille du fait de la dynamique des échelles qu'il est
nécessaire de couvrir ainsi que de la grande diversitée des phénomènes physiques qui sont à l'œuvre dans
le processus de formation des étoiles.
L'objectif de l'étude présentée est de former des nuages moléculaires de manière cohérente à partir du milieu interstellaire diffus puis de suivre leur évolution afin de comprendre comment se forment les cœurs
denses prestellaire. ceci constitue la première phase de la formation des étoiles.
La simulation réalisée sur JadE à l'aide du code à maillage adaptatif RaMsEs, développé au service d’astrophysique du cEa (cEa/dsM/iRFU/sap) pour modéliser la formation des grandes structures et des galaxies,
a nécessité près d'un demi-million d'heures de
calcul.
partant d'un flot convergeant de gaz interstellaire atomique diffus, des « clumps » (blocs)
denses se développent sous l'influence de la
pression dynamique et de l'instabilité thermique.
Lorsque la quantité de masse accumulée est
suffisante, l'instabilité gravitationnelle se développe et donne lieu à la formation d'étoiles.
densité de colonne (densité intégrée le long de la ligne de
visée) d'un nuage moléculaire turbulent, magnétisé et multiphasique.
46 - RappoRt d’activités GENci 2010
optimisation de la modélisation sismique tridimensionnelle
Laboratoire de Modélisation et imagerie en Géosciences
responsable projet : R. Martin
moyens GEnCI : titaNE (cEa/ccRt) et JadE (ciNEs)
Les tremblements de terre produisent des ondes sismiques
Ces travaux sont menés en vue de réduire les temps de simulation 3D de la propagation des ondes sismiques dans
le cas d’un tremblement de terre. Ils concernent plus précisément la région du sous-sol du Golfe du Mexique.
qui traversent la planète, en se réfléchissant ou en se diffractant selon la nature des roches qu’elles rencontrent. L’étude de
ces ondes fournit des informations utiles non seulement pour
comprendre les événements sismiques et progresser vers leur
prédiction mais également pour mieux connaître les structures
afin de comprendre un peu mieux comment imager les six profondes de la terre.
premiers km de la zone du Yucatan où se trouve le cratère
du chicxulub généré par l’impact d’un astéroide il y a 65 millions d’années, l’équipe de recherche a propagé
numériquement dans un profil sismique modélisé à partir de données fournies par l’institut de Géophysique
de l’UNaM qui a mené différentes campagnes sismiques depuis une quinzaine d’années, notamment en
2005. Elle a effectué quatre expériences, deux avec une source sismique de 3.5 Hz située en proche surface
au milieu du modèle ou à gauche du modèle et un schéma d’ordre 2, deux autres avec les mêmes positions
de la source mais avec une fréquence de 14 Hz et un schéma en temps d’ordre 4 (Runge-Kutta d’ordre 4) et
un schéma en espace
d’ordre 8 avec coefficients de Holberg.
il est intéressant d’observer que, sur les figures,
les ondes sont piégées
dans les couches superficielles jusqu’a une profondeur d’environ 3 km.
ceci amène à penser que
les sismogrames peuvent
difficilement renseigner
sur les couches se situant
en-dessous de ces 3 km.
En revanche, dans le cas
de sources situées à
gauche du modèle, on
peut observer que certaines ondes se propagent en-dessous de ces 3
propagation de l’énergie dans une tranche fine tridimensionnelle réaliste d’une région du sous-sol du Golfe km et le long de la
du Mexique à différents instants.
tranche fine à des vitesses bien supérieures à
ce qui se passe en surface. du coup, ces ondes arriveront aux récepteurs situés loin de la source (à « large
off-set ») avant les ondes piégées qui se propagent en surface. L’excellente troncature du modèle sur les
bords et, en particulier, en profondeur du modèle permettrait de mieux illuminer les couches inférieures et,
par ce biais, mieux imager les couches profondes ayant en moyenne des vitesses sismiques plus importantes
qu’en surface. En conjuguant ces techniques d’illumination à « large-offset », optimisées par cpML et/ou
adEpML, avec des techniques potentielles gravimétrique, électrique ou magnétique, on peut imager très
précisément les données du sous-sol.
L’objectif était d’obtenir des temps de calcul raisonnables, pour chacun des milliers de calculs nécessaires à
l’inversion de données. Le choix d’une troncature optimale des bords a permis de réaliser des calculs 3d
plus rapides pour des coûts proches du 2d.
RappoRt d’activités GENci 2010 - 47
physique théorique
et physique des plasmas
Comité thématique 5
Bilan & perspectives - sylvie jacquemot, présidente du Ct5
Le comité thématique n°5 « physique théorique et physique des plasmas » regroupe une assez grande variété de sujets distincts pour lesquels la modélisation numérique
joue un rôle essentiel, en appui à des programmes expérimentaux d’envergure, tels que les projets de tokamak itER (international thermonuclear Experimental Reactor) et de laser LMJ (laser
mégajoule), actuellement en construction sur les sites du cEa à cadarache et au cEsta près de
Bordeaux, ou encore HipER (High power laser Energy Research facility).
sont ainsi abordés des problèmes d’électromagnétisme, avec des simulations visant à concevoir
des instruments pour l’étude des interactions onde-vivant [1], de physique théorique, avec des
thèmes aussi riches que la Qcd sur réseau [2], le chaos quantique, les propriétés électroniques
des solides et de la matière condensée [3], et de physique des plasmas, créés par interaction
laser-matière à ultra-haute intensité ou de fusion, magnétique (FcM) ou inertielle (Fci).
parmi les faits marquant de ces deux thématiques, outre les deux exemples développés en pages
suivantes, il convient de mentionner une étude numérique de l’accélération d’électrons par laser
au-delà du Gev à l’aide du code caLdER (voir illustration page 51) [4], le développement d’un
outil numérique hybride fluide-particules, dérivé du code XtoR-2F [5] et une analyse bidimensionnelle de la génération et du transport d’électrons suprathermiques, mettant en exergue le
rôle des courants de surface [6].
En 2010, environ 260 millions d’heures ont été attribuées sur l’ensemble des machines disponibles (à l’exception des NEc sX8R et sX9 du ccRt) aux 42 dossiers évalués. Une dizaine d’articles
remercient GENci pour son soutien et l’accès à ces ressources. Une demi-douzaine de thèses en
ont également bénéficié. 
[1] M. Keenan et al., iEEE trans. Biomed. Engineering 58, 207 (2011)
[2] c. alexandrou et al., phys. Rev. d 83, 045010 (2010)
[3] M. Ferrero et al., phys. Rev. B 82, 054502 (2010)
[4] X. davoine et al., New J. phys. 12, 095010 (2010)
[5] H. Lütjens and J.F. Luciani, J. comput. phys. 229, 8130 (2010)
[6] s. Micheau et al., phys. plasmas 17, 122703 (2010)
48 - RappoRt d’activités GENci 2010
Etude cinétique d’une turbulence dans un plasma magnétisé
cEa/direction des sciences de la matière/institut de recherche sur la fusion magnétique (dsM/iRFM)
responsable projet : Y. sarazin
moyens GEnCI : JadE (ciNEs)
La fusion thermonucléaire est un processus où deux noyaux
Les tokamaks, tel qu’ITER (International Thermonuclear Experi- atomiques s’assemblent pour former un noyau plus lourd. cette
mental Reactor), visent à produire une réaction auto-entretenue réaction est à l’œuvre de manière naturelle dans le soleil et les
de fusion thermonucléaire en confinant un plasma d'environ étoiles de l'Univers. si on arrivait à la reproduire sur terre,
150 millions de degrés Kelvin au moyen d'un champ magnétique l’homme disposerait d’une source d’énergie quasiment inépuiintense, de plusieurs Teslas. Dans ces réacteurs de forme torique, sable. deux voies sont aujourd’hui explorées : la fusion par
le plasma ne peut être maintenu à cette température, nécessaire confinement magnétique (exemple ci-contre) et la fusion par
à sa combustion, qu’à la condition que l'isolation thermique de confinement inertiel (voir page suivante).
l'enceinte magnétique soit suffisamment efficace. Or, des fluctuations turbulentes de l'ordre du pourcent s’y produisent, provoquant une déperdition de chaleur et augmentant le temps
de confinement nécessaire à l’obtention d’un plasma auto-entretenu. Tout l'enjeu des simulations dites « premiers
principes » (ou ab initio) en turbulence des plasmas de fusion est de comprendre l'origine et les propriétés de cette
micro-turbulence afin de prédire le temps de confinement dans les machines de prochaine génération et de proposer,
si possible, des voies pour la contrôler.
Le faible taux de collisions dans ces plasmas chauds et très dilués impose une description cinétique. c’est l’objet du
code global gyrocinétique GYsELa, développé par l'institut de recherche sur la fusion par confinement magnétique
du cEa, à cadarache, en collaboration avec l'iNRia - projets aNR EGYpt (2007-2010) & GYpsi (2010-2013).
dans cette approche, l'espace des phases est ramené à 5 dimensions (3 de position, 2 de vitesse) par une moyenne
sur le mouvement rapide de giration des particules autour des lignes de champ. Le nombre de points de grille nécessaires à la résolution des structures turbulentes croît non linéairement avec la taille de la machine, typiquement
comme la taille au cube.
Une simulation « Grand challenge » sur Jade a notamment permis d'étudier la turbulence dans un quart de tore de
la taille d'itER. pour cela, l'espace 5d a été discrétisé au moyen de 272 milliards points de grille, et environ une milliseconde de temps plasma a été simulée en utilisant 8 192 processeurs pendant 1 mois.
La figure ci-contre présente une carte instantanée des fluctuations du potentiel électrique,
sortes d'analogues des cyclones et anticyclones en turbulence atmosphérique. cette simulation a notamment permis de mettre en évidence la mise en rotation spontanée et
différentielle du plasma sous l'effet des couplages non-linéaires des fluctuations turbulentes (figure ci-dessous).
L'enjeu est d'importance puisqu'une rotation cisaillée est susceptible de réduire le
transport turbulent, voire de le supprimer.
ci-dessus : coupe instantanée, dans un plan essentiellement transverse au champ magnétique, des cellules de convection turbulentes
du potentiel électrique.
ci-contre : évolution temporelle de la vitesse moyenne du plasma le
long du champ magnétique, au centre du domaine de simulation.
RappoRt d’activités GENci 2010 - 49
propagation d’une impulsion laser intense dans un plasma
millimétrique
cEa/direction des applications militaires, Bruyères-le-châtel (daM/diF)
responsable projet : E. Lefebvre
moyens GEnCI : JadE (ciNEs)
dans le cas de la fusion thermonucléaire par confinement
Dans le cadre du schéma d’allumage rapide pour la fusion ther- inertiel, l'énergie est apportée par un faisceau de lumière laser
monucléaire par confinement inertiel, une impulsion laser de ou par un faisceau de particules chargées (électrons ou ions) à
haute intensité (environ 1019 W/cm2) doit traverser un plasma une bille de combustible de quelques millimètres de diamètre.
détendu de plusieurs millimètres pour apporter son énergie L’une des voies explorées consiste à envoyer une impulsion
dans les régions denses d’une cible fusible. A de telles intensités, laser de forte intensité sur une cible préalablement comprimée
la propagation du rayonnement laser dans le plasma est forte- (allumage rapide).
ment non linéaire ; elle peut s’accompagner de multiples instabilités et la pression électromagnétique du rayonnement est suffisamment forte pour mettre en mouvement la matière :
l’impulsion se propage en creusant le plasma sur son passage. Pour modéliser ces phénomènes complexes, et accéder
notamment à la vitesse avec laquelle l’impulsion laser se propage dans la matière, ainsi qu’à l’énergie perdue lors de
cette propagation, des simulations de type cinétique doivent être réalisées, sur de grands volumes et des temps longs.
a l’aide du code caLdER utilisant jusqu’à 1024 cœurs de la machine JadE, cette interaction a été décrite en géométrie
2d dans des plasmas présentant un gradient de densité exponentiel de 0.003 à 0.3 nc sur 2 mm, ou de 0.1 à 0.25 nc
sur 0.4 mm. dans le premier cas, le volume de calcul est maillé par environ 150 millions de cellules dans lesquelles le
plasma est décrit par une méthode particulaire, en suivant le mouvement de plus d’un milliard de particules, électrons
et ions, pendant plusieurs centaines de milliers d’itérations.
Lorsque l’impulsion laser traverse des régions de
basse densité (ci-contre, en haut à gauche), sa
propagation est relativement régulière et rectiligne, marquée par une évacuation radiale du
plasma (ci-contre, en haut à droite) et une suite
de foyers non-linéaires (ci-contre, en bas à
droite).
En fin de parcours, dans les régions de plus forte
densité, une légère déviation de l’impulsion commence à se manifester. dans le cas d’une propagation à plus forte densité (ci-contre, en bas à
gauche), on observe rapidement une focalisation
forte de l’impulsion laser suivie de son éclatement en deux branches (filamentation) et plusieurs petits faisceaux périphériques emportant
peu d’énergie.
densité ionique (en haut, à t=7,4 ps à gauche et t=2,1 ps à droite) et
moyenne quadratique du champ laser (en bas) pour la propagation d’une impulsion de 1019 W/cm2 dans des plasmas de densités basse (à gauche :
0.003 nc) ou intermédiaire (à droite : 0.1 nc).
La simulation numérique fournit ainsi des indications précieuses sur le couplage laser/plasma à haute intensité, préfigurant les situations qui seront rencontrées sur les installations expérimentales en projet, comme le laser pétawatt
pEtaL, et aide à en tirer le meilleur parti.
50 - RappoRt d’activités GENci 2010
étude numérique de l’accélération d’électrons par laser au-delà du Gev à l’aide du code CAldEr
carte de la modulation de densité électronique créée dans le sillage d'une impulsion laser, brève - 30
femtosecondes - et intense - 3x1019 W/cm 2 - mettant en évidence, au milieu de la cavité plasma, un paquet d'électrons accéléré à 3 Gev sur seulement 3,8 cm de plasma.
moyens GEnCI : titaNE (cEa/ccRt)
RappoRt d’activités GENci 2010 - 51
Informatique, algorithmique
et mathématiques
Comité thématique 6
Bilan & perspectives - jacques Blum, président du Ct6
d
ans le comité thématique « informatique, algorithmique et mathématiques »
(ct6), 20 projets ont fait l’objet d’une attribution d’heures de calcul à concurrence de :
- 88 000 heures sur le cluster anakin (iBM sp) du ciNEs et 288 000 heures sur la machine JadE
(sGi-Xeon) du ciNEs ;
- 185 000 heures sur la machine vaRGas (iBM sp) du cNRs/idRis et 975 000 heures sur BaBEL
(Blue Gene) du cNRs/idRis et 800 heures sur le NEX sX8 ;
- 113 000 heures sur la machine pLatiNE (Bull itanium) du cEa/ccRt, 456 650 heures sur la machine titaNE (Bull Xéon) du cEa/ccRt et 68 750 heures sur titaNE GpU (Bull Xeon/GpU).
Les thèmes des projets vont des algorithmes numériques (algorithmes évolutionnaires, méthodes
multigrilles, éléments finis discontinus, méthodes particulaires, schémas d’ordre élevé, décomposition de domaines) aux problèmes de parallélisation (solveurs de systèmes linéaires, bibiothèques numériques, scalabilité des codes, calcul de valeurs propres).
Les domaines applicatifs sont extrêmement variés : calcul de structures, indexation d’images,
cryptographie, électromagnétisme, dynamique moléculaire, milieux poreux, simulation d’aquifères...
Les projets ne sont en général pas demandeurs d’un très grand nombre d’heures, mais nécessitent d’être exécutés sur plusieurs machines pour pouvoir comparer les performances des algorithmes et des bibliothèques, développés suivant la structure de parallélisme disponible. 
52 - RappoRt d’activités GENci 2010
progrès dans la simulation numérique de particules chargées
institut de recherche mathématique avancée (iRMa, UMR 7501), strasbourg
responsable projet : E. sonnendrucker
moyens GEnCI : pLatiNE et titaNE
Les équations de vlasov-maxwell sont utilisées pour modé-
Un des problèmes des codes pour la résolution numérique des
équations de Vlasov-Maxwell est la conservation de la charge
dans l'algorithme numérique. Si l'algorithme utilisé ne conserve
pas la charge, il faut modifier les équations de Maxwell pour introduire une correction. Utilisée classiquement dans la plupart
des codes, cette technique présente l'inconvénient d'introduire
une correction non locale du champ électrique qui est problématique pour certaines applications, notamment l'interaction
laser-matière.
liser le comportement d’un plasma, « gaz » de particules chargées électriquement. dans un plasma, les particules chargées
créent un champ électromagnétique qui agit à son tour sur
elles. Les équations de vlasov-Maxwell traduisent ce comportement : il s’agit du couplage entre les équations de Maxwell
qui mesurent le champ électromagnétique créé dans le plasma
et l’équation de vlasov qui décrit le mouvement des particules
dans ce champ. ces travaux théoriques contribuent à une meilleure connaissance des plasmas, notamment dans le cadre des
études menées sur l’interaction laser/matière.
des techniques existaient pour les codes pic (particle in cell),
mais pas pour les codes résolvant l'équation de vlasov sur un maillage de l'espace des phases.
En exploitant une idée introduite récemment par sircombe et arber pour les méthodes de type volume fini, une équipe
de recherche de l’iRMa à strasbourg a développé un algorithme permettant la conservation exacte de la charge pour
les méthodes semi-Lagrangiennes. Elle a implanté et validé cette méthode dans le code parallèle sLv2d. Les simulations
ont été réalisées sur les machines du ccRt avec lesquelles l'amortissement Landau (transfert d'énergie entre une
onde électromagnétique et des électrons, diminuant l’amplitude de l’onde électromagnétique) a pu être vérifié (voir
figure ci-dessous) et des mesures d'erreurs sur la conservation de la charge effectuées.
 N. crouseilles, th. Respaud, E.
sonnendrücker, a forward semiLagrangian method for the numerical solution of the vlasov equation. comput. phys. comm. 180
(2009), no. 10, 1730–1745
 N. crouseilles, th. Respaud, a
charge preserving scheme for the
numerical resolution of the vlasov-ampère equations, to appear
in comm. in comput. phys.
amortissement Landau pour vlasov-poisson et vlasov-Maxwell (norme L2 du champ électrique en fonction du temps en échelle log) © iRMa
RappoRt d’activités GENci 2010 - 53
solveurs parallèles efficaces en algèbre linéaire :
méthodes multigrilles pour des systèmes de très grande taille
centre européen de recherche et de formation avancée en calcul scientifique (cERFacs), toulouse
responsable projet : X. vasseur
moyens GEnCI : JadE (ciNEs) et BaBEL (cNRs/idRis)
En analyse numérique, les méthodes de krylov sont un pro-
L’équipe du CERFACS à Toulouse travaille à la résolution de sys- cédé algorithmique itératif, utilisé pour résoudre un problème,
tèmes creux (systèmes n’ayant que peu de coefficients non nuls) comme la recherche de la solution d’un système d'équations.
de très grande taille par méthode multigrille utilisée comme pré- a partir d’une valeur initiale considérée comme une première
conditionnement de méthodes dites de Krylov. L'application ébauche de solution, les itérations permettent de déterminer
visée concerne la résolution de problèmes tridimensionnels de une succession de solutions approximatives qui se rapprochent
propagation d'ondes acoustiques, modélisée par l'équation graduellement de la solution cherchée.ces méthodes sont utid'Helmholtz dans le domaine fréquentiel et munie de conditions lisées ici pour modéliser en 3d la propagation d’ondes acouslimites de radiation. Comme alternative pour le traitement des tiques en fonction de conditions bien précises.
conditions limites, une formulation absorbante dite Perfectly
Matched Layer (PML) a été également envisagée. La discrétisation par méthodes de différences finies d'ordre deux de
ce problème induit notamment la résolution de systèmes linéaires creux à coefficients complexes de très grande taille.
L'objectif principal consiste donc à développer des méthodes itératives robustes et fiables à base de méthode multigrille. Les chercheurs ont développé et parallélisé une méthode multigrille géométrique tridimensionnelle utilisée
comme préconditionnement d'une méthode de Krylov. La résolution de ce problème par méthode multigrille s'avère
délicate, notamment car l'opérateur discrétisé conduit à une matrice indéfinie. En conséquence, une hiérarchie constituée de deux grilles est utilisée conformément aux travaux pionniers d'Elman et al. au sein de leur approche, une résolution itérative approximative est employée sur le niveau grossier. ce choix algorithmique leur a permis de simuler
des problèmes de propagation à nombre d'onde élevé sur un nombre réduit de processeurs. L’équipe s’est concentrée
sur des problèmes réalistes issus du domaine public où le champ de vitesse v est variable (milieu inhomogène). Grâce
aux heures obtenues sur JadE et sur BaBEL en 2010, elle a pu poursuivre le développement et l'étude de préconditionnement à deux grilles pour la résolution de systèmes indéfinis de très grande taille. Les résultats obtenus à la fois
dans le cas simple et multiples second(s) membre(s) sont encourageants, notamment pour l'aspect scalabilité faible.
des études complémentaires sont nécessaires pour améliorer les performances de scalabilité forte.
 X. pinel, a perturbed two-level preconditioner for the solution of three-dimensional heterogeneous Helmholtz problems with applications
to geophysics, thèse de doctorat, institut National polytechnique de toulouse, cERFacs technical Report tH/pa/10/55, 2010
Weak scalability experiments on Jade
Weak scalability experiments on Babel
70
600
60
500
Ideal case
Ideal case
Jade
Babel
400
Acceleration Factor
Acceleration Factor
50
40
30
300
200
20
100
10
0
0
32
256
32
256
2048
2048
16384
Cores
Cores
scalabilité faible: facteur d'accélération obtenu sur deux plateformes différentes JadE (à gauche) et BaBEL (à droite) (taille maximale
des problèmes 4351*4351*1368 sur 2048 cœurs de JadE et 2200*2200*709 sur 16384 cœurs de BaBEL, respectivement) © cERFacs
54 - RappoRt d’activités GENci 2010
Algorithmique numérique creuse
institut de recherche en informatique de toulouse (iRit, UMR 5505), toulouse
responsable projet : a. Buttari
moyens GEnCI : JadE (ciNEs) et vaRGas (cNRs/idRis)
Un algorithme (l'algorithmique en est la science) est un pro-
L’équipe de l’IRIT, à Toulouse, a mené, en 2010, des travaux sur cessus de résolution, par le calcul, d'un problème : il décrit la
l'algorithmique numérique parallèle creuse, plus précisément la série d’opérations à effectuer pour obtenir la réponse au prorésolution efficace de systèmes linéaires creux de grande taille blème posé ; il est mis en œuvre sous la forme d’un langage de
en parallèle grâce à des méthodes directes. Ce thème répond à programmation. plus le problème est complexe ou de grande
de nombreuses applications, en particulier les méthodes de si- taille, plus l’algorithme devra prendre en compte de paramèmulation par différences ou éléments finis, ainsi que certains tres. si les opérations d'un algorithme s’exécutent les unes
problèmes d'optimisation numérique. Un des aspects impor- après les autres, c'est un algorithme séquentiel, si elles s’exétants de ces recherches concerne plus particulièrement le pascutent en même temps, c'est un algorithme parallèle.
sage à l'échelle de ces méthodes sur des problèmes à plusieurs
millions d'équations, ce qui passe par plus de parallélisme et la mise en place d'algorithmes de résolution hors mémoire
ou out-of-core.
ce projet se situe dans le cadre de collaborations fortes entre l'iRit (équipe apo), le LaBRi (équipe/projet scaLappLiX)
et le Lip (équipe/projet GRaaL), et s'inscrit en grande partie dans la poursuite de développements autour du logiciel
MUMps (http://graal.ens-lyon.fr/MUMps et http://mumps.enseeiht.fr), qui permet d'expérimenter, de valider et de
diffuser les résultats de ces travaux de recherche.
En 2010, l’équipe de l’iRit a poursuivi plus particulièrement des travaux sur les points suivants :
- la résolution de problèmes des moindres carrés (voir figure ci-contre).
En 2010, la réalisation d'un nouveau logiciel parallèle pour la factorisation
multifrontale QR des matrices creuses de grande taille s’est poursuivie. ce
logiciel sera développé pour des systèmes de calcul parallèles hybrides à
mémoire distribuée et partagée, et sera donc capable d'exploiter efficacement la puissance des processeurs multicoeurs.
- le passage à l'échelle (ou scalabilité) vis-à-vis de la mémoire. Le parallélisme du solveur d'algèbre linéaire creuse de l’iRit est basé sur l'exploitation du graphe de dépendance de tâches qui, dans le cas de matrices
symétriques, est un arbre (appelé arbre d'élimination).
- la prise en compte de la structure creuse des seconds membres. pour de
nombreuses applications (ajustement de données, moindres carrés, calcul
© iRit
de la base propre, calcul d'entrées de l'inverse d'une matrice), les seconds passage à l'échelle du logiciel qr_mumps pour la
membres des équations à résoudre sont creux et parfois seule une partie factorisation QR des matrices Rucci1 et ohne2
de la solution doit être calculée.
- les architectures multicœurs : MUMps est une plateforme logicielle dont le parallélisme est basé sur le paradigme
du transfert de messages (standard Mpi) mais pouvant aussi bénéficier de l'exploitation d'un parallélisme de type processus légers (thread) par l'utilisation de bibliothèque BLas multithreadées. de ce point de vue, on peut considérer
que MUMps peut combiner les deux modèles de parallélisme (Mpi et threads). pour autant, on peut espérer des gains
en performances par une réécriture des calculs locaux d'une part en gérant explicitement les threads grâce à un environnement de développement tel que openMp, d'autre part en utilisant des techniques de programmation adaptées
aux spécificités des nouveaux processeurs.
Les machines de GENci ont été utilisées pour mettre au point les codes et les algorithmes, en particulier vaRGas et
JadE, qui a aussi été très important pour analyser le comportement du logiciel MUMps sur différents problèmes de
très grande taille (plusieurs dizaines de millions d'inconnues).
 patrick amestoy, iain duff, Yves Robert, François-Henry Rouet, Bora Uçar. on computing inverse entries of a sparse matrix in an out-of-core
environment. Rapport de recherche, Rt-apo-10-06, institut National polytechnique de toulouse, juin 2010.submitted to sisc.
 a. Buttari. Fine granularity sparse QR factorization for multicore based systems. to appear on the paRa 2010 conference proceedings.
RappoRt d’activités GENci 2010 - 55
systèmes moléculaires organisés
et biologie
Comité thématique 7
Bilan & perspectives - yves-henri sanejouand, président du Ct7
l
'année 2010 a été marquée par la publication, par un groupe de scientifiques
américains, de la première simulation d'une milliseconde de la dynamique à température ordinaire d'une protéine (shaw & col. 2010, science 330, p. 341), c'est-à-dire de la première simulation qui nous permet d'accéder aux échelles de temps expérimentalement et, surtout,
biologiquement les plus significatives.
Le contraste avec la longueur des simulations évoquées ci-après (quelques dizaines de nanosecondes pour celles de M. delarue & col., quelques microsecondes pour celles de M. tarek & col.)
est, bien sûr, en grande partie dû au fait que les systèmes étudiés ont des tailles très différentes.
Néanmoins, cette première exploration des « grandes » échelles de temps en appelle d'autres.
Elle va, en outre, très certainement à brève échéance, contribuer à marginaliser les simulations
sub-microsecondes. dans le même article, l'équipe de d.E. shaw démontre que les champs de
force « standards » sont suffisants pour permettre de prédire la structure tridimensionelle de
« mini-protéines » avec une précision remarquable (de l'ordre de l'angström).
Les travaux de N. Gresh & col. évoqués ci-après laissent néanmoins penser fortement que l'étude
des propriétés fonctionnelles des protéines ne pourrait s'avérer possible qu'avec des champs de
force de seconde génération, incluant au moins les effets de polarisation de manière explicite.
signe de la qualité des projets menés au sein du ct7, trois articles scientifiques ont été publiés
en 2010 dans les revues Nature et acs Nano ainsi que dans le Journal of the american chemical
society. Un quatrième est à paraître dans la revue de l’académie des sciences américaine (proceedings of the National academy of sciences of the United states of america). 
56 - RappoRt d’activités GENci 2010
mode d’action de deux anesthésiques généraux
Unité de dynamique structurale des Macromolécules, institut pasteur
responsables projet : M. delarue
moyens GEnCI : vaRGas (cNRs/idRis)
administrés avant un geste chirurgical ou interven-
Deux siècles après leur découverte, le mode d’action des anesthésiques
généraux reste mal connu. Les résultats obtenus par l’équipe de Marc
Delarue ont permis de progresser dans cette connaissance et ouvrent
des perspectives dans la conception de composés plus performants.
tionnel, les anesthésiques généraux ont pour propriété commune de provoquer une perte de
conscience liée à une modification de l’activité du système nerveux central. ils doivent agir pendant un
temps court et induire des effets indésirables aussi
L’objet de l’étude était de déterminer la structure tridimensionnelle de
deux anesthésiques généraux, le propofol et le desflurane, en complexe
avec un récepteur-canal de la membrane cellulaire.
faibles que possible.
Les simulations numériques réalisées à partir de ces structures ont permis un premier déchiffrage du mode d'action
de ces anesthésiques. des simulations de dynamique moléculaire effectuées sur la machine vaRGas de l'idRis ont,
en effet, permis de corréler les mouvements des anesthésiques dans leurs sites de liaison avec la modification de l'activité du récepteur.
cela pourrait constituer une première étape vers la conception de nouveaux composés, plus spécifiques et aux effets
secondaires réduits (H. Nury & col, 2011).
Résultats de simulations de dynamique moléculaire de l'anesthésique propofol lié au récepteur GLic. (a) vue du domaine
extracellulaire indiquant les positions du propofol (bâtonnets verts), superposés à des intervalles de 0.5 ns sur la position
de départ (hélices et surface) et finale (hélices transparentes) de la protéine pendant les simulations de 30 ns. Le schéma à
gauche décrit le code couleur utilisé, et les trois panneaux correspondent à la forme native et aux mutants t255a et
v242M, respectivement. (b) distribution des distances entre le centre de masse du propofol et le centre du pore. La distribution est déplacée vers le centre du pore pour les mutants qui induisent une inhibition accrue.
RappoRt d’activités GENci 2010 - 57
rôle crucial des molécules d’eau ‘polarisables’
pharmacochimie moléculaire et cellulaire, U648 iNsERM
responsables projet : N. Gresh
moyens GEnCI : JadE (ciNEs) et vaRGas (idRis)
La focal Adhesion kinase (kinase fAk) est une protéine pré-
Une meilleure connaissance de la kinase FAK pourrait ouvrir la
voie à la conception de médicaments plus efficaces dans le traitement du cancer. Par la méthode de mécanique moléculaire
SIBFA (Sum of Interactions Between Fragments Ab initio computed), l’équipe de Nohad Gresh a étudié les affinités de cinq
inhibiteurs anioniques développés par la firme pharmaceutique
Novartis avec la kinase FAK.
sente dans presque tous les types de cellules et qui est impliquée
dans la régulation de certains processus vitaux, comme la prolifération et la migration cellulaires. La kinase FaK jouerait un rôle
important dans le développement de certains cancers tels que
les cancers du sein, de la prostate, du côlon, de la glande thyroïde, ou des ovaires où on la trouve à des niveaux très élevés.
Un résultat essentiel a été de mettre en évidence le rôle crucial de molécules d’eau ‘discrètes’ au sein du site de complexation. En leur absence, les bilans d’énergie ne permettent pas de retrouver le classement expérimental. En leur
présence, ce classement peut être effectivement retrouvé.
ces résultats constituent la première démonstration du rôle indispensable des molécules d’eau polarisables (W1 à W5 dans la figure cicontre) dans des bilans d’énergie comparatifs (de courcy & col, 2010).
58 - RappoRt d’activités GENci 2010
fonctionnement des canaux ioniques
Equipe de dynamique des assemblages Membranaires, cNRs UMR 7565
responsables projet : M. tarek
moyens GEnCI : JadE (ciNEs)
présents dans la membrane de toutes les cellules, les canaux ioniques
L’équipe de Mounir Tarek étudie, par modélisation mo- permettent le passage d'un ou plusieurs ions. il existe de nombreux types
léculaire, plusieurs protéines qui jouent un rôle clef de canaux ioniques, qui peuvent être sélectivement perméables à un seul
dans le fonctionnement de certaines membranes bio- ion comme le sodium, le calcium, le potassium et le chlorure, ou bien à
logiques. Parmi ces protéines, les canaux ioniques qui plusieurs ions à la fois. ils jouent un rôle central dans le fonctionnement
sont des micro-générateurs de signaux électriques pré- des cellules excitables comme les neurones ou les cellules musculaires et
sents dans toutes les cellules, plus particulièrement cardiaques, ainsi que dans celui du rein.
dans les cellules neuronales, cardiaques ou musculaires. Les travaux menés visent à étudier l’activation de ces canaux afin de mieux caractériser leur fonction et de comprendre les mécanismes impliqués dans leurs éventuels dysfonctionnements.
Les allocations attribuées par GENci, ainsi que celles mises à disposition dans le cadre des « Grands défis » sur le supercalculateur JadE du ciNEs (environ 4 millions d'heures cpU) ont permis de mettre en évidence des détails moléculaires impliqués dans le fonctionnement du canal, jusque là inaccessibles expérimentalement.
sur un système de 300 000 atomes, il a été possible de simuler la réponse (dynamique) d’un canal potassique de mammifère soumis à des conditions physiologiques d’activation sur une échelle de temps inédite, dépassant les deux microsecondes. Les détails moléculaires impliqués dans l’activation du canal ont ainsi pu être révélés (delemotte & col,
2011).
En outre, des études concernant l’action de nanoparticules sur ces mêmes canaux ont permis de montrer que des
particules comme les fullerènes (c60) peuvent moduler le fonctionnement de ces canaux, révélant l’effet néfaste que
peuvent avoir ces composés sur l’excitabilité cellulaire (Kraszewski & col, 2010).
ces résultats originaux, mis en évidence in-silico, ouvrent de nouveaux champs d’investigation et permettent aujourd’hui de proposer des expériences ciblées à visée thérapeutique.
(a) Binding of c60 from the intracellular domain of
MthK. From left to right: consecutive snapshots from
Md simulations. the compound binds to the channel’s gate and induces a blockage of the K+ conduction pathway represented here (point density in
color codes) by its hydrophilic pore volume.
(b) snapshots from Md simulations of a tetraethylammonium (tEa) ion approaching the channel from
the intracellular domain. Note that here tEa migrates through the channel gate toward its binding
site inside the internal cavity.
RappoRt d’activités GENci 2010 - 59
Chimie quantique
et modélisation moléculaire
Comité thématique 8
Bilan & perspectives - yves Ellinger, président du Ct8
l
a politique de soutien au calcul scientifique en chimie quantique et modélisation
moléculaire développée par GENci depuis sa création permet à la communauté de disposer
aujourd’hui, à la fois de la puissance de calcul et des moyens nécessaires en terme de logiciels
grâce à la mise à disposition de grands codes (commerciaux) sur les centres de calcul.
si la grande majorité des projets du ct8 reste centrée sur des systèmes moléculaires finis dont
les dimensions augmentent avec les années, le centre de gravité des heures allouées s’est déplacé vers les systèmes infinis. Que ce soit pour l’étude des propriétés des molécules isolées
(structures ou signatures spectrales), des molécules dans un environnement spécifique (liquide
ou solide) ou en interaction réactive avec d’autres molécules ou des surfaces, ces travaux reposent sur l’utilisation des logiciels habituels de la discipline. citons adF, Gaussian09, MoLpRo et
GaMEss pour les systèmes de dimensions finies ; dans le cas des systèmes infinis (solides en tant
que tels ou supports d’une activité catalytique), mentionnons les codes tels que cRYstaL, adFBand ou vasp, les calculs dynamiques relevant de code dits « first principle » de type cpMd.
À côté des codes standards, il faut souligner les avancées réalisées à la frontière de la physique
atomique/moléculaire et de la dynamique quantique réactionnelle sur les méthodes à base d’ondelettes (EsRF-Grenoble) ou Monte carlo quantique (Lct UpMc). Le rôle de GENci est, ici, de
fournir l’outil informatique pour les exploitations intensives. trois aspects sont traités au ct8 :
- systèmes moléculaires et réactivité : un nombre important de projets concerne des systèmes
de plusieurs dizaines à quelques centaines d’atomes et l’ambition est toujours de se rapprocher
de la précision chimique ; pour les systèmes plus petits (une dizaine d’atomes), l’objectif est de
tendre vers la précision spectroscopique.
- dynamique et processus élémentaires : à l’interface de la physique et de la chimie, ce thème
est en plein développement au ct8. Le but avoué est la compréhension de ses propriétés physico-chimiques à l’échelle de la nanoparticule, voire de l’atome aussi bien qu’à l’échelle macroscopique en incluant l’aspect thermostatistique des phénomènes. dans ces cas, la modélisation
requiert le développement de nouveaux outils méthodologiques adaptés à l’échelle de l’observable considéré. Et la précision nécessaire aux traitements collisionnels représente un véritable
défi pour les chimistes théoriciens.
- à l’interface du solide : les développements méthodologiques réalisés ces dernières années
dans la description des systèmes infinis peuvent aujourd’hui exploiter pleinement les moyens
informatiques mis à disposition. La chimie quantique est ainsi en mesure d’aborder de façon précise des domaines qu’elle ne pouvait considérer auparavant. L’un de ces domaines, actuellement
en plein essor, est la catalyse hétérogène dont les applications industrielles sont croissantes. il
est ainsi possible de suivre une réaction chimique de la phase d’adsorption des réactifs à la phase
de relargage des produits. Un autre domaine à l’impact sociétal évident est celui de l’enfouissement des déchets nucléaires.
Les moyens nationaux permettent à la communauté des chimistes théoriciens français de répondre aux défis mondiaux de la simulation en chimie. si la qualité de la recherche dépend pour
partie des compétences scientifiques du chimiste, la force « brute » de calcul mise à disposition
est aussi un critère d’excellence. Les systèmes cibles et la façon dont ils sont modélisés sont devenus un compromis entre l’état de l’art de la simulation et la chimie étudiée. il est aujourd’hui
possible de pousser les modèles à leurs limites, voire de les dépasser. 
60 - RappoRt d’activités GENci 2010
transferts de charge ion/biomolécules dans le traitement du cancer
Laboratoire de spectrométrie ionique et moléculaire (Université Lyon i / cNRs), Lyon
responsable projet : M.c. Bacchus-Montabonel
moyens GEnCI : vaRGas (cNRs/idRis)
La radiothérapie externe est un des traitements de base des cancers. on
L’utilisation de rayonnements ionisants lors du traite- utilise généralement des rayonnements de haute énergie émis par des
ment médical du cancer peut entraîner l’altération de sources de cobalt radioactif ou par des accélérateurs de particules. dans
l’ADN du patient. Les dommages sont dus, non pas à certains traitements dits de curiethérapie, un corps radioactif est placé,
l’action directe des radiations sur le milieu, mais à l’ac- soit au contact immédiat des tissus à irradier, soit implanté sous forme d’aition de particules secondaires, générées le long du tra- guilles radioactives. Les doses classiquement administrées sont élevées
jet de la radiation, qui interagissent directement ou mais suffisamment espacées dans le temps pour permettre aux tissus sains
indirectement avec le milieu ambiant pour créer des de se régénérer. Mieux connaître les effets de ces traitements sur l’orgaradicaux qui peuvent réagir à leur tour avec les biomo- nisme permettra d’améliorer leur efficacité.
lécules. De nombreuses études sont menées pour analyser les interactions entre ces particules et le milieu biologique, dont celle de l’équipe du LASIM à Lyon qui a permis
de mieux comprendre les mécanismes en jeu dans le cadre des programmes européens RADAM (Radiation Damage in
Biomolecular Systems) et Nano-IBCT (Nano-scale insights in ion beam cancer therapy).
Les particules secondaires produites peuvent être des électrons lents, des radicaux comme oH (ion hydroxyde) ou
des ions. des expériences de fragmentation et excitation induite par collision ont été menées dans la réaction des
ions du carbone sur l’uracile (aRN) et la thymine (adN).
au niveau médical, il est bien connu que la substitution de la thymine par du bromouracile dans l’adN induit une forte
augmentation des dommages. ces propriétés sont largement utilisées en radiothérapie. a l’aide de simulations abinitio au niveau de « l’état de l’art », des chimistes théoriciens de Lyon ont été capables d’élucider les mécanismes
mis en jeu lors de l’action des rayonnements.
ils ont montré de façon très significative que le transfert de charge est très nettement défavorisé dans le cas des halouraciles par rapport à l’uracile, en particulier pour le 5-bromouracile. Les processus de transfert de charge et de fragmentation évoluant à l’opposé l’un de l’autre, cela conduit à une forte augmentation de la fragmentation de la molécule
et confirme le très fort effet radio-sensibilisateur des halouraciles.
M.c. Bacchus-Montabonel, Y.s. tergiman, d. talbi, anisotropic effect in collisions of ions with biomolecules, int. J. Quant. chem., 2011, 111,
520
 M.c. Bacchus-Montabonel, Y.s. tergiman, charge transfer dynamics of carbon ions with uracil and halouracil targets at low collision energies,
chem. phys. Lett., 2011, 503, 45
Evolution de la densité électronique au cours du bombardement de l’uracile par
l’ion C2+ © LASIM
RappoRt d’activités GENci 2010 - 61
les interactions dans les protéines
institut de chimie moléculaire de Grenoble (cNRs FER 2607, FEd), Grenoble
responsable projet : a. Milet
moyens GEnCI : vaRGas (idRis)
Rechercher et concevoir de nouvelles molécules et systèmes molécu-
Concevoir de nouvelles molécules-médicaments néces- laires présentant des propriétés biologiques ou physico-chimiques spécisite de savoir prédire les énergies libres d’interaction fiques intéresse les industries pharmaceutiques, agroalimentaires et
et de connaître la nature et le site d’interaction avec biomédicales. a l’interface de la chimie et de la biologie, il s’agit à la fois
la protéine cible. La description d’un système aussi de maîtriser les assemblages complexes que constituent ces matériaux mocomplexe qu’une protéine en interaction faible (mais léculaires ou macromoléculaires et de bien connaître les interactions mises
significative) avec une molécule hôte en présence d’un
en jeu.
solvant est typique d’un problème multi-échelle. C’est
un formidable défi que le chimiste théoricien doit relever pour obtenir les grandeurs thermodynamiques caractéristiques
du système. Un groupe de chercheurs grenoblois a réussi cette gageure dans le cadre de l’étude de l’interaction entre
la protéine ck2 (creatine kinase 2) et des dérivés du composé tétrabromobenzimidazole.
La stratégie employée a demandé l’interface de plusieurs codes de chimie : la chimie quantique pour décrire le plus
rigoureusement l’interaction locale entre le ligand et la protéine ; un champ de forces classique pour le reste de la
molécule ; enfin, le coût de la solvatation de l’ensemble est estimé globalement par l’équation de poisson-Boltzman
pour les termes polaires et par une estimation de l’aire de surface pour les termes non polaires.
La prise en compte de tous ces paramètres est nécessaire pour une description réaliste de tels systèmes. Mais audelà du calcul du coût énergétique de l’interaction, il s’est avéré possible d’analyser en détail le type d’interaction mis
en jeu entre la protéine et le ligand, ce qui a permis de rationaliser l’ensemble des données thermodynamiques observées et calculées.
M. Retegan, H. Jamet, a. Milet, Exploring the binding of inhibitors derived from tetrabromobenz-imidazole to the cK2 protein using a QM/MM-pB/sa approach, J. chem. info.
Model., 2009, 49, 963
Représentation 3D du site actif de la protéine ck2 en interaction avec le
tetrabromobenzimidazole © ICMG
62 - RappoRt d’activités GENci 2010
le rôle des carbonates dans la dynamique du manteau terrestre
Ecole Normale supérieure (ENs, Ulm), Laboratoire de physique théorique de la Matière condensée (UpMc) et physikalisch-chemisches institut (pci, Zürich)
responsables projet : R. vuilleumier
moyens GEnCI : JadE (ciNEs) et vaRGas
(cNRs/idRis)
Les carbonates sont des minéraux qu'on trouve en abondance à la surface de la terre, comme le carbonate de calcium qui est le constituant prin-
Bien que la teneur en carbone y soit très faible, cet élé- cipal des coquilles de différents organismes et des roches calcaires, les plus
ment joue un rôle majeur dans la dynamique du man- nombreuses parmi les roches sédimentaires. ces carbonates sont égaleteau terrestre sous forme de carbonates. La fusion ment présents dans le manteau terrestre, couche intermédiaire entre le
débute, à 300 km de profondeur, par la formation de noyau et la croûte de la terre, où les processus de déformation des minécarbonates liquides qui jouent un rôle crucial dans la raux sont encore mal connus, surtout à grande profondeur.
différentiation chimique du manteau et dans le dégazage du CO2. Cependant, la connaissance des propriétés physico-chimiques de ces carbonates reste très réduite par
rapport à celle des silicates. Une équipe franco-suisse de chimistes théoriciens a contribué à lever le voile.
pour combler cette lacune, une équipe internationale regroupant des chimistes théoriciens de paris et Zurich a simulé
le comportement de caco3 liquide par dynamique moléculaire ab-initio, dans l’intervalle 1000 - 2000 K (entre 700°c
et 1700°c environ).
pour la première fois, elle a montré que les anions carbonates co32- gardent une structure plane tout au long
de la simulation, sans formation de co2. La structure
locale autour des unités co32- a été étudiée en détail
et celle-ci semble avoir conservé la mémoire des structures cristallines d’origine. Les constantes de diffusion
trouvées sont en bon accord avec les données de viscosité disponibles.
de façon surprenante, les anions carbonates co32- diffusent presque aussi vite que les cations calcium mais
les simulations montrent également que les dynamiques des cations et des anions sont en grande partie
découplées.
Structure du carbonate de calcium fondu
© ENS/LPTMC/PCI
R. vuilleumier, N. sator and B. Guillot, Electronic redistribution around oxygen atoms in sili- cate melts by ab initio molecular dynamics simulation, sous presse à Journal of Non-crystalline solids (2011), doi:10.1016/j.jnoncrysol.2011.02.051
RappoRt d’activités GENci 2010 - 63
physique, chimie
et propriétés des matériaux
Comité thématique 9
Bilan & perspectives - Alain pasturel, président du Ct9
C
es dix dernières années, les simulations dans le domaine de la physique, chimie et propriétés des matériaux ont connu une profonde évolution, aussi bien du point de vue des disciplines que
le comité recouvre que du point de vue des domaines applicatifs.
il importe d’en prendre conscience afin que notre communauté puisse continuer à bénéficier des moyens
nationaux à la fois pour contribuer à la dynamique propre de ses disciplines mais aussi de profiter de cette
dynamique pour répondre au mieux à des secteurs applicatifs comme l’énergie, l’environnement, les micro
et nanotechnologies…
Le bilan de l’année 2010 montre une stabilité du nombre de projets avec un peu plus de 100 projets structurés autour d’équipes comprenant en moyenne trois à quatre permanents. Les attributions des ressources
ont concerné essentiellement les machines parallèles, la demande en calcul vectoriel étant devenue très
faible. Les projets du ct9 représentent en taux d’utilisation un peu plus de 10 % des capacités des machines
parallèles mises à notre disposition par GENci. Notons également que quelques projets font appel à la machine massivement parallèle, BaBEL. ces demandes reposent pour la plupart sur des simulations classiques
de type dynamique moléculaire et devraient s’accroître au cours des prochaines années.
comme il l’a été déjà mentionné, les simulations numériques basées sur les calculs ab initio représentent
plus de 70 % des projets du comité et sont devenues un outil incontournable, servant le plus souvent d’interface entre une théorie « modèle » et une réalité expérimentale de plus en plus complexe. Les trois exemples présentés ci-après concernent tous un domaine d'application prometteur, la nano-électronique, tout
en présentant chacun une réflexion différente, liée à la compréhension de mécanismes fondamentaux en
physique et en sciences des matériaux.
au cours de ces dernières années, il y a eu un réel effort de parallélisation des codes ab initio pour exploiter
la centaine de cœurs de calcul. pour les années futures, le passage de ces codes au massivement parallèle
(plusieurs milliers de cœurs) va nécessiter le développement de nouveaux algorithmes.
Un autre challenge de la communauté du ct9 concerne le passage à une véritable intégration des différentes
échelles de calcul pour aider à la conception et l’élaboration de matériaux aux propriétés bien spécifiques.
outre des interactions accrues entre disciplines, ces simulations multi-échelles nécessiteront des moyens
de calculs de plus en plus importants. 
64 - RappoRt d’activités GENci 2010
phénomène de surfusion par dynamique moléculaire ab initio
Laboratoire de science et ingénierie des matériaux et des procédés (siMap, cNRs-Grenoble iNp-UJF)
responsables projet : N. Jakse, o. LeBacq, a. pasturel
moyens GEnCI : JadE (ciNEs) et vaRGas
(cNRs/idRis)
La surfusion est un état particulier de la matière dans lequel un liquide
ne gèle pas alors qu’il est à une température plus basse que son point ha-
Découverte par Fahrenheit dès 1724, la surfusion reste bituel de cristallisation (par exemple, de l’eau qui reste liquide au-dessous
encore aujourd’hui un phénomène aux mécanismes de 0°). ce phénomène est notamment caractéristique des nuages de haute
mal connus. Les travaux réalisés par une équipe du altitude qui sont une accumulation de gouttelettes d’eau en surfusion, en
SIMAP à Grenoble ont permis de progresser dans la
raison de la pureté de l’air à ces altitudes.
connaissance de ce phénomène, en confortant une
théorie formulée dans les années 1950 et ouvrant la voie à la production de structures semi-conductrices à des températures de croissance faible.
dans les années 1950, des théoriciens avaient postulé que la structure atomique d’un liquide métallique pouvait empêcher sa cristallisation lorsqu’elle présentait une organisation locale en forme de pentagones ne permettant pas un
pavage périodique de l’espace. très récemment, des simulations de type dynamique moléculaire ab initio ont permis
de révéler la présence de structures pentagonales dans des métaux et alliages liquides, certains d’entre eux étant
connus pour leur facilité à former des phases quasicristallines au cours d’une solidification rapide [1, 2].
Les simulations de dynamique moléculaire ab initio ont permis également d’expliquer un nouveau phénomène de
surfusion remarquable [3], à savoir une surfusion de plus de 350°c de l’alliage eutectique or-silicium en contact avec
une surface de silicium décorée par des pentagones d’or.
si une surface est le plus souvent un centre de nucléation
pour une phase liquide, dans le cas présent cette surface particulière structure le liquide à l’interface en favorisant l’existence des pentagones dans la phase liquide et en les
stabilisant lors du refroidissement.
ce résultat devrait avoir des applications technologiques importantes dans le domaine de la croissance des nanofils pour
lequel l’alliage eutectique est un catalyseur et, plus généralement, en métallurgie avec l’obtention de nouveaux matériaux
par solidification d’un liquide surfondu.
[1] N. Jakse and a. pasturel, phys. Rev. Lett. 91, 2003, 205702.
Gouttelette de l’alliage eutectique or-silicium sur une surface de
[2] N. Jakse, o. LeBacq and a. pasturel, phys. Rev. Lett. 93, 2004, 207801.
silicium. Les atomes dans le liquide s’organisent en structure
[3] t.U. schulli, R. daudin, G. Renaud, a. vaysset, o. Geaymond et
pentagonale ce qui empêche le liquide de cristalliser bien en
a. pasturel Nature 464, 2010, 1174.
dessous de sa température de solidification.
RappoRt d’activités GENci 2010 - 65
Etude ab initio de la croissance de nano-objets
Laboratoire de simulation atomistique (L_sim), iNac cEa-UJF Grenoble
responsables projet : p. pochet, d. caliste, L. Genovese, t. deutsch
moyens GEnCI : titaNE (cEa/ccRt)
Les nanosciences et nanotechnologies (Nst) recouvrent l'ensemble des
La compréhension des mécanismes de croissance et études et des procédés de fabrication et de manipulation de structures, de
d'auto-organisation des nanostructures est un pro- dispositifs et de systèmes matériels à l'échelle du nanomètre (nm). a cette
blème très important en nanosciences. à cette échelle, échelle, la matière présente des propriétés particulières qui peuvent être
en effet, les propriétés de ces objets sont pilotées par exploitées dans différents domaines comme la médecine, l’électronique
leur structure locale (e.g. confinement quantique) dont (circuits intégrés) ou encore l’énergie (LEd pour la production de lumière).
la configuration dépend de leurs conditions d'élaboration. La maîtrise de ces conditions de synthèse est donc une étape incontournable pour permettre le design de nouvelles
nanostructures. Une équipe du Laboratoire L_Sim à Grenoble a obtenu des résultats significatifs sur des nano-objets
en carbure de silicium (SiC).
si les méthodes ab initio permettent aujourd'hui de reproduire avec une grande précision l'énergie de formation et
les propriétés d'une structure connue expérimentalement, la tâche est plus ardue lorsqu'il s'agit de simuler les mécanismes de croissance. dans ce cas, on se heurte à la nécessité d'une exploration exhaustive de l'espace des configurations des positions atomiques. Une telle exploration est possible grâce à l'utilisation de méthodes telles que la
méthode d'activation Relaxation [1]. cette méthode a déjà fait ses preuves pour prédire avec des potentiels empiriques, le repliement de protéines contenant plusieurs milliers d'atomes.
dans le cas des nanostructures, le couplage avec les méthodes de premiers principes s’avère nécessaire mais délicat
car plus coûteux en temps de calcul. Les performances remarquables du code BigdFt [2] sur les machines massivement
parallèles ainsi que sur les nouvelles machines hybrides à base de processeurs graphiques permettent de lever ce verrou. En effet, ce code est efficace à plus de 80 % jusqu'à 1000
cœurs tout en pouvant être accéléré d’un facteur 7 sur processeurs graphiques. ces résultats ont d'ailleurs été récompensés en 2009 par le prix Bull-Fourier.
cette approche est illustrée ci-contre dans le cas des cages de
sic [3] pour lequel la rapidité de BigdFt nous a permis d'étudier de façon systématique la structure de cages stœchiométriques.
trois familles de cages ont ainsi été mises en évidence : elles
sont toutes des minima locaux dans l'espace des configurations mais une seule est le minimum global (panel f).
par ailleurs, une analyse de la topologie de ces cages a permis
de proposer un nouveau procédé d'élaboration qui a fait l'objet d'une demande brevet en 2009.
stabilité de différentes cages de sic en fonction de la répartition
[1] N. Mousseau et G. t. Barkema, phys. Rev. E 57, 2419 (1998).
chimique
[2] L. Genovese et al. J. chem. phy. 129, 014109 (2008).
[3] p. pochet et al. phys. Rev. B 82, 035431 (2010).
66 - RappoRt d’activités GENci 2010
le couplage électron-phonon dans les matériaux à base de carbone
théorie et simulation Numérique des propriétés électroniques, intitut Néel, cNRs, Grenoble
responsables projet : c. attaccalite, X. Blase, v. olevano, c. Faber
moyens GEnCI : vaRGas (cNRs/idRis)
Le couplage électron-phonon caractérise les interactions qui se
Le couplage électron-phonon joue un rôle important sur le produisent, dans un solide, entre le mouvement des électrons et
transport électronique, notamment comme source de diffu- les vibrations des molécules ou de sa structure entière. ces intersion des électrons dans les métaux. Récemment, plusieurs ex- actions influent sur les propriétés optiques, magnétiques et élecpériences sur des systèmes nano-électroniques à base de
troniques de ces solides.
carbone ont montré que les interactions entre électrons (corrélation électronique) peuvent modifier de manière fondamentale le couplage entre électrons et phonons. Une équipe
théorique de l’Institut Néel a montré qu’il était possible de calculer le couplage électron-phonon en incluant les effets
de corrélation électronique en utilisant des méthodes ab-initio mais également de reproduire les données expérimentales.
Le couplage électron-phonon entre dans plusieurs phénomènes de la physique des solides : supraconductivité, spectres
Raman, transport quantistique, structure atomique. Les méthodes ab-initio, basées sur la théorie de la fonctionnelle
de la densité (dFt ou density Functional theory), permettent aujourd’hui de reproduire la plupart de ces phénomènes.
pourtant, ces techniques ne sont pas encore capables de prendre en compte les systèmes où la corrélation est forte.
Le graphène (cristal de carbone), et les systèmes à base de carbone en général, ont été toujours considérés comme
des systèmes à corrélation faible, sur lesquels la dFt marche bien. Mais de récentes expériences de spectroscopie
Raman et de diffusion de rayons X ont montré un désaccord avec la théorie.
c’est pour cette raison que l’équipe théorique de l’institut Néel a décidé d’étudier le couplage électron-phonon au
delà de la dFt. En utilisant la théorie des perturbations, aussi appelée approximation GW, ils ont réussi à corriger les
résultats obtenus avec la dFt et à reproduire les données expérimentales [1, 2].
pour réaliser ce type de calculs, l’équipe s’est servie d’un code « ondes planes »,
Yambo3, développé dans le même laboratoire en collaboration avec d’autres
groupes européens.
phonons dans le graphène : la ligne pleine reproduit les calculs réalisés avec
dFt en approximation Lda, la ligne en pointillé les corrections apportées par
l’utilisation de l’approximation GW, et les points les résultats expérimentaux.
L’équipe est actuellement en train d’étendre ce type d’études à des systèmes moléculaires et à des solides organiques
[4]. Une première étude, appliquée au couplage électron-phonon dans la fullerène c60 en GW, est en cours de soumission [5].
[1 ]M. Lazzeri, c. attaccalite et al. phys. Rev. B 78, 081406(R) (2008)
[2] c. attaccalite et al., Nano Letters, 10(2) 1172 (2010)
[3] a. Marini et al., comp. phys. comm. 180, 1392 (2009)
[4] X. Blase, c. attaccalite, v. olevano, phys. Rev. B 83, 115103 (2011)
[5] c. Faber, J. L. Janssen, M. côté, E. Runge, X. Blase, Electron-phonon coupling in the c60 fullerene within the many-body GW approach. En
préparation.
 http://www.yambo-code.org
RappoRt d’activités GENci 2010 - 67
nouvelles applications et
applications transverses du
calcul intensif
Comité thématique 10
Bilan & perspectives - thierry massard, président du Ct10
C
e comité rassemble les thématiques transverses à plusieurs disciplines ainsi que des thématiques nouvelles dans l’application du calcul intensif. cela concerne, en particulier, les applications
industrielles, le calcul mécanique, la conception de grandes installations, le comportement de la matière en
conditions extrêmes que ce soit dans les intérieurs planétaires ou les grands instruments etc.
En 2010, cinq dossiers ont été acceptés, qui sont pour la plupart des projets en continuation.
1. perspectives pour les calculs en minéralogie des couches profondes de la terre - Razvan caRacas, Laboratoire des sciences de la terre - ENs Lyon
2. interaction rayonnement/matière appliquée aux composants électroniques - arnaud BoURNEL, institut
d’électronique fondamentale - orsay
3. optimisation du chargement des réacteurs nucléaires de 3ème génération - Jean-Michel do, cEa/dEN
4. caractérisation de l'équation d'état du fer dans le noyau terrestre par lasers haute énergie - Michel Koenig,
Ecole polytechnique LULi - orsay
5 - applications des filaments laser ultracourts pour les technologies de compression optique et les systèmes
de détection à large bande - Luc Bergé, cEa-daM
Le nombre de propositions adressées à ce comité thématique et qui constituent de nouveaux sujets reste
faible, alors que les sujets industriels transverses ne manquent pas. Qu’il s’agisse en particulier de calculs
de structures complexes ou encore de thermomécanique des assemblages.
Un effort pédagogique est sans doute à faire pour élargir le champs des propositions qui seront faites dans
les prochaines années. Nous avons choisi d’illustrer l’activité du ct10 à travers une courte présentation des
résultats obtenus par trois de ces projets. 
68 - RappoRt d’activités GENci 2010
optimisation du chargement des réacteurs nucléaires de troisième
génération
cEa/direction de l’énergie nucléaire, saclay
responsable projet : J.M do
moyens GEnCI : titaNE (cNRs/idRis)
L’Evolutionary power reactor (Epr) dont plusieurs unités sont
Ce projet, baptisé SCALP, s'inscrit dans le cadre d’études de
recherche et développement menées par le CEA sur les réacteurs de troisième génération. L'objectif est d'améliorer le facteur de conversion de l'uranium naturel en élément fissile par
rapport aux réacteurs à eau pressurisée actuels, pour un coût
d'investissement limité. D’où le choix d'un cœur chargé avec
le maximum de combustible Mox (oxyde mixte uranium-plutonium) qui permettra également une meilleure utilisation du
combustible Mox déjà existant.
actuellement en construction dans le monde (Finlande, France et
chine) représente la 3e génération de réacteurs nucléaires. destiné
aux pays disposant d'un réseau électrique de forte capacité capable de distribuer une puissance électrique de l'ordre de 1 600 mégawatts, il a été conçu pour obtenir un meilleur taux d’utilisation
du combustible, permettant à la fois de générer moins de déchets
radioactifs et de diminuer sensiblement le coût du kilowatt-heure.
des études préalables menées sur l'EpR d'une puissance de 1450MWe ont permis de dégager une configuration en
réseau d'assemblage sous-modéré 19x19 crayons, le cœur comportant des assemblages fertiles à base d'uranium appauvri en proportion de 13,7 %. ces études ont également montré que deux grandeurs caractéristiques, essentielles
en matière de sûreté, étaient très sensibles au plan de chargement initial du combustible. or le cœur étant constitué
de 241 assemblages, il existe 241 combinaisons possibles pour les disposer !
a partir de ces données, une optimisation bi-critère portant sur ces deux grandeurs a été menée. Elle a été réalisée
en couplant l’algorithme évolutionnaire vizir, chargé de l'exploration et de l'exploitation au sein de l'espace de recherche, avec le solveur de diffusion Minos pour ce qui concerne l'évaluation des critères. ce solveur fait partie intégrante du nouveau code de calcul intégré cœur et réseau apollo3.
Les premiers résultats tendent à montrer de fortes corrélations entre les distributions radiales et axiales des éléments
fertiles : l'hypothèse d'effet découplé n'étant guère pertinente pour au moins un des critères (le pic de puissance), la
combinaison des meilleures solutions tirées des deux optimisations ne donne pas nécessairement de meilleurs résultats que ceux obtenus en combinant deux solutions moyennes.
Les travaux se poursuivent pour améliorer la seconde optimisation radiale, en considérant cette fois un cœur chargé
avec des assemblages Mox comportant des hétérogénéités axiales, issues de la première phase d'optimisation. a partir
des solutions qui émergeront, une nouvelle optimisation portant cette fois sur le schéma des grappes de commande
(emplacement des barres de contrôle et d'arrêt dans le cœur), utilisées pour le pilotage du cœur, devrait permettre
de parachever la validation de ce nouveau concept de cœur.
[1] the 25th iEEE/acM international parallel and distributed processing (ipdps 2011). May 16-20, 2011 anchorage (alaska) Usa
[2] 2011 international congress on advances in Nuclear power plants (icapp 2011) May 2-5, 2011 - Nice, France
RappoRt d’activités GENci 2010 - 69
Caractérisation de l'équation d'état du fer dans le noyau terrestre par
lasers haute énergie
école polytechnique, Laboratoire pour l’utilisation des lasers intenses (LULi), cEa
responsable projet : M. KoENiG
moyens GEnCI : BaBEL (cNRs/idRis)
Les recherches conduites sur la fusion par confinement iner-
L'objectif du projet multidisciplinaire SECHEL (Simulating
Earth Core using High Energy Laser), attribué en tant que projet blanc par l'ANR en janvier 2008, est de caractériser l'équation d'état du fer dans des conditions reproduisant celles qui
caractérisent le noyau terrestre en utilisant les lasers de haute
énergie et puissance du LULI.
tiel couvre un grand nombre de thématiques liées aux plasmas
chauds et à leurs applications. on utilise, par exemple, des plasmas à haute densité d’énergie, générés par laser, pour modéliser
la courbe de fusion du fer et de ses alliages, présents dans différents états (liquides et solides) dans le noyau terrestre et dont
le comportement reste encore mal connu aujourd’hui.
Le fer possédant plusieurs phases solides, la cinétique associée à ces différents changements de phases affecte la trajectoire thermodynamique durant la compression quasi-isentropique générée par le laser. cet effet doit être identifié
et éventuellement déconvolué du signal visaR mesuré par l'expérience afin d'accéder à une mesure des conditions
thermodynamiques atteintes.
pour simuler et décrire cet effet et valider une méthode d'analyse basée sur une
description hydrodynamique, la compression d'un échantillon de fer et d'un échantillon d'aluminium qui ne possède pas de changement de phase solide-solide a été
directement simulée par dynamique moléculaire. L'équipe du cEa est en charge de
la description théorique des propriétés physiques du fer à haute pression ainsi que
du comportement dynamique rencontré lors de la compression isentropique. Les
calculs effectués en quatre simulations ont permis de simuler deux rampes de compression différentes sur deux tailles d'échantillons et durant de 0.2 à 0.4 nanoseconde.
apparition de dislocations dans un
échantillon d'aluminium soumis à une
compression isentropique
ces études sont menées en collaboration avec des équipes du Lawrence Livermore
National Laboratory et de Los alamos, en utilisant le code ddcMd développé au
Lawrence Livermore National Laboratory et en l’adaptant aux simulations visées.
ces cas utilisent la totalité de la machine et demandent donc d'être programmé à l'avance. Le scaling obtenu sur le
Blue Gene de l'idRis en septembre 2010 par le code est montré sur la figure ci-dessous.
scalabilité comparée des codes stamp (en vert) et
ddcMd (en rouge) sur la machine BaBEL du cNRs/idRis
70 - RappoRt d’activités GENci 2010
Applications des filaments laser ultracourts pour les technologies de
compression optique et les systèmes de détection à large bande
cEa/direction des applications militaires
responsable projet : L. BERGé
moyens GEnCI : pLatiNE (cEa/ccRt) et JadE (ciNEs)
Une impulsion laser qui se propage à forte intensité dans un mi-
Le phénomène de filamentation se produit avec des impul- lieu transparent s’auto-focalise pour créer des filaments lumineux
sions laser ultracourtes (de l’ordre de la femtoseconde, 10-15 de petite taille. ces filaments sont une source de dommages à la
seconde) ou plus « longues » (de l’ordre de la nanoseconde). fois optiques, en cassant l’homogénéité de la distribution d’énergie
La filamentation d’impulsions femtosecondes résulte d’un laser, et acoustiques en générant des vibrations dans ies matériaux
équilibre entre le processus d’auto-focalisation optique et la traversés par l’impulsion laser (diffusion Brillouin stimulée - sBs).
génération d’un plasma d’électrons excités lorsque le seuil Le couplage filamentation/sBs constitue un point dur technolod’ionisation est atteint. L’impulsion se propage alors comme gique pour les grands systèmes laser dédiés à la fusion par confiun guide d’ondes micrométrique. Ces filaments ultracourts nement inertiel, comme le laser Mégajoule.
présentent une vaste variété de comportements physiques
(auto-compression, émission de lumière blanche utilisée pour la détection Lidar et production de sources térahertz).
La filamentation multiple d’impulsions nanosecondes apparaît lorsqu’un faisceau de puissance élevée se casse par instabilité modulationnelle en une multitude de cellules optiques dans des milieux fortement non-linéaires, comme les
verres de silice.
Les objectifs scientifiques du projet, porté par une équipe du cEa/daM, consistaient à approfondir la dynamique spectrale d’impulsions laser femtosecondes infrarouges (800 nm) couplées à leur deuxième harmonique (400 nm), dans
le but d’amplifier le domaine des petites fréquences correspondant à l’émission de radiation térahertz (tHz) dans un
gaz d’argon. À l’aide du code 3d spectral de propagation unidirectionnelle (ppE3d), les scientifiques ont examiné le
rôle de la phase de l’onde porteuse pour une impulsion infrarouge comprimant sur des durées proches du cycle optique
et identifié les rapports d’intensités entre onde fondamentale et harmonique, amplifiant la conversion tHz. Une étude
paramétrique en fonction de la pression du gaz a été réalisée et comparée à des expériences mises au point par les
expérimentateurs de l’institut Max-Born à Berlin (allemagne).
par ailleurs, la filamentation d’impulsions nanosecondes
dans des verres de silice a également été étudiée, dans le
but de quantifier l’influence de l’auto-focalisation optique
sur le processus de rétrodiffusion Brillouin stimulée. cette
étude, exploitant le code sBs_3d, a permis d’identifier les
dynamiques clés altérant l’autofocalisation du faisceau
pompe, selon que l’impulsion laser initiale est modulée en
phase ou pas. Elle a également permis de proposer des solutions alternatives pour réduire l’effet Brillouin efficacement comme, par exemple, d’introduire des modulations
d’amplitude picosecondes (10-12 secondes) prévenant la
formation d’une onde acoustique.
(a) spectres tHz expérimentalement mesurés pour différentes pressions du gaz. (b) simulations numériques à partir du code UppE3d. (c) Energie tHz à 400 mbar (courbes rouges), 200 mbar (courbes
bleues) et 100 mbar (courbes vertes). Les courbes solides se réfèrent aux mesures expérimentales ;
les courbes brisées correspondent aux résultats numériques. (d) Energie tHz en fonction de la pression. L’insert montre la zone tHz non-accessible aux diagnostics expérimentaux (zone ombrée).
[1] i. Babushkin, W. Kuehn, c. Köhler, s. skupin, L. Bergé, K. Reimann, W. Woerner, J. Herrmann, and t. Elsaesser, phys. Rev. Lett. 105, 053903 (2010)
[2] s. Mauger, L. Bergé, and s. skupin, « self-focusing versus stimulated Brillouin scattering of laser pulses in fused silica ». New J. phys. in press (2010)
[3] L. Bergé, c.-L. soulez, c. Köhler, and s. skupin, « Role of the carrier-envelope phase in singly-cycled laser filamentation ». submitted to opt. Express (2010)
RappoRt d’activités GENci 2010 - 71
Extraits
de
presse
© Les Echos
03/09/2010
72 - RappoRt d’activités GENci 2010
© cEa
La France se relance dans la course au calcul intensif
Pierre Le Hir - Le Monde, 30 Octobre
Le supercalculateur pétaflopique Curie, installé dans l'Essonne, sera le
plus puissant en Europe
Il y aurait une étude à mener sur l'image que projettent les grandes puissances, à travers le nom
donné à leurs supercalculateurs. Les Etats-Unis ont leur Jaguar, la machine jusqu'alors la plus véloce
au monde. La Chine, dont la Nébuleuse (Xingyun) talonnait le félin américain, a annoncé, jeudi 28
octobre, la naissance de sa Voie lactée (Tianhe-1A), dont la vitesse de pointe, assure Pékin,
surpasserait largement celle du Jaguar. La France va avoir son Curie, en hommage à Marie et Pierre
Curie dont, explique son concepteur, le groupe français Bull, " les travaux ont fondé une grande partie
de la science moderne ".
Ce cerveau de silicium mérite d'entrer au panthéon. Sa puissance théorique sera de 1,6 pétaflops, soit
1,6 million de milliards d'opérations par seconde, tâche qui mobiliserait plus de 150 000 ordinateurs
portables travaillant de concert. Ce qui en fera la machine la plus performante en Europe, devant le
Jugene allemand du Forschungszentrum de Jülich (Rhénanie-du-Nord-Westphalie), qui affiche un
score théorique de 1 pétaflops, et de 0,8 pétaflops en fonctionnement réel.
S'il était déjà opérationnel, Curie se classerait parmi les quatre systèmes les plus puissants de la
planète. Mais il va être mis en service en deux étapes, au Très Grand Centre de calcul (TGCC), dont le
Commissariat à l'énergie atomique et aux énergies alternatives (CEA) achève la construction, à
Bruyères-le-Châtel (Essonne) : une première étape fin 2010, la seconde à l'automne 2011. D'ici là, il
sera peut-être surclassé, tant la compétition mondiale est vive.
Il n'empêche. " Cet équipement exceptionnel est le symbole des ambitions retrouvées de la France en
matière de calcul intensif, se félicite la ministre de la recherche, Valérie Pécresse, qui a inauguré, le 25
octobre, le TGCC. Nous avions fini, faute d'investissements suffisants, par prendre du retard sur les
autres nations. "
Un retard accusé par l'Europe tout entière. Les Etats-Unis mènent la course. Investissant chaque
année près de 1 milliard d'euros dans ce secteur, ils concentrent 56 % des capacités mondiales et
espèrent atteindre, à l'horizon 2018, l'exaflop s: 1 milliard de milliards d'opérations par seconde. Le
Japon, de son côté, annonce une machine de 10 pétaflops pour 2012, grâce à un programme de
recherche et développement de plus de 1 milliard d'euros. Et la Chine s'est hissée, en deux ans, dans le
peloton de tête et, peut-être, à la première place.
Face à de tels investissements, aucun pays européen ne peut, à lui seul, tenir tête. Une vingtaine
d'entre eux, dont la France, se sont alliés au sein du programme Prace (Partnership for Advanced
Computing in Europe), afin de doter les scientifiques européens de plusieurs machines pétaflopiques.
Curie est l'une d'elles.
Le supercalculateur prodige, d'un coût de 100 millions d'euros sur cinq ans, a été acheté par le Grand
Equipement national de calcul intensif (Genci), structure regroupant le ministère de la recherche, les
principaux organismes utilisateurs (CNRS, CEA, Inria) et les universités.
RappoRt d’activités GENci 2010 - 73
www.genci.fr
O
uvert depuis novembre 2007, le site web de GENCI propose une somme d’informations sur le calcul
intensif en France et en Europe. Outre l’actualité liée à l’activité de la société civile, le site de GENCI
relaie régulièrement les actions menées par les trois centres nationaux de calcul intensif (CCRT du CEA, CINES
pour l’enseignement supérieur et IDRIS du CNRS) ainsi que par l’infrastructure européenne de recherche
PRACE.
Il se fait également l’écho des initiatives nationales, comme le projet Equip@meso et le programme HPCPME, et européennes (HPC Europa2, EESI etc.) dans lesquelles GENCI est engagé.
Enfin, il fait une large place à la promotion du calcul intensif, en hébergeant notamment les pages dédiées
au label C3I porté par la Conférence des présidents d’université.
Toutes ces informations sont publiées
en français et en anglais. La consultation des pages anglophones représente 15 % du total des visites.
Depuis sa création, le site de GENCI
connaît une augmentation régulière
de sa fréquentation.
Il a ainsi enregistré près de 44 000 visites en 2010 (contre 32 000 en 2009),
avec une forte croissance sur les deux
derniers mois de l’année, en novembre et en décembre, qui s’est traduite
par un peu plus de 5 000 visites mensuelles (graphique ci-contre).
Cette tendance se confirme sur les premiers mois de l’année 2011.
Remerciements
Edouard AUDIT (CEA), Michel AUFFRAY (CINES), Jérémie BEC (Observatoire de la Côte d’Azur), Florian BERBERICH (Jülich), Jacques
BLUM (Université de Nice), Eric BOYER (CINES), Alfredo BUTTARI (CNRS/IRIT), Francis DAUMAS (CINES), Estelle DULSOU (CAPS Entreprise), Yves ELLINGER (Université Pierre et Marie Curie), Denis GIROU (CNRS/IDRIS), Volker HAIGIS (Deutsches GeoForschungsZentrum), Sylvie JACQUEMOT (Ecole Polytechnique), Anni JAKOBSSON (PRACE), Jean-Pascal JEGU (Ter@tec), Richard KENWAY
(University of Edinburgh), Claude KINDOU (CINES), Pierre LE HIR (Le Monde), Patrick MASCART (Observatoire Midi-Pyrénées),
Thierry MASSARD (CEA), Christine MENACHé (CEA/CCRT), Sylvia MONFARDINI (HPC Europa2), Franck NIEDERCORN (Les Echos),
Alain PASTUREL (CNRS), Olivier PIRONNEAU (CSCI), Hervé PRIGENT (CRIHAN), Arnaud RENARD (Université de Reims ChampagneArdenne), Nicolas RENON (CALMIP - Toulouse), Michel RINGENBACH (Université de Strasbourg), Yves-Henri SANEJOUAND (Université de Nantes), Eric SONNENDRUCKER (Université de Strasbourg), Céline SWIERKOWSKI (CAPS Entreprise), Marc THIRIET
(Université Pierre et Marie Curie), Xavier VASSEUR (CERFACS) et Luc VERVISCH (CORIA).
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertising