SGI | ISS3500 | Rapport annuel sur les structures de type Méso

Rapport annuel sur les structures de type
Méso-centre en France.
Comité de Coordination des Mésos-Centres
Mark Asch, Emmanuel Chaljub, Romaric David
contact-mesocentres@listes.math.cnrs.fr
25/05/12
Sur la base d'une enqûete réalisée auprès des responsables de mésos-centres, mise à jour en 2012.
Page 1
Introduction
La définition et le rôle des mésos-centres dans l'écosystème du calcul intensif en France est décrite
en préambule du rapport 2011 sur les mésos-centres, disponible à l'adresse
http://calcul.math.cnrs.fr/Documents/Mesocentres/Rapports/fev2011/mesocentres-2010_V2.pdf.
Cette année, le groupe calcul via le CCMC a réalisé une enquête sur les mésos-centres du 21/2/12
au 25/5/12. Cette enquête a été diffusée via la liste responsables-mesocentres@cru.fr, tenue à jour
par le CCMC. À l'occasion de cette enquête, les responsables de mésos-centres, ont également
remis à jour les fiches descriptives de leurs mésos-centres sur le site du groupe calcul
http://calcul.math.cnrs.fr. Nous tenons à remercier très chaleureusement nos collègues qui ont pris
le temps de nous transmettre ces informations.
Le sondage demandait en particulier d'indiquer la puissance crête des machines opérées. Nous
avons proposé, pour produire cette donnée, d'utiliser les valeurs des constructeurs.
Nous avons par la suite procédé à l'exploitation des données recueillies par :
• les évolutions marquantes depuis 2011, qui s'appuient sur les fiches du site
http://calcul.math.cnrs.fr (ces fiches sont par ailleurs consolidées dans le présent document) ;
• une synthèse du sondage.
Par ailleurs, le CNRS via le Comité d'Orientation du Calcul INtensif (COCIN) vient de rédiger un
Livre Blanc sur le Calcul Intensif au CNRS qui propose une politique scientifique autour du HPC
en France.
Le présent document se veut un état des lieux que nous espérons le plus complet possible.
Page 2
Évolutions marquantes depuis 2011
Centres déjà installés
Le tableau ci-dessous reprend les évolutions notées depuis 2011 en 4 catégories :
• Capacité de stockage
• Puissance de calcul
• Nombre d'utilisateurs
• Pour les méso-centres concernés, mise en place effectuée des premiers équipements
Equip@Meso
Région
Évolution Évolution Évolution Equip@Meso
TO
TFlops
Utilisateurs
Alsace – Méso UdS
x 30
/
/
Aquitaine - MCIA
x 50
x 25
/
Auvergne - Auvergrid x 2.5
Stockage acheté, calcul en cours
/
Bourgogne - CCUB
/
x2
/
Bretagne - Genouest
x2
x2
/
Centre - CCSC
/
x 1.5
x5
ChampagneArdennes, Romeo
/
/
/
Machine Equip@Meso en 2013
Haute-Normandie,
Crihan
x2
x 1.5
x 1.5
Machine Equip@Meso mise en
production en août 2012
Idf – CDC - UCP
x7
x 1,5
x 2.5
Idf - Grif
x3
x2
/
Limousin - Cali
/
/
x 1,6
Midi-Pyrennées Calmip
/
x 1.2
x4
Midi-Pyrennées Genotoul
x 2.5
x5
Machine Equip@Meso installée
Nord-Pas-De-Calais – x 1.5
Université Lille 1
x 1.5
x 1.8
Provence-Alpes-Côte x 20
d'Azur - Crimson
x 2,5
/
Pays de la loire CCIPL
x4
x5
/
Picardie – Projet
MECS
x 2,5
x6
/
Rhône-Alpes FLMSN x 2
x2
/
Machine installée fin 2012
Rhône-Alpes, Ciment x 8
/
/
Achat en cours
Page 3
Rhône-Alpes, Must
x 1,6
/
/
Centres nouvellement crées ou référencés
Nous avons recensé les nouveaux méso-centres suivants :
• La-Rochelle
• Cassiopée (Metz)
• GMPCS (Orsay)
• École Centrale de Paris (Chatenay-Malabry).
• Méso Aix-Marseille-Université. En particulier, la machine equip@meso est d'ores et déjà
installée
• Le méso-centre de l'UPMC (pas encore référencé sur le site calcul)
• Méso-centre PSL : Salle en cours d'installation (containers), machines en cours d'acqusition.
Page 4
Carte de France des mésos-centres
Page 5
Page 6
Bilans chiffrés
Remarque : ces chiffres sont issus de l'enqûete réalisée en ligne. Les valeurs correspondant aux
mésos-centres n'ayant pas pu répondre ne sont donc pas intégrées.
Puissance de calcul
On note que la puissance crête totale des 27 mésos-centres est de 500 TFlops, soit une
multiplication par 1.67 depuis 2011. Cette puissance agrégée de 500 Tflops correspondrait à la
20ème machine du Top 500 (édition 11/11).
La puissance crête moyenne est de 18.06 TFlops, pour une médiane à 13 Tflops
Note : la carte de France des mésos-centres reprend par des codes couleurs la répartition ci-dessous.
• 6 centres au dela de 30 TFlops
• 10 entre 10 et 20 TFlops
• 6 entre 5 et 10 TFlops
• 5 en dessous de 5 TFlops
Top Méso 2012
Le tableau ci-dessous reprend la liste des mésos-centres ayant répondu au sondage, classés par
puissance décroissante.
Nom
URL
GRIF
http:grif.fr
Capacité
Puissance
de
crête (TF)
Stockage
80,00
3275
FLMSN (Fédération
Lyonnaise de
Modélisation et Sciences http://www.flchp.univ-lyon1.fr/
Numériques) auparavant
dénomée FLCHP.
44,00
460
CALMIP
www.calmip.cict.fr
38,50
250
Mésocentre de Calcul
Intensif Aquitain
www.mcia.univ-bordeaux.fr
38,00
140
CIMENT (Calcul
Intensif, Modélisation,
Expérimentation
Numérique et
Technologique)
http://ciment.ujf-grenoble.fr
35,00
500
C.R.I.MSON
(Calculateurs et
Ressources
Informatiques du
MéSOceNtre)
http://crimson.oca.eu
20,00
200
CRRI - Auvergrid
http://www.auvergrid.fr/
20,00
830
CRIHAN
www.crihan.fr
20,00
400
Page 7
DSI - CCUB Centre de
http://www.u-bourgogne.fr/DSICalcul de l'université de
CCUB
Bourgogne
18,80
197
Genotoul Bioinfo
http://bioinfo.genotoul.fr/
15,00
200
Mésocentre d'AixMarseille Université
En cours de développement
14,00
80
Mésocentre de calcul de
http://meso.univ-fcomte.fr/
Franche-Comté
13,00
60
Méso-centre de
l'Université de
Strasbourg
http://hpc.unistra.fr
13,00
200
Pôle Calcul de
l'Université Lille 1
http://calcul-wiki.univ-lille1.fr/
11,50
230
Centre de Calcul de
Champagne-Ardenne
ROMEO
https://romeo.univ-reims.fr/
11,00
34
CCIPL Centre de
Calculs Intensifs des
Pays de Loire
www.ccipl.univ-nantes.fr
9,42
12
Méso-centre de l'Ecole
Centrale de Paris
http://www.mesocentre.ecp.fr/
9,00
25
MUST
http://lapp.in2p3.fr/MUST
8,00
520
Centre De Calcul de
l'Université de CergyPontoise
http://www.cdc.u-cergy.fr
7,40
60
Grappe Massivement
Parallèle de Calcul
Scientifique GMPCS
http://www.gmpcs.lumat.u-psud.fr/
7,20
3,5
CCSC Centre de Calcul
http://www.fdpoisson.fr/cascimodo
Scientifique en région
t/
Centre
6,00
5
GenOuest
3,80
140
MeCS : Modélisation et http://www.lamfa.uCalcul Scientifique
picardie.fr/asch/f/MeCS/
3,25
25
Centre de Calcul de
l'Université de la
Réunion (CCUR)
http://dsiun.univreunion.fr/moyenstechniques/centre-de-calcul
2,00
24
CALI (CAlcul en
LImousin)
http://www.unilim.fr/sci/wiki/cali/
conditions_acces
1,70
9
Ile de France Sud
http://www.cri.upsud.fr/machine/index.html
1,61
5
http://genouest.org
Stockage
Le stockage total est 8 PO (estimé à 4 PO en 2011). La capacité de stockage moyenne est de 302
TO, soit un doublement depuis 2011. La médiane est à 140 TO.
Nous avons cherché à savoir quelle était la technologie choisie pour les systèmes de fichiers.
NFS
13
NFS Propriétaire
9
Page 8
GPFS
9
Lustre,
1
Fghfs
2
Autres
6 dont 1 Irods (Grille)
Bilan des ressources humaines
On constate que la dotation est très variable. Hormis le Grif, de part sa spécifité grille (plusieurs
sites) affiche 12.5 ETP. Pour les autres centres, nous avons calculé les indicateurs suivants :
Min
0,5
Moyenne
3,2
Mediane
2,5
Somme
82,2
Formation et animation Scientifique
Vous retrouverez l'ensemble des formations assurées par les mésos-centres sur le site du groupe
calcul : http://calcul.math.cnrs.fr/spip.php?rubrique49
On constate que 1107 jours de formation.personne ont été dispensés en 2011. Pour l'animation
scientifique, nous avons recensé 670 jours.personne.
Financements
Nous avons posé la question de l'origine du dernier financement en date :
Type de financement
Nombre de mésos-centres
Région
8
Autre
10
Central
1
Mutualisation
3
ANR (dont Equip@meso) :
5
Structure de Rattachement
Enfin, nous avons cherché à connaître la structure de rattachement des mésos-centres.
• DSI : 8
Page 9
•
•
Structure fédérative : 9
Autre : 10 (plateformes, Direction de la Recherche, dans une UMR)
Alsace
Alsace
Pôle HPC, Direction Informatique,
Université de Strasbourg
Url : http://hpc.unistra.fr
Puissance : 13 TF
Stockage : 300 TO
Nb utilisateurs : 50
Nom du projet / Région
Pôle HPC de la Direction Informatique, Université de Strasbourg
Alsace
Site web
http://hpc.unistra.fr/
Formations
Année de création
1997
Responsables scientifiques et techniques
•
Responsable :
◦ Romaric David, Ingénieur de Recherche en Calcul Scientifique, Responsable du Pôle
HPC, Direction Informatique, Université de Strasbourg.
•
Président du comité scientifique :
◦ Hervé Wozniak, Astronome, Directeur de l’Observatoire Astronomique de Strasbourg
Comité scientifique composé de 18 membres.
Localisation
Strasbourg
Participants (laboratoires, universités, entités, industries)
Institut de Génétique et de Biologie Moléculaire et Cellulaire
Laboratoire des Sciences de l’Image, de l’Informatique et de la Télédétection
Institut de Chimie de Strasbourg
Institut de Biologie Molculaire et Cellulaire
Groupe d’Etudes des Matériaux Métalliques
Institut de Science et d’Ingénierie Supramoléculaire
Page 10
Institut de Chimie de Strabourg :
•
•
•
•
•
Laboratoire de Bio physicochimie Moléculaire
Laboratoire de chimie quantique
Laboratoire de Modélisation Simulation Moléculaire
Laboratoire Pomam
Laboratoire de Synthèse Métallo-Induites
Institut de Mécanique des Fluides et du Solide
Observatoire Astronomique de Strasbourg
Institut de Physique et de Chimie des Matériaux de Strasbourg
Faculté de Pharmacie Pharmacologie et Physico-Chimie
Laboratoire Image et Ville, Faculté de Géographie
Institut Charles Sadron, Colloïdes et Macromolécules
ISIS - Laboratoire des Nanostructures
INSA de Strasbourg
Université de Haute Alsace (via son conseil scientifique et l’Institut des Sciences des
Matériaux de Mulhouse)
Les participants au méso-centre contribuent régulièrement par l’achat de puissance de calcul, dite
mutualisée.
Moyens humains (équivalent temps plein)
2.
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Type de processeur
Nombre de noeuds
Opteron Quadri-coeur 2.7 Ghz 64 Bi-Pro
Xeon quadri/Hexa-Coeur 2.66 52 Bi-Pro (dont 5 avec DoubleGHz
GPU)
Stockage : 300 TO sous GPFS
RAM par
noeud
16 Go
24 GO
Interconnect
Infiniband
Infiniband
Puissance crête théorique : 13 Teraflop/s
Types de codes (expertise), domaines d’application
Codes parallèles MPI, Mécanique des fluides, Chimie quantique et dynamique moléculaire.
Expertise en parallélisation, GPU : Astronomie, Dynamique Moléculaire
Nombre moyen d’utilisateurs
50
Page 11
Formations du Pôle HPC de la Direction
Informatique, Université de Strasbourg
Pôle HPC, Direction Informatique, Université de Strasbourg
Débogage d’applications // avec totalview, 4h, 10 personnes (chercheurs)
Analyse de traces d’applications // (Intel Trace Collector), 2h, 5 personnes (chercheurs)
Formation générique python, 10 personnes (informaticiens, chercheurs), 14h.
Introduction python orientée vers le calcul scientifique : 25 personnes, 4h
Python pour le calcul scientifique, 28 personnes, 14h.
Programmation parallèle, 10 personnes, 7h.
Formation programmation calcul sur cartes graphiques, 10 personnes, 4h.
Journée Scientifique GPU (25/02/10) : 50 personnes
Formation au logiciel SAS (Statistiques), 06/10 : 20 personnes, 16h
Participation ou organisation de formations nationales :
•
•
•
•
•
•
Envol 2010 : Cours sur le débogage
ANGD Python Calcul Scientifique
École Multi-coeurs de l’In2p3 : Cours sur Grand Central Dispatch et MPI
ANF "Masses de données : Stockage, Visualisation"
École Optimisation de l’In2p3
Formation MPI Avancé à l’INRA (Janvier 2012)
Participation à des formations de M2 : Cours de Parallélisme
Participation à des formations 2ème année CNAM : Gestion de ressources, gestion de parc de
serveurs
Le méso-centre à bénéficié d’une session de formation sur la programmation OpenCL et HMPP,
financée par Genci et organisée par Caps du 14 au 16 Septembre 2010. Public : 14 personnes
utilisatrices du méso-centre.
Page 12
Aquitaine
Aquitaine
Pôle M3PEC
http://www.m3pec.u-bordeaux1.fr/
Puissance : 38TF
Stockage : 140 TO
150
Nom du projet / Région
Mésocentre de Calcul Intensif Aquitain (MCIA)
Aquitaine
Site web
http://www.mcia.univ-bordeaux.fr/
Formations
Année de création
Mars 2003 (label Ministère).
Le pôle M3PEC existe depuis janvier 1999
Création du Mésocentre de Calcul Intensif Aquitain en avril 2010
Responsables scientifiques et techniques
•
Prote parole du conseil scientifique :
◦ Jean-Christophe Soetens (ISM)
•
Responsable technique :
◦ Pierre Gay (Direction Informatique - Université Bordeaux1)
Localisation
Bordeaux
Participants (laboratoires, universités, entités, industries)
Le Mésocentre de Calcul Intensif Aquitain regroupe des laboratoires des laboratoires des membres
associés du PRES-Université de Bordeaux (comprenant les universités Bordeaux 1, 2, 3 et 4, lUniversité de Pau et des Pays de l’Adour, les CNRS, l’INRA, l’INRIA, l’INSERM, le
Cemagref, ...) :
Université Bordeaux 1 :
◦ CELIA : CEntre Lasers Intenses et Applications (UMR 5107)
Page 13
◦
◦
◦
◦
◦
◦
◦
◦
◦
◦
◦
CPMOH : Centre de Physique Moléculaire Optique et Hertzienne (UMR 5798)
CRPP : Centre de Recherche Paul Pascal (UPR 8641)
ICMCB : Institut de Chimie de la Matière Condensée de Bordeaux (UPR 9048)
IECB : Institut Européen de Chimie et Biologie
IMB : Institut de Mathématiques de Bordeaux (UMR 5251)
IMS : Laboratoire de l’Intégration du Matériau au Système (UMR 5218)
ISM : Institut des Sciences Moléculaires (UMR 5255)
LaBRI : Laboratoire Bordelais de Recherche en Informatique (UMR 5800)
LCTS : Laboratoire des Composites ThermoStructuraux (UMR 5801)
LMP : Laboratoire de Mécanique Physique (UMR 5469)
TREFLE : Transferts Écoulements Fluides Énergétique (UMR 8508)
Université Bordeaux 2 Victor Ségalen :
◦ CBIB : Centre de BioInformatique de Bordeaux
UPPA : Université de Pau et des Pays de l’Adour
◦ IPRA : Institut Pluridisciplinaire de Recherche Appliquée (FR 2952)
◦ IPREM : Institut Pluridi(UMR 5254)
Moyens humains (équivalent temps plein)
4
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
• Cluster Avakas
• 3328 cœurs
• Infiniband QDR
• scratch FhGFS 120 To
• 38 TFLOP/s
• Cluster M3PEC de la grille EGI
• 432 cœurs
• 80 To stockage grille
Types de codes (expertise), domaines d’application
• Codes résidents
• de chimie : Gaussian03, MOLPRO, GAMESS ; NAMD, VB2000, DALTON
• de Physique : VASP ; SIESTA , CPMD (codes pseudo-potentiels)
• de chimie physique / ASW
Nombre moyen d’utilisateurs
150
Page 14
Formations du Pôle M3PEC, Bordeaux
Pôle M3PEC (Modélisation Microscopique et Mésoscopique en Physique, dans l’Environnement,
en Chimie, Mathématique, Informatique et Médecine), Bordeaux
Formations annuelles au calcul massivement parallèle. 4 journées par an principalement pour les
nouveaux doctorants ou enseignants-chercheurs.
Page 15
Auvergne
Auvergne
Mésocentre - Clermont Université /
AuverGrid
http://crri.clermont-universite.fr/
http://www.auvergrid.fr/
Puissance : 20 TF
Stockage : 830 TO
50 Utilisateurs
Nom du projet / Région
Mésocentre - Clermont Université / AuverGrid
Auvergne
Site web
http://crri.clermont-universite.fr/ http://www.auvergrid.fr/
Formations
Année de création
Automne 1964, et 2004 pour AUverGrid
Responsables scientifiques et techniques
• Responsables scientifiques :
• David Hill (Université Blaise Pascal) et Vincent Breton (CNRS)
• Responsables techniques :
• P. Reichstadt, A. Mahul, D. Pays
Localisation
Clermont-Ferrand
Participants (laboratoires, universités, entités, industries)
CRRI (Centre Régional de Ressources Informatiques) / PRES Clermont-Université
Université Blaise Pascal (8 laboratoires)
Université d’Auvergne (2 laboratoires)
ISIMA (Ecole d’Ingénieurs en Informatique)
IFMA (Ecole d’ingénieurs en mécanique)
CEMAGREF
CNRS
Biopôle Clermont-Limagne
Page 16
Association HealhGrid
le calcul pour la physique des particules représente 60% du calcul sur AUverGrid vient par
EGEE/EGI.
Environ la moitié du calcul en sciences du vivant représente 30% du calcul sur AUverGrid vient
par EGEE/EGI.
le calcul sur l’environnement qui représente environ 5% du calcul sur AUverGrid ne vient pas par
EGEE/EGI.
Des moyens de calcul hors grille (clusters dédiés avec MPI et SMP représentent près de 30% du
calcul et correspondent à une activité locale qui ne vient pas par le biais de la grille EGEE/EGI.
Moyens humains (équivalent temps plein)
4
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
•
•
•
•
de 2004 à 2006 : machines 1U ou blades bi-xeon
en 2007 : machines 1U ou blades biquadcore
serveurs : machines 2U bi-xeon ou biquadcore selon la date d’acquisition
en 2009 : machines SMP bi-Nehalem 520 GB de RAM interconnectées en
InfiniBand (ScaleMP) et lames GP-GPU avec 4 Tesla T10 par lame.
Stockage : plus de 300 TOctets à la fin 2009
Evolution prévue à court terme.
Puissance crête théorique : 20 Teraflops/s pour plus de 2000 coeurs et plus de 2000 coeurs GPGPU pour plus de 8 Teraflops/s
Evolution prévue à court terme.
Types de codes (expertise), domaines d’application
Sciences du vivant (Santé, Environnement et Bioinformatique)
Chimie (Amber)
Physique nucléaire et des particules et nano-particules.
Physique médicale (GATE, Geant4)
Nombre moyen d’utilisateurs
50
Formations d’AUverGrid, Clermont Ferrand
Mésocentre, Clermont Ferrand & AuverGrid
Enseignements sur le calcul à haute performance et la simulation en 2ème et 3ème année d’école
d’ingénieurs en informatique, et en Master de bioinformatique et d’informatique. (Université Blaise
Pascal - ISIMA, école d’Ingénieur publique recrutant sur le Concours Commun Polytechnique - ExENSI)
Page 17
Cours de :
Simulation (2ème année d’ingénieur)
Calcul parallèle (Algorithmique - MPI/OpenMP en 2ème et 3ème année d’ingénieur)
Ingénierie de modèles et simulation (3ème année d’ingénieur)
Calcul à Haute Performance (Cours en Anglais - 3ème année d’ingénieur et Master Recherche en
Informatique)
Calcul Hybride à Haute Performance (3ème année d’ingénieur)
Grille de calcul (3ème année d’ingénieur et Masters pro informatique et bioinformatique)
De plus des formations sont dispensées sur la technologie des grilles en dehors du contexte
universitaire classique :
En Auvergne (10 a 15 personnes formées par des tutoriaux)
Au Vietnam en 2007 (40 personnes formées pendant trois semaines)
En Corée...
• Nombre total d’heures estimé (enseignement + formations) : plus de 300 heures
• Niveau des personnes formées : étudiants en 3ème et 5ème année d’informatique,
doctorants et post-doctorants et enseignants-chercheurs.
Formations d’AUverGrid, Clermont Ferrand
Mésocentre, Clermont Ferrand & AuverGrid
Enseignements sur le calcul à haute performance et la simulation en 2ème et 3ème année d’école
d’ingénieurs en informatique, et en Master de bioinformatique et d’informatique. (Université Blaise
Pascal - ISIMA, école d’Ingénieur publique recrutant sur le Concours Commun Polytechnique - ExENSI)
Cours de :
Simulation (2ème année d’ingénieur)
Calcul parallèle (Algorithmique - MPI/OpenMP en 2ème et 3ème année d’ingénieur)
Ingénierie de modèles et simulation (3ème année d’ingénieur)
Calcul à Haute Performance (Cours en Anglais - 3ème année d’ingénieur et Master Recherche en
Informatique)
Calcul Hybride à Haute Performance (3ème année d’ingénieur)
Grille de calcul (3ème année d’ingénieur et Masters pro informatique et bioinformatique)
De plus des formations sont dispensées sur la technologie des grilles en dehors du contexte
universitaire classique :
En Auvergne (10 a 15 personnes formées par des tutoriaux)
Au Vietnam en 2007 (40 personnes formées pendant trois semaines)
En Corée...
• Nombre total d’heures estimé (enseignement + formations) : plus de 300 heures
• Niveau des personnes formées : étudiants en 3ème et 5ème année d’informatique,
doctorants et post-doctorants et enseignants-chercheurs.
Page 18
Bourgogne
Bourgogne
CRI-CCUB (Centre de Calcul de
l’Université de Bourgogne)
https://haydn2005.u-bourgogne.fr/DSI-CCUB/
Puissance : 18.8 TF
Stockage : 197 TO
100 Utilisateurs Recherche
600 logins enseignement
CRI-CCUB (Centre de Calcul de l’Université
de Bourgogne)
Nom du projet / Région
DSI-Centre de Calcul de l’université de Bourgogne
Bourgogne
Site web
http://www.u-bourgogne.fr/DSI-CCUB/
Formations
Année de création
1979 !
Responsables scientifiques et techniques
Responsable scientifique : Olivier Politano, MCF, Laboratoire ICB.
Responsable technique : Didier Rebeix, IE, DSI-Centre de Calcul.
Localisation
Dijon
Participants (laboratoires, universités, entités, industries)
ICB : Laboratoire Interdisciplinaire Carnot de Bourgogne - UMR 6303
ICMUB : Institut de Chimie Moléculaire de l’université de Bourgogne - UMR 5260
CRC : Centre de Recherches de Climatologie - UMR 5580
LEAD : Laboratoire d’étude de l’apprentissage du développement
IMB : Institut de Mathématique de Bourgogne UMR 5584
Page 19
GPMA : Génie des Procédés-Ensbana EA 1684
LE2I : Laboratoire Electronique, Informatique et Image - EA 2421
LB : Laboratoire de Biogéosciences UMR 5561
CSGA : Centre des Sciences du Gout et de l’Alimentation
Moyens humains (équivalent temps plein)
2.5
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
• Calcul :
novembre 2009 : machines IBM, SGI, Bull bi-pro, Dell monocoeur, bicoeur, quadricoeur,
hexacoeurs avec processeur AMD ou Intel,
décembre 2010 : ajout de 24 noeuds bi-pro hexacoeurs (plus 3 téraflop/s et 288 coeurs)
Intel
novembre 2011 : ajout machine de visualisation avec GPU Tesla C2075.
décembre 2011 : ajout de 35 noeuds Intel (442 coeurs pour 4,7 téraflops) et de 4 noeuds
AMD (192 coeurs pour 1,8 téraflops)
• Stockage :
2.7 To d’espace permanent sauvegardé (NFS)
50 To d’espace work (PanFS)
144 To d’espace archive (NFS)
• Réseau :
2006 : Fabric InfiniBand SDR (96 ports)
Février 2011 : 10 Gb/s ethernet (réseau stockage)
décembre 2011 : Fat Tree Infiniband QDR (54 ports)
• Puissance crête théorique : 18.3 téraflop/s crête (hors GPU) en décembre 2011, 1774
coeurs, 6.5 téraoctets de mémoire
Types de codes (expertise), domaines d’application
• Chimie : Gaussian, Vasp, Gromacs, Lammps, Gamess, RMC profile, Quantum espresso,
MolPro
• Physique-Meca : Castem, Abaqus
• Climatologie : WRF, Arpege-climat
• Génomique : migrate-n
• Math : Matlab, Mathematica, Maple
• codes maison : fortran, C, MPI
• Visualisation graphique : Ovito, VMD, Amira, VirtualGL
Nombre moyen d’utilisateurs
Page 20
• 100 utilisateurs recherche
• 600 comptes enseignement
Page 21
Bretagne
Bretagne
GenOuest
http://www.genouest.org
Puissance : 3.8 TF
Stockage : 140 TO
200 Utilisateurs authentifiés
GenOuest
Nom du projet / Région
GenOuest
Bretagne, Pays de la Loire (Biogenouest)
Site web
http://www.genouest.org/
Formations
Année de création
2001 (associé jusqu’au 30/06/2006 au PCIO - Pôle de Calcul Intensif de l’Ouest, date où ce dernier
a été arrêté et où nous avons continué pour les services en bio-informatique).
Responsables scientifiques et techniques
• Responsable scientifique :
• Jacques Nicolas
• Responsable technique :
• Olivier Collin
Localisation
Rennes
Participants (laboratoires, universités, entités, industries)
Des laboratoires académiques, biologistes, bio-informaticiens (INRA, AFSSA, Inserm, Inria, UnivRennes1) principalement membres de Biogenouest.
INRIA/IRISA UMR 6074, Rennes
Inserm U522 Régulation des équilibres fonctionnels du foie normal et pathologique, Rennes
Page 22
U620 Remodelage pulmonaire et xéno biotique, Rennes
U456 Détoxication et réparation cellulaire, Rennes
U425 Groupe d’étude de la reproduction chez le mâle et le mammifère, Rennes
UMR 6026 Interactions cellulaires et moléculaires, Rennes
UMR 6061 Génétique et développement, Rennes
Laboratoire de Génétique Animale. (UMR ENSAR-INRA 598 ), Rennes
UMR118 Amélioration des plantes et biotechnologies végétales INRA Le Rheu
Agenae (Analyse du génome des animaux d’élevage) INRA Toulouse
Unité MIG (Math, Info, Génome) INRA Jouy en JOSAS
UMR Physiologie moléculaire des semences Angers
UMR 1259 Génétique et horticulture (genhort) Angers
UMR 6197 IFREMER Microbiologie des environnements extrêmes, Brest
Inserm U533 Plate-forme transcriptome, Nantes
INRA Scribe Sexualité et reproduction des poissons, Rennes
CNRS FR 2424 service informatique et génomique Station biologique de Roscoff
LERIA Laboratoire d’études et de recherche en informatique d’Angers
LIM Laboratoire d’informatique médicale CHU Rennes
Moyens humains (équivalent temps plein)
3 permanents (2,5 ETP) + 5 CDD (5 ETP)
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
La plate-forme GenOuest dispose de plusieurs clusters :
Cluster principal :
14 nœuds de calcul SGI Altix XE 250 (Intel Xeon E5462 2.80 GHz (8 cores) et 64 Go de
mémoire)
7 noeuds de calcul Dell R710 (Intel Xeon X5550 2,66 Ghz (16 cores) et 144 Go de mémoire)
1 noeud de calcul Dell R910 (Intel Xeon E7-4850 2,00 Ghz (80 cores ) et 512 Go de mémoire)
Cluster GPU :
1 noeud de calcul Dell R710 (Intel Xeon E5540 2,53 Ghz (16 cores) et 48 Go de mémoire) + 4
carte Nvidia GPU S1070 ( 240 cores et 4 Go de mémoire )
2 noeuds de calcul HP SL390 ( Intel Xeon X5675 3.07 Ghz (24 cores) et 48 Go de mémoire) + 3
carte Nvidia GPU M2090 ( 512 cores et 6 Go de mémoire )
Cloud privé :
2 noeuds de calcul Dell R710 (Intel Xeon E5640 2,67 Ghz (16 cores) et 64 Go de mémoire)
1 noeud de calcul Dell C6100 qui contient 4 machines (Intel Xeon X5650 2,67 Ghz (24 cores) et
96 Go de mémoire)
1 noeud de calcul Dell R510 (Intel Xeon X5650 2,67 Ghz (24 cores) et 96 Go de mémoire) + 24
To disques
Cluster GRISBI :
Cluster expérimental de 2 serveurs R900 (2*6 coeurs Xeon E7450 2,4 Ghz et 128 Go de mémoire)
dédié au projet GRISBI.
2 noeud de calcul Dell R510 (Intel E5620 2,40 Ghz (8 cores) et 2 Go de mémoire) + 24 To
disques
Page 23
Stockage : 60 To Panasas , 20 To Cloud et 60 To pour le cluster GRISBI.
Puissance crête théorique : 3,8 Teraflop/s
Types de codes (expertise), domaines d’application
Bio-Informatique
Nombre moyen d’utilisateurs
en interactif : 200 comptes ouverts - 250 000 jobs/mois en moyenne pour 2011.
par le portail web (non authentifiés) : en moyenne 3000 visiteurs uniques / mois
Formations de GenOuest, Rennes
GenOuest
GenOuest propose des formations en bio-informatique pour les biologistes et bioinformaticiens
(chercheurs, doctorants).
Les formations permettent d’aborder les aspects informatique et méthodologiques de la bioinformatique.
•
•
•
•
•
•
•
•
•
•
•
•
•
Introduction à Cytoscape
Introduction à la suite logicielle EMBOSS
Introduction à l’utilisation des ontolologies
Introduction à Python en sciences biologiques
Introduction à R et Bioconductor
Introduction à Unix et SGE (Sun Grid Engine)
Introduction au langage Perl en bioinformatique
Introduction aux méthodes de phylogénie
Introduction aux systèmes dynamiques
Modélisation et conception de bases de données
Perl avancé : Perl Object et BioPerl
R et Bioconductor, cours avancé
Recherche et découverte de motifs
Page 24
Bretagne
Bretagne
Pôle de Calcul Intensif pour la mer,
Brest
http://www.ifremer.fr/pcim
Puissance : 3 TF
Stockage : 300 TO
200 Utilisateurs
Pôle de Calcul Intensif pour la mer, Brest
Nom du projet / Région
Pôle de Calcul Intensif pour la mer
Bretagne
Site web
http://www.ifremer.fr/pcim
Formations
Année de création
1984
Responsables scientifiques et techniques
• Responsable scientifique :
• Anne-Marie TREGUIER
• Responsable technique :
• Tina ODAKA
Localisation
Brest
Participants (laboratoires, universités, entités, industries)
IFREMER (Institut français de recherche pour l’exploitation de la mer) :
Laboratoire Physique HYdrodynamique et SEDimentaire,(DYNECO/PHYSED)
Laboratoire Ecologie pélagique, (DYNECO/PELAGOS)
Laboratoire Ecologie benthique, (DYNECO/BENTHOS)
Service Applications Géomatiques, (DYNECO/AG)
Laboratoire d’Océanographie Spatiale (LOS)
Page 25
Service Ressources Informatiques et Communications (IDM/RIC)
service des Systèmes d’Informations Scientifiques pour la Mer, (IDM/SISMER)
service Ingénierie des Systèmes Informatiques (IDM/ISI)
Laboratoire Environnement Ressources (LER)
service Hydrodynamique et Océano-météo (HO)
Laboratoire Ressources Halieutiques
Laboratoire Biogéochimie des contaminants métalliques
Département Ecologie et Modèles pour l’Halieutique (EMH)
IUEM (Institut Universitaire Européen de la Mer) :
Domaines Océaniques UMR 6538(CNRS, UBO)
Laboratoire des Sciences de l’Environnement Marin UMR 6539 (UBO, CNRS, IRD)
Laboratoire Génie Côtier et Environnement (CETMEF)
Labo mixte IFREMER, IUEM :
Laboratoire de Physique des Océans UMR6523(IFREMER,CNRS,UBO,IRD)
Microbiologie des Extremophiles UMR 6197 (IFREMER,CNRS,UBO)
UBO (Université de Bretagne Occidentale) :
Laboratoire de Magnétisme de Bretagne (LMB) [FRE 3117]
SHOM (Service Hydrographique et Océanographique de la Marine) :
Centre Militaire d’Océanographie (SHOM/REC)
IRD (Institut de Recherche pour le Développement)
Ecole Nationale Supérieur des Télécommunications de Bretagne
ENSIETA (Ecole Nationale Supérieure des Ingénieurs des Etudes et Techniques d’Armement) :
Service Informatique
Laboratoire Développement Technologies Nouvelles (DTN)
Laboratoire Extraction et Exploitation de l’Information en Environnements Incertains (E3I2EA3876)
Entité ENSIETA du Laboratoire Brestois de Mécanique et des Systèmes (MSN-EA4325)
IRENav (Institut de Recherche de l’École navale ) :
Equipe Accoustique Sous Marine (ASM)
Equipe Mécanique Energétique en Environnement Naval (M2EN)
Pôle des systèmes d’informations (PSI)
Service Informatique de la Recherche (SIR)
Ecole Centrale de Nantes :
Laboratoire de mécaniques des fluides
Agence de l’Environnement et de la Maîtrise de l’Energie (ADEME)
Industriels (actimar, acri-st, veolia, hocer, meteo strategy, agence de l’eau Seine-Normandie)
IRSN toulon (Institut de Radioprotection et de Sûreté Nucléaire)
Université de la Méditerranée :
Laboratoire d’Océanographie Physique et Biologique (UMR 6535 LOPB)
Université du Sud Toulon :
Laboratoire de Sondages Électromagnétiques de l’Environnement Terrestre(LSEET)
Moyens humains (équivalent temps plein)
4
Page 26
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Altix ICE, 256 nodes , Septembre 2009, Connection IB DDR, Cpu 2 socket Intel X5560.
Stockage : 300 To
Puissance crête théorique : 23 Teraflop/s
Types de codes (expertise), domaines d’application
Oceanography cotier : MARS, elise
Oceanography hatier : ROMS, NEMO, HYCOM,
Etude sur les vague : WW3, SWAN, funbeach
Meteo : WRF
Material sciences : ciesta, vasp,
Traitement de données satellite : medspiration, catds
Traitement de données hatier : coriolis
Science de Terre : calcul sismique, calcul d’électromagnétique
Calcul de mécanique de fluide : castem, abacus, fluent
Nombre moyen d’utilisateurs
50 simultanés pour 200 comptes actifs
Formations du Pôle de Calcul Intensif pour la
mer, Brest
Pôle de Calcul Intensif pour la mer
40 heures (environ 80 auditeurs au total)/ année
2009 Dec, Journée des utilisateurs ( 1 jour)
2009 Nov, formation CUDA et HMPP ( 3 jour)
2009 Jul, formation sur utilisation caparmorII (1/2 jour)
2009 Jul, formation fortran débutant et avancé (5 jour par IDRIS@Ifremer)
2009 Jun, formation MPI (3 jour par IDRIS@IUEM)
Page 27
Centre
Centre
Centre de Calcul Scientifique en
région Centre (CCSC)
http://fdpoisson.org/cascimodot
Puissance : 6 TF
Stockage : 5 TO
60 Utilisateurs
Centre de Calcul Scientifique en région Centre
(CCSC)
Nom du projet / Région
Centre de Calcul Scientifique en région Centre (CCSC)
Région Centre
Site web
http://fdpoisson.org/cascimodot
Formations
Année de création
2008 (lancement du projet)
Responsables scientifiques et techniques
• Responsable scientifique
• Jean-Louis Rouet
• Responsable technique
• Emmanuel Le Trong
Localisation
Université d’Orléans
Participants (laboratoires, universités, entités, industries)
A terme, tous les membres du projet Cascimodot. Dans un premier temps :
ISTO,
LPCE,
BRGM,
Page 28
MAPMO,
INRA Orléans,
GeoHyd.
Moyens humains (équivalent temps plein)
1 temps plein
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Machine IBM blade de 42 noeuds, 336 coeurs, processeur Xeon E5450, réseau de calcul
infiniband, système de stokage GPFS
Puissance crête estimée : 4 TFlop/s
Stockage : 5,4 To en raid 5.
Types de codes (expertise), domaines d’application
Climatologie,
Volcanologie,
Risque sismique,
Modèle numérique de Terrain,
Conservation du patrimoine.
Nombre moyen d’utilisateurs
12 (prévisionnel au début du projet)
Formations du CCSC, Orléans
CCSC
Niveau doctorat, module "Cascimodot", Calcul Scientifique et modélisation, http://www.univorleans.fr/ed/st/co...
Niveau recherche, atelier-développeurs, http://fdpoisson.org/cascimodot/dev...
Page 29
Champagne-Ardenne
Champagne-Ardenne
Centre de Calcul Régional de
Champagne-Ardenne ROMEO II
https://romeo.univ-reims.fr/
Puissance : 11TF
Stockage : 34 TO
80 Utilisateurs
Centre de Calcul de Champagne-Ardenne
ROMEO
Nom du projet / Région
Centre de Calcul de Champagne-Ardenne ROMEO
Champagne-Ardenne
Site web
http://romeo.univ-reims.fr/
Formations
Année de création
2002
Responsables scientifiques et techniques
• Responsable scientifique :
• Michaël Krajecki, professeur de l’Université de Reims Champagne-Ardenne.
Directeur du comité calculateur.
• Responsables techniques :
• Arnaud Renard, Ingénieur de Recherche.
• Hervé Deleau, Ingénieur de Recherche.
• Yannick Monclin, Ingénieur de Recherche.
Localisation
Reims
Participants (laboratoires, universités, entités, industries)
Les projets ROMEO II sont centrés sur trois thèmes de recherche
Page 30
Mathématiques et informatique
Physique et sciences de l’ingénieur
Modélisation des systèmes moléculaires complexes. et 11 laboratoires de recherche dans les 3
établissements :
• Université de Reims Champagne-Ardenne :
• ICMR (Institut de Chimie Moléculaire de Reims - UMR CNRS 6229)
• GRESPI (Groupe de Recherche en Sciences Pour l’Ingénieur - EA4301)
• EDPPM (Équations aux Dérivées Partielles et Physique Mathématique - UMR
CNRS 6056)
• CReSTIC (Centre de Recherche en Sciences et Technologies de l’Information et de
la Communication - EA3804)
• GSMA (Groupe de Spectrométrie Moléculaire et Atmosphérique - UMR CNRS
6089)
• LACM-DTI ( Laboratoire d’analyse des contraintes mécaniques - Équipe associée au
CEA, Dynamique de Transfert aux Interfaces - EA3304)
• MEDyC (Matrice Extracellulaire et Dynamique Cellulaire - UMR CNRS 6237)
• ICME (Interactions Cellules Micro Environnement - IFR53)
• Université de technologie de Troyes :
• Institut Charles DELAUNAY (5 équipes)
• GAMMA (Génération automatique de maillages et méthodes d’adaptation)
• ENSAM - Châlons en Champagne (École Nationale Supérieure d’Arts et Métiers)
Moyens humains (équivalent temps plein)
2,5 pour l’administration, les formations, et l’organisation d’évènements scientifiques.
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
• 2002 : Sun Fire 6800 (SMP 24 x UltraSparc III @900MHz, 24 Go de mémoire). Débranché
en 2010.
• 2006 : romeo2, cluster hétérogène Itanium II
• 108 cœurs d’Itanium, 400 Go de mémoire.
• interconnex Quadrics Elan4
• 8 nœuds de calcul de 8 à 32 coeurs, de 16 à 128 Go de RAM
• Une baie de disque avec 10 To NFS / Raid6
• Un robot de sauvegarde avec une capacité de 66 To.
• Puissance crête théorique : 0,614 Teraflop/s
• 2008 : Calculateur Hybride CPU/GPU
• serveur bi-quadcore Xeon à 3,0GHz avec 8Go de mémoire
• 4 GPU Nvidia S1070, disposant chacun de 4Go de mémoire.
• Puissance crête théorique : 4 Teraflop/s
• 2009 : Pôle Modélisation Moléculaire, cluster équipé de 3 nœuds de calcul DELL R610 et
de 2 nœuds de management.
• 2010 : clovis Cluster Westmere
Page 31
•
•
•
•
•
•
•
•
•
•
Hybride Linux/Windows
GPU Fermi
2 Noeud de visualisation
2 Noeud 32 coeurs (Nehalem EX) 64 Go DDR3
39 noeuds 12 coeurs (Westmere X5650) 24 Go DDR3
Réseau infiniband QDR
Espace disque de 20 To disponibles (raid6, disponible sur le réseau infiniband)
Racks avec portes arrières réfrigérantes
Blocs de climatisation en free-cooling
Puissance crête théorique : 6 Teraflop/s
• 2010 : Cluster Grid5000
• 44 noeuds 24 coeurs / 48 Go de Ram
• Espace disque de 10 To
Types de codes (expertise), domaines d’application
Thématiques de recherche :
Mathématiques et informatique
Physique et sciences de l’ingénieur
Modélisation des systèmes moléculaires complexes.
Enseignements :
Master 2 Professionnel "Spécialité Mathématiques" avec le parcours "Modélisation Mathématique
pour les sciences de l’ingénieur"
Master "Biologie Chimie Santé" avec le parcours "Chimie Moléculaire"
Master 2 "Informatique" avec le parcours professionnel "Développement des Applications
Réparties"
Master "Informatique" avec le module "Programmation parallèle et Multicore"
Licence 3 "Informatique" avec le module "Introduction à la programmation parallèle et Multicore"
Nombre moyen d’utilisateurs
80 Utilisateurs
Formations de ROMEO, Reims
Centre de Calcul de Champagne-Ardenne ROMEO
Master 2 Professionnel, "Spécialité Mathématiques", parcours "Modélisation Mathématique pour
les sciences de l’ingénieur"
Master, "Biologie Chimie Santé", parcours "Chimie Moléculaire"
Master 2, "Informatique", parcours professionnel "Développement des Applications Réparties"
Master "Informatique", module "Programmation parallèle et Multicore"
Licence 3, "Informatique", module "Introduction à la programmation parallèle et Multicore"
3 ième cylce Chimie Théorique : Pour garantir une formation de qualité au calcul intensif dédié à
la modélisation moléculaire, un enseignement coordonné de 3ème cycle est assuré dans le pôle
Page 32
Grand-Est du réseau de chimie théorique (http://www.chimietheorique.org/) par les centres de
Strasbourg, Nancy, Besançon et Reims.
doctorat, post-doctorat, Enseignants / Chercheurs : Environ 20 heures de formation. Il s’agit
de formation des nouveaux chercheurs / doctorants à la soumission de jobs et l’utilisation de linux.
Des journées de formations plus techniques sont aussi organisées, (MPI, degugger DDT, ...)
Page 33
Franche-Comté
Franche-Comté
Mésocentre de Calcul de FrancheComté
http://meso.univ-fcomte.fr/
Puissance : 13 TF
Stockage : 70 TO
130 Utilisateurs
Mésocentre de Calcul de Franche-Comté
Nom du projet / Région
Mesocentre de calcul de Franche-Comté / Franche-Comté
Site web
http://meso.univ-fcomte.fr/
Formations
Année de création
2009
Responsables scientifiques et techniques
• Responsable scientifique :
• Laurent Philippe, professeur à l’Université de Franche-Comté.
• Responsable technique :
• Kamel Mazouzi, Ingénieur de recherche
Localisation
Faculté des Sciences, Besançon
Participants (laboratoires, universités, entités, industries)
Le mésocentre de Franche-Comté est destiné à satisfaire les besoins en calcul de 2 universités, une
école d’ingénieurs, des laboratoires liés à ces structures et aux industriels de la région.
• Université de Franche-Comté :
• Institut FEMTO-ST (Franche Comté Electronique Mécanique Thermique et Optique
- Sciences et Technologies)
• Institut UTINAM (Univers, Transport, Interfaces, Nanostructures, Atmosphère et
environnement, Molécules)
Page 34
•
•
•
•
•
•
Théma (Laboratoire Théoriser et Modéliser pour Aménager)
LIFC ( Laboratoire d’Informatique de l’Université de Franche-Comté)
Laboratoire de Mathématiques
Laboratoire de Chrono-Environnement
CRESE (Centre de Recherche sur les Stratégies Économiques)
Laboratoire de Chimie Physique et Rayonnement
• Université Technologique de Belfort-Montbéliard :
• Laboratoire M3M (Mécatronique, Modèles, Méthodes, Métiers)
• Laboratoire SET (Systèmes et Transports)
• Laboratoire LERMPS (Laborartoire d’Etude et de Recherche sur les Matériaux, les
Procédés et les Surfaces)
• Ecole Nationale Supérieure de Mécanique et des Micro-techniques de Besançon
• Institut FEMTO-ST (Franche Comté Electronique Mécanique Thermique et Optique Sciences et Technologies)
• Institut Pierre-Vernier (Transfert)
Moyens humains (équivalent temps plein)
3 pour l’administration, les formations, l’aide au développement et l’organisation d’évènements
scientifiques.
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Le cluster mésoseq :
Calcul : 198 coeurs
Pour le calcul séquentiel : 16 noeuds de calcul à base de Nehalem (6 coeurs). La mémoire est de
48Go par noeud.
Système : CentOS 5.6
Le cluster mésocomté :
Calcul : 712 coeurs
• Pour le calcul parallèle à mémoire distribuée : 74 noeuds de calcul à base de Nehalem (4 ou
6 coeurs), connectés par un réseau InfiniBand à 20 Gb/s. La mémoire des noeuds va de 12 à
96 Go.
• Pour le calcul parallèle à mémoire paratagée : un noeud 32 coeurs avec 64 Go de ram et
deux noeuds 8 coeurs et 24 Go de mémoire
• Pour le calcul sur GPU : deux noeuds avec une unité Tesla 1070 d’une puissance de 4 Tfpls.
• 3 noeuds de service : l’accès se fait à travers 1 noeud de login, un noeud est serveur NFS et
un noeud est dédié à l’administration.
Système : il repose sur la distribution XBAS de Bull, à base de Red Hat.
Stockage : un espace de travail de 20 To disponibles (Raid 6, partagée par NFS), un espace de
stockage de 40 To et un espace de sauvegarde de 10 To.
Puissance crête théorique : 9 Teraflop/s pour le calcul classique et 4 Teraflop/s pour le calcul
sur GPU
Page 35
Types de codes (expertise), domaines d’application
Les codes que nous proposons :
• Chimie et Physique : Molpro, Gaussian, VASP, NAMD, Gromacs, Meep, COMSOL, AbInit, openMX, Espresso, Gamess, freefem++
• Maths : Matlab, R, Magma
• Bibliothèques scientifiques et langages de programmation.
• GPGPU : CUDA, OpenCL, Thrust, MAGMA
• Codes maison : Fortran, C, MPI, CUDA
Expertise : parallélisation de codes et programmation parallèle
Nombre moyen d’utilisateurs 70
Formations de Mésocomté, Besançon
Mésocomté, Mésocentre de Calcul de Franche-Comté
2ème année de master, Algorithmique, Haute Performance et Modélisation, http://bilbo.iut-bm.univfcomte.fr/...
Page 36
Haute-Normandie
Haute-Normandie
Pôle régional de modélisation
numérique CRIHAN
http://www.crihan.fr/
Puissance : 20 TF
Stockage : 400 TO
150 Utilisateurs
Pôle régional de modélisation numérique
CRIHAN
Nom du projet / Région
CRIHAN
Haute-Normandie
Site web
http://www.crihan.fr/
Formations
Année de création
1991
Responsables scientifiques et techniques
• Responsable scientifique :
• Daniel Puechberty (Pdt de l’association)
• Responsable technique :
• Hervé Prigent (directeur)
Localisation
Rouen
Participants (laboratoires, universités, entités, industries)
Une quarantaine de laboratoires utilisateurs et environ 180 personnes travaillent sur les machines.
Le CRIHAN est une structure indépendante de l’Université et du CNRS mais ces institutions sont
représentées dans le directoire de l’association. Quelques comptes industriels.
Page 37
Moyens humains (équivalent temps plein)
2 personnes : 1 en support et 1 en système.
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
• Cluster 22 noeuds IBM p575 (octo-processeurs Power5 1.9 GHz), réseau Federation, 1,3
TFlops, mis en production en février 2006.
• Cluster de 8 noeuds HP DL 140 (bi processeurs double coeur Xeon 3,06 GHz), réseau
Gigabit Ethernet, mis en production en été 2007.
• Serveur IBM p755 Power7 (quadri-processeur octo-coeurs Power7 3,5 GHz), 0,9 TFlops
• Cluster IBM iDataPlex, 22 noeuds dx360-m2 (bi-processeurs Intel Nehalem EP 2,8 GHz),
réseau QLogic InfiniBand QDR, 11 TFlops, mis en production en Décembre 2010.
• 10 stations de travail Linux / Windows dans les laboratoires normands de chimie et logiciels
de modélisation ad hoc.
• Stockage :
• Baie de disques du cluster Power5 : 20 To ;
• Baie de disques du cluster iDataPlex : 210 To
Puissance crête théorique : 20 Teraflop/s
Formations du CRIHAN, Rouen
Formations à la programmation parallèle (MPI / OpenMP)
Anciennes sessions : + formation pratique (optimisation scalaire IBM) : une journée + formation
MPI (pratique) : 4 journées + Une mise à jour de ces formations à la programmation parallèle est en
chantier au CRIHAN
Formations "Utilisation des calculateurs du CRIHAN" (Durée : 1 journée ; Niveau : introduction
et bases pratiques) : +Session 2009 : Utilisation des clusters IBM Power5 et Linux Intel Xeon
+Session 2010 : Utilisation du cluster IBM iDataPlex
Le programme de ces formations reprend les différents aspects de l’utilisation d’un calculateur :
présentation matérielle et logicielle
soumission des calculs
environnement de compilation
outils de déboguage et d’analyse
optimisation scalaire
introduction au calcul parallèle (MPI, OpenMP)
visite de la salle machine du CRIHAN
Formations à la programmation parallèle (MPI / OpenMP) : une mise à jour de ces formations est
en chantier au CRIHAN
Cours de Master 2 : "Introduction au Calcul Haute Performance" Master EFE (Energie Fluides et
Environnement - http://www.coria.fr/spip.php?rubrique14), INSA et Université de Rouen, Cours :
Méthodes numériques en mécanique des fluides (Responsable A. Hadjadj), Introduction au Calcul
Haute Performance (Durée : 2 heures ; Niveau : introduction)
Page 38
Notions d’architectures matérielles
Optimisation scalaire
Concepts en parallélisation
Parallélisation par passage de messages
visite de la salle machine du CRIHAN
Par ailleurs, le CRIHAN participe au projet de création d’une école d’ingénieur interne à
l’Université de Rouen dans le domaine de la modélisation multiphysique.
Page 39
Ile de France
Ile de France
S-CAPAD
http://www.ipgp.jussieu.fr/rech/scp/
Puissance : 5 TF
Stockage : 112 TO
50 Utilisateurs
S-CAPAD
Nom du projet / Région
Service de Calcul Parallèle et de Traitement de Données en Sciences de la Terre
Paris
Site web
http://www.ipgp.jussieu.fr/rech/scp/
Formations
Année de création
1996
Responsables scientifiques et techniques
• Responsable scientifique :
• Jean-Pierre Vilotte (Physicien, IPG Paris)
• Responsable technique :
• Geneviève Moguilny (IR1 CNRS)
Localisation
Paris (Institut de Physique du Globe de Paris)
Participants (laboratoires, universités, entités, industries)
IPG Paris (CNRS UMR 7580) : 14 équipes de recherche
ENS Paris : Laboratoire de Géologie (CNRS UMR 8538)
Paris 7
LGIT (Université Joseph Fournier), Grenoble
Page 40
Moyens humains (équivalent temps plein)
2 équivalents temps plein.
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
• Nouveau serveur de Calcul Parallèle opérationnel depuis Mars 2008
• Cluster IBM de 64 x3550 bi-pro quad-core E5420 à 2.5 Ghz avec 8 Go de RAM par
serveur, mémoire totale : 512 Go, connexion Myrinet 2000
• Serveurs frontaux (2) : développement/soumission/administration
• Stockage : IBM Exp400 avec 1.75 To effectifs
• Sauvegarde : librairie IBM 3583 de 10,8 To.
• Cluster de traitement de gros volumes de données : opérationnel depuis Septembre 2007
• Baie Pillar avec aujourd’hui 60 To effectifs hierarchisés
• Baie Netapp FAS3140 avec 50 To effectifs
• 4 serveurs applicatifs IBM bi-pro x3755 (2x2.6 Ghz, 2 MB L2/L3, 16 Go de RAM).
• Noeud IPGP/IPSL de la grille européenne EGEE : opérationnel depuis 2003, avec
aujourd’hui
• 34 CPUs + 1 To de stockage.
Puissance crête théorique : 5 Teraflops
Types de codes (expertise), domaines d’application
Types de code :
dynamique moléculaire
automates cellulaires
différences finies, éléments finis, éléments spectraux
méthodes spectrales
traitement du signal
méthodes Monte-Carlo
inversion non linéaire
Domaines d’application :
Sciences de la Terre : sismologie, dynamique des fluides géophysique, magnétisme, géophysique
marine, géomorphologie, géodésie.
Nombre moyen d’utilisateurs
50.
Formations de S-CAPAD, Paris
S-CAPAD (Service de Calcul Parallèle et de Traitement de Données en Sciences de la Terre)
Environ 30 heures/an : formation à l’intergiciel de la grille EGEE (Thésards, PostDocs,
Chercheurs), assistance aux utilisateurs, optimisation des codes, portage d’application (1/4 temps
plein).
Page 41
Ile de France
Ile de France
CEMAG (Centre d’étude des
écoulements MHD en
astrophysique et géophysique)
http://cemag.ens.fr/
Puissance : 1.74 TF
Stockage : 10 TO
5 Utilisateurs
Projet CEMAG
Nom du projet / Région
CEMAG (Centre d’étude des écoulements MHD en astrophysique et géophysique)
Paris
Site web
http://cemag.ens.fr/
Formations
Année de création
2006
Responsables scientifiques et techniques
• Responsable scientifique :
• Pierre Lesaffre
• Responsable technique :
• Jean-François Rabasse
Localisation
Paris, ENS, Département de Physique
Participants (laboratoires, universités, entités, industries)
Laboratoires de recherche (Département de physique de l’ENS et LERMA), partenariat avec l’IPGP
et l’Observatoire de Paris. Premier cercle : une dizaine de chercheurs. En Ile-de-France la
communauté dynamique des fluides astrophysiques et géophysiques représente une cinquantaine de
chercheurs. Développement en cours avec la communauté "plasmas".
Page 42
Moyens humains (équivalent temps plein)
0.30
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Cluster de "gros noeuds SMP" interconnectés par un double réseau InfiniBand. SGI / Altix 450, 1
noeud frontal, 4 noeuds de calcul (34 proc.Itanium bicoeurs par noeud, 3 Go RAM par coeur).
Installation 1e moitié décembre 2006, 2e moitié juin 2007.
Stockage : 10 To en espace de travail, 24 To en espace d’archivage sur serveur dédié Sun X4500.
Puissance crête théorique : 1,74 Teraflop/s
Types de codes (expertise), domaines d’application
Codes de calcul en hydrodynamique, volumes finis, maillage adaptatif, avec champ magnétique.
Domaines d’application : astrophysique (instabilité magnétorotationnelle, milieu interstellaire,
formation d’étoiles, coeurs denses), dynamo solaire et terrestre.
Nombre moyen d’utilisateurs
5 à 10 utilisateurs réguliers, 5 utilisateurs occasionnels en moyenne par an.
Formations du CEMAG, Paris
Projet CEMAG (Centre d’étude d’écoulements MHD en astrophysique et géophysique)
Pas de formations.
Page 43
Ile de France
Ile de France
Mésocentre informatique d’Ile de
France sud
http://www.cri.u-psud.fr/machine/
Puissance : 1.6 TF
Stockage : 5 TO
60 Utilisateurs
Mésocentre informatique d’Ile de France sud
Nom du projet / Région
Méso-centre informatique d’Ile de France sud
Ile de France
Site web
http://www.cri.u-psud.fr/machine/in...
Formations
Année de création
Responsables scientifiques et techniques
• Responsable scientifique :
• Pas de responsable scientifique actuellement
• Responsable technique :
• Marie Fle
Localisation
Orsay
Participants (laboratoires, universités, entités, industries)
A la base : Université Paris Sud, ENS Cachan.
Laboratoires utilisateurs du centre :
•
•
•
•
Physique Théorique et Hautes Energie,
Chimie Physique,
Physique des Gaz et des Plasmas,
Photophysique moléculaire,
Page 44
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
Chimie Moléculaire d’Orsay,
Biomolécules : Conception, Isolement et Synthèse,
Institut de Biochimie et de Biophysique Moléculaire et Cellulaire,
Mathématiques,
Ecologie, Systématique et Evolution,
Etudes des Matériaux Hors Equilibre,
institut d’électronique fondamentale,
Informatique pour la Mécanique et les Sciences de l’Ingénieur,
Fluides, Automatique et Systèmes Thermiques,
Institut de Génétique et Microbiologie,
physique et technologie des plasmas (école polytechnique),
laboratoire interuniversitaire des systèmes atmosphériques,
Ides (géologie),
Lixam,
IHES
Institut Curie
Institut de chimie des substances naturelles,
physique théorique et mécanique statistique.
Moyens humains (équivalent temps plein)
1.5
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Cluster de type Idataplex IBM formé de 16 noeuds de type Intel Xeon Nehalem à 2,93GHz, biprocesseur, quadricore, reliés par un réseau Infiniband , RAM : 528 GB. Installé en Janvier 2010.
2 Lames INTEL XEON quad-coeurs, biprocesseur 32 Go de mémoire
1 Lame INTEL XEON quad-coeurs, biprocesseur 64 Go de mémoire
Puissance crête théorique : 1.6 Teraflop/s
Stockage :
• baies de disques : 5 TB
• robot de sauvegarde : 400 TB
Types de codes (expertise), domaines d’application
Mécanique statistique (Monte Carlo, Dynamique moléculaire), physique théorique, Chimie
physique, chromodynamique quantique (QCD) sur réseau, Mécanique, Physique atomique et
moléculaire, Physique des plasmas, Génomique, écologie, génétique des populations
Nombre moyen d’utilisateurs
60 utilisateurs intensifs, 150 utilisateurs titulaires d’un compte sur les serveurs de calcul.
Page 45
Formations du Méso-centre informatique d’Ile
de France sud, Orsay
Méso-centre informatique d’Ile de France sud, Orsay
Formations assurées par les Ecoles Doctorales concernées. Formations proposées à la demande aux
utilisateurs (http://www.cri.u-psud.fr/machine/ca... :
Généralités sur le parallélisme
MPI
OpenMP
Page 46
Ile de France
Ile de France
SIR-UCP
http://www.cdc.u-cergy.fr
Puissance : 7.4 TF
Stockage : 60 TO
100 Utilisateurs
CDC-UCP
Nom du projet / Région
CDC-UCP
Ile de France
Site web
http://www.cdc.u-cergy.fr
Formations
Année de création
1998
Responsables scientifiques et techniques
• Responsable scientifique :
• Pas de responsable scientifique
• Responsables techniques :
• Yann COSTES (responsable du Centre De Calcul), Mathias QUOY (chargé de
mission Délégation aux Ressources Informatiques ).
Localisation
Cergy Pontoise
Participants (laboratoires, universités, entités, industries)
Laboratoires de l’UCP :
Laboratoire de Mécanique et Matériaux du Génie Civil
Page 47
Laboratoire de mathématiques Analyse Géométrié Modélisation
Laboratoire de Physique Théorique et Modélisation
Laboratoire Théorie Economique, Modélisations et Applications
Laboratoire de Physico-chimie des Polymères et des Interfaces
Laboratiore des Equipes Traitement de l’Information et Systèmes
Laboratoire d’Etude du Rayonnement et de la Matière en Astrophysique
Moyens humains (équivalent temps plein)
2 ingénieurs
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
1 cluster de calcul de 388 coeurs AMD et Intel x86_64, 3,1 To de mémoire vive, reséau Infiniband
SDR et QDR
1 pool Condor, d’un total d’environ 300 coeurs Intel x86 et x86_64 et 330 Go de mémoire vive,
en crête
Stockage : total de 60 To
Puissance crête théorique : environ 7.4 Teraflop/s
Types de codes (expertise), domaines d’application
Types de codes :
essentiellement des codes maison en Fortran, C, Matlab, OpenMP, MPI
chimie : Gaussian 09
physique : abinit
Nombre moyen d’utilisateurs
100
Formations du CDC-UCP, Cergy Pontoise
CDC-UCP
Utilisation des calculateurs du CDC : formation de 6h30, effectuée 2 fois par an, environ 8
utilisateurs par formation
Utilisation de Linux : formation de 6h00, effectuée occasionnellement, environ 10 utilisateurs par
formation
Parallélisation (MPI+OpenMP) : formation de 2 jours, effectuée occasionnellement, environ 5
utilisateurs par formation
Matlab : formation de 2 jours, effectuée occasionnellement, environ 10 utilisateurs par formation
Page 48
Ile de France
Ile de France
GRIF (Grille de production pour la
recherche en Ile de France)
http://grif.fr/
Puissance : 80 TF
Stockage : 3265 TO
6000 Utilisateurs (accès via grille)
GRIF (Grille de production pour la recherche
en Ile de France)
Nom du projet / Région
GRIF (Grille de production pour la recherche en Ile de France)
Ile de France
Site web
http://grif.fr/
Formations
Année de création
mars 2005
Responsables scientifiques et techniques
• Responsable scientifique :
• Jean-Pierre MEYER (CEA/DSM/IRFU)
• Responsables techniques :
• Michel JOUVIN (CNRS/IN2P3/LAL)
Localisation
APC (Paris),
CEA/IRFU (Saclay),
LAL (Orsay),
LLR (Palaiseau),
IPNO (ORSAY),
LPNHE (Paris)
Page 49
Participants (laboratoires, universités, entités, industries)
7 partenaires (6 laboratoires de recherche + ressources du GIS ISC-PIF)
Moyens humains (équivalent temps plein)
12
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
En 2008 : 6200 ksi2k ou 30TFlops 1000To (Réalisé)
En 2009 : 9100 ksi2k ou 45TFlops 1700to (Prévisionnel)
L’ensemble des ressources (6 sites) est depuis l’automne 2008 interconnecté à 10Gbit/s sur le réseau
RENATER.
Type de Serveurs :
bi-pro bi-cœur Opteron et quad-cœur Intel (IBM,HP,DELL), 2Go/cœur._Pour 2007 c’est
typiquement du 3550 IBM avec 16Go de ram.
Stockage :
• 2008 : 1000 To (Réalisé)
• 2009 : 1700 To (Prévisionnel)
Puissance crête théorique : 45 Teraflop/s
Types de codes (expertise), domaines d’application
physique subatomique, astro-particule, astrophysique, radio chimie, physique théorique.
Nombre moyen d’utilisateurs
100
Formations du GRIF, Ile de France
GRIF (Grille de production pour la recherche en Ile de France)
Formations aux grilles de calcul à destination des chercheurs.
Page 50
Ile de France
Ile de France
Grappe Massivement Parallèle de
Calcul Scientifique (GMPCS) de la
fédération Lumière-Matière
(LUMAT)
http://www.gmpcs.lumat.u-psud.fr/
Puissance : 7.2 TF
40
40 Utilisateurs
Mésocentre GMPCS de LUMAT à Orsay
Grappe Massivement Parallèle de Calcul Scientifique (GMPCS) de la fédération Lumière-Matière
(LUMAT) soutenue par le RTRA triangle de la physique, l’Université Paris-Sud et le CNRS,
Responsable Scientifique : Georges Raseev
Responsable Technique : Philippe Dos Santos
Site Web : http://www.gmpcs.lumat.u-psud.fr/
Hardware GMPCS
1 noeud maître (8 coeurs) ;
27 noeuds de calculs standards atteignant 3.99 téraflops (280 coeurs Central Processing Unit CPU ou processeurs classiques) ;
2 noeuds de calculs standards avec accélérateurs de calculs atteignant 4 téraflops (1792 coeurs
Graphics Processing Unit - GPU ou processeurs dérivés des cartes graphiques).
Mémoire vive totale 1124 Go (noeuds de 12, 24, 32, 48 et 64 Go)
Réseau rapide InfiniBand SDR pour 26 noeuds, QDR pour 4 noeuds
Page 51
Ile de France
Ile de France
Méso-centre de l’Ecole Centrale de
Paris
http://www.mesocentre.ecp.fr
Puissance : 9 TF
25 TO
80 Utilisateurs
Méso-centre de l’Ecole Centrale de Paris
Nom du projet / Région
Méso-centre de l’Ecole Centrale Paris
Ile de France
Site web
http://www.mesocentre.ecp.fr (en construction)
Année de création
janvier 2011
Responsables scientifiques et techniques
Responsable scientifique :
• Damien Durville, chargé de recherche CNRS, Ecole Centrale Paris, MSSMat - CNRS UMR
8579
Responsables techniques :
• Matthieu Boileau, ingénieur de recherche CNRS, Ecole Centrale Paris, EM2C - CNRS UPR
288
• Anne-Sophie Mouronval, ingénieur de recherche, Ecole Centrale Paris, MSSMat - CNRS
UMR 8579
• Laurent Series, ingénieur de recherche, Ecole Centrale Paris, MAS - EA 4037
Localisation
Châtenay-Malabry
Participants (laboratoires, universités, entités, industries)
L’ensemble des laboratoires de l’Ecole Centrale Paris :
Page 52
• Laboratoire Énergétique Moléculaire et Macroscopique, Combustion (EM2C), CNRS UPR
288
• Laboratoire Structures, Propriétés et Modélisation des Solides (SPMS), CNRS UMR 8580
• Laboratoire Mécanique des Sols, Structures et Matériaux (MSSMat), CNRS UMR 8579
• Laboratoire de Génie des procédés et matériaux (LGPM), EA 4038
• Laboratoire Mathématiques Appliquées aux Systèmes (MAS), EA 4037
• Laboratoire Génie Industriel (LGI) EA 2606
• Équipe du Laboratoire de Photonique Quantique et Moléculaire (LPQM), UMR CNRS 8537
- ENS Cachan
Moyens humains (équivalent temps plein)
0,5
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Compostion du calculateur igloo :
• un cluster de calcul Altix ICE 8400 LX de 68 nœuds équipés de 2 processeurs six-core Intel
Xeon X5650 (soit 816 cœurs de calcul)
• un nœud SMP Altix UV équipé de 8 processeurs six-core Intel Xeon X7542 (soit 48 coeurs)
et de 250 Gio de mémoire
• un nœud GPU Altix CH1103 équipé de 2 processeurs quad-core Intel Xeon E5520 et d’une
carte graphique Nvidia Tesla M2050
Réseau d’interconnexion :
• Infiniband 4xQDR
Stockage :
• serveur SGI NAS ISS3500 de 36 disques SATA 1 Tio 7200 tr/mn (soit une capacité de 36
Tio brute ou de 30 Tio en RAID 5)
Puissance crête du cluster Altix ICE 8400 LX : 2.7 Tflops
Types de codes (expertise), domaines d’application
Combustion, calcul ab-initio, mécanique des solides ...
Nombre moyen d’utilisateurs
Une centaine d’utilisateurs titulaires d’un compte
Page 53
Lorraine
Lorraine
Cassiopée : Calcul et Simulation
Hautes Performances
En construction
Puissance :3.2 TF
Stockage : ?? TO
30 Utilisateurs
Cassiopée : Calcul et Simulation Hautes
Performances
Nom du projet / Région
Cassiopée : Calcul et Simulation Hautes Performances
Lorraine
(Cassiopée est un élément du projet de mésocentre lorrain "EXPLOR")
Site web (en construction)
Année de création
2011
Responsables scientifiques et techniques
Responsable scientifique :
Isabelle Charpentier, Chargée de Recherche CNRS. Responsable de la plateforme.
Responsables techniques :
Boris Piotrowski, Ingénieur de Recherche, Arts et Métiers Paris-Tech ;
Nicolas Papayannopoulos, Ingénieur d’étude, Arts et Métiers Paris-Tech.
Localisation
Metz
Participants
Pôle Procédés Mécanique Matériaux (A&M-Paris Tech, ENIM, UPVM, Institut de Soudure) :
• Institut de Soudure
Page 54
•
•
•
•
Laboratoire de Biomécanique, Polymères et Structures (LABPS)
Laboratoire de Conception, Fabrication et Commande de Metz (LCFC)
Laboratoire d’Etude des Microstructures et Mécanique des Matériaux (LEM3)
Laboratoire de Génie Industriel et Production de Metz (LGIPM)
Université Paul Verlaine - Metz :
• Laboratoire de Physique de la Matière Condensée (LPMC)
• Laboratoire de Physique des Milieux Denses (LPMD)
• Laboratoire d’Informatique Théorique et a Appliquée (LITA)
Institut National Polytechnique de Lorraine :
• Laboratoire d’Energétique et de Mécanique Théorique et Appliquée (LEMTA)
Cassiopée est conçu pour la recherche partenariale et le transfert technologique
Moyens humains (équivalent temps plein)
2
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Type de processeur
Nombre de noeuds RAM par noeud Interconnect
Xeon X5570 2.93GHz 29 double Quad core 24Go
Infiniband
Xeon X3470 2.93 GHz 12 Quad core
16Go
Giga-Ethernet
Types de codes (expertise), domaines d’application
Logiciels métier : Mécanique, Matériaux, Procédés
Codes parallèles MPI, Chimie quantique et dynamique moléculaire.
Informatique.
Nombre moyen d’utilisateurs
30 Utilisateurs
Page 55
Languedoc-Roussillon
Languedoc-Roussillon HPC@LR
http://www.hpc-lr.univ-montp2.fr
Puissance : ? TF
Stockage : 171 TO
? Utilisateurs
HPC@LR
HPC@LR est le Centre de Compétences en calcul haute performance de la région LanguedocRoussillon
Site web http://www.hpc-lr.univ-montp2.fr
Année de création : 2010
Responsables scientifiques et techniques : Le centre est dirigé par Anne Laurent
Localisation : Montpellier
Participants
Financé par la Région Languedoc-Roussillon et l’Europe (fonds FEDER) et porté par l’Université
Montpellier 2 Sciences et Techniques, le centre HPC@LR est à destination des chercheurs,
entreprises et enseignants régionaux. Il regroupe différents partenaires au sein d’un consortium :
ASA, CINES, HPC Project, IBM, Université Montpellier 2 et bénéficie de l’accompagnement de
transfert-LR. Avec son modèle original s’appuyant à la fois sur des moyens humains et matériels, le
centre HPC@LR permet ainsi la mise en relation des compétences en HPC et vise à renforcer
l’excellence scientifique et industrielle dans le domaine du calcul intensif dans la région
Languedoc-Roussillon. Doté d’une architecture hybride, le centre permet des comparaisons les plus
larges possibles entre les architectures actuellement en compétition pour relever les défis de demain.
Moyens humains (équivalent temps plein) 4 personnes
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
84 nœuds de calcul IBM dx360 M3 disposant chacun de deux processeurs SIX CORE INTEL
(WESTMERE) à 2.66GHz, 24 Go de mémoire vive DDR3 1066 Mhz, un disque interne de 250Go
SATA à 7200krpm, deux ports GB Ethernet, une slot PCI Express x16 GEN2, une carte PCI
Express Infiniband Mellanox
4 lames IBM QS22 disposant chacune de deux processeurs PowerXCell 8i à 4GHz, 16 Go
mémoire DDR2, 8GB Modular Flash Drive (disque dur interne) , carte PCI Express DDR 4x, deux
ports GB Ethernet
Réseau INFINIBAND QDR IBM 12800-180
Stockage externe : baie externe IBM DCS9900 avec 150 disques SATA de 1To
2 cartes GPU (M2050) couplées 6 nœuds idataplex dx360M3 disposant chacun de deux
Page 56
processeurs QUAD CORE INTEL WESTMERE à 2.13GHz, 24 Go mémoire DDR3, un disque
interne de 250Go SATA à 7200krpm, deux ports GB Ethernet, une slot PCI Express 16x GEN2, une
carte PCI Express Infiniband Mellanox ConnectX, 2 cartes NVIDIA Fermi M2050
une double lame PS702 configurée avec 16 cœurs Power7, 64Go de mémoire, un disque dur de
300GB
Système d’exploitation : Red Hat Enterprise Linux
Système de fichiers parallèles : GPFS
Types de codes (expertise), domaines d’application
Le centre HPC@LR sert les objectifs de recherche des universitaires et de partenaires privés tous
domaines confondus et permet, par son hybridation, des comparaisons les plus larges possibles
entre architectures « multi-cœurs » innovantes. Le centre se distingue surtout par son
accompagnement en prestations de services assurées par des ingénieurs de recherche spécialisés
dans le calcul haute performance. Les domaines scientifiques couverts sont larges. Les applications
sont nombreuses : eau, sciences du vivant, environnement, énergie, bio-diversité, ...
Page 57
Limousin
Limousin
CALI (CAlcul en LImousin)
http://www.unilim.fr/sci/article106.html
Puissance : 1.7 TF
Stockage : 9 TO
100 Utilisateurs
CALI (CAlcul en LImousin)
Nom du projet / Région
CALI (Calcul en Limousin)
Limousin
Site web
http://www.unilim.fr/sci/article106.html
Formations
Année de création : Décembre 2007
Responsables scientifiques et techniques
• Responsable scientifique :
• Comité scientifique d’environ 15 personnes (chercheurs et ingnieurs)
• Responsable technique :
• Jean Pierre Lainé. Ingnieur de recherche au S.C.I.
Localisation
Limoges
Participants (laboratoires, universités, entités, industries)
3 instituts et une entreprise participent au comité scientifique
XLIM : photonique, micro-ondes, TIC
IPAM : sciences des matériaux et le génie des procédés
GEIST : Génomique, environnement, immunité, santé, thérapeutique
Une entreprise innovante dont l’activité principale est la génomique animale appliquée à a
sélection (Ingenomix / Lanaud)
Page 58
Moyens humains (équivalent temps plein)
Pour le démarrage du projet (sur 2 mois) dégagement d’un E.T.P.
Pour le suivi et l’exploitation, charge supplémentaire assurée par 2 ingénieurs du S.C.I..
Actuellement il n’y a pas de poste d’informaticien dédié au calcul.
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Mise en production le 15 décembre 2007. Ajout de 2 noeuds de calcul en 2008 et de 4 noeuds en
2010. Le cluster Linux-XBAS-5 est composé de 22 noeuds de calcul (NovaScale R422 et R422-IB).
Caractéristiques de 18 noeuds : chaque noeud possède 2 processeurs Intel Xeon E5345, 2.33GHz,
architecture 64bits, quad-coeur, soit 8 coeurs . Caractéristiques de 4 noeuds : chaque noeuds
possèdent 2 processeurs Intel Xéon E5530 , 2.4GHz, architecture 64bits, quad-coeur, soit 8 coeurs.
Le système dispose de 184 coeurs de calcul pour 23 host et de 400 GB de mémoire distribuée
L’ensemble est administré par un serveur NovaScale R460 qui sert de noeud maître et également de
lien vers le SAN.
Stockage : 9 To environ
Puissance crête théorique : 1,7 Teraflop/s
Types de codes (expertise), domaines d’application
FLUENT,SIESTA, Gaussian,Vasp
Nombre moyen d’utilisateurs : 100
Formations de CALI, Limoges
CALI (CAlcul en LImousin)
Depuis la mise en service au 15/12/2007. 3 jours de formation. 20 personnes (chercheurs,
doctorants, ingénieurs). Contenu de la formation : compilation, OpenMP, MPI,debbogeur, outil de
mesure, profiling d’application . . .
Page 59
Lorraine
Lorraine
Cassiopée : Calcul et Simulation
Hautes Performances
En construction
Puissance :3.2 TF
Stockage : ?? TO
30 Utilisateurs
Cassiopée : Calcul et Simulation Hautes
Performances
Nom du projet / Région
Cassiopée : Calcul et Simulation Hautes Performances
Lorraine
(Cassiopée est un élément du projet de mésocentre lorrain "EXPLOR")
Site web (en construction)
Année de création
2011
Responsables scientifiques et techniques
Responsable scientifique :
Isabelle Charpentier, Chargée de Recherche CNRS. Responsable de la plateforme.
Responsables techniques :
Boris Piotrowski, Ingénieur de Recherche, Arts et Métiers Paris-Tech ;
Nicolas Papayannopoulos, Ingénieur d’étude, Arts et Métiers Paris-Tech.
Localisation
Metz
Participants
Pôle Procédés Mécanique Matériaux (A&M-Paris Tech, ENIM, UPVM, Institut de Soudure) :
• Institut de Soudure
Page 60
•
•
•
•
Laboratoire de Biomécanique, Polymères et Structures (LABPS)
Laboratoire de Conception, Fabrication et Commande de Metz (LCFC)
Laboratoire d’Etude des Microstructures et Mécanique des Matériaux (LEM3)
Laboratoire de Génie Industriel et Production de Metz (LGIPM)
Université Paul Verlaine - Metz :
• Laboratoire de Physique de la Matière Condensée (LPMC)
• Laboratoire de Physique des Milieux Denses (LPMD)
• Laboratoire d’Informatique Théorique et a Appliquée (LITA)
Institut National Polytechnique de Lorraine :
• Laboratoire d’Energétique et de Mécanique Théorique et Appliquée (LEMTA)
Cassiopée est conçu pour la recherche partenariale et le transfert technologique
Moyens humains (équivalent temps plein)
2
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Type de processeur
Nombre de noeuds RAM par noeud Interconnect
Xeon X5570 2.93GHz 29 double Quad core 24Go
Infiniband
Xeon X3470 2.93 GHz 12 Quad core
16Go
Giga-Ethernet
Types de codes (expertise), domaines d’application
Logiciels métier : Mécanique, Matériaux, Procédés
Codes parallèles MPI, Chimie quantique et dynamique moléculaire.
Informatique.
Nombre moyen d’utilisateurs
30 Utilisateurs
Page 61
Midi-Pyrennées
Midi-Pyrennées
CICT-CALMIP - Centre
Interuniversitaire de Calcul de
Toulouse
http://www.calmip.cict.fr/
Puissance : 37 TF
Stockage : 250 TO
400 Utilisateurs
CICT-CALMIP - Centre Interuniversitaire de
Calcul de Toulouse
Nom du projet / Région
CALMIP Calcul en Midi-Pyrénées
Midi-Pyrénées
Site web
http://www.calmip.cict.fr/
Formations
Année de création : 1994 (regroupement scientifique), 1999 (premiers matériels)
Responsables scientifiques et techniques
• Responsable scientifique :
• Boris Dintrans, CR CNRS, Laboratoire Astrophysique de Toulouse-Tarbes
(UMR5572, CNRS et Université Paul Sabatier Toulouse 3)
• Responsable technique :
• Jean-Pierre Silvain, Directeur du Centre Interuniversitaire de Toulouse
• Pierrette BARBARESCO , Adjointe au Directeur du CICT.
• Responsable technique adjoint :
• Nicolas Renon
Localisation
Toulouse
Participants (laboratoires, universités, entités, industries)
Plus de 25 laboratoires (UMR ou UPR, co-tutelle : Universit, INP, INSA, ISAE ; EPST : CNRS,
Page 62
INRA) répartis (actuellement) sur 7 thématiques scientifiques : SDUT, Mécanique des fluides,
Méthodes et Algo, Physique théorique et moléculaire, Physicochimie des matériaux, chimie
quantique, biologie molécule (voir www.calmip.cict.fr) .
En 2008, 100 projets ont été déposés (demandes 1 900 000 heures calcul). Les projets sont évalués
par le comité de programme Calmip (experts issus des labos) : critères scientifiques et techniques
(calcul parallèle,etc..). C’est le comité qui gère la politique d’attribution des ressources. La
communauté est très large et diverses : 200 à 250 chercheurs, enseignants-chercheurs, doctorants,
au sein de laboratoires de recherche reconnus.
Moyens humains (équivalent temps plein)
3
Formations du CICT-CALMIP (Centre
Interuniversitaire de Calcul de Toulouse),
Toulouse
CICT-CALMIP (Centre Interuniversitaire de Calcul de Toulouse)
Spécifiquement pour les utilisateurs de la machine : 2 à 3 demi-journées par an, pour environ 30
personnes (Enseignants-chercheurs, Chercheurs, doctorants). Un accompagnement en continu des
utilisateurs au long de l’année : optimisation des codes, parallélisation des codes utilisateurs, etc.
Page 63
Midi-Pyrennées
Midi-Pyrennées
Plateforme bioinformatique
GénoToul de la Génopole de
Toulouse
http://bioinfo.genotoul.fr
Puissance : 15 TF
Stockage : 200 TO
300 Utilisateurs
Plateforme bioinformatique GénoToul de la
Génopole de Toulouse
Nom du projet / Région
Plate-forme Bioinformatique GénoToul
Midi-Pyrénées
Site web
http://bioinfo.genotoul.fr
Formations
Année de création 2000
Responsables scientifiques et techniques
• Responsable scientifique :
• Christine Gaspin
• Responsable technique :
• Christophe Klopp
Localisation
Toulouse
Participants (laboratoires, universités, entités, industries)
Essentiellement laboratoires de recherche publique régionaux (>30) ayant des besoins dans le
domaine de la bioinformatique. Les ressources utilisées sont la puissance de calcul, l’espace de
stockage et les ressources spécifiques à la bioinformatique (logiciels, banques de données).
Page 64
Moyens humains (équivalent temps plein)
6
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Mise à disposition de ressources matérielles / logicielles / banques de données, expertise,
hébergement de projets, calculs parallélisés, formation, appui aux programmes scientifiques dans le
domaine de la bioinformatique.
Serveurs :
Une quinzaine de serveurs physiques sous Linux
Une cinquantaine de machines virtuelles
Calcul :
Un cluster de calcul composé de 34 noeuds avec chacun 48coeurs, 384Go de ram (dont un à
512Go et un à 256Go de ram)
Une machine hypermem avec 32coeurs, 1To de ram
Une baie de disques hautes performances de 158To utile (données temporaires de calcul non
sauvegardées)
Stockage (au total 200To) :
Une baie de disques capacitive NAS, évolutive et répliquée et historisée sur site distant (données
pérennes à sauvegarder)
Une baie de disques SAN : hébergement de machines virtuelles
Une baie de disques VTL : sauvegarde sur site distant
Réseaux : 10 Gigabit Ethernet + Infiniband :
Puissance crête théorique : 15 Teraflop/s
Types de codes (expertise), domaines d’application
Comparaison de séquences (blast), annotation (eugene), assemblage (cap3, newbler, tgicl)
+ autres logiciels de bioinformatique
Nombre moyen d’utilisateurs
300 comptes utilisateurs à ce jour
Formations du GénoToul, Toulouse
Plateforme bioinformatique GénoToul de la Génopole de Toulouse
Utilisation de Linux (1j)
Utilisation du cluster de calcul et des banques de données Genomiques (1j)
Utilisation de l’environnement d’annotation Apollo (1/2 j)
Utilisation du CMS typo3 (1/2 j)
Utilisation des outils d’analyse de séquences (2j)
Analyse statistique des données biologiques (9j)
Page 65
Nord Pas-De-Calais
Nord Pas-De-Calais
Calcul Intensif à l’USTL
http://cri.univ-lille1.fr/services/calcul-intensif/Informations/
Puissance : 11.5 TF
Stockage : 230 TO
100 Utilisateurs
Calcul Intensif à l’Université Lille 1
Nom du projet / Région
Pôle Calcul Intensif régional
Nord-Pas de Calais
Site web
http://calcul-wiki.univ-lille1.fr
http://cri.univ-lille1.fr/services/...
Formations
Année de création
2000
Responsables scientifiques et techniques
• Responsable scientifique :
• Nouredine Melab (Professeur à Lille1)
• Responsables techniques :
• Patrick Billa (système, exploitation)
• Yvon Tinel (formations , assistance)
• Cyrille Bonamy (système, formations, assistance)
Localisation
CRI de Lille1
Participants (laboratoires, universités, entités, industries)
Essentiellement les laboratoires de recherche de l’USTL et un laboratoire de l’université d’Artois.
Les projets sont souvent liés à des partenariats avec l’industrie (EDF, Dassaut Aviation, Total, ...) :
12 laboratoires dans les domaines de la physique, chimie, biologie, mécanique, biochimie
Page 66
Moyens humains (équivalent temps plein)
• 2,5 personnes équivalent temps plein :
• 1/2 ingénieur système/exploitation
• 2 ingénieurs (assistance, développement, formations)
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
2004 : IBM : 1 P670 16 processeurs (Power4)
2005 : IBM : 2 noeuds Power5 8 processeurs (projet de grille Decrypthon : IBM, AFM,CNRS)
2006 : IBM : 4 noeuds P575 (Power5) 8 processeurs dual-core
2009 : IBM : Blue Gene/L - 1024 noeuds PC440 (bi pro)
2010 : noeud local de la grille de production NGI :
• HP : 24 noeuds DL170H G6 (Nehalem 2.26 GHz - 12Go/noeud) - 192 coeurs
• IBM : 17 noeuds (opteron 2 GHz - 4Go/noeud) - 34 coeurs
2011 : extension noeud de la grille de production NGI :
• IBM : 49 noeuds (opteron 2 GHz - 4Go/noeud) - 98 coeurs
• DELL : 1 noeud (Nehalem 2.4 GHz - 96Go) - 8 coeurs
Stockage : 1,5 To + 5 To (Blue Gene) +140 To (noeud de grille fin 2010)
Puissance crête théorique : 9 Teraflop/s
Types de codes (expertise), domaines d’application
• sur P575 : Essentiellement en physico-chimie
• VASP, Abinit, Gaussian, DLPoly,Qespresso, Hondo, Crystal06, Molpro, Paratec, ....
(la plupart du temps sur 4 à 16 processeurs)
• sur Blue Gene : VASP, CPMD, NAMD, logiciels de mécanique des fluides
• sur le noeud de grille : VASP, NAMD, Abinit, logiciels de biochimie
Nombre moyen d’utilisateurs
environ 70 utilisateurs (/an) soumettent des jobs
environ 25 utilisateurs en simultané (qui ont des jobs actifs et en attente)
Formations du Calcul Intensif à l’USTL, Lille
Calcul Intensif à Lille1
Formations CRI-Lille1 organisées à la demande des laboratoires
Formations CRI-Lille1 « individuelles » : par an, l’équivalent de 5 journées de formations :
• MPI
• OpenMP
• optimisation ...
Master 2 : ingénierie mathématique spécialité Calcul Scientifique (CS) de l’université de Lille1 :
formation internationale pluridisciplinaire de pointe dispensée en anglais dans le domaine du calcul
scientifique appliqué à la résolution des problèmes concrets. http://ufr-math.univ-lille1.fr/Form...
Page 67
Formation en M2, FIL / Université de Lille1 , Clusters et Grilles de Calcul (Grid5000)
Formation en M1, FIL / Université de Lille1 , Programmation parallèle et distribuée
Page 68
Provence-Alpes-Côte-d’Azur
Provence-Alpes-Côted’Azur
Projet CRIMSON
http://crimson.oca.eu
Puissance : 20 TF
Stockage : 200 TO
100 Utilisateurs
Projet CRIMSON
Nom du projet / Région
Projet CRIMSON
Provence-Alpes-Côte-d’Azur
Site web
http://crimson.oca.eu
Formations
Année de création : 2006 (dernier upgrade 2011)
Responsables scientifiques et techniques
• Responsable scientifique :
• Yannick Ponty
• Responsable technique :
• Alain Miniussi
Localisation
Nice
Participants (laboratoires, universités, entités, industries)
Le centre est opéré par l’Observatoire de la Côte d’Azur. Il est ouvert à l’ensemble des chercheurs
et ingénieurs des laboratoires de l’Université de Nice/Sophia-Antipolis ainsi qu’à leur
collaborateurs. Actuellement, environs 8 laboratoires l’utilisent de façon régulière.
Il est a noter que ce méso-centre n’a pas de thématique spécifique et sert aussi bien à des
physiciens, mathématiciens, biologistes...
Page 69
Moyens humains (équivalent temps plein)
Environ 2 ETP
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
• Unités de calcul
• 952 (2006-2008) + 888 (2011) cœurs de calcul + 16 GPU
• Réseau IB SDR+DDR+QRD
• Stockage
• 9To (2008) + 200To (2011)
• Puissance crête théorique :
• 8 Tflops(2008)+20Tflops(2011)
Types de codes (expertise), domaines d’application : https://crimson.oca.eu/article65.html
Nombre moyen d’utilisateurs : une centaines de compte, pour entre 10 et 20 utilisateurs à un
instant donné en moyenne.
Formations du CRIMSON, Nice
Projet CRIMSON
Insuffisamment développée à notre goût. Mais nous proposons :
• des formations sur les outils de gestion de code (SVN/Trac).
• des formation C et C++
Les informations concernant l’utilisation du centre de calcul sont faites via le site web autant que
faire ce peut.
Page 70
Provence-Alpes-Côte-d’Azur
Provence-Alpes-Côted’Azur
Méso-centre Aix-Marseille
Université
Site Web en création
Puissance : 14 TF
Stockage : 272 TO
Croissant !
Méso-centre Aix-Marseille Université
Nom du projet / Région
Mésocentre de l’Université d’Aix-Marseille / PACA
Site web
En cours de développement
Année de création
2012
Administration
Responsable scientifique : N. Ferré, Professeur
Responsable technique : F. Archambault, Ingérieur de Recherche
Comité scientifique et technique : 8 membres
Localisation
Marseille, Site de l’Etoile, Campus Saint-Jérôme
Participants (laboratoires, universités, entités, industries)
• Université d’Aix-Marseille
• Institut de Recherche sur la Fusion Magnétique, CEA Cadarache
Moyens humains (équivalent temps plein)
1
Page 71
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Utilisation
Noeuds
SMP
Bullx S6010
Dell PowerEdge
Cluster
C6100
Dell Precision
Visualisation
R5500
Stockage temporaire :
Type de
processeur
Xeon E7-8837
Nombre de
noeuds
2
RAM par
noeud
512 Go
Infiniband
Xeon 5675
96
24 Go
Infiniband
Xeon X5650
1
64Go
Infiniband
Interconnect
• local : SSD de 100 Go
• partagé : 272 To via GPFS
Serveur de visualisation doté d’une carte NVIDIA Quadro 5000
Puissance crête théorique : 14 Teraflops/s
Types de codes (expertise), domaines d’application
• Développement, validation et production
• Codes MPI ou OpenMP
• Fusion magnétique, risques, sciences de la matière
Nombre moyen d’utilisateurs
Croissant !
Page 72
Pays de la Loire
Pays de la Loire
Projet CCIPL
en cours d’actualisation
Puissance : 9.42 TF
Stockage : 12 TO
30 Utilisateurs
Projet CCIPL
Nom du projet / Région
Projet CCIPL (Centre de Calcul Intensif des Pays de la Loire)
Pays de la Loire
Site web
http://www.ccipl.univ-nantes.fr
Formations
Année de création
Naissance du projet 1998
Mise en service du premier serveur (et unique a ce jour) de calcul : début 2004
Remplacement du serveur en janvier 2009 avec une puissance crête de 1.8TFlops
Adjonction de nouveaux nœuds en 2011 pour atteindre une puissance de 6.88TFlops
Adjonction de nouveaux nœuds début 2012 pour atteindre une puissance de 9.42TFlops
Responsables scientifiques et techniques
• Responsable scientifique :
• Florent Boucher
• Responsable technique :
• Jean-Pierre Boulard
Localisation
Nantes
Participants (laboratoires, universités, entités, industries)
• 11 labos concernés (9 UMR CNRS, 1 unité INRA, 1 unité INSERM)
• 2 principaux domaines concernés :
Page 73
• mécanique des fluides (hydrodynamique, planétologie, procédés)
• études de structures moléculaires (chimie, chimie et physique du solide, optique et
matériaux)
Moyens humains (équivalent temps plein)
1.0 IR M.E.N (Responsable Technique)
0.3 CR CNRS (Responsable Administratif et Scientifique)
0.4 IR CNRS (Animation Scientifique)
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Architecture SGI (Silicon Graphics Inc) dotés de 74 nœuds bi-processeurs heax cœurs Xeon, soit
888 cœurs de calcul et 1776 Go de mémoire vive.
Stockage : 11 To
Puissance crête théorique : 9.42 TFlops
Types de codes (expertise), domaines d’application
dynamique des fluides (avec des applications hydrodynamiques et aérodynamiques, mais aussi
agroalimentaires et en planétologie)
structure des molécules (physique des interfaces, simulation du comportement des matériaux,
chimie organique et spectrochimie)
Les codes sont soit des codes commerciaux (gaussian) ou des codes développés par d’autres
scientifiques (vasp, castep). Pour le reste, ce sont des codes maison (principalement fortran/mpi).
Nombre moyen d’utilisateurs
moyenne sur la période : 30 utilisateurs actifs
Formations du CCIPL, Nantes
Projet CCIPL (Centre de Calcul Intensif des Pays de la Loire)
Formation théorique destinée aux nouveaux utilisateurs (2heures) : présentation matérielle et
logicielle ; fonctionnement du batch ; compilateurs ; outils d’aide au développement ; introduction
au calcul parallèle. Pour tout nouvel utilisateur (doctorant, permanent, stagiaire, ...) référencé des
ressources du CCIPL
Formation pratique : calcul parallèle (4 journées) : le calcul parallèle ; MPI 1. Cette formation est
intégrée au catalogue de formation de l’Ecole Doctorale STIM (Sciences et Technologies de
l’Information et de Mathématiques). Elle le sera également aux utilisateurs référencés du CCIPL.
M2 pro : Calcul parallèle et apprentissage de codes industriels
Ecole doctorale : Outils pour le calcul scientifique à haute performance
Chercheurs : initiation au calcul parallèle / a l’utilisation de MPI
Page 74
Picardie
Picardie
MeCS (Modélisation et Calcul
Scientifique)
Url : http://www.lamfa.u-picardie.fr/asch/f/MeCS/
Puissance : 3.25 TF
Stockage : 25 TO
Nb utilisateurs : 8
Picardie
Nom du projet / Région
MeCS (Modélisation et Calcul Scientifique) / Picardie
Site web
http://www.mathinfo.u-picardie.fr/a...
Formations
Année de création : 2007
Responsables scientifiques et techniques
• Responsable scientifique :
• Mark Asch
• Responsable technique :
• Mark Asch
Localisation
Université d’Amiens
Participants (laboratoires, universités, entités, industries)
Laboratoires de l’université d’Amiens
Projets de recherche : ANR, région.
Entreprises de la région.
Moyens humains (équivalent temps plein)
0.25 en 2012
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
Page 75
d’interconnexion, stockage)
SGI Altix 450
38 processeurs Itanium 2, bi-coeur à 1,6 Ghz, (total de 76 coeurs), 144 Go de memoire,
NUMAlink à 6,4 Go/sec.
Baie de stockage : 12 To (RAID).
Puissance crête théorique : 0,5 Tflops
SGI UV 100
36 x 8-cores Intel Westmere EX à 2.66GHz (288 coeurs au total)
1152 Go de mémoire DDR3 à 1333MHz
3 x 1 To disques SATA 7,2K rpm en RAID
Baie de stockage : IS 5000 (14,4 To) – 24 x 600Go SATA, 15k rpm
Puissance crête théorique : 2,75 Tflops
Processeurs graphiques : NVIDIA , 4 x M2070 GPU Tesla, 4 x 448 core, 1,15GHz
Types de codes (expertise), domaines d’application
Chimie moléculaire (Amber), fortran 90, MPI, Open MP,
Domaines : chimie, océanographie, acoustique, imagerie, écologie (dynamique des populations),
informatique (combinatoire)
Nombre moyen d’utilisateurs : 4-6
Formations du MeCS, Amiens
MeCS (Modélisation et Calcul Scientifique)
Aucune pour le moment.
Page 76
Rhone-Alpes
Rhone-Alpes
Fédération Lyonnaise de
Modélisation et Sciences
Numériques
http://www.flchp.univ-lyon1.fr/
Puissance : 44 TF
Stockage : 460 TO
250 Utilisateurs
Fédération Lyonnaise de Modélisation et
Sciences Numériques
Nom du projet / Région
• Fédération Lyonnaise de Modélisation et Sciences Numériques, comprenant :
• le PSMN (Pôle Scientifique de Modélisation Numérique)
• le P2CHPD (Pôle de Compétence en Calcul Haute Performance Dédié)
• le PCMS2I (Pôle de Calcul et Modélisation en Sciences de l’ingénieur et de
l’information)
Rhône-Alpes
Site web
http://www.flmsn.univ-lyon1.fr/
Formations
Année de création
Responsables scientifiques et techniques
• Responsables scientifiques :
• Pr. Marc BUFFAT (FLCHP)
• E. Leveque (PSMN)
• M. Buffat (P2CHPD)
• F. Godeferd (PCMS2I)
• Responsables techniques :
• H. Gilquin (PSMN)
• C. Pera (P2CHPD)
• D. Calugaru (PMCS2I)
Localisation
Page 77
Lyon
Participants (laboratoires, universités, entités, industries)
Environ 20 laboratoires de recherche rattachés à l’université de Lyon, au CNRS, à l’INRIA, à
l’INSERM, soit 150 chercheurs de l’UCB Lyon 1, INSA, ENS Lyon, ECL. Domaines : sciences
physique, astrophysique, chimie, SPI, mathématique, biologie, informatique
Moyens humains (équivalent temps plein)
PSMN : 1 IR Calcul Scientifique à 80%, 1 IR Calcul Scientifique à 50% , 1 ATI Réseau à 100%,
soit 2.3 ETP
P2CHPD : 1 IR
PMCSI : 1 IR
Total : 4.3 ETP
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Nombre total de coeurs :
• 4500
PSMN :
• acquis entre juin 2008 et juin 2009
• 24 serveurs SUN x4150 bi-proc quadri-coeur Intel Hapertown 2,83 Ghz memoire
2Go/coeur (Infiniband DDR)
• 18 serveurs SUN x4150 bi-proc quadri-coeur Intel Hapertown 2,83 Ghz memoire
4Go/coeur (GigabitEthernet)
• 32 serveurs HP dl165 bi-proc quadri-coeur AMD Shangai 2,7 Ghz memoire
3Go/coeur (Infiniband DDR)
• 9 serveurs Dell M6220 bi-proc quadri-coeur Intel E5430 2,66 Ghz memoire
1GO/coeur (GigabitEthernet)
• acquis depuis janvier 2010 :
• 36 serveurs Dell r410 bi-socket quadri-coeur Intel Nehalem 2,66 Ghz memoire
3Go/coeur (Infiniband QDR)
• 36 serveurs Dell r410 bi-socket quadri-coeur Intel Nehalem 2,66 Ghz memoire
3Go/coeur (Infiniband QDR)
• 12 serveurs Dell r410 bi-socket quadri-coeur Intel Nehalem 2,66 Ghz memoire
3Go/coeur (GigabiEthernet)
• 4 serveurs Dell r610 bi-socket quadri-coeur Intel Nehalem 2,66 Ghz memoire
3Go/coeur (GigabiEthernet)
• 12 serveurs HP dl165 G7 bi-socket hexa-coeur AMD Istambul 2,66 Ghz memoire
2,5Go/coeur (GigabiEthernet)
• 40 serveurs Dell c6100 bi-socket hexa-coeur Intel X5650 2,66 Ghz memoire
2Go/coeur (Infiniband QDR)
• 15 serveurs Dell r815 quadri-socket octo-coeur AMD Magny-cours 2,3 Ghz memoire
4Go/coeur (Infiniband QDR)
Page 78
• acquis depuis janvier 2011 :
• 40 serveurs HP sl390s bi-socket hexa-coeur Intel X5650 2,66 Ghz memoire
2Go/coeur (Infiniband QDR)
• 24 serveurs HP sl390s bi-socket quadri-coeur Intel X5672 3,2 Ghz memoire
6Go/coeur (Infiniband QDR)
• 6 serveurs Dell R410 bi-socket quadri-coeur Intel X5650 2,66 Ghz memoire
4Go/coeur
Soit donc au total 3216 coeurs : 336 coeurs (Intel Hapertown 2,66 Ghz) , 256 coeurs (AMD Shangaï
2,66 Ghz), 72 coeurs (Intel E5430), 704 coeurs (Intel Nehalem 2,66 Ghz), 144 coeurs (AMD
Istambul 2,3 Ghz), 1032 coeurs (Intel X5650), 480 coeurs (AMD Magny-cours 2,3 Ghz) et 192
coeurs (Intel X5672).
P2CHPD :
• cluster SUN (2005) : 66 Processeurs AMD Opteron 64 bits cadencés à 2.6 Ghz (7 noeuds
biprocesseurs SMP et 3 noeuds quadriprocesseurs SMP). Chaque noeud biprocesseur
dispose au minimum de 4 Go de mémoire, six d’entre eux disposent de 8 Go. Les
quadriprocesseurs disposent de 16 Go et 32 Go) , réseau infiniband.
• cluster IBM : 16 noeuds (136 coeurs Intel x-64) réseau infiniband.
• acquis depuis janvier 2009 :
• 18 serveurs bisocket quadricoeur intel x5365 2Go/coeur (Infiniband DDR)
• acquis depuis janvier 2010 :
• 2 serveurs BULL bisocket quadricoeur intel x5550 + 1 baie GPGPU (4x Tesla 1040)
• 3 serveurs BULL bisocket quadricoeur intel x5580 7Go/coeur (Infiniband QDR)
• 4 serveurs HP bisocket quadricoeur intel x5550 7Go/coeur (Infiniband QDR)
• 2 serveurs HP quadrisocket hexacoeur AMD 8435 10Go/coeur
• 36 serveurs Dell r410 bi-socket quadri-coeur Intel Nehalem 2,66 Ghz memoire
3Go/coeur (Infiniband QDR)
• 36 serveurs Dell r410 bi-socket quadri-coeur Intel Nehalem 2,66 Ghz memoire
3Go/coeur (Infiniband QDR)
• 3 serveurs Dell r410 bi-socket quadri-coeur Intel Nehalem 2,66 Ghz memoire
3Go/coeur
• acquis depuis janvier 2011 :
• 6 serveurs Dell r410 bi-socket quadri-coeur Intel E5620 2,4 Ghz memoire 3Go/coeur
Soit donc au total 1090 coeurs : 66 coeurs (AMD Opteron) , 136 coeurs (Intel x-64), 144 coeurs
(Intel x5365), 648 coeurs (Intel X5550),48 coeurs (AMD Istambul) et 48 coeurs (Intel E5620).
PMCS2I :
• 1 serveur SGI UV 1000 avec 192 coeurs (Intel x5650) et 1TO de mémoire.
Stockage Total : 462 TO
• PSMN : 9 serveurs de fichiers 4x48 TO + 1x24 TO + 1x48TO + 3x24 TO
• P2CHPD : 4 serveurs de fichiers 4x24TO +5TO
• PMCS2I : baie de stockage EVA 4100 HP de 24To utiles et robot HP MSL 8096 à base de 4
lecteurs LTO-4 et 96 slots.
Puissance crête théorique totale : 44 Teraflop/s
• PSMN : Environ 31 TFlops crête
• P2CHPD : Environ 11 TFlops crête
Page 79
• PMCS2I : Environ 2 TFlops crête
Types de codes (expertise), domaines d’application
PSMN
• ADF, CPMD, CP2K, Gaussian, Lammps, Molcas, Q-chem, Siesta, Turbomole, Vasp, ... pour
la Chimie.
• Castep, Gaussian, ... pour la RMN.
• MRBayes, PhyML, SNPScanner, Spinevolution, Velvet, ... pour la biologie.
• PWSCF, Siesta ... pour la physique.
• Programmes développés en interne ou en collaboration pour tous les laboratoires.
• Maple, Matlab et Scilab.
P2CHPD
• Codes industriels avec licence : fluent, comsol, mapple, matlab.
• Codes industriels sans licence : Gaussian, siesta, lammps.
• Codes développés en interne par les utilisateurs/laboratoires.
PMCS2I
•
•
•
•
Codes industriels commerciaux pour la CFD : elsA (ONERA), Cradle.
Codes industriels commerciaux pour la mécanique : Abaqus, Nastran.
Codes industriels "libres" pour la CFD : Saturne, OpenFoam, Arps.
Matlab, librairies Nag.
Nombre moyen d’utilisateurs
PSMN : 150 enregistrés, 80 utilisateurs réguliers.
P2CHPD : 100 enregistrés, 25 utilisateurs réguliers.
PMCS2I : 50 enregistrés.
Formations de la FLMSN, Lyon
Fédération Lyonnaise de Modélisation et Sciences Numériques
2 à 3 formations / an
2 mini-colloques (appelés « journées du PSMN ») par an, rassemblant pour la journée des
chercheurs lyonnais ou de la Région Rhône-Alpes autour d’un sujet de recherche lié au calcul
numérique. (env. 40 personnes / colloque).
Master MEGA (Mécanique Energétique Génie-Civil et Acoustique), M2 Professionnel, spécialité
"Ingénierie Mécanique et Energétique", parcours "Modélisation et Simulation en Mécanique.
Utilisation de codes industriels", 20h éq. TD "Initiation au calcul parallèle".
Page 80
Rhone-Alpes
Rhone-Alpes
CIMENT (Calcul Intensif,
Modélisation, Expérimentation
Numérique
https://ciment.ujf-grenoble.fr/
Puissance : 35 TF
Stockage : 500 TO
150 Utilisateurs
CIMENT (Calcul Intensif, Modélisation,
Expérimentation Numérique
Nom du projet / Région
CIMENT (Calcul Intensif, Modélisation, Expérimentation Numérique et Technologique)
Rhône-Alpes
Site web
https://ciment.ujf-grenoble.fr/
Formations
Année de création
1998
Responsables scientifiques et techniques
• Responsable scientifique :
• Emmanuel Chaljub (2009-)
• Laurent Desbat (1998-2009)
• Responsables techniques :
• Bruno Bzeznik : expertise systèmes, réseaux et grilles
• Laurence Viry : expertise calcul scientifique
Localisation
Grenoble
Participants (laboratoires, universités, entités, industries)
6 pôles regroupant une large communauté de chercheurs utilisateur du calcul intensif pour la
modélisation numérique, mais aussi des chercheurs informaticiens (informatique distribué, grilles)
Page 81
issus de l’Université Joseph Fourier, l’INstitut Polytechnique de Grenoble, l’INRIA et le CEA :
• SCCI : Service de Calcul Intensif de l’Observatoire de Grenoble
• Laboratoires : IPAG, ISTerre, GIPSA-LAB.
• MIRAGE : Meso Informatique Répartie pour des Applications en Géophysique et
Environnement
• Laboratoires : LJK, LEGI, LTHE, LGGE
• Grilles et Grappes : Grappes de PCs, recherche en informatique distribuée, Grilles
• Laboratoires : LIG
• CECIC : Centre d’Expérimentation du Calcul Intensif en Chimie
• Laboratoires : DCM, DPM, ICMG, CERMAV
• BioIMAGe : Biologie Imagerie
• Laboratoires : TIMC (UMR 5525), Unit INSERM 438, RMN Bioclinique, LECA
• PHYNUM : Physique Numérique
• Laboratoires : LPMMC, IN, LPSC, LSP, SIMAP, INAC-CEA
Moyens humains (équivalent temps plein)
4 ETP.
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
• Calculateurs en fin de carrière, mais toujours utilisés :
• SGI Altix 350 : 32 itaniums2 1,5Ghz/4Mo cache
• IBM SMP, 28+ 2 quadri Pro Power3 375Mhz, 24Go
• Calculateurs actuels :
• Computemode : Une centaine de CPU de machines desktop (P4, core2duo) utilisées
la nuit
• SUN, 32 opterons 180 2.4Ghz, 44Go memoire
• IBM, 32 Power5 1,5Ghz, 64Go memoire, 1,2To stockage
• SGI Altix 450/Xe hybrid : 72 coeurs IA64 1,6Ghz avec 9M cache/core + 28 coeurs
EM64T 3Ghz Xeon Woodcrest
• IBM, 64 bi-Xeon Harpertown 2.5 GHz, réseau Infiniband
• IBM, 58 bi-Xeon Harpertown 2.8GHz
• SGI Altix Ice, 32 bi-Xeon Harpertown 2.5 Ghz, réseau infiniband
• SGI Altix Ice, 16 bi-Xeon Nehalem 2.6Ghz
• Bull, 32 bi-Xeon Harpertown 2.5Ghz (cluster Grid5000, utilisé dans CIMENT
uniquement en mode best-effort)
• Bull, 84 bi-Xeon Nehalem 2.2Ghz (cluster Grid5000, utilisé dans CIMENT
uniquement en mode best-effort)
• Bull, 12 bi-Xeon Nehalem 2.27Ghz avec 23 GP-GPU (cluster Grid5000
• Dell, 12 bi-Xeon Westmere low power
• Grille de Calcul CIGRI : Exploitation de 3000 coeurs de CIMENT en mode best-effort
Stockage : environ 60 To (4To + 1,2To + 12To + 23To + 7To + 6To + 7To)
Stockage grille (IRODS) : 450 To bruts
Page 82
Puissance crête théorique : 36 Teraflop/s
Données actualisées sur la page "HPC Hardware" du site de CIMENT
Types de codes (expertise), domaines d’application
Simulation numérique, codes très variés puisque CIMENT regroupe toutes sortes de disciplines
(voir plus haut la liste des pôles)
Nombre moyen d’utilisateurs
250
Formations de CIMENT, Grenoble
CIMENT (Calcul Intensif, Modélisation, Expérimentation Numérique)
• Des Séminaires autour du calcul et du HPC sont proposés dans le cadre du réseau calcul
MaiMoSiNE/CIMENT. Leur programmation est annoncée aux usagers des plateformes
CIMENT et aux membres du réseau calcul Grenoblois (MaiMoSiNE/CIMENT), ils sont
affichés sur la liste des formations du site MaiMoSiNE.
• Formations doctorales/ Formations MaiMoSiNE/CIMENT (2011/2012) Deux modules
de formations autour du calcul scientifique et du HPC sont proposés dans le cadre du collège
doctoral et du pôle "Animation scientifique" de MaiMoSiNE en collaboration avec le mésocentre CIMENT. L’objectif est de fournir les connaissances nécessaires au développement
efficace et fiable d’une application de simulation numérique.
• Module 1 : Méthodes et outils de calcul scientifique.
• Module 2 : Introduction au calcul parallèle, premier pas vers le calcul massivement
parallèle.
• Les formations sur le calcul parallèle sont dispensées également en « formations initiales »
de l’UJF :
• Master 1 Mathématiques Appliquées et Industrielles
• Master 2 (pro) : Mathématiques, Informatique et Applications
Formations antérieures :
• M2 et Ecole doctorale (2006-2011) : Formation au calcul distribué et modélisation
(développement / débogage / optimisation / openmp / mpi/ Hybrid / Grille/ GPU) Environ
40h pour une trentaine de stagiaires
• Formation continue nationale (2003:2005) : introduction au calcul intensif, 5 jours pour une
vingtaine de personnes.
• M2 et Ecole doctorale : Modélisation numérique et calcul intensif (jusqu’en 2008) :
couplage de modèles, simulations monte-carlo, problèmes inverses ...
Lien vers la page « Formation » de CIMENT
Lien vers la page « Animation Scientifique de MaiMoSiNE »
Page 83
Rhone-Alpes
Rhone-Alpes
MUST
http://lapp.in2p3.fr/MUST
Puissance : 8 TF
Stockage : 520 TO
400 Utilisateurs (Accès par la grille)
MUST
Nom du projet / Région
Mésocentre MUST
Mésocentre de Calcul et de stockage ouvert sur la grille EGEE/LCG
Rhône-Alpes
Site web
http://lapp.in2p3.fr/MUST
Formations
Année de création
2007
Responsables scientifiques et techniques
• Responsable scientifique :
• Luc Frappat (Vice Président du Conseil Scientifique de l’Université de Savoie)
• Responsable technique :
• Eric Fede
Localisation
Université de Savoie
Hébergé dans les locaux du LAPP
Participants (laboratoires, universités, entités, industries)
11 laboratoires de recherche de l’Université de Savoie spécifiquement identifiés dans le projet :
LAPP Laboratoire d’Annecy-le-Vieux de Physique des Particules (Expérimentation en Physique
des Particules et astro-particules)
LAPTH Laboratoire d’Annecy-le-Vieux de Physique Théorique (Modèles des particules
élémentaires, cosmologie, et astrophysique des particules, théorie de champs et symétries,
Page 84
supersymétrie, supergravité, relativité générale, systèmes intégrables et mécanique statistique)
EDYTEM Laboratoire Environnements Dynamiques et Territoires de la Montagne
(Reconstitution des paléogéographies et des paléoenvironnements de milieux de montagne, étude à
haute résolution des sédiments endokarstiques, étude combiné du dispositif géologique et de
l’évolution géomorphologique)
LAMA Laboratoire de Mathématiques (Géomtérie algébrique réelle, théorie géomtrique du
contrôle des systèmes, écoulements des fluides, modélisation des séismes et glissements de terrains,
modèles statistiques de particules, fiabilité des matériels, systèmes dynamiques discrets)
ISTerre Regroupement des laboratoire LGIT et LGCA. L’objectif scientifique de cette unité est
l’étude physique et chimique de la planète Terre, tout particulièrement en se concentrant sur les
couplages entre les observations des objets naturels, l’expérimentation et la modélisation des
processus complexes associés.
LAHC Laboratoire d’Hyperfréquence et de Caractérisation (Caractérisation hyperfréquence,
modélisation et simulation d’interconnexions et de passifs intégrés, modélisation et caractérisation
de circuits hyperfréquences accordables par dispositifs commandés, caractérisation de matériaux
par spectroscopie THz, dispositifs supraconducteurs, étude de la génération par photoconduction et
la production THz continue (battement de lasers).
LMOPS Laboratoire des Matériaux Organiques à Propriétés Spécifiques (Polymères Aromatiques
Hétérocycliques, chimie et physiochimie aux interfaces)
LOCIE Laboratoire d’Optimisation de la Conception et Ingénierie de l’Environnement
LISTIC Laboratoire d’Informatique, Systèmes, Traitement de l’Information et de la Connaissance
SYMME Laboratoire des Systèmes et Matériaux pour la Mécatronique
Et à travers la grille européenne EGEE (Enabling Grid for E-sciences), tous les laboratoires
impliqués dans les organisations virtuelles ESR (Earth Science Research), GEANT4 (Simulation
Monte-Carlo) et expériences LHC : ATLAS et LHCb.
Moyens humains (équivalent temps plein)
3 ETP
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Cluster scalaire de PCs : 944 coeurs Intel / 2Go par coeur /Interconnect 1Gbps
Stockage : 520To
Puissance crête théorique : 8 Teraflop/s
Types de codes (expertise), domaines d’application
Code scientifique scalaire et parallèle :
Mathématiques,
Science de la Terre,
Physique des Particules et Astroparticules,
Matériaux,
Electronique
Page 85
Nombre moyen d’utilisateurs
60 utilisateurs locaux et 350 utilisateurs grille EGEE
Formations de MUST, Université de Savoie
MUST (Mésocentre de Calcul et de stockage ouvert sur la grille EGEE/LCG)
22 janvier 2009
• LAMA (Laboratoire de Mathématiques de l’Université de Savoie), 73376 Le Bourget
du Lac
• Mésocentre MUST
• Niveau débutant +
• Présentation du cluster MUST et de son environnement de travail. Préparation et
soumission de jobs sur le cluster MUST http://lappwiki01.in2p3.fr/Support-...
Février 2009
• LAPP (Laboratoire d’Annecy-le-Vieux de Physique des Particules), 74941 Annecyle-Vieux
• Mésocentre MUST + grille EGEE-LCG
• Niveau confirmé
• Présentation du cluster MUST et des outils grille EGEE-LCG dans le cadre des
expériences du LHC (expériences Atlas et LHCb)
30 avril 2009
• Laboratoire du LOCIE (Laboratoire Optimisation de la Conception et Ingénierie de
l’Environnement) , 73376 Le Bourget du Lac
• Mésocentre MUST
• Niveau débutant
• Initiation à Linux. Présentation du cluster MUST et de son environnement de travail,
préparation et soumission de jobs sur le cluster MUST
http://lappwiki01.in2p3.fr/Support-...
Tutorial EGEE : 25 personnes/16 heures
Tutorial outils LCG pour expérience LHC : 16 personnes/3 heures
Formation utilisateurs locaux : 8 personnes/4 heures
8 mars 2010
• Laboratoire SYMME (Laboratoire SYstèmes et Matériaux pour la MEcatronique),
74944 Annecy-le-Vieux
• Mésocentre MUST
• Niveau débutant
• Initiation à Linux. Présentation du cluster MUST et de son environnement de travail,
préparation et soumission de jobs sur le cluster MUST
http://lappwiki01.in2p3.fr/Support-...
8 Juillet 2011
• Réunion des utilisateurs MUST :Bourget du Lac Pole Montagne
• Mésocentre MUST
• Niveau median
Page 86
• Retour et cas d’utilisation du mesocentre MUST et présentation des possibilités de la
grille européenne EGI
Page 87
Outre-Mer : Guadeloupe
Outre-Mer :
Guadeloupe
C3I (Centre Commun de Calcul
Intensif)
http://www.univ-ag.fr/c3i/
Puissance : 0.912 TF
Stockage :6 TO
50 Utilisateurs
C3I (Centre Commun de Calcul Intensif)
Nom du projet / Région
Centre Commun de Calcul Intensif de l’UAG
Guadeloupe
Site web
http://www.univ-ag.fr/c3i/
Formations
Année de création
Responsables scientifiques et techniques
• Responsable scientifique :
• Pascal POULLET (MCF)
• Responsable technique :
• Patrick SIARRAS (IR)
Localisation
Pointe à Pitre
Participants (laboratoires, universités, entités, industries)
8 laboratoires dont 7 Equipes d’Accueil du MENSER et une UMR UAG(récemment crée) :
AOC (EA 3591),
COVACHIM-M (EA 3592),
GRER (EA 924),
GRIMAAG (EA 3590),
GTSI (EA 2432),
LEAD (EA 2438),
Page 88
LPAT (EA 923),
UMR QPVT (INRA-UAG)
Moyens humains (équivalent temps plein)
1 Ingénieur de Recherche
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
1 Cluster IBM en réseau Myrinet intégrant 21 lames JS21 bi-procs bi-coeur PPC 3 noeuds Power
5+ bi-procs bi-coeur 2 noeuds Power 5+ admin et I/O 2 Xeon bi-procs bi-coeur pour une puissance
crête théorique de 610 + 280 (+ 22) = 912 GigaFlops, bien que le noeud Xeon n’est pas Powercompatible
Stockage : 6 To
Puissance crête théorique : 0,912 Teraflop/s
Types de codes (expertise), domaines d’application
Types de codes : MMM5, Aquilon-Thetis, Gaussian, StarCD, Matlab, Vasp, Feff, FCPU, codes
maison en dévpt
Domaines d’application : mécanique des fluides, océanographie, météorologie, chimie
moléculaire, traitement d’images
Nombre moyen d’utilisateurs 50
Formations du C3I, Pointe à Pitre
C3I (Centre Commun de Calcul Intensif)
Une quarantaine d’heures dès 2004, puis depuis 2006, cette formation s’est réduite à une trentaine
d’heures dispensée par l’Ecole Doctorale aux thésards et personnels. En parallèle, des étudiants en
stages de M1 ou M2 ont, chaque année, utilisé les ressources du C3I.
2004 : Ecole d’été internationale « High-Performance Computing, Parallelism and Applications »
(30h) dispensée à 22 thésards et personnels de l’UAG, 1 de l’INRA, 1 de l’University of West
Indies (Campus de Mona) Jamaïque :
• Env. de programmation (OpenMP/MPI)
• Développement d’applications, visualisation (Totalview, Vampir, AVS)
• Thèmes de recherche connexes (« Algèbre Linéaire » Y.Saad, « Grilles de calcul »
R.Perrot, « Calcul Scientifique » J.Laminie, « Factorisation » J.Roman).
2005 : Séminaires intercalés avec séances de Groupe de Travail (depuis 2004) :
• Applications développées par les utilisateurs
• mini-cours sur la modélisation de tsunamis (mathématiques)
• Aide à l’utilisation de logiciels spécifiques, langages de programmation
Page 89
2006 : Atelier de l’Ecole Doctorale, thème : « Implémentation de la méthode des éléments finis »
J. Laminie (30h) .
2007 : Atelier de l’Ecole Doctorale, thème : « Calcul parallèle et Décomposition de domaines » J.
Laminie (30h) .
Workshop (Animation/Vulgarisation) du 09/07 : « Le développement du calcul intensif à l’UAG :
enjeux, perspectives et coût » (8h) où étaient rassemblés les utilisateurs de l’UAG et quelques autres
centres de recherches de la Guadeloupe.
2008 : Atelier de l’Ecole Doctorale, thème : "Vers le calcul intensif 1" J. Laminie ; ProbabilitésStatistiques pour les nuls (formation en R) ; Schémas numériques (formation en Scilab)
2009 : Atelier de l’Ecole Doctorale, thème : "Vers le calcul intensif 2" J. Laminie ; formation en
Matlab
Page 90
Outre-Mer : Réunion
Outre-Mer : Réunion
CCUR (Centre de Calcul de
l’Université de la Réunion)
http://w3-ccur.univ-reunion.fr
Puissance : 2 TF
Stockage : 24 TO
24 Utilisateurs
CCUR (Centre de Calcul de l’Université de la
Réunion)
Nom du projet / Région
Centre de Calcul de l’Universit de la Réunion
La Réunion
Site web
http://dsiun.univ-reunion.fr/moyens...
Formations
Année de création : novembre 2003
Responsables scientifiques et techniques
• Responsable scientifique :
• Delphine Ramalingom
• Responsable technique :
• Delphine Ramalingom
Localisation
Saint Denis
Participants (laboratoires, universités, entités, industries)
Financé par la Région Réunion et l’Europe sur des Fonds Européens de développement Régional
(FEDER), le Centre de Calcul de l’Université de la Réunion est destiné aux chercheurs et
chercheurs associés de l’université.
Cela comprend 250 enseignants-chercheurs réparties entre 19 équipes de recherche. Les pôles de
compétence sont :
Page 91
Biodiversité, biotechnologies et la valorisation agroalimentaire, notamment protection des plantes
Espaces marin et côtier
Facteurs de risques, santé publique, bio-informatique
Géosphère : observation et dynamique des milieux naturels
Traitement de l’information, modélisation, raisonnement
Moyens humains (équivalent temps plein)
1 personne
Moyens informatiques et puissance crête théorique actualisée (processeurs, réseau
d’interconnexion, stockage)
Depuis novembre 2009, cluster de serveurs Bull de la gamme NovaScale :
20 noeuds de calcul comprenant chacun 2 processeurs Xeon E5520 quadri-coeurs cadencés à 2,26
Ghz ainsi que 24 Go de mémoire
1 noeud de calcul comprenant 2 x 2 processurs X5570 quadri-coeur cadencés à 2,93 Ghz et 72 Go
de mémoire
1 noeud de calcul (super-node bulles) comprenant 4 Intel Xeon octocoeur cadencés à 2,26 GHz
ainsi que 132 Go de mémoire.
Stockage : 24 To (Optima 1500)
Puissance crête théorique : 1,92 Teraflops
Puissance totale fournie : 1,92 TFlops avec 200 coeurs
Types de codes (expertise), domaines d’application
Les travaux de recherche nécessitant d’importantes ressources informatiques s’articulent autour des
thématiques suivantes :
la physique et chimie de l’atmosphère
la modélisation individu-centrée en écologie
la biologie marine
la bioinformatique et la modélisation moléculaire
la physique du bâtiment, l’énergie et l’environnement
agriculture tropicale et écosystèmes naturels
Parmi les 24 logiciels scientifiques qui sont installés, ceux qui sont concernés par ces thématiques
sont : Meso-NH, OpenFoam, Charmm, Mopac, Gromacs, R, Migrate-n, MrBayes, InStruct,
Structure
Nombre moyen d’utilisateurs : 25
Formations du CCUR, Saint Denis
CCUR (Centre de Calcul de l’Université de la Réunion)
En 2012 :
animation scientifique destinée aux doctorants de l’Ecole Doctorale de Sciences et Technologie
Page 92
et Santé (1/2 journée) : présentation du Centre de Calcul, 4 interventions d’utilisateurs pour
présenter leurs activités relatives au supercalculateur
INITIATION LINUX (utilisateur débutant) (2jours)
En 2011 :
animation scientifique destinée aux doctorants de l’Ecole Doctorale de Sciences et Technologie
et Santé (1/2 journée) : présentation du Centre de Calcul, 2 interventions d’utilisateurs pour
présenter leurs activités relatives au supercalculateur
INITIATION A L’UTILISATION DU CALCULATEUR : 3 ateliers d’une demi-journée par
petits groupes destinés aux nouveaux utilisateurs
En 2010 :
INITIATION A L’UTILISATION DU CALCULATEUR : 2 ateliers d’une demi-journée par
petits groupes destinés aux nouveaux utilisateurs
En 2007 :
INITIATION A L’UTILISATION DU CALCULATEUR (12 h) Objectifs du stage : Connaître
et mettre en oeuvre l’environnement de travail sur le calculateur – Acquérir et mettre en pratique les
éléments de base de la programmation – Etre capable de paralléliser un code simple.
UTILISATION ETENDUE DU CALCULATEUR (24 h) Objectifs du stage : Fournir les
connaissances nécessaires pour exploiter efficacement les ressources du calculateur
(Programmation MPI, Outils optimisation, analyse paramétrique, logiciel R). Personnels concernés :
enseignants chercheurs, doctorants et personnels techniques.
Page 93
Download PDF

advertising