La plupart des recherches menées à l’IP2I reposent sur des systèmes de traitement de données massives et de calculs intensifs, et ce depuis de nombreuses années.
Au CERN par exemple, dans les années soixante, l’analyse des photos de chambres à bulle mobilisait une armée d’opérateurs. Par la suite, avec l’essor de l’informatique et des infrastructures distribuées, les analyses visuelles et manuelles furent remplacés par des programmes tournant sur des fermes d’ordinateurs telles que le CCIN2P3 à Lyon, ou sur la grille de calcul mondial qui traite par exemple les données d’ALICE et de CMS.
De nos jours, le calcul haute performance (HPC), le deep learning, et le big data offrent de nouvelles perspectives à l’ensemble de la recherche fondamentale. Ainsi :
- Le HPC et le calcul accéléré sur GPU permettent de résoudre les équations différentielles complexes des équipes de physique théorique, par exemple pour décrire la fusion des étoiles à neutrons et trous noirs, ou pour modéliser le comportement des galaxies.
- Le deep learning est utilisé pour séparer le signal du bruit de fond dans les expériences, que ce soit pour la détection d’ondes gravitationnelles (Virgo/Ligo), de nouvelles particules encore inconnues (CMS), ou encore pour identifier les particules d’après les signaux enregistrés dans le détecteur (Agata).
- Les techniques big data inspirées de celles des géants de l’internet permettent l’analyse interactive de grandes quantités de données (Euclid, CMS).
La plateforme Calcul Scientifique de l’IP2I a pour but :
- D’assurer la veille technologique qui permet à l’IP2I de suivre les évolutions mondiales et de rester à la pointe sur ces sujets.
- D’anticiper et d’assurer les moyens de calculs nécessaires (serveurs, GPU, etc) aux activités du laboratoire.
- De favoriser l’échange de connaissance et de créer du lien entre les équipes du du laboratoire, et avec les équipes d’organisations partenaires (IN2P3/CNRS, UCBL, Université de Lyon notamment).
- documentation sur l’utilisation des moyens de calcul de l’IP2I et ceux du CC-IN2P3.
ACTIVITÉS :
- Tutoriels et discussions régulières:
- machine learning et deep learning
- data science
- dask, kubernetes, slurm
- python, git
2020
- Mise en place d’une ferme de calcul de plus de 900 coeurs
- Acquisition d’un serveur GPU avec 3 cartes NVidia RTX6000 pour le prototypage des algorithmes de deep learning
- Accompagnement de projets de recherche :
- Détection automatique de micro-défauts à la surface des miroirs produits par le LMA pour Virgo
- Calcul de fonctions d’ondes nucléaires quantiques par un réseau de neurones.
- Formation Machine Learning et Deep Learning pour les chercheurs et professeurs de l’université de Lyon (plus de 30 participants)
- Création de The Data Frog, un blog d’initiation à la data science et au machine learning avec python destiné au grand public.