De la modélisation au calcul intensif : comprendre le continuum scientifique
Date:
Mis à jour le 19/05/2025
Comment traduire et simuler la complexité de certains phénomènes naturels, gouvernés par les lois complexes de la mécanique, de la physique, de la chimie, ou de la biologie et les traduire en informations claires, utiles et compréhensibles pour tous ? Au centre Inria de l’université de Bordeaux, les scientifiques répondent à ce défi grâce à un triptyque de compétences appelé « continuum » alliant modélisation, calcul intensif et architectures parallèles. Ensemble, ils unissent leurs expertises pour structurer leurs recherches en mathématiques appliquées et en informatique afin de simuler le réel par ordinateur, dans des domaines variés.
Tout commence par la nécessité de comprendre de façon fine un phénomène majeur : propagation d’ondes, écoulement de fluides, fonctionnement du cœur, du soleil… ou encore d’une éolienne !
Chacun de ces problèmes repose sur des lois physiques fondamentales et universelles comme la conservation de la masse, de l’énergie ou encore l’équilibre des forces. En posant des hypothèses de travail, il est possible de simplifier et d’adapter ces lois à la situation réelle qu’on peut alors formaliser par un ensemble d’équations mathématiques. Ainsi, ces équations dites différentielles transposent les principes fondamentaux de la physique et établissent une représentation mathématique du phénomène pour le modéliser dans les grandes lignes. Cela pose les bases de sa simulation.
Vers le numérique : le monde discrétisé
Ces équations sont souvent trop complexes pour être résolues directement. Il faut donc chercher des solutions approchées. Pour cela, on utilise une méthode que l’on appelle le maillage : un outil incontournable du calcul scientifique. Comme enanimation 3D, il s’agit de découper l’espace en un réseau de points. On parle de discrétisation de l’espace. Par des techniques d’analyse numérique, les équations différentielles sont traduites en relations algébriques pour calculer, dans chaque point, les valeurs physiques associées(vitesses, températures, pressions etc.). On parle alors de discrétisation des équations. Cette procédure transforme des équations continues en systèmes manipulables numériquement et donc adaptés aux capacités de calcul des ordinateurs.
Des algorithmes pour optimiser les calculs
Les relations obtenues sont rangées à l’aide de tableaux de deux ou plusieurs dimensions appelés matrices et tenseurs.Mais parfois, cela représente plusieurs centaines de millions, voire de milliards d’équations à traiter et la taille des tableaux obtenus évolue en conséquence ! Il s’avère donc impératif d’optimiser le calcul en déterminant un ordonnancement d’opérations défini par des algorithmes spécifiques et implémentés sur des supercalculateurs, comptant des centaines ou des milliers de cœurs de calcul tels que Plafrim,hébergé par le Centre Inria de l’université de Bordeaux. Cela nécessite une expertise comme celle de l’équipe Topal qui propose des algorithmes au service de la discrétisation et des bibliothèques logicielles, comme PaStiX ou Chameleon, capables de fonctionner sur des supercalculateurs.
Exploiter les performances des systèmes grâce au calcul parallèle
Car, en effet, au-delà du traitement même des calculs, il s’agit bien de maximiser l’utilisation des processeurs pour résoudre des problèmes complexes à des vitesses extrêmement élevées. C’est là qu’interviennent les équipes de recherche spécialisées en calcul haute performance (HPC) comme l’équipe-projet Concace qui s’intéresse à la composabilité numérique et parallèle pour permettre à des algorithmes complexes de s’adapter plus facilement à différentes architectures (CPU, GPU...).
Grâce aux architectures parallèles, il est possible d’exécuter plusieurs tâches simultanément sur différents processeurs informatiques dont la mémoire est partagée. Cette mise en commun permet l’échange en temps réel d’informations pour monitorer le temps de calcul de façon précise et interagir avec le système pour optimiser le déploiement de méthodes de résolution. Cette optimisation en temps réel peut être obtenue avec des logiciels comme starPU, développé par l’équipe -projet Storm. Pour atteindre cet objectif il faut aussi des outils permettant de modéliser les architectures hiérarchiques des plateformes de calcul modernes. C’est l’objectif de Hwloc, un logiciel open source créé par des chercheurs des équipes Storm et Tadaam et intégré à Frontier, le supercalculateur le plus puissant du monde.
Des données à exploiter à toutes les étapes
A chacune des étapes de ce continuum – de la modélisation au calcul intensif en passant par les architectures parallèles – les données sont omniprésentes. Qu’il s’agisse de celles nécessaires à la compréhension du phénomène étudié, utiles à la définition d’un modèle formel et d’hypothèses de travail, essentielles à la création d’un modèle ou générées par la simulation ou par le fonctionnement même du supercalculateur, elles sont la clé de l’optimisation et doivent donc être interprétables à chaque niveau pour être réinjectées et utiles.
Ainsi, elles doivent être compréhensibles pour chacun des utilisateurs et spécialement lors de l’interprétation des résultats et de leur restitution aux décideurs et partenaires. C’est l’objectif de la visualisation des données comme la pratique l’équipe-projet Bivwac.
Les équipes de recherche du centre Inria de l’université de Bordeaux couvrent ainsi l’ensemble des compétences nécessaires à ce continuum avec des synergies fortes entres elles : spécialistes en mathématiques appliquées, calcul scientifique, informatique mais aussi avec de solides partenariats avec les principaux acteurs industriels. Les applications issues de ces recherches permettent d’aider à la compréhension, à la conception, à la décision et au contrôle dans plusieurs domaines comme :
L’aéronautique en lien avec des partenaires comme Airbus, le CEA, et l’ONERA. Par exemple l’équipe-projet Cagire œuvre au développement d’un outil de simulation numérique d’écoulement du futur pour mieux appréhender les échanges thermiques à l’intérieur d’une turbine d’avion. Un autre défi relevé par les équipes Storm et Topal concerne lessimulations numériques pour modéliser des phénomènes complexes – comme les ondes de souffle – lors de la phase de décollage de fusée et de séparation des propulseurs.
Les énergies avec des collaborations importantes (IFPEN, EDF, SAFRAN) comme l’équipe Memphis spécialisée dans le domaine de l’interaction multiphysique qui travaille à l’étude et la modélisation numérique des ressources naturelles éoliennes.
La santé en partenariat avec le CHU de Bordeaux, BPH, l’IHU de Bordeaux ou encore l’Institut Bergonié avec des modèles spécifiques développés pour chaque discipline et en fonction des pathologies étudiées (oncologie, cardiologie, immunologie…). Les équipes Carmen et Tadaam collaborent depuis 2024 au projet MicroCard 2 qui œuvre à la modélisation de la structure du tissu cardiaque et au fonctionnement électrique du cœur à l’échelle de chacune des milliards de cellules qui le composent.
Les risques naturels et côtiers avec les travaux de l’équipe Cardamom en collaboration avec le BRGM et le CEA permettent d’étudier, grâce à la simulation, les phénomènes marins (tsunamis, tempête…) à très grande échelle et de mieux prévoir les risques d’inondations et de submersion pour les villes côtières.
Et enfin… dans des domaines plus spécifiques comme l’héliosismologie ! L’équipe Makutu experte dans le développement de méthodes numériques avancées et de modèles mathématiques décrivant des problèmes physiques s’intéresse ainsi aux ondes gravitationnelles et acoustiques pour mieux comprendre le Soleil et sa structure interne !