Thématiques

Matériaux, Solides et Structures

Dans le domaine des matériaux les techniques pour observer et mesurer (e.g. tomographie, …) combinées aux techniques d’analyse des données recueillies ont fait des progrès remarquables, permettant d’aborder une pluralité d’échelles depuis les plus fines jusqu’à celles de la structure. Pour cela, le dialogue données / modèles, que ceux-ci soient fondés sur la donnée, sur la physique ou ayant une nature hybride, a été clé. Des efforts conséquents sont à prévoir en ce qui concerne les données (lesquelles ? et à quelle échelle, quand et où, combien et avec quelle précision, … les acquérir ?), leur assimilation, ainsi que la validation des modèles obtenus.

Coté comportement macroscopique des solides, différentes approches ont été proposées : 

  • Une première approche porte sur l’emploi de la donnée telle qu’obtenue à partir d’essais adéquats (ici adéquat est employé dans le sens de complets par rapport à l’objectif), données qui sont ensuite intégrées au sein des équations de conservation ou des principes variationnels qui en découlent (et dont la validité n’est pas mise en question) pour aboutir à des prédictions qui n’ont pas eu besoin de passer par une véritable modélisation du comportement.
  • Une deuxième approche introduit une couche supplémentaire pour, à partir des données, extraire la variété différentielle (manifold) dans laquelle elles sont plongées, pour finalement faire dialoguer les premiers principes avec la géométrie induite par les données. L’identification de variables internes (inobservables), qui résument au présent l’histoire vécue, reste un sujet de grande importance. 
  • Une troisième approche consiste à donner une importance plus grande à la physique (disons celle plus intrinsèque), dans un cadre d’apprentissage informé par la physique, pour ainsi aboutir au concept de « manifold » de comportement. 
  • Dans la même ligne, des formulations informées ont été proposées, visant la construction de l’énergie libre (dans le cas hyper-élastique) ou des potentiels de conservation et de dissipation dans des comportements inélastiques dépendants de l’histoire, à partir desquels le comportement thermomécanique découle. 
  • Enfin, dans un cadre d’apprentissage augmenté, le comportement peut être enrichi dans un cadre informé, par exemple, à partir de la thermodynamique pour des comportements hyper-élastiques ou à partir de propriétés telles que la convexité du critère de plasticité, parmi beaucoup d’autres (symétries, objectivité, …).

Parmi les grands défis nous citerons : 

  • Les variables internes et leur évolution temporelle (dans le sens d’histoire du chargement).
  • Description et données. Décrire un matériau à l’échelle microscopique (atomique) ou mésoscopique, nécessite de définir et d’utiliser les bons descripteurs prenant en compte la structure à l’échelle considérée (arrangement atomique, structure cristalline, description des défauts, …) ainsi que leur introduction dans les algorithmes d’apprentissage (images, graphes, …).
  • Le lien entre le matériau (décrit de façon complète et convenable) et les propriétés qui en découlent, devrait permettre d’inverser le modèle, pour chercher le matériau qui permettrait d’optimiser les propriétés souhaitées, sujet en plein essor sous l’appellation de « materials by design ».

Enfin, côté structure, un des principaux sujets d’intérêt concerne le SHM (contrôle non-destructif). La perte de performances peut être diagnostiquée avec la donnée, une fois un classificateur entrainé, mais les conséquences à plus long terme (pronostic) permettant de déclencher des opérations de maintenance ont besoin d’une modélisation adéquate.

Pour y parvenir, les différentes modalités d’apprentissage sont possibles, parmi lesquelles celles informées ou augmentées sont particulièrement performantes. Ainsi, le matériau endommagé peut être exprimé comme le matériau vierge (supposé décrit avec précision selon les principes de la physique) corrigé par le modèle du dommage, supposé relativement localisé, et modélisé à partir des principes fondamentaux (équilibre) par l’assimilation des mesures (ici des régressions régularisées permettent de maintenir très réduite la quantité de données requise).De la même manière, il arrive souvent que les grandes structures ne puissent pas être décrites à l’échelle de leurs plus petits détails, qui sont donc ignorés dans la représentation. En ignorant ces détails, les prédictions obtenues à partir du modèle dit grossier peuvent différer de celles qu’une modélisation plus fine aurait données. La question qui se pose est alors celle de corriger le modèle. Dans l’absolu il suffirait de considérer une modélisation suffisamment fine. Dans la pratique en revanche, une correction du modèle, de la même taille mais corrigé, permettrait de représenter la donnée dès que le modèle est contraint à évoluer dans un sous-espace de dimension réduite. Ainsi, une correction globale devient locale en base réduite, et la donnée permet, dans un cadre d’apprentissage augmenté, de corriger le modèle pour le rendre plus efficace (rapide et précis) dans l’espace réduit des actions et réponses.

Fluides et Ecoulements

Dans le domaine des fluides, nous distinguons le problème des rhéologies non linéaires et/ou complexes : les fluides dits non Newtoniens, pour lesquels le tenseur de contraintes va dépendre d’une série de coordonnées dites configurationnelles ou conformationnelles, avec leur propre dynamique d’évolution en espace et temps, impliquent des difficultés et démarches assez similaires à celles rencontrées dans le domaine des solides.

Au-delà, on trouve une difficulté assez spécifique, associée aux non-linéarités advectives, qui peuvent être (ou pas) combinées aux non-linéarités de comportement. Les principales conséquences étant : (i) la nécessité d’utiliser des schémas de discrétisation stables (stabilité convective et aussi par rapport à l’habituelle incompressibilité pour certains fluides et régimes d’écoulement) et précis ; (ii) la nécessité de capturer les effets turbulents représentant des comportements extrêmement riches (dans les échelles spatiales et temporelles) ; (iii) le changement de type de modèle qui, même pour des fluides  Newtoniens, peut évoluer entre l’ellipticité des équations de Stokes à faible nombre de Reynolds, les équations de Navier Stokes à des Reynolds plus élevés, pour enfin aboutir au modèle hyperbolique d’Euler compressible ; et (iv) les forts couplages en présence de réactions, combustions, changements de phase, …

Toutes ces difficultés impliquent que les calculs d’écoulement, même pour des fluides dits simples, défient les capacités ordinaires de calcul. C’est ainsi que l’apprentissage attire de plus en plus l’intérêt de la communauté de chercheurs et praticiens, notamment (renonçant encore une fois à l’ambition d’exhaustivité) :

  • Des techniques d’apprentissage similaires à celles exposées pour les solides dans le cas des rhéologies complexes (apprentissage basé sur la donnée, informé ou augmenté), plus à l’échelle du fluide que de l’écoulement.
  • L’IA est aussi utilisée pour construire les schémas de discrétisation les plus adaptés au problème traité.
  • La modélisation de la turbulence et sa simulation restent conceptuellement et pratiquement complexes. Un cadre augmenté permettrait de modérer les ambitions et de rattraper la précision au fur et à mesure que des données abondantes et précises seraient accessibles.
  • Les maillages et pas de temps devenant trop fins entrainent des efforts (en moyens et temps de calcul) considérables, rendant prohibitifs certains processus d’optimisation en aérodynamique interne et externe, même quand le nombre de paramètres est relativement réduit (moins d’une dizaine). Dans ces circonstances des efforts hors-ligne pour l’apprentissage et une utilisation en-ligne dans la boucle d’optimisation retrouve une forte valeur ajoutée. Ces meta-modèles (aussi appelés « surrogates » ou par surfaces de réponse) peuvent en plus, profiter d’une réduction du nombre de calculs haute-fidélité dans un cadré informé. De même, chacun des calculs peut aussi être réduit utilisant des bases réduites (à l’issue de techniques de réduction de dimensionnalité linéaire ou non linéaire) ou en utilisant des maillages dégradés quand la perte de précision peut être rattrapée dans un cadre hybride (augmenté). 

Procédés et Couplages

Le procédé transforme le matériau en produit fini, avec ses performances. Il concerne les solides et/ou fluides, tous deux déjà évoqués dans les points précédents, mais au-delà de cela, une série de paramètres décrivant le procédé en lui-même aura un impact sur le produit fabriqué, sur ses propriétés et surtout ses performances. 

Ici à nouveau, on retrouve le besoin de relier les paramètres d’entrée (matériaux et procédés), avec les propriétés et performances en sortie. Toutes les techniques d’apprentissage précitées ont été, sont ou seront mises à contribution, dépendant de la nature du procédé et des matériaux mis en jeu.

Mais un procédé ne peut en général pas être réduit à une liste de paramètres : le procédé dépendra souvent du processus, du séquençage d’opérations, des trajectoires, … qui défient tout effort de paramétrisation … et même plus, prédire localement à partir de paramètres globaux est possible si on renonce à l’ambition de généralisation, limitant en contrecoup le domaine d’applicabilité … Si, à ces difficultés, on ajoute celles associées aux couplages multiphysiques souvent présents (électromagnétiques, thermiques, réactions chimiques, mécaniques) lorsque l’on s’intéresse à des caractéristiques autres que les performances mécaniques habituelles, par exemple les performances thermiques, acoustiques, d’amortissement, … la complexité devient extrêmement riche à tous les niveaux : dès la description et la mise en données, en passant par l’apprentissage, pour enfin aboutir à l’inversion le cycle de conception : soit rechercher, à partir des performances ciblées, le couple matériau-procédé qui s’en approche au plus près  (performances by design). 

Systèmes électroniques et photoniques

Les dispositifs aux interfaces des domaines de l’électronique et de la photonique sont étroitement liés à l’essor des technologies de l’information, grâce à l’optoélectronique et la photonique. Elles constituent de nos jours les briques de base toute opération de communication, où la transmission et la réception d’informations sur la toile mondiale sont principalement codées et décodées via des diodes lasers, des détecteurs et des modulateurs. L’objectif est de relier le grand nombre de terminaux basés sur des technologies e l’de micro-électronique (ordinateurs, internet of things, etc) par des canaux en fibre optique. À ce titre, l’étape clé est de transformer les signaux électroniques en signaux optiques, et vice versa.

Il est essentiel de noter que les photons et les électrons diffèrent fondamentalement dans leur nature physique, par exemple entre les fermions chargés et les bosons libres. En outre, leur dynamique et leurs propriétés sont dictées par des aspects multi-échelles, ce qui rend la modélisation des dispositifs concernés intrinsèquement complexe et difficile. Les électrons ont généralement des durées de vie longues, de l’ordre de la nanoseconde, mais des distances de propagation courtes, de l’ordre du micromètre. Les photons, quant à eux, ont généralement une durée de vie courte, de l’ordre de la picoseconde, mais se propagent facilement sur des kilomètres. Ainsi, les dispositifs et les systèmes qui tirent parti de l’électronique et de la photonique présentent souvent une dynamique multi-échelle particulièrement complexe dans le domaine spatio-temporel. Enfin, l’ajout de degrés de liberté dans le domaine spectral augmente considérablement le défi.

Pour faire progresser le domaine de la modélisation des dispositifs optoélectroniques et photoniques, il est devenu essentiel d’opérer des évolutions fortes selon trois axes :   

  • réaliser des simulations numériques efficaces des systèmes dynamiques rapides-lents. Les intégrateurs non linéaires actuels peinent à ajuster efficacement la taille des pas de simulation indépendamment des dimensions du modèle avec des échelles de temps différentes. Les modèles d’intelligence artificielle basés sur un réseau physiquement implémenté fournissent un moteur de simulation alternatif qui peut, dans certaines situations, être beaucoup plus efficace.
  • réduire la complexité avec une modification minimale de la dynamique résultante. Les modèles de grands lasers à semi-conducteurs nécessitent actuellement de fortes simplifications afin de fournir des simulations à long terme. Cependant, dans de nombreux cas ces approximations ne reproduisent pas fidèlement le comportement de base du dispositif. La confirmation de nouvelles approches de modèles basées sur des réseaux implémentés sur physics informed neural networks et transfer learning à base de modèles complets, offre de nouvelles possibilités.
  • déployer des simulations ultra-parallélisées et connectées en s’inspirant des approches par éléments finis. De nouvelles architectures inspirées des réseaux de neurones, par exemple les réservoirs parallèles, permettent la prédiction et donc la modélisation de dynamiques spatio-temporelles complexes et chaotiques. Les dynamiques locales peuvent être exprimées sur des nœuds ou des réservoirs locaux, et la communication entre les nœuds est grandement simplifiée. Plus important encore, les réservoirs photoniques ont récemment surpassé l’échelle des ordinateurs électroniques numériques classiques dans ce domaine.

Exploiter les systèmes physiques multi-échelles pour le calcul haute performance non conventionnel 

Ces dernières années, la communauté scientifique fait le constat qu’un des grands défis liés à la simulation de systèmes physiques multi-échelles à haute dimension ce qui amène à en faire une ressource de premier. Les systèmes physiques complexes et leur comportement dynamique sont généralement décrits par des équations différentielles partielles non linéaires. Comme décrit précédemment, le couplage (non linéaire) entre divers processus, qui ont souvent lieu à différentes échelles spatiales ou temporelles, entraîne une dimensionnalité du système physique ou du modèle qui rend respectivement impossible un échantillonnage complet ou une modélisation à haute résolution. Il est important de noter que, dans la plupart des cas, cette complexité n’est pas la conséquence d’un processus stochastique, mais le résultat de la nature même du système. Les réponses dans toutes les différentes dimensions sont donc déterministes, c’est-à-dire qu’elles sont la conséquence des conditions initiales et des interactions dans un modèle ab-initio hypothétique du système.

Avec l’émergence du Reservoir Computing (RC) basé sur des systèmes physiques et, réalisés dans de nombreux cas par des dispositifs électroniques et/ou photoniques, il est apparu que cette complexité pouvait être exploitée pour mettre en œuvre un calcul non conventionnel efficace. Dans un tel ordinateur non conventionnel, un système physique non linéaire complexe et de grande dimension, le réservoir, est couplé à un flux de données d’entrée de moindre complexité. La dynamique inhérente au réservoir entraîne une amplification spectaculaire de la représentation des données d’entrée. Afin de mettre en œuvre un calcul particulier, on réalise alors une projection linéaire des dimensions du réservoir sur le collecteur de sortie requis, et les concepts d’apprentissage sont exploités pour optimiser cette projection.

Ce nouveau développement du calcul via des systèmes physiques offre des possibilités hors norme pour simuler, classer et prédire l’évolution de systèmes complexes pertinents pour l’ingénierie et la science. En adaptant les métriques de calcul entre le système à simuler (l’objectif) et le dispositif réalisant le calcul, la dynamique temporelle multi-échelle pourrait ainsi être accessible avec une séparation compatible des échelles de temps impliquées dans ce même calcul. L’argument général est que ces systèmes physiques mettent intrinsèquement en œuvre la dynamique requise, et sont donc capables de le faire à un coût de calcul minimal, c’est-à-dire avec une efficacité maximale.

Afin de profiter au maximum de ces caractéristiques, de nombreuses questions doivent être abordées :

  • Comment identifier les dimensions (temporelles et spatiales) pertinentes d’un système cible à partir de données. Tout comme pour les défis fondamentaux de l’acquisition de données, la dimensionnalité ultime requise d’un flux de données d’entrée est une information essentielle pour un calculateur réalisé sur la couche physique. Elle définit le nombre minimal de canaux à utiliser pour forcer de l’extérieur un système de physique non linéaire dédié au calcul et détermine généralement le nombre de dimensions de sortie requises pour le modèle physique à calculer.
  • Comment déterminer la dimensionnalité correspondante au système physique utilisé pour le calcul ? L’utilisation de tels systèmes physiques de très haute dimension pour réaliser des calculs fautes performances sont souvent associés à des approches trop complexes pour des simulations numériques fines et réalistes. On n’a donc pas (i) accès à toutes les dimensions du modèle, (ii) on ne peut pas échantillonner et stocker la dynamique qui se produit sur une dimension aussi élevée, et (iii) on doit relever le défi d’identifier la dimension réelle (utile) en présence du bruit habituel des systèmes physiques.
  • Comment faire pour que de telles machines de calcul basées sur un système physique soient efficacement amenées au-delà des approches RC ? Le Reservoir Computing exploite les projections aléatoires sur un espace d’état de haute dimension d’un système physique. Ces projections aléatoires permettent des approches réalistes pour exploiter ces systèmes physiques de calcul, mais elles ne fournissent pas toujours les performances ultimes. Pour cela, il faut modifier leurs interactions internes, ce qui nécessite de nouveaux concepts d’optimisation inspirés de la physique. Une fois encore, cette question est étroitement liée au domaine précédemment décrit de la science informatique des réseaux neuronaux réalisés sur la couche physique.

Comme indiqué précédemment, des enjeux scientifiques forts reposent fondamentalement sur l’estimation et la validation de la précision ainsi que de la robustesse (fiabilité) d’un modèle. Dans ce contexte, il s’agit de 

  • Déterminer la fiabilité à long terme de ces systèmes physiques de calcul haute performance. En effet, ils ne présentent pas seulement qu’un bruit blanc gaussien, mais aussi des modifications lentes dans leurs interactions internes ou avec leur environnement bruité (c’est-à-dire une dérive due au vieillissement). Ce phénomène est fondamentalement différent des imperfections habituelles des modèles classiques en informatique, et sa pertinence est d’une importance essentielle et d’un intérêt fondamental.
  • Déterminer les limites d’un modèle de calcul physique spécifique par rapport à une tâche de calcul particulière. Le calcul via des systèmes physiques présente souvent des restrictions plus nombreuses ou plus fortes que le calcul numérique classique, comme un rapport signal/bruit limité pour chaque état de calcul, une faible résolution des paramètres du modèle ainsi qu’un contrôle réduit des paramètres. L’identification de stratégies est cruciale pour le succès de ce domaine émergent et s’appuie sur des approches hautement pluridisciplinaires.