banner
Maison / Blog / Apprentissage d'équations aux dérivées partielles émergentes dans un espace émergent appris
Blog

Apprentissage d'équations aux dérivées partielles émergentes dans un espace émergent appris

Dec 20, 2023Dec 20, 2023

Nature Communications volume 13, Numéro d'article : 3318 (2022) Citer cet article

3496 Accès

6 citations

1 Altmétrique

Détails des métriques

Nous proposons une approche pour apprendre des équations d'évolution efficaces pour de grands systèmes d'agents en interaction. Ceci est démontré sur deux exemples, un système bien étudié d'oscillateurs de forme normale couplés et un exemple biologiquement motivé de neurones couplés de type Hodgkin-Huxley. Pour de tels types de systèmes, il n’existe pas de coordonnées spatiales évidentes dans lesquelles apprendre des lois d’évolution efficaces sous la forme d’équations aux dérivées partielles. Dans notre approche, nous y parvenons en apprenant à intégrer des coordonnées à partir des données de séries chronologiques du système en utilisant l'apprentissage multiple comme première étape. Dans ces coordonnées émergentes, nous montrons ensuite comment apprendre des équations aux dérivées partielles efficaces, à l'aide de réseaux de neurones, qui non seulement reproduisent la dynamique de l'ensemble des oscillateurs, mais capturent également les bifurcations collectives lorsque les paramètres du système varient. L'approche proposée intègre ainsi l'extraction automatique, basée sur les données, des coordonnées spatiales émergentes paramétrant la dynamique de l'agent, avec l'identification assistée par apprentissage automatique d'une description PDE émergente de la dynamique dans cette paramétrisation.

La modélisation du comportement dynamique de grands systèmes d'agents en interaction reste un problème difficile dans l'analyse des systèmes complexes. En raison de la grande dimension spatiale d’états de tels systèmes, la construction de modèles d’ordre réduit utiles permettant de décrire collectivement la dynamique à gros grains des ensembles d’agents a toujours été un objectif de recherche permanent. De telles descriptions collectives à gros grains apparaissent dans de nombreux contextes, par exemple en thermodynamique, où les particules en interaction peuvent être décrites efficacement au niveau macroscopique par la température, la pression et la densité ; ou en théorie cinétique, où les collisions dans l'équation de Boltzmann peuvent conduire à des descriptions de continuum, comme les équations de Navier-Stokes – mais aussi dans des contextes tels que la chimiotaxie ou les écoulements granulaires. Un enjeu important dans cette approche à gros grain est de trouver des observables à gros grain (champs de densité, champs de quantité de mouvement, champs de concentration, champs de fraction de vide) qui décrivent l'évolution du comportement collectif dans l'espace physique. Les modèles macroscopiques efficaces sont ensuite souvent approximés sous forme d'équations aux dérivées partielles (EDP) pour ces champs : leurs dérivées temporelles sont exprimées localement en termes de dérivées spatiales locales du ou des champs en chaque point. Les fermetures nécessaires pour dériver des modèles prédictifs peuvent être obtenues soit mathématiquement (avec des hypothèses appropriées) et/ou semi-empirique grâce à des observations expérimentales ou informatiques.

Lorsque les agents en interaction sont des systèmes d'oscillateurs couplés, leur dynamique de faible dimension observée peut parfois être décrite comme un système groupé de quelques équations différentielles ordinaires (ODE) en termes de paramètres d'ordre1,2,3. Pour les grands systèmes hétérogènes d'oscillateurs en interaction, nous observons, à tout moment donné, une distribution des états des oscillateurs ; être capable de décrire utilement cette évolution par quelques EDO pour des paramètres d'ordre appropriés correspond, conceptuellement, à décrire l'évolution de la distribution à travers un ensemble fini et fermé d'équations de moment pour la distribution. Les quelques paramètres de bon ordre sont ici fournis par les quelques moments principaux en termes desquels un ensemble fermé d'EDO modèles (ou même d'équations différentielles stochastiques) peut être écrit. Et bien que dans certains cas, une description aussi réduite puisse être tout à fait efficace, il existe d'autres cas où quelques EDO ne suffiront pas et où il faudra écrire des équations d'évolution (par exemple, des EDP) pour un ou plusieurs champs évolutifs du comportement instantané d'un oscillateur ( s).

La question se pose alors naturellement : quelle est la bonne façon de paramétrer le support spatial de cette distribution évolutive des comportements ? Quelles (et combien) sont les quelques variables spatiales indépendantes, dans l'espace desquelles nous tenterons de dériver des modèles PDE évolutifs pour l'évolution du comportement collectif ? En d’autres termes, lorsque le problème n’évolue pas dans l’espace physique (par exemple, lorsque les oscillateurs sont des nœuds dans un réseau en interaction), existe-t-il un espace d’intégration continuum utile dans lequel nous pouvons observer le comportement évoluant en tant que champ spatio-temporel ? Et si oui, comment pouvons-nous détecter cet espace émergent et ses coordonnées indépendantes paramétriques d’une manière basée sur les données, sur la base d’observations de l’ensemble des dynamiques d’agents couplés individuels ? Notre tâche comporte donc deux volets, tous deux accomplis ici de manière basée sur les données : (a) trouver des coordonnées spatiales émergentes dans lesquelles le comportement de l'oscillateur peut être (intégré et) observé sous la forme d'une évolution fluide du champ spatio-temporel ; et (b) une fois ces coordonnées émergentes obtenues, apprendre un modèle de la dynamique évolutive, si possible sous la forme d'une équation aux dérivées partielles régissant ce domaine ; c'est-à-dire approximer la ou les dérivées temporelles (ponctuelles) du ou des champs en termes de quelques dérivées spatiales locales du champ dans les variables indépendantes émergentes.

 γH, a stable fixed point ensues, in which all individual amplitudes of the respective oscillators are zero, also called oscillator death35. We now collect data for training at several γ values, linearly spaced in the interval \(\left[1.7,1.8\right]\), on both sides of the Hopf bifurcation; the γ value was provided as additional input to the model. We again perturbed along the slow stable eigendirections of each attractor, see Methods, collecting transients that inform the model about nearby dynamics. We then learned a PDE of the form/p> γH (right inset). We observe the transient dynamics approaching the fixed point W = 0  ∀ ω for γ = 1.8./p> γH./p> γH ≈ 1.75, and to the limit cycle for γ < γH ≈ 1.75./p> γH to collective oscillations for γ < γH. More quantitatively, we reported the leading spectrum of the linearization of the model evaluated at the fixed point. This was obtained using automatic differentiation of the neural network model with respect to its inputs. Such computations can shed more light on the similarities and differences of agent-based simulations and their emergent PDE descriptions. In this paper, we focused on a particular regime in parameter space. However, our approach can easily be extended to more intricate dynamics that are known in such a Stuart-Landau ensemble; informative examples are included in the videos SI1 and SI2./p>