Flux RSS
Des chercheurs de l'université d'Harvard et de la division d'intelligence artificielle de Google assurent avoir créé une IA (deep learning) qui pourrait prédire la localisation des répliques d'un séisme majeur jusqu'à un an après son déclenchement.
Les séismes se produisent généralement en séquences, avec un séisme principal initial ("mainshock"), souvent suivi d'une série de répliques. Bien que ces dernières soient généralement moins violentes (plus faible magnitude) comparées au choc principal, elles peuvent être aussi dévastatrices, voire détruire des structures déjà fragilisées par les secousses antérieures.


Représentation en 3 D du séisme de magnitude 7,3 survenu dans le sud de la Californie en 1992.
La partie multicolore représente le séisme initial et les cases rouges le lieux des répliques (figure provenant du blog Google)



Bien que l'intensité des répliques et leur décroissance temporelle aient été comprises et sont expliqués aujourd'hui par des lois empiriques (loi de Bäth et loi d'Omori), la prévision des emplacements de ces événements se révèle toujours difficile à modéliser. La variation statique de la contrainte de Coulomb est actuellement le critère le plus largement employé pour expliquer la distribution spatiale des répliques, mais son applicabilité a été très souvent discutée et n'a finalement jamais fait l'unanimité.
Dans ce cadre, des chercheurs en sciences de la terre (Université d'Harvard) on fait équipe avec des ingénieurs de la division Google dédiée à l'intelligence artificielle pour voir quel pourrait être l'apport du deep learning en la matière.

Dans un article publié le 29 août dans la revue Nature [voir Sources, ci-dessous], ils assurent avoir mis au point, grâce à l'intelligence artificielle, un modèle capable de prédire la localisation des répliques jusqu'à un an après un séisme majeur.  "Après des tremblements de terre de magnitude 5 ou plus, les gens passent beaucoup de temps à cartographier quelle partie de la faille a glissé et de combien elle s’est déplacée. De nombreuses études pourraient utiliser les observations d’un ou deux tremblements de terre, mais nous avons utilisé l’ensemble de la base de données  et nous l’avons combinée avec un modèle basé sur la physique de la façon dont la Terre sera soumise à des contraintes et des tensions après le séisme, l’idée étant que celles causées par le choc principal peuvent être à l’origine des répliques.", explique Bredan Meade, l'un des auteurs de l'étude(1).
Entraînée à l'aide des données de 199 grands séismes récents(2) ayant donné lieu à quelque 131 000 répliques(3), l'intelligence artificielle (réseaux de neurones formels) s'avère donner - selon ces spécialistes - des résultats plus fiables que les méthodes classiques actuellement utilisées par les sismologues. "Dans le cadre du processus de machine-learning, toutes les répliques ayant eu lieu dans un périmètre de 50 kilomètres à la verticale et 100 kilomètres à l'horizontale à partir de l'épicentre ont été prises en compte. À partir de là, nous avons appliqué un réseau de neurones pour analyser les relations entre les changements de contraintes statiques provoqués par les lieux principaux et les répliques. L'algorithme était capable d'identifier des modèles utiles (...) Le réseau neural virtuel utilisé pour nos recherches peut prédire avec plus de précision les répliques sismiques que les méthodes basées sur la répartition des contraintes de Coulomb", indique Phoebe DeVries, responsable de l'équipe. "Cette approche est plus précise car elle a été développée sans une conviction ferme quant à l’emplacement des répliques.
Il s'avère que les résultats obtenus peuvent être interprétés. Nous aurions pu, dans le cas de séismes passés, interroger ce modèle et anticiper avec une certaine précision les endroits où ont eu lieu leurs répliques.(...)
  Le réseau neuronal a également fait allusion à certains des changements physiques qui auraient pu se produire dans le sol après le choc principal".
Méthode utilisée
De façon un peu schématique [en savoir plus en consultant la note (4)], disons que les chercheurs ont utilisé les données pour former un réseau neuronal, une grille de cellules, à 5 kilomètres de côté, entourant chaque choc principal. Ils ont indiqué au réseau qu’un tremblement de terre s’était produit et lui ont fourni des données sur la façon dont la contrainte changeait au centre de chaque cellule de la grille. Ensuite, les scientifiques lui "ont demandé" de fournir la probabilité que chaque cellule de la grille génère une ou plusieurs répliques. Le réseau traitait chaque cellule comme un problème discret à résoudre, plutôt que de calculer comment les contraintes se répercutaient séquentiellement dans les roches.

Exemples de sources primaires et de répliques
Exemples de répliques pour différents séismes majeurs (Chici, 1999 ; Kobe, 1995 ; Kashmir, 2005) - distribution spatiale de ΔCFS (avec μ = 0,4) et courbes ROC (caractéristique de performance ) associées


 

Comparaison de différents modèles
Comparaison des performances de différents modèles (a-d, d étant le résultat obtenu avec le réseau neuronal)
Selon les premiers tests, le modèle via IA est plus efficace que le le modèle existant utilisant notamment la théorie de Morh-Coulomb.

Voir à l'intérieur de la boîte noire que sont les réseaux de neurones ?

Selon les chercheurs, cette recherche les a également aidés à identifier des quantités physiques pouvant s'avérer importantes dans la génération de tremblements de terre : "en appliquant le(s) réseau(x) de neurones à l'ensemble de données, nous avons pu examiner les combinaisons spécifiques de facteurs qu'il trouvait importants et utiles pour cette prévision, plutôt que de simplement prendre les résultats prévus à leur valeur nominale. Ceci ouvre de nouvelles possibilités pour trouver des théories physiques potentielles pouvant nous permettre de mieux comprendre les phénomènes naturels", s'enthousiasme Phoebe DeVries. "Le réseau neuronal a par exemple indiqué que certains paramètres étaient potentiellement importants, par exemple ceux qui décrivent les changements de stress dans des matériaux tels que les métaux (ndlr : critère de von Mises, dit aussi critère de l'énergie de distorsion élastique), mais que les chercheurs n’utilisent pas souvent pour étudier les séismes."
Le “critère de von Mises prédit quand un matériau se brisera sous une contrainte. Il est surtout utilisé par les ingénieurs dans le domaine de la métallurgie. Maintenant, il semble donc avoir également trouvé sa place dans la science des tremblements de terre. "Ce que cela signifie, c’est que le réseau neuronal n’a pas inventé quelque chose de fou, il a inventé quelque chose qui était hautement interprétable. Il a été capable d’identifier la physique que nous devrions regarder, ce qui est plutôt génial", déclare Bredan Meade.

Pour les chercheurs, les données extraites des réseaux de neurones laissent donc penser qu'il est possible de trouver quels sont les déclencheurs des séismes. Ils assurent en effet qu'ils pouvaient donner un sens à ce qui sortait de ces réseaux neuronaux, ce qui qu'ils leur aurait permis d'en arriver à des théories physiques différentes sur les causes des tremblements de terre...
 

Notre Commentaire

Si cette recherche peut être considérée comme un "pas motivant", il faut rester très prudent car l'analyse des auteurs dans cette étude repose sur des facteurs semés d'incertitude et tout cela semble encore bien imprécis. Par ailleurs, même si ces résultats semblent encourageants, rappelons qu'aucun sismologue n'a pris part ici à ce travail (bien que Phoebe DeVries et Brendan Meade se considèrent comme des scientifiques de la Terre, ou plutôt des "computational earth scientists). En tous cas, ils appellent tous les sismologues à étudier ces travaux et à leur transmettre leurs observations.

Signalons également que le système de prévision de la distribution des répliques considère ici des contraintes statiques (soit les répliques causées par des modifications du sol dues au séisme principal)... Mais il faut savoir que les séismes sont des phénomènes dynamiques, des systèmes par nature évolutif (modifications de la répartition des contraintes au cours du temps, dynamique des jeux de failles...)

Par ailleurs, selon des déclarations des chercheurs, leur application demeure encore trop lente pour donner de bonnes informations en temps réel. Et elle n'est pas capable de prédire les répliques dues à un événement tel qu'une éruption volcanique (aucune donnée issues d'éruption volcanique n'a été utilisée dans cette étude).

L'IA au service de la sismologie et de la prévision des tremblements de terre ?

Ce qui nous paraît intéressant ici est le fait que les chercheurs semble suggérer qu'ils ont finalement pu commencer dans cette étude à mieux comprendre cette boîte noire que constituent les réseaux de neurones. Et donc que l’application de méthodes d’apprentissage automatique semble avoir le potentiel d’extraire du sens de ces sources d’information vastes et complexes. Ainsi, les auteurs précisent dans leur article qu'ils ont "constaté que le modèle de réplique appris est interprétable physiquement : la variation maximale de la contrainte de cisaillement, le critère de rendement de von Mises (une mise à l'échelle du second invariant du tenseur déviatorique) et la somme des valeurs absolues des composants indépendants du tenseur du changement de contrainte expliquent chacun plus de 98% de la variance dans la prédiction du réseau neuronal." Des données certainement utiles pour construire de meilleurs modèles. Encore faut-il qu'elles ne comportent pas de biais, ou du moins qu'on sache les identifier, et en tenir compte. 

Nous en sommes encore aux premières étapes de ce processus(5).
A suivre de près donc...
IA et boîte noire... le vaste problème
Une grande partie des questions soulevées par l'IA tiennent à l'opacité de ces technologies. En dépit de leur performance accrue dans de nombreux domaines, il est souvent très difficile d'expliquer les résultats, ou plus précisément le fonctionnement interne qui a permis d'arriver aux résultats. Les réseaux de neurones et en fait toutes les techniques d'apprentissage profond sont couramment dénoncées comme des boîtes noires pour leurs utilisateurs. Ceci est également valable pour un grand nombre d'autres techniques d'apprentissage (forêts aléatoires, machines à vecteur support...).
La raison n'est pas tant intrinsèque à la nature du modèle utilisé, mais réside plutôt dans l'incapacité  à décrire de façon intelligible le résultat produit sur chaque nouveau cas, et en particulier à pointer les caractéristiques les plus importantes du cas en question ayant conduit au résultat produit.
Cette incapacité est en grande partie due à la dimension des espaces dans lesquelles évoluent les données, particulièrement cruciale dans le cas de l'apprentissage profond.

En programmation classique, construire un système intelligent consistait à écrire à la main un modèle déductif, c'est-à-dire des règles générales, dont on infère des conclusions pour le traitement d'un cas particulier. De tels modèles sont par définition explicables dans la mesures où les règles qui déterminent leurs prises de décisions sont établies à l'avance par un programmeur, et qu'on est capable de dire quelles sont les règles qui ont été activées pour aboutir à la conclusion dans chaque cas particulier.
En l'état actuel de l'art, l'explicabilité des systèmes à base d'apprentissage constitue donc un véritable défi scientifique. Et si certains systèmes d'apprentissage sont plus explicables que d'autres (systèmes à base de règles, arbres de décision simples, réseaux bayésiens), ils ont en général des performances inférieures à celles des algorithmes d'apprentissage profonds.

L'opacité de ces technologies est d'autant plus préoccupante qu'elle peut masquer l'origine de biais constatés, sans qu'on puisse par exemple dire s'ils proviennent de l'algorithme ou des données ayant servi à l'entraîner... ou des deux.
D'où l'importance d'une utilisation "raisonnée" de l'IA. Le tout Intelligence artificielle, n'est pas sans poser problème car nombre de décisions vont relever de plus en plus de ces systèmes, s'appliquant à tous les domaines de notre société.
Si le rapport Villani appelle à la constitution d'experts dotés des compétences requises pour auditer les algorithmes et les bases de données utilisées et les tester et de pouvoir ainsi créer un système "tampon", quelles entreprises qui ont investi des sommes conséquentes dans la construction de leurs systèmes algorithmiques et tiennent à en recevoir les fruits, voudraient voir leur propriété intellectuelle divulguée à des tiers (protection du secret des affaires, ou même de tout ce qui relève de l'ordre régalien) ?
Et quelle loi mondiale pour réguler tout cela ?

Nous sommes aujourd'hui dans un système de fuite en avant... Pour le meilleur, ou pour le pire...

Christophe Jacquemin
 

puce note Notes
(1) Brendan Meade, professeur de sciences de la terre et des planètes à l’Université d'Harvard, compte par le passé deux ans de congés sabbatiques en tant que chercheur invité chez Google à Cambridge.
(2) Réseau de neurones entraîné et testée à partir de la base de données en ligne SRCMOD (modèles de rupture par faille finie de séismes passés. Dans cette base, les modèles de sources sismiques sont obtenus par inversion ou modélisation de données sismiques, géodésiques et autres données géophysiques, et caractérisent la distribution spatio-temporelle des paramètres de rupture cinématiques.
(3) Catalogue des répliques accessibles depuis l'Event catalogue de l'International Seismological Centre.
(4) Pour construire et entraîner le réseau de neurones, les auteurs ont utilisés la boîte à outils  Keras (langage Python - deep learning), fournissant une interface de programmation d'application de haut niveau pour accéder au bibliothèques de deep learning Theano et Tensorflow (le premier permet de définir, d’optimiser et d’évaluer efficacement des expressions mathématiques impliquant des tableaux multidimensionnels ; le second est une librairie open source d'apprentissage automatique (développé par Google), offrant la possibilité d'effectuer des calculs numériques en utilisant des graphes de flux de données. Les noeuds du graphe représentent des opérations mathématiques, tandis que les arêtes représentent les données). Les chercheurs ont utilisé Adadelta comme méthode d'optimisation durant l'apprentissage par le réseau de neurones.
(5) Même si l'utilisation de l'IA en sismologie n'est pas vraiment si récente : citons par exemple cet article publié en 2011 : "Artificial neural networks for earthquake prediction using time series magnitude data or Seismic Electric Signals".
Depuis, l'introduction du deep learning dans le domaine ne cesse de se développer : voir par exemple cette recherche parue dans "Science Advances", en février 2018  : "Conventional neural network for earthquake dectection and location".
Ici, le système neuronal (baptisée "ConvNetQuake), spécialisé dans l'observation des mesures du mouvement du sol, serait 13500 fois plus précis que ce qu'on obtient avec les méthodes traditionnelles de détection des séismes. Le système aurait répertorié 17 fois plus de tremblements de terre que ceux enregistrés dans le catalogue Geological Survey pour l'Oklahoma (période de 2014 à 2016).
A noter : le ConvNetQuake ne peut que déceler les tremblements de terre et non les prédire.


Architecture de ConvNetQuake





 
puce note Sources
"Deep learning of aftershock patterns following large earthquakes", par Phoebe M. R. DeVries(1-2), Fernanda Viégas(3), Martin Wattenberg(3) et  Brendan J. Meade(1).
Nature, volume 560, pages632–634 - 29 août 2018.

(1) Department of Earth and Planetary Sciences, Harvard University, Cambridge, USA.
(2) Center for Integrative Geosciences and Department of Physics, University of Connecticut, Storrs, USA.
(3) Google, Cambridge, USA.

Abstract
Aftershocks are a response to changes in stress generated by large earthquakes and represent the most common observations of the triggering of earthquakes. The maximum magnitude of aftershocks and their temporal decay are well described by empirical laws (such as Bath’s law and Omori’s law), but explaining and forecasting the spatial distribution of aftershocks is more difficult.
Coulomb failure stress change is perhaps the most widely used criterion to explain the spatial distributions of aftershocks but its applicability has been disputed. Here we use a deep-learning approach to identify a static-stress-based criterion that forecasts aftershock locations without prior assumptions about fault orientation.
We show that a neural network trained on more than 131,000 mainshock–aftershock pairs can predict the locations of aftershocks in an independent test dataset of more than 30,000 mainshock–aftershock pairs more accurately (area under curve of 0.849) than can classic Coulomb failure stress change (area under curve of 0.583).
We find that the learned aftershock pattern is physically interpretable: the maximum change in shear stress, the von Mises yield criterion (a scaled version of the second invariant of the deviatoric stress-change tensor) and the sum of the absolute values of the independent components of the stress-change tensor each explain more than 98 per cent of the variance in the neural-network prediction. This machine-learning-driven insight provides improved forecasts of aftershock locations and identifies physical quantities that may control earthquake triggering during the most active part of the seismic cycle.

Traduction  par nos soins :
Les répliques sismiques correspondent à la réponse aux changements de contraintes générés par les grands séismes et constituent les observations les plus courantes du déclenchement des séismes. L’ampleur maximale des répliques et leur déclin temporel sont bien décrits par des lois empiriques (telles que la loi de Bath et la loi d’Omori), mais il est plus difficile d’expliquer et de prévoir la répartition spatiale des répliques. Si le changement de contraintes statiques de Coulomb est sans doute le critère le plus largement utilisé pour expliquer la distribution spatiale des répliques, son applicabilité a été contestée. Nous utilisons dans notre étude une approche d'apprentissage profond pour identifier un critère basé sur les contraintes statiques qui prévoit les emplacements des répliques sans postulat préalable sur l'orientation des failles. Nous montrons qu'un réseau de neurones entraîné sur plus de 131 000 paires Secousse primaire - Réplique peut prédire plus précisément l'emplacement des répliques dans un ensemble de données de test indépendant de plus de 30 000 paires secousse primaire – réplique (caractéristique de performance de 0,849 avec l'IA, et de 0,583 avec modèle basé sur le changement de contraintes statiques de Coulomb).
Nous avons constaté que le modèle de réplique appris est interprétable physiquement : la variation maximale de la contrainte de cisaillement, le critère de rendement de von Mises (une mise à l'échelle du second invariant du tenseur déviatorique) et la somme des valeurs absolues des composants indépendants du tenseur du changement de contrainte expliquent chacun plus de 98% de la variance dans la prédiction du réseau neuronal.
Cet aperçu basé sur l'apprentissage automatique fournit des prévisions améliorées des lieux des répliques et identifie les quantités physiques pouvant contrôler le déclenchement des séismes pendant la partie la plus active du cycle sismique.
  • twitter
  • facebook
  • linkedin
  • messagerie
  • impression

A Lire aussi

Informations légales | Données personnelles