Sensitivity analysis adapted to a mixture of epistemic and aleatory uncertainty 

Get Complete Project Material File(s) Now! »

Limitation n°1 : gérer le temps de calcul

L’implémentation de VBSA exige un nombre important de simulations. Dans l’exemple de la figure 1, un algorithme basé sur l’échantillonnage Monte-Carlo a été utilisé : 80 000 simulations différentes ont été ici nécessaires pour le calcul des indices de sensibilité. Ce coût calculatoire reste abordable dans le cas de modèles (semi-)analytiques à l’instar de celui utilisé pour la « pente infinie ». Cependant, les estimations de l’aléa peuvent se baser sur des modèles numériques dont le temps de calcul n’est pas négligeable (plusieurs minutes voire heures). Par exemple, ce temps de calcul peut s’expliquer par l’obligation de traiter l’évaluation à grande échelle et donc d’utiliser des maillages avec un grand nombre de mailles/cellules (e.g., évaluation de la susceptibilité de glissement de terrain à l’échelle d’un bassin versant). Un autre exemple est un modèle numérique d’un glissement de terrain prenant en compte le couplage entre processus mécaniques et hydrauliques, dont la résolution numérique peut être ardue. Afin de surmonter ce problème, nous avons proposé de combiner VBSA avec la technique de méta-modélisation, qui consiste à capturer la relation mathématique entre les paramètres d’entrée et la variable de sortie du modèle numérique via une approximation mathématique construite avec un nombre restreint de simulations intensives (typiquement 50-100).
FIGURE 2 – Approximation d’un modèle 1d (rouge) par un méta-modèle de type krigeage (en noir) construit à partir des configurations indiquées par des points rouges : A) 6 simulations différentes ; B) 10 simulations différentes.
Plusieurs types de méta-modèles existent et nous nous sommes concentrés sur le krigeage numérique. Cette technique repose sur les outils d’interpolation spatiale de la géostatistique. Dans notre cas, les valeurs interpolées ne sont pas des coordonnées géographiques, mais sont les paramètres d’entrée du modèle numérique. A titre illustratif, la figure 2 donne l’exemple d’une fonction simple avec un paramètre d’entrée x : y = x(cos(x) + sin(x)) (en rouge) qui est approximée (en noir) en utilisant soit 6 (figure 2A)) ou 10 (figure 2B)) différentes configurations (valeurs) du paramètre x (points rouges). Le krigeage est associé à une tendance constante et une fonction de corrélation de type Matérn sans effet pépite. La figure 2 montre que seulement 10 valeurs de x sont nécessaires pour approximer de manière satisfaisante la vraie fonction.
Cette stratégie a été appliquée au cas réel du glissement de terrain de La Frasse (Suisse) dont le modèle numérique a un temps de calcul de plusieurs jours, car le comportement rhéologique du matériau au niveau de la surface de glissement suit une loi complexe (loi Hujeux). A partir d’un nombre limité de simulations (ici une trentaine), nous avons pu approximer les déplacements horizontaux en surface en fonction des valeurs des propriétés du matériau constituant la surface de glissement. En vérifiant la qualité d’approximation par une méthode par validation croisée, nous avons remplacé le code numérique couteux en temps de calcul par le méta-modèle et avons ainsi pu dériver les effets principaux (indices de Sobol’ de 1er ordre) pour étudier la sensibilité sur les déplacements. Cependant, un prix à payer fut l’introduction d’une nouvelle source d’incertitude, i.e. celle liée au fait que l’on a remplacé le vrai modèle par une approximation. La figure 2A) illustre ce problème : la partie droite n’est pas bien approximée à cause du manque d’information (aucune simulation réalisée dans cette partie). L’impact de cette erreur sur les résultats de VBSA a été discuté en associant un intervalle de confiance aux indices de sensibilité via un traitement du problème d’apprentissage du méta-modèle dans le cadre Bayésien. Bien qu’il faille souligner la complexité de mise en oeuvre ainsi que la sensibilité aux hypothèses (en particulier aux lois de probabilité a priori), cette stratégie « méta-modèle-VBSA-traitement Bayésien » nous a permis d’apporter des éléments de réponse à la question de l’influence des sources d’incertitudes paramétriques en un temps limité et raisonnable (quelques jours incluant les simulations et la construction du méta-modèle) et avec un nombre restreint de simulations (ici une trentaine).

Limitation n°2 : gérer des paramètres variant dans l’espace et le temps

La seconde limitation est liée à la nature des paramètres dans le domaine des aléas géotech-niques : ce sont souvent des fonctions complexes du temps et/ou de l’espace et non pas simplement des variables scalaires. En d’autres termes, ces paramètres sont souvent repré-sentés par des vecteurs de grande dimension (typiquement 100-1000). Un exemple sont les séries temporelles des déplacements horizontaux (Fig. 3B) et C)) simulés à La Frasse lors de la variation de la pression de pore en pied de glissement de terrain (Fig. 3A)) : ces séries sont obtenues à tous les noeuds du maillage et sont discrétisées sur 300 pas de temps. Un autre exemple est la carte hétérogène des conductivités hydrauliques d’un sol.
Une première démarche consisterait à évaluer un indice de sensibilité à chaque pas de temps en utilisant les techniques décrites ci-avant. Cependant, cette démarche serait difficilement réalisable avec des vecteurs de très grande dimension et ne permettrait pas de prendre en compte la corrélation qui peut exister (dans l’exemple des séries temporelles, une valeur à un temps donné a un lien avec celles d’avant et celles d’après). Dans un premier temps, nous nous sommes focalisés sur le cas des séries temporelles des déplacements horizontaux dans le cas du glissement de La Frasse. Nous avons alors proposé une stratégie combinant :
• des techniques de réduction de la dimension, en particulier l’analyse des composantes principales ;
• un méta-modèle pour surmonter le coût calculatoire des indices de sensibilité.
La première étape permet de résumer l’information temporelle en décomposant les séries temporelles en un nombre restreint de paramètres (<3), qui correspondent aux composantes principales. Une analyse plus « physique » de ces composantes principales est faite en les interprétant comme une perturbation de la moyenne temporelle (courbe rouge sur la figure 3B) et C)) : cela permet alors d’identifier les principaux modes de variation temporelles pouvant être vus comme un enchaînement de phases de déstabilisation ou de stabilisation du glissement. Les indices de sensibilité calculés via le méta-modèle sont alors associés à chaque composante principale, i.e. à chaque mode de variation temporelle. Une telle démarche permet par exemple d’identifier les propriétés incertaines les plus importantes au regard de l’occurence d’une phase d’accélération lors du glissement sur une période donnée.
L’applicabilité de ce type de stratégie a aussi été discutée pour les paramètres d’entrée fonc-tionnels en se focalisant sur ceux spatialisés. Dans ce cas, la stratégie se trouve être limitée : 1. le nombre de composantes dans la décomposition reste important (plusieurs dizaines), i.e. assez grand pour rendre difficile la phase d’apprentissage (construction) du méta-modèle, qui est directement liée à ce nombre ; 2. le niveau auquel la décomposition peut être tronquée est décidé avant d’avoir pu lancer les simulations, i.e. avec peu de possibilité de savoir en amont si une partie de l’information laissée de côté pourrait avoir un impact sur la qualité d’approximation du méta-modèle ; 3. l’interprétation physique de chaque mode de variation peut être difficile. Sur cette base, des pistes de recherche ont été identifiées.

Limite n°3 : gérer le manque de connaissance

Enfin, une troisième limite est liée à l’hypothèse de base sur la représentation de l’incertitude. Par construction, VBSA repose sur les outils du cadre probabiliste avec l’hypothèse que la variance capture de façon satisfaisante toute l’incertitude sur la variable d’intérêt. Or, cette approche peut être limitée surtout dans le domaine des aléas géotechniques, pour lesquels les données / informations sont souvent imprécises, incomplètes voire vagues. Dans ce contexte de connaissance, l’utilisation systématique des probabilités peut être discutable. Une revue des principales critiques est faite et l’applicabilité d’un outil alternatif pour la représentation de l’incertitude est étudiée, à savoir les ensembles flous. La figure 4A) donne l’exemple d’un ensemble flou (définissant formellement une distribution de possibilités), qui permet de représenter une information d’expert du type : « je suis sûr de trouver la vraie valeur du paramètre incertain dans l’intervalle [a ;d] (support), mais l’intervalle [b ;c] (coeur) a plus de vraisemblance. » A partir de ces deux informations, un ensemble d’intervalles emboîtés associés à un degré de confiance (α-coupe) est construit. Son interprétation dans le domaine des probabilités est donnée sur la figure 4B). Une telle représentation correspond à l’ensemble de distributions cumulées de probabilités dont les limites hautes et basses (Π et N ) sont construites à partir des informations sur le coeur et le support.
FIGURE 4 – A) Exemple d’un intervalle flou pour représenter l’imprécision d’un paramètre incertain à partir de l’information d’expert sur le support et le coeur. B) Interprétation dans le domaine des probabilités via les 2 distributions cumulées, haute Π et basse N .
Un ensemble flou est un outil très flexible pour traiter plusieurs formes d’incertitudes épisté-miques :
• la représentation du caractère vague de l’information est abordée pour l’évaluation de la susceptibilité de présence de cavités à l’échelle régionale ;
• le raisonnement à partir de concepts qualitatifs vagues est traité dans le cas de l’impré-cision liée à l’inventaire des éléments à risque pour un scénario de risque sismique à l’échelle d’une ville ;
• l’imprécision sur la valeur numérique d’un paramètre (comme illustrée par la figure 3) est abordée pour l’évaluation du coefficient d’amplification représentant les effets de site lithologique en risque sismique ;
• l’imprécision sur les valeurs des paramètres d’une courbe de décision probabiliste est abordée dans le domaine sismique.
Sur cette base, les principales procédures pour combiner représentation hybride des incerti-tudes (e.g., via probabilités et ensembles flous) et analyse de sensibilité sont étudiées. Une limitation majeure a été identifiée, à savoir le coût calculatoire : alors que la propagation dans le cadre purement probabiliste peut se baser sur des méthodes d’échantillonnage aléatoire exigeant basiquement de simuler différentes configurations des paramètres d’entrée, les nou-velles théorie de l’incertain exige souvent de manipuler des intervalles et donc de résoudre des problèmes d’optimisation. Une possible réponse à ce problème a été proposée en développant un outil graphique pour les analyses de stabilité. Une caractérisque intéressante est que cet outil n’est construit qu’à partir des simulations nécessaires à la propagation d’incertitude, donc sans coût calculatoire supplémentaire. Cet outil permet de placer sur le même niveau de comparaison, incertitude aléatoire et épistémique et donc d’identifier les contributions de chaque type d’incertitude à l’évaluation d’une probabilité de défaillance. Cette approche est appliquée à trois cas pour lesquels l’utilisation des probabilités est discutable pour représenter des paramètres imprécis : i. le cas d’un glissement de terrain dont les caractéristiques géomé-triques sont mal connues ; ii. le cas de la rupture d’un pilier dans une carrière abandonnée dont le taux d’extraction est difficilement évaluable à cause de la configuration particulière de la carrière ; iii. le cas de la rupture d’un pilier en calcaire présentant de fines couches argileuses dont les propriétés sont difficilement évaluables in situ. Notons que le cas iii. a exigé de développer une approche basée sur les méta-modèles, car l’évaluation de la stabilité du pilier exigeait un code numérique coûteux en temps de calcul.
La figure 5 donne l’exemple d’un résultat de l’outil graphique pour l’évaluation de stabilité d’une falaise d’angle de frottement φ (supposée être un paramètre aléatoire représenté par une distribution de probabilités) et de hauteur Ht du pied de falaise (supposée être un paramètre imprécis représenté par une distribution de possibilités) : plus la courbe dévit de la diagonale, plus le paramètre a une grande influence : ici c’est l’angle φ. En pratique, ce résultat indique que les futures actions en matière de gestion des risques devraient reposées sur des mesures préventives et/ou de protection, car ce paramètre est associé à une variabilité naturelle : l’incertitude ne peut donc pas être réduite. De plus, la portion du graphique où la déviation est maximale indique la région des quantiles de l’angle φ et la région des α-coupes de la hauteur H t pour laquelle le paramètre est le plus influent : ici, cela correspond respectivement à la région des quantiles inférieurs à 75% de l’angle φ et à celle proche du coeur de Ht . Ce simple exemple montre comment ce nouvel outil peut être utilisé pour décider des actions futures pour la gestion des incertitudes selon leur nature (épistémique ou aléatoire).

READ  Critical data collection and treatment

En résumé

L’apport de cette thèse est avant tout d’ordre méthodologique. En se basant sur des techniques avancées dans le domaine de l’analyse statistique (indices de Sobol’, techniques de réduction de dimension, ensembles flous, variables aléatoires flous, etc.), nous essayons d’apporter des réponses à des questions opérationnelles en matière de traitement des incertitudes dans l’évaluation des aléas géotechniques (glissement de terrain, séismes, cavités abandonnées, etc.), à savoir : quelle source d’incertitude doit être réduite en priorité ? Comment manipuler des codes de calcul avec un temps de calcul de plusieurs heures pour simuler de multiples scénarios (e.g., plusieurs centaines) ? Comment aborder la question des incertitudes lorsque les seules informations disponibles sont des opinions d’experts qualitatives et quelques obser-vations quantitatives ? Ce travail repose soit sur une combinaison de plusieurs techniques, ou sur une adaptation de certaines d’entre elles. Un effort tout particulier a été fait pour étudier l’applicabilité de chaque procédure à l’aune de données sur des cas réels.
Le présent document a été rédigé sur la base des travaux de recherche que j’ai effectués au BRGM (Service géologqiue national) depuis 2010. La thèse repose sur quatre articles (trois en tant qu’auteur principal et un en tant que co-auteur), à savoir :
• Nachbaur, A., Rohmer, J., (2011) Managing expert-information uncertainties for asses-sing collapse susceptibility of abandoned underground structures. Engineering Geology, 123(3), 166–178 ;
• Rohmer, J., Foerster, E., (2011) Global sensitivity analysis of large scale landslide numeri-cal models based on the Gaussian Process meta-modelling. Computers and Geosciences, 37(7), 917-927 ;
• Rohmer, J., (2013) Dynamic sensitivity analysis of long-running landslide models through basis set expansion and meta-modelling. Natural Hazards, accepted, doi :10.1007/s11069-012-0536-3 ;
• Rohmer, J., Baudrit, C., (2011) The use of the possibility theory to investigate the episte-mic uncertainties within scenario-based earthquake risk assessments. Natural Hazards, 56(3), 613-632.
En plus de ces travaux, un étude originale a été effectuée en collaboration avec mon directeur de thèse, Thierry Verdel, et a été intégrée dans le présent manuscrit. Ce travail a également été publié récemment.
• Rohmer, J., Verdel, T. (2014) Joint exploration of regional importance of possibilistic and probabilistic uncertainty in stability analysis. Computers and Geotechnics, 61, 308–315.
Lors de l’écriture, un effort tout particulier a été fait afin que le manuscrit ne soit pas un « simple » résumé de ces travaux, mais que le document ait une cohérence d’ensemble et forme un « tout ». Dans cette optique, plusieurs parties ont été réécrites par rapport aux articles originaux. Par ailleurs, des détails techniques ont été ajoutés dans un souci de clarté de l’énoncé.

Table of contents :

1 Introduction 
1.1 Hazard, Risk, uncertainty and decision-making
1.2 Aleatory and Epistemic uncertainty
1.3 Epistemic uncertainty of type « parameter »
1.4 A real-case example
1.5 Objectives and structure of the manuscript
2 A probabilistic tool: variance-based global sensitivity analysis 
2.1 Global sensivity analysis
2.2 Variance-based global sensivity analysis
2.3 Application to slope stability analysis
2.3.1 Local sensitivity analysis
2.3.2 Global sensitivity analysis
2.4 Limitations and links with the subsequent chapters
3 Handling long-running simulators 
3.1 A motivating real case: the numerical model of the La Frasse landslide
3.1.1 Description of the model
3.1.2 Objective of the sensitivity analysis
3.2 A meta-model-based strategy
3.2.1 Principles
3.2.2 Step 1: setting the training data
3.2.3 Step 2: construction of the meta-model
3.2.4 Step 3: validation of themeta-model
3.3 A flexible meta-model: the krigingmodel
3.4 An additional source of uncertainty
3.5 Application to an analytical case
3.6 Application to the La Frasse case
3.7 Concluding remarks of Chapter 3
4 Handling functional variables 
4.1 Problem definition for functional outputs
4.2 Reducing the dimension
4.2.1 Principles
4.2.2 Principal Component Analysis
4.2.3 Interpreting the basis set expansion
4.3 Strategy description
4.3.1 Step 1: selecting the training samples
4.3.2 Step 2: reducing themodel output dimensionality
4.3.3 Step 3: constructing the meta-model
4.3.4 Step 4: validating the meta-model
4.4 Application to the La Frasse case
4.4.1 Construction of themeta-model
4.4.2 Computation and analysis of the main effects
4.5 Towards dealing with functional inputs
4.5.1 Strategy description
4.5.2 Case study
4.5.3 Discussion
4.6 Concluding remarks of Chapter 4
5 A more flexible tool to represent epistemic uncertainties 
5.1 On the limitations of the systematic use of probabilities
5.2 Handling vagueness
5.2.1 A motivating real-case: hazard related to abandoned underground structures
5.2.2 Membership function
5.2.3 Application
5.3 Reasoning with vagueness
5.3.1 Amotivating real-case: the inventory of assets at risk
5.3.2 Application of Fuzzy Logic
5.4 Handling imprecision
5.4.1 Possibility theory
5.4.2 A practical definition
5.4.3 Illustrative real-case application
5.5 Handling probabilistic laws with imprecise parameters
5.5.1 Amotivating example: the Risk-UE (level 1) model
5.5.2 Problem definition
5.5.3 Use for an informed decision
5.6 Concluding remarks of Chapter 5
6 Sensitivity analysis adapted to a mixture of epistemic and aleatory uncertainty 
6.1 State of the art of sensitivity analysis accounting for hybrid uncertainty representations
6.2 A graphical-based approach
6.2.1 Motivation
6.2.2 Joint propagation of randomness and imprecision
6.2.3 Contribution to probability of failure sample plot
6.2.4 Adaptation to possibilistic information
6.3 Case studies
6.3.1 Simple example
6.3.2 Case study n°1: stability analysis of steep slopes
6.3.3 Case study n°2: stability analysis in post-mining
6.3.4 Case study n°3: numerical simulation for stability analysis in post-mining
6.4 Concluding remarks for Chapter 6
7 Conclusions 
7.1 Achieved results
7.2 Open questions and Future developments
7.2.1 Model uncertainty
7.2.2 Use of new uncertainty theories for practical decision-making

GET THE COMPLETE PROJECT

Related Posts