SlideShare une entreprise Scribd logo
1  sur  55
Télécharger pour lire hors ligne
Master Pro STEP
Géophysique de Surface et de Sub-surface (G2S)
Institut de Physique du Globe de Paris
2014 - 2015
Rapport de stage professionnel - 2e année
Inversion de temps d’arrivées de sismique passive :
Estimation des modèles de vitesses VP et VS et
localisation des sources sismiques
Rapport soutenu le mercredi 23 septembre 2015
par
Arthur Crosse
Tuteur de stage
M. Fernando Lopes
Ingénieur de recherche
Équipe paléomagnétisme
Institut de Physique du Globe de Paris
Maître de stage
M. Christophe Barnes
Directeur technique
GIM-Labs
Neuville sur Oise (95)
“Toute certitude est par essence contradictoire avec la philosophie de la recherche.”
Pierre Joliot-Curie
1
Table des matières
Remerciements 5
Résumé 6
Introduction 7
I Introduction à la théorie du problème inverse 8
Préambule 9
1 Éléments sur les probabilités et la théorie de l’information 10
1.1 Probabilités subjectives ou bayésiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 État d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Combinaison d’états d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Densités de probabilités marginales et conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Résolution du problème inverse et procédure d’inversion 13
2.1 Solution du problème inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2 Solution générale du problème inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.3 Importance de la quantification des incertitudes . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Le problème inverse vu comme une optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Fonctionnelle à minimiser : la fonction coût S . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.2 Calcul de la fonction coût pour des incertitudes de type gaussienne . . . . . . . . . . . . . . . 16
2.2.3 Limites de l’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Procédure d’inversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
II L’inversion appliquée aux données de temps d’arrivées de sismique passive 18
Préambule 19
3 Informations expérimentale et théorique 20
3.1 Information expérimentale :
temps d’arrivées des ondes et incertitudes associées . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2 Information théorique : problème direct et équation Eikonale . . . . . . . . . . . . . . . . . . . . . . . 21
2
4 Informations a priori :
Modèles de vitesses et localisation des sources sismiques 22
4.1 Modèles de vitesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.2 Localisation des sources sismiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3 Méthode de localisation spatiale ∆tS-P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4 Méthode de localisation spatiale ∆tP -P et ∆tS-S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4.1 Avantages de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4.2 Un problème inverse également . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4.3 Formalisme de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4.4 Implémentation de la méthode dans l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.4.5 Limites de la méthode et pistes de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.5 Localisation temporelle des sources sismiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5 Solution du problème inverse en sismique passive 29
III Présentation des résultats : tests sur données synthétiques 30
Préambule 31
6 Paramètres d’entrée 32
6.1 Paramètres du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.2 Modèle vrai de vitesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.3 Modèle de départ ou modèle a priori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.4 Géométrie des sources et des récepteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.5 Temps d’arrivées : données observées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
7 Inversion des modèles de vitesses VP et VS seuls 35
8 Inversion des sources sismiques seules 38
9 Inversion conjointe des modèles de vitesses et des sources sismiques 41
10 Pré-localisation des sources sismiques 45
11 Inversion conjointe avec pré-localisation des sources sismiques 48
12 Application de l’algorithme sur des données réelles 52
Conclusion 53
Bibliographie 54
3
4
Remerciements
Ce stage a été pour moi un véritable moment de partage, tant sur le plan de la connaissance que sur le plan humain.
J’aimerai donc avant toute chose remercier les personnes qui m’ont offert la possibilité de faire ce stage, celles qui
m’ont accompagné et parfois épaulé, celles qui m’ont enseigné et fait grandir.
D’abord merci à Christophe Barnes qui m’a offert la possibilité d’évoluer dans son entreprise, GIM-Labs. Je tenais à
lui exprimer ma reconnaissance, non seulement pour ça, mais également pour le temps qu’il a pris pour m’expliquer
et m’éclairer quand j’en avais besoin, toujours avec beaucoup de patience et de pédagogie. Il a véritablement encadré
ce stage, malgré les impératifs administratifs inhérents à tout patron de PME. Merci aussi pour le savoir que tu m’as
transmis, en géophysique bien sûr, mais également sur l’informatique et sa culture, passion que nous avons en com-
mun.
Ensuite merci à Fernando Lopes, qui a accepté pour la deuxième année consécutive (c’est un véritable exploit) d’être
mon tuteur de stage. Merci à lui qui m’a introduit le premier le concept de problème inverse, j’espère que ce rapport
fera d’une certaine façon écho à son enseignement.
Merci également à Cécile Baudry qui m’a véritablement aidé durant ce stage, a répondu à mes (trop) nombreuses
questions. Merci pour nos discussions littéraires toujours intéressantes, je te promet que j’écrirai un jour la suite de
cette nouvelle dont nous avons tant parlé. La réponse était pourtant évidente : 15 !
Merci aussi à Alexandra, l’espionne russe et géologue (ça fait beaucoup de défauts j’en convient) qui, appliquant les
directives du KGB, écrivait ses mots de passe sur des post-it. Je te souhaite beaucoup de réussite dans tes projets
futurs. Merci également aux équipe de Neuvitech 95 qui m’ont accueilli dans leurs locaux durant ce stage.
Pour finir, merci à toutes l’équipe enseignante de l’IPGP qui nous a suivi et côtoyé durant toutes ces années d’études.
C’est avec une réelle nostalgie que je vous quitte.
Et enfin, ça devient une mauvaise habitude, merci à celle qui me supporte, moi, étudiant de fac aux horaires pas
toujours très habituelles et aux méthodes de travail pas toujours très commune. Merci à toi petite femme pour ton
soutien.
5
Résumé
La tomographie de sismique passive se développe de plus en plus ces dernières années du fait des nombreux avantages
qu’elle représente. Basée sur l’enregistrement des temps d’arrivées des phases sismiques issues de séismes naturelles,
elle permet, à l’instar de sa jumelle la tomographie de sismique active, de limiter les coûts d’exploitation ou encore
d’imager mieux en profondeur.
En marge de cette méthode se développe également l’inversion de donnée, méthode introduite dans les années 1980
par Tarantola et Valette et qui se base sur une approche probabiliste. Sans rentrer dans les détails, cette méthode
propose de remonter aux causes probables d’un phénomène à partir des observations de ses effets. En sismique active
cette méthode à déjà largement fait ses preuves face à d’autres méthodes comme la migration.
Afin de combiner ces deux méthodes, j’ai cherché durant ce stage à développer un algorithme d’inversion de données
de temps d’arrivées de sismique passive. Ce rapport présente les résultats de ce développement et les pistes envisagées
pour améliorer l’algorithme.
6
Introduction
Depuis très longtemps, l’Homme cherche à découvrir ce qui se trouve sous ses pieds, que ce soit par recherche du
profit ou par curiosité scientifique. Très vite limité par les défis qu’imposait l’observation directe des roches profondes
(techniques, coût, temps ...), il a mis au point au fil du temps de nombreuses techniques afin de connaître indirecte-
ment la nature des sols.
C’est dans cet esprit qu’est née la tomographie sismique, technique mise en avant au début du 20ème siècle par la
découverte par Andrija Mohorovičić de l’interface croûte/manteau, nommé par la suite Moho en hommage à son
découvreur.
Largement utilisées par l’industrie pétrolière aujourd’hui, elle n’a eu de cesse de s’améliorer le siècle dernier, notam-
ment au niveau des méthodes et du traitement des données. En marge de la technique la plus répandue à l’heure
actuelle, la tomographie sismique active utilisant des sources sismiques artificielles, s’est développée la tomographie
sismique passive qui elle, utilise des sources sismiques naturelles. Les intérêts liés à cette dernière sont nombreux, que
ce soit financiers (pas de sources artificielles, réseaux de capteur déjà déployés...) ou techniques (les sources sont si-
tuées en profondeur : image par en dessous, moins d’atténuation...). De la même manière, la sismique passive possède
ses propres défauts, dont le plus important de tous est qu’on ne connaît pas la localisation spatiotemporelle exacte
des séismes.
De plus en plus associée à ces méthodes, on retrouve l’inversion des données. L’inversion des données consiste à
chercher les causes d’un phénomène connaissant ses conséquences. Dans notre cas cela revient à chercher le modèle
de vitesse d’une zone donnée (lié au trajet des ondes) en connaissant les enregistrements des temps d’arrivée. Le
principe de l’inversion des données appliquée à la sismique n’est pas nouveau mais a connu un essor considérable
ces dernières années du fait de la multiplication de ses applications et de l’amélioration des capacités de calcul des
ordinateurs.
Le problème inverse probabiliste introduit par Tarantola et Valette en 1982 utilise le formalisme de la théorie de l’In-
formation et des probabilités, entre autres bayésienne. Nous introduirons donc pour plus de clarté ces notions dans
la première partie.
L’inversion de données fait également appelle aux notions d’informations a priori (ce que l’on connait avant l’expé-
rience) et a posteriori (la connaissance après inversion). L’information a priori sur la localisation des sources sismiques
(spatiale et temporelle) et l’information a priori sur les modèles géophysiques ne contraignent pas l’inversion de la
même façon. Par conséquent, l’information sur la localisation des sources sismiques, lorsqu’elle est disponible, peut
réduire de manière notable le nombre de degrés de liberté du processus d’inversion et devrait fournir des résultats
plus réalistes et finalement permettre une meilleure interprétation des résultats.
C’est dans cette optique que se situe ce stage puisqu’il s’agissait de développer une méthode fiable et robuste afin de
localiser les sources de sismique passives. Ceci afin de l’inclure dans un outil utilisant l’inversion conjointe des temps
d’arrivées et des positions des sources pour déterminer le modèle de vitesse d’une zone donnée.
J’ai effectué ce stage professionnel au sein de l’entreprise GIM-Labs, société de consulting pétrolier spécialisée dans
l’inversion de données géophysiques.
7
Première partie
Introduction à la théorie du problème
inverse
8
Préambule
A l’instar du problème direct, qui cherche à trouver les effets d’un phénomène (conséquences) en connaissant les lois
qui le régissent et les paramètres associés, le problème inverse tend à estimer les paramètres connaissant le phéno-
mène et à partir des observations expérimentales de ses effets (conséquences).
Le choix d’utiliser le problème inverse est motivé par le fait que dans la plupart des systèmes étudiés en physique
expérimentale, les paramètres intéressants du système ne sont pas directement mesurables. On cherche alors en gé-
néral à accéder aux valeurs de ces paramètres à travers diverses expériences sur le système étudié. Ces expériences
fourniront alors ce que l’on pourrait nommer des observables qui pourront apporter (à condition que les résultats de
l’expérience soient fonction des paramètres que l’on cherche) des informations sur les paramètres du système et donc
sur le système étudié. Dans le cas de la sismique par exemple, on pourra essayer de remonter à un modèle de vitesse
des ondes dans une portion de sol étudiée à travers la mesure des temps d’arrivée des ondes pour un (plusieurs)
couple(s) source/récepteur.
Dans cet exemple, résoudre le problème direct consisterait à prédire les temps d’arrivées en connaissant un modèle
de vitesse donné et en utilisant une théorie physique décrivant la propagation des ondes. La résolution du problème
inverse consisterait à trouver le « meilleur » modèle de vitesse (on verra plus tard ce que l’on entend par le « meilleur
») qui permettrait de prédire aux mieux les temps d’arrivées mesurés.
Dans notre cas, la résolution du problème inverse sera abordée par une approche dite probabiliste. Cette approche
a été formulée par Tarantola et Valette en 1982 et permet de formaliser le problème inverse comme un problème
d’estimation de densité de probabilité et de combinaison d’états d’information.
Nous verrons dans cette partie les méthodes de résolution du problème inverse dit probabiliste et les théories mathé-
matiques et statistiques utilisées. Enfin nous aborderons les spécificités du problème inverse appliqué à la sismique
passive. Les premières parties de ce chapitre sont largement inspirées par l’ouvrage Inverse Problem Theory and Model
Parameter Estimation d’Albert Tarantola et de la thèse Le Problème Inverse en Tomographie Géophysique de Christophe
Barnes.
9
Chapitre 1
Éléments sur les probabilités et la théorie
de l’information
Dans son approche probabiliste, le problème inverse utilise certains outils de la théorie de l’information. Il est donc
nécessaire avant de commencer de faire quelques rappels concernant cette théorie et d’introduire certains concepts
qui seront utilisés.
1.1 Probabilités subjectives ou bayésiennes
L’approche probabiliste classique, ou objective, s’utilise dans le cas de processus aléatoires ou de situations prédéfinies
considérées comme connues (modèles statistiques, par exemple la célèbre expérience de la planche de Galton) . Mais
puisque en Physique nous ne connaissons la nature et le monde autour de nous que par notre expérience et notre
point de vue, nous ne le connaissons que de manière subjective et ne pouvons estimer précisément les lois objectives
qui les dirigent, et c’est d’autant plus vrai pour les évènements dirigés par des lois complexes ! Un pas de plus va
être franchi par l’école Bayesienne qui va probabiliser tout ce qui est incertain et donc permettre d’appliquer les
probabilités à notre connaissance incertaine. Dans le modèle statistique Bayesien, la probabilité d’un évènement est
sujette à révision en fonction des informations nouvelles.
1.2 État d’information
Cette probabilité ou densité de probabilité est alors appelée "état d’information". Un état d’information est en quelque
sorte une probabilité Bayesienne et peut être interprété comme un degré de connaissance subjectif sur un objet donné.
On le dit « subjectif » en ce sens qu’il ne caractérise pas de façon « objective » une expérience ou un processus aléatoire
mais qu’il représente une connaissance « variable », que ce soit par exemple au cours du temps (au fur et à mesure que
notre connaissance augmente) ou selon différentes personnes (une information « brute » peut être interprétée d’une
infinité de manière selon l’interpréteur). Les tenants de l’école subjectiviste proposent alors des méthodes permettant
de passer d’une probabilité qualitative, c’est à dire d’un simple pré-ordre à une mesure de probabilité.
Il est possible de décrire cette connaissance qualitative et approximative de façon probabiliste sous la forme d’une
densité de probabilité qui combine l’information mesurée ainsi que l’erreur possible sur la mesure de cette informa-
tion.
Pour illustrer ce propos, prenons un exemple en rapport avec le sujet. On cherche à mesurer le temps d’arrivée d’une
onde sismique P. Le sismomètre enregistre une valeur de temps d’arrivée tP . Cette mesure est cependant entachée
d’une erreur σ (erreur de calibrage, dérive, bruit...). Si on considère que l’erreur suit une loi gaussienne (ce qui est en
soit une forte hypothèse), la mesure ainsi que l’erreur pourront être représentées par une gaussienne centrée en tP et
d’écart type σ. Ici cette distribution ne représente pas la loi de probabilité d’une expérience aléatoire mais celle d’un
objet déterminé dont la mesure est entachée d’erreurs.
10
1.3 Combinaison d’états d’information
Finalement, l’inversion de données est une combinaison de trois états d’information, trois « espaces » de connais-
sance :
- L’information à priori : elle représente les connaissances à priori sur le système étudié. Cette information peut
être, toujours dans l’exemple de l’inversion des temps d’arrivées cité plus haut, le modèle de vitesse des ondes.
L’erreur sur l’information à priori vient d’un manque de connaissance de l’objet étudié, puisque par définition
on ne le connait pas parfaitement !
- L’information théorique : cela peut être une loi physique décrivant le phénomène étudié Elle permet, pour
des valeurs données de paramètres, de prédire les valeurs des observables. Cette loi physique servira à la
résolution du problème direct et à la création des données synthétiques. L’erreur sur l’information théorique
vient simplement de méconnaissances ou de simplifications de la loi physique. Bien qu’on tende à s’approcher
d’une description parfaite du monde, on ne l’atteindra jamais donc par définition en utilisant une loi pour le
décrire, on fait des erreurs.
- L’information expérimentale : elle représente l’ensemble des mesures des observables, soit les données. L’er-
reur qu’on fait sur l’information expérimentale peut venir de l’instrument (mauvaise calibration, saturation...),
du bruit ambiant etc...
Pour combiner ces états d’information issus d’objets déterminés mais mal connus (entachés d’erreurs), on utilise la
conjonction d’information, qui correspond au produit renormalisé des probabilités. Cela signifie simplement que plus
on a de mesures d’un évènement et plus la précision (la probabilité) sur cet évènement sera grande.
Pour deux états d’information f1(X) et f2(X), la conjonction s’écrit :
(f1 ∧ f2)(X) =
1
ν
f1(X)f2(X)
µ(X)
(1.1)
avec ν une constante de normalisation et µ(X) l’information nulle.
Pour illustrer prenons un exemple. Plusieurs stations sismiques enregistrent l’arrivée d’une phase. On cherche alors
à déterminer l’origine de la source. Après analyse, on se rend compte que le foyer sismique se trouve en Corée du
Nord. Parallèlement à ces informations on sait que la Corée du Nord ne se trouve pas dans une zone de forte activité
sismique. La probabilité que cette source sismique soit d’origine naturelle est donc à posteriori plus faible. Enfin on
apprend que la Corée du Nord développe en ce moment un programme nucléaire. La probabilité que cette source soit
d’origine naturelle est donc encore plus faible, et on peut dire (avec une certaine incertitude) que l’origine de cette
source est très probablement due à un essai nucléaire souterrain. En combinant encore d’autres informations (étude
de l’amplitude, de la phase, mécanisme à la source etc...) on pourrait encore faire avancer notre connaissance sur le
sujet et modifier l’estimation de la probabilité associée à l’origine de la source sismique. C’est le principe du faisceau
d’indice convergeant qui renforce l’hypothèse.
1.4 Densités de probabilités marginales et conditionnelles
On parle de densité de probabilités marginales et conditionnelles quand la loi de probabilité utilisée pour décrire un
phénomène est multidimensionnelle (plusieurs variables)
Soient deux variables X et Y , définies chacune sur un espace unidimensionnelle propre E1 et E2 et de densité de
probabilité respectives fx et fy. Soit Z un vecteur à valeurs dans un espace bidimensionnelle E2
et densité de proba-
bilité fz(x, y).
Les densités de probabilité fx et fy sont appelées les densités marginales de fz.
fx(x) =
E1
fz(x, y) dy (1.2)
fy(x) =
E2
fz(x, y) dx (1.3)
11
La densité de probabilité conditionnelle (unidimensionnelle) fx|y (ou fy|x) peut être vue comme une distribution
particulière de fx pour une valeur de y donnée. Pour une valeur de x donnée telle que y = y0 on a :
fz(x, y0) = fx|y(x | y0).fy(y0) (1.4)
Pour illustrer ces propos prenons l’exemple de deux variables aléatoires X et Y (unidimensionnelles) suivant une loi
gaussienne. La densité de probabilité jointe de ces deux variables est une loi gaussienne bidimensionnelle.
Figure 1.1 – Probabilités marginales et conditionnelle. fx(x) et fy(y) sont les densités de probabilités marginales
respectivement de x et y. Pour une valeur de x donnée, telle que x = x0 on obtient la densité de probabilité marginale
de y connaissant x qu’on note fz(x0, y) = fy|x(y | x0)
12
Chapitre 2
Résolution du problème inverse et
procédure d’inversion
2.1 Solution du problème inverse
Dans cette section, on parlera uniquement de la solution du problème inverse discrétisée car c’est ce type de problème
qu’on utilise. Avant d’aborder la solution, il est nécessaire de préciser certaines définitions.
2.1.1 Quelques définitions
Les espaces de travail qu’il nous faut définir sont l’espace des données (pour les observables) noté D et l’espace
des modèles (pour le système physique) noté M. Ces espaces seront probabilisés avec les états d’information, dit a
priori, et notés respectivement ρD et ρM . On définira également un état d’information Θ relatif à la théorie censée
représenter le phénomène sous-jacent à l’expérience physique. Cet état d’information permettra ensuite de relier
formellement le système physique aux observables, il sera alors défini sur l’espace joint D × M.
Espaces de travail M, D et D × M
L’espace des modèles et l’espace des données sont des espaces vectoriels probabilisés. L’espace des modèles est noté
M et l’espace des données est noté D. Ils contiennent respectivement m = (m1
, m2
, ..., mnM
) qu’on appellera le
(les) modèle(s) et d = (d1
, d2
, ..., dnD
) les données. L’espace noté D × M = (m1
, m2
, ..., mnM
, d1
, d2
, ..., dnD
) est
également un espace vectoriel probabilisé et est appelé espace joint.
Théorie physique et problème direct
L’expérimentation entraîne la construction de la théorie physique, et la théorie physique permet de prédire (avec une
certaines précision) les résultats d’une expérimentation.
Résoudre le problème direct signifie prédire les valeurs des observables dsyn associées à un modèle donné m. Plus
formellement cette prédiction théorique peut être notée comme :
m → dsyn = g(m) (2.1)
L’opérateur g(·) (généralement non linéaire) est appelé opérateur direct (forward operator en anglais). dsyn repré-
sente les données synthétiques, prédites à partir d’un modèle donné m.
Une loi physique n’est jamais parfaite, au mieux les erreurs liées à la théorie physique sont minimes et/ou très bien
connues, dans ce cas on peut les négliger ou les modéliser, au pire ces erreurs sont grandes (et c’est souvent le cas
car pour simplifier un problème on fait des approximations, et plus on en fait et plus l’erreur peut être importante)
ou mal connues et il est alors impossible de les négliger et difficiles de les quantifier. La caractérisation de ces erreurs
est très importante car elle va conditionner la procédure d’inversion.
13
États d’informations ρM ρD et Θ
L’espace des données D est probabilisé avec l’état d’information (densité de probabilité) sur les données ρD et celui
des modèles M est probabilisé avec l’état d’information à priori sur le modèle physique ρM . Lorsque les incertitudes
sont gaussiennes (norme L2 - dans notre problème on considère qu’elles le sont), on peut facilement formaliser ρD(d)
et ρM(m). Cette hypothèse est forte mais assez proche de la réalité en l’absence d’un modèle statistique connu.
ρD(d) ∝ exp −
1
2
(d − dobs)T
C−1
D (d − dobs) (2.2)
ρM(m) ∝ exp −
1
2
(m − mpr)T
C−1
M (m − mpr) (2.3)
Puisque par définition, l’information a priori sur l’espace des modèles est indépendante de celle sur l’espace des
données, on peut munir l’espace joint D × M de la densité de probabilité :
ρ(d, m) = ρD(d) · ρM(m) (2.4)
On note Θ(d, m) la densité de probabilité associée à la théorie physique, incluant bien sûr les incertitudes inhérentes
de la théorie. Elle est notée :
Θ(d, m) = θ(d | m) · ΘM(m) (2.5)
On considère généralement l’information marginale comme nulle ce qui donne :
Θ(d, m) = θ(d | m) · µM(m) (2.6)
avec µM(m) l’état d’information nul (ou état d’information de référence) de m sur M. Là encore on peut supposer (en
première approximation) que les incertitudes autour de la loi sont gaussiennes (norme L2, critère des moindres-carrés).
L’état d’information relatif à la théorie physique peut alors s’écrire :
θ(d | m) ∝ exp −
1
2
(d − g(m))T
C−1
T (d − g(m)) (2.7)
Figure 2.1 – À droite : si la théorie physique utilisée est parfaitement connue alors les incertitudes sont nulles. La
relation d = g(m) donnera alors pour chaque modèle les bonnes données. À gauche : cependant la théorie physique
utilisée n’est jamais parfaitement connue et il y a donc des incertitudes associées. Ces incertitudes sont décrites par
une densité de probabilité, ou état d’information. Image tirée du livre Inverse Problem Theory and Methods for Model
Parameter Estimation, A. Tarantola, SIAM, 2004.
14
2.1.2 Solution générale du problème inverse
Nous avons vu dans les sections précédentes que la densité de probabilité a priori ρ(d, m), définie sur D × M repré-
sentait à la fois l’information provenant des paramètres observables d (données) et également l’information a priori
sur les paramètres du modèle m. Nous avons également vu que la densité de probabilité associée à la théorie physique
Θ(d, m) représentant l’information sur la corrélation qui existe entre d et m
La conjonction (équation 1.1) de ces deux états d’information nous permet de déterminer l’état d’information a pos-
teriori noté :
σ(d, m) ∝
ρ(d, m)Θ(d, m)
µ(d, m)
= ρM(m) ·
ρD(d)
µD(d)
· θ(d | m) (2.8)
avec pour rappel :
- ρ(d, m) la densité de probabilité a priori sur l’espace joint, définie sur D × M
- Θ(d, m) la densité de probabilité associée à la théorie physique, également définie sur D × M
- ρM(m) la densité de probabilité a priori associée aux modèles, défini sur M
- ρD(d) la densité de probabilité a priori associée aux modèles, défini sur D
- µ(d, m) l’état d’information nul sur D × M
Une fois l’information a posteriori σ(d, m) sur l’espace joint D ×M définie, les informations a posteriori sur l’espace
des modèles et des données sont données par les densités de probabilité marginales :
σM(m) =
D
ddσ(d, m) ∝ ρM(m)
D
dd
ρD(d)
µD(d)
· θ(d | m) (2.9)
σD(d) =
M
dmσ(d, m) ∝
ρD(d)
µD(d) M
dmρM(m) · θ(d | m) (2.10)
En général, on s’intéresse uniquement à l’information a posteriori sur l’espace des modèles σM, qu’on écrit parfois
pour plus de simplification :
σM(m) ∝ ρM(m) · L(m) (2.11)
avec L la fonction vraisemblance (likelihood function en anglais). La fonction vraisemblance donne d’une certaine fa-
çon une mesure de la qualité d’un modèle m pour expliquer les données.
2.1.3 Importance de la quantification des incertitudes
Il faut bien comprendre que l’inversion est une conjonction de trois états d’information, c’est à dire que chacun
conditionnera à sa manière les résultats. En d’autres termes, une mauvaise estimation de l’un ou de l’autre aura des
conséquences non négligeables sur les résultats de l’inversion. Bien souvent c’est les incertitudes qui sont négligées,
on a tendance à les sous-estimer, ce qui "bloque" l’inversion, et donne, a posteriroi, des incertitudes sous évaluées. À
l’inverse des incertitudes trop grandes "ralentiront" la recherche d’une solution optimale et donneront, a posteriori,
des incertitudes sur-évaluée. Il faut donc prendre soin de le déterminer correctement.
2.2 Le problème inverse vu comme une optimisation
La résolution du problème inverse implique de chercher une solution optimale vis à vis d’une fonction que l’on cherche
à minimiser. Nous verrons plus tard que ce caractère optimal est important pour toute la procédure d’inversion et qu’il
est nécessaire de bien le définir, au risque de trouver des solutions aberrantes ou de ne pas converger. L’optimisation
est un processus itératif, à chaque itération, les résultats de l’itération précédente sont utilisés comme information a
priori.
2.2.1 Fonctionnelle à minimiser : la fonction coût S
On a introduit dans la section précédente la fonction vraisemblance qui traduit la capacité du modèle à traduire les
données. Plus la fonction vraisemblance L aura une valeur élevée et mieux le modèle trouvé traduira correctement les
15
données. On cherche en fait à maximiser la fonction L. Dans le cas de critère de type norme (notre cas - optimisation),
on peut de manière équivalente minimiser la fonction coût S (misfit function en anglais) telle que :
L(m) ∝ exp(−S(m)) =⇒ σM(m) ∝ ρM(m) · exp(−S(m)) (2.12)
Le calcul de la fonction coût S est basé sur la comparaison des données prédites et observées. On voit bien que en
maximisant L, on minimise S. Cette définition de la solution s’appuie sur le principe du maximum de vraisemblance,
c’est à dire que ce qui a le plus de chance de se produire sera la meilleure solution.
Dans le cas de notre procédure d’inversion, la fonctionnelle à minimiser est cette fonction S. Chercher le minimum de
la fonction S revient à cherche le point pour lequel la dérivée de la fonction S s’annule. La méthode d’optimisation
implémentée dans l’algorithme pour minimiser S est la méthode des gradients conjugués qui utilise les dérivées
partielles premières de la fonction.
2.2.2 Calcul de la fonction coût pour des incertitudes de type gaussienne
Pour rappel, quand on considère que les incertitudes sont de type gaussienne (norme L2, critère des moindres carrés).
On peut alors écrire ρD(d), ρM(m) et θ(d | m) tel que :
ρD(d) ∝ exp −
1
2
(dobs − d)T
C−1
D (dobs − d) (2.13)
ρM(m) ∝ exp −
1
2
(mpr − m)T
C−1
M (mpr − m) (2.14)
θ(d | m) ∝ exp −
1
2
(d − g(m))T
C−1
T (d − g(m)) (2.15)
En combinant ces équations avec l’équation (2.11), on obtient :
σM(m) ∝ exp −
1
2
(mpr − m)T
C−1
M (mpr − m) + (dobs − g(m))T
(CD + CT)−1
(dobs − g(m)) (2.16)
La fonction coût S s’écrit alors :
S(m) =
1
2
(dobs − g(m))T
(CD + CT)−1
(dobs − g(m)) + (mpr − m)T
C−1
M (mpr − m) (2.17)
C’est cette approche qu’on appelle l’approche par le critère des moindres carrés. Ce calcul de S n’est évidemment
valable pour des incertitudes de type gaussienne (norme L2). Cette simplification n’est pas toujours valable et dans
les cas où σM(m) est trop complexe, les méthodes d’optimisation ne pourront pas donner une solution réaliste.
2.2.3 Limites de l’optimisation
La recherche d’une solution par optimisation n’est pas une recherche systématique ou une méthode d’exploration
sur l’espace des modèles. On pourrait définir notre procédure d’optimisation comme une estimation de proche en
proche de la fonction S et de ses dérivées. Il faut donc bien comprendre qu’il n’y a aucune certitude que le minimum
de la fonction S trouvé est unique, ou que ce n’est pas un minimum local. Seule une recherche systématique pourrait
en apporter la preuve. Malheureusement les problèmes que l’on traite sont généralement trop gros (beaucoup de
dimensions), et il est alors impossible (avec les capacités de calcul actuelles) de faire une recherche systématique sur
tous l’espace des modèles.
2.3 Procédure d’inversion
Pour résumer, l’inversion de donnée par optimisation est une méthode qui tend à chercher un modèle physique donné
qui minimise l’écart entre les données observées et les données prédites, calculées suivant une loi physique donnée.
La résolution du problème inverse par optimisation est une approche itérative. Les conditions d’arrêt de l’algorithme
peuvent être variées (ex : nombre d’itération, misfit faible, gradient faible, etc...). Le schéma ci-dessous résume cette
procédure.
16
Début
Modèle a priori
m0 = mprior
Modeling
dsyn = g(m)
Comparaison dsyn/dobs
Calcul misfit S et gradient S
Update du modèle
Modèle updaté
mk+1
Loi physique
g ⇒ θ(d | m)
Données observées
dobs
Critère
d’arrêt ?
OUI
NON
Nouveau modèle
mk = mk+1
Modèle otpimal
mopti = mk+1
Fin
Figure 2.2 – Procédure d’inversion. Dans les cases bleues les paramètres d’entrée, dans les cases jaunes les opérations
de l’algorithme et en rouge les paramètres de sortie. k étant le numéro d’itération.
17
Deuxième partie
L’inversion appliquée aux données de
temps d’arrivées de sismique passive
18
Préambule
Maintenant que le formalisme générale du problème inverse discrétisé a été posé, intéressons nous à l’inversion de
données de sismique passive. Les paramètres d’une procédure d’inversion sont propres à chaque expériences, selon
le type de données que l’on cherche à inverser, les données disponibles ou encore la loi physique qu’on utilise. Nous
avons vu dans la partie précédente que l’on pouvait classer l’information selon trois types :
- Informations a priori
- Information sur la loi physique
- Information liée aux données
Dans notre problème d’inversion de temps d’arrivées de sismique passive, les positions des sources sont a priori in-
connues, les informations que l’on cherche à estimer a posteriori sont donc le(s) modèle(s) de vitesses VP (et VS)
ainsi que la localisation des sources sismiques. Les données que l’on possèdent sont les temps d’arrivées enregistrés
pour chaque phase (P et S) et pour chaque récepteur et (éventuellement) une estimation de l’incertitude sur les temps
pointés. La loi physique que l’on utilise pour calculer les données estimées (synthétiques) dépend de la précision que
l’on cherche à atteindre, dans notre cas on utilise une loi simple : l’équation Eikonale, que nous expliciterons plus tard.
Enfin les informations a priori que nous utilisons sont un (ou plusieurs) modèle(s) de vitesse VP (et éventuellement
VS) ainsi qu’une idée a priori de la localisation et de l’origine temporelle des sources.
Dans cette partie seront présentées les méthodes utilisées pour obtenir ces différents types d’information ainsi que
les limites de chaque méthode. Dans le premier chapitre nous présenterons rapidement comment est obtenue l’infor-
mation liée aux données et à la loi physique (résolution du problème direct par l’équation Eikonale) et dans un second
chapitre nous aborderons le problème de la recherche d’information a priori et plus particulièrement comment on
obtient une idée a priori de la localisation et de l’origine temporelle des sources, qui était un des sujets principaux de
ce stage.
Modèle mprio
(information a priori)
Loi physique dsyn = g(m)
(information théorique)
Données dobs
(information expérimentale)
VP (x), VS(x)
xsrc, tsrc
0
Eikonale
up, us
σtp
, σts
Table 2.1 – Résumé des information a priori, théorique et expérimentale dans le cadre de l’inversion de données de
sismique passive.
19
Chapitre 3
Informations expérimentale et théorique
L’information expérimentale est liée aux données et aux incertitudes associées tandis ce que l’information théorique
est liée à la théorie physique. Une loi physique n’étant jamais parfaite et on se doit de prendre en compte également
les incertitudes liées à cette loi. Nous aborderons dans ce chapitre l’acquisition et la sélection des données ainsi que
la résolution du problème direct selon l’équation Eikonale.
3.1 Information expérimentale :
temps d’arrivées des ondes et incertitudes associées
Les temps d’arrivées sont issus d’enregistrement de sismique passive. À la différence de la sismique active, on ne
connait pas l’instant de rupture des sources. On enregistre alors des temps d’arrivées et plus des temps de trajets. A
posteriori c’est, entre autre, ces temps de trajets qui nous intéressent et que l’on cherchera à partir des temps d’arri-
vées.
Typiquement, une campagne d’enregistrement de sismique passive se passe comme suit : des stations d’écoutes sis-
miques autonomes sont réparties sur la région que l’on veut étudier et enregistrent en permanence le bruit sismique
ambiant. Si l’amplitude du signal (ou un autre critère) reçue dépasse un certains seuil, le temps d’arrivée du signal
(selon un temps de référence fixé) est automatiquement déterminé et enregistré et sera associé à une source. La phase
enregistrée (P ou S) sera ensuite déterminée, par exemple à partir de la forme de l’onde, l’amplitude selon les direc-
tions etc...
Figure 3.1 – Exemple de sismogramme. On pointe les temps des premières arrivées des phases P et S, relativement à
un temps de référence donné. Comme on peut le constater il est difficile de différencier ces arrivées du bruit sismique,
de fait il en découle une certaine incertitude.
On découvre ici une première incertitude puisque le pointé n’est jamais parfait. L’erreur peut avoir plusieurs ori-
gines : mauvaise calibration de l’appareil, fort rapport signal/bruit, erreur liée à la méthode de pointé automatique
etc... La quantification absolue de cette erreur n’est pas simple et typiquement dans notre procédure d’inversion on
fixera ces erreurs selon le rapport signal sur bruit au moment de l’enregistrement. De plus, avec des données réelles,
il est parfois difficile de déterminer la phase d’un signal, dans ce cas là on ne prend tout simplement pas en compte
l’enregistrement.
20
Enfin, les sources sismiques ne sont pas toujours des séismes de forte énergie et la plupart du temps, en plus d’avoir
un rapport signal/bruit fort, les signaux d’une source donnée ne sont captés que par une poignée de récepteurs. L’in-
formation expérimentale liée à ces sources ne sera alors pas forcément intéressante et/ou mal déterminée. Une autre
difficulté vient du fait que si deux sources sont proches temporellement parlant (instant de rupture assez proche),
leur signal respectif pourra être capté à des instants assez proches par différents récepteurs. Il sera alors difficile de
déterminer quel signal provient de quelle source.
Avant de commencer l’inversion il est donc nécessaire de trier une première fois les données pour écarter les données
trop bruitées, imprécise et/ou mal connues. Ce n’est qu’après ce premier travail que l’on pourra commencer l’inver-
sion. Une autre approche consiste à utiliser des normes robustes (comme L1 - critère des moindres valeurs absolues)
qui permettent de ne pas tenir compte des données aberrantes ce qui simplifie le tri ou l’analayse ds données a priori.
3.2 Information théorique : problème direct et équation Eikonale
Pour estimer les temps de trajets (problème direct), on utilise la résolution de l’équation Eikonale. En Physique, l’équa-
tion Eikonale est l’équation fondamentale régissant la cinématique de l’onde (la lumière par exemple ou une onde
sismique) dans un milieu isotrope, en d’autres termes les trajectoires des rais sismiques. Les lois de Snell-Descartes
sont par exemple dérivées de cette dernière.
On peut écrire l’équation Eikonale telle que :
T(xi) · T(xi) = s(xi)2
=
1
c(xi)2
(3.1)
Avec T(xi) le temps de trajet de l’onde, c(xi)2
la vitesse de propagation de l’onde et s(xi)2
la lenteur (l’inverse de la
vitesse, slowness en anglais).
Le domaine étudié est divisé est un ensemble de cellules cubiques de même taille, dans lesquelles on connaît la valeur
de la vitesse de propagation des ondes. La résolution de l’équation Eikonale permet de calculer, pour une source (ou
un récepteur) donnée, une carte de temps qui donne le temps de trajet entre la source et chaque cellule du domaine.
On peut alors facilement déterminer le temps de propagation entre une source et un point quelconques du milieu.
Dans l’inversion, il est alors possible, à partir des cartes de temps de trajets pour chaque récepteur, de tracer a pos-
teriori les rais , trajectoires perpendiculaires au front d’onde (surface iso-temps), par rétro-propagation depuis les
récepteurs jusqu’à la source, en suivant la direction opposée au gradient des temps de trajets.
Comme on vient de le voir, le problème direct passe par la résolution de l’équation Eikonale. Il n’existe pas de so-
lution analytique dans le cas d’un milieu isotrope hétérogène quelconque, c’est pourquoi on utilise des méthodes
numériques pour la résoudre. Les temps obtenus sont approximatifs, mais restent relativement précis et proches de
la solution exacte.
Plusieurs méthodes sont possibles pour résoudre numériquement le système. Dans notre cas, on utilise l’algorithme
de Podvin et Lecomte (1991), basée sur une approche par différences finies. L’algorithme qu’ils ont développé 1
, écrit
en C, est directement intégré dans l’algorithme d’inversion. Dans cette méthode de résolution, plus le maillage est
grossier et plus l’erreur sur les données synthétiques (estimées) sera grande.
1. Disponible en open source sur le site de Mines Paritech : http://www.geophy.mines-paristech.fr/soft/fdtimes/
html_doc/index.html
21
Chapitre 4
Informations a priori :
Modèles de vitesses et localisation des
sources sismiques
L’information a priori est très importante dans la procédure d’inversion car c’est à partir de cette dernière que l’on
va travailler. En inversion de temps d’arrivées de sismique passive, on a deux paramètres inconnus : le(s) modèles de
vitesses VP (et/ou VS) ainsi que les localisations spatiales et temporelles des sources xsrc et t0
src.
Les informations a priori sur l’un et l’autre de ces paramètres sont obtenues de façon totalement différente. Nous in-
troduirons dans ce chapitre comment on obtient ces informations a priori et nous détaillerons notamment la recherche
d’information a priori sur la localisation des sources sismiques et plus précisément la méthode de pré-localisation des
sources sismiques, qui était un des enjeux importants de ce stage.
4.1 Modèles de vitesse
L’information a priori sur le modèle de vitesse peut venir de plusieurs sources. Cela peut être les résultats de pré-
cédentes expériences (campagnes sismiques, gravimétriques, magnétique, forages, etc...) ou des informations géolo-
giques de la zone. Par exemple si on inverse des données issues d’une campagne sismique off-shore, on s’attendra
typiquement à se trouver au dessus d’un plancher océanique avec des vitesses moyennes lentes alors qu’à l’inverse
si on inverse des données issues d’une campagne sismique dans une région montagneuse on s’attendra globalement
à trouver du socle et donc des vitesses élevées. Les informations a priori sur le modèle de vitesse n’ont pas besoin
d’être précise, à condition bien sur que cette imprécision soit correctement quantifiée. Le modèle de vitesse VS de
propagation des ondes S est souvent mal connu et on considère généralement que le modèle de vitesses VS et le
modèle de vitesses VP sont reliés par une loi simple (par exemple linéaire, avec un ratio) ou par une loi un peu plus
complexe (ratio dépendant de la profondeur).
Les différentes sources d’informations peuvent être de natures très variables et ne donnent pas forcément des infor-
mations cohérentes entre elles. Dans ce cas on peut utiliser plusieurs modèles de vitesses comme information a priori
ou joindre ces informations, notamment grâce à la géostatistique dont le succès vient de sa capacité à pouvoir prendre
en compte quantitativement de l’information géologique qualitative et disparate provenant de plusieurs sources.
4.2 Localisation des sources sismiques
La localisation a priori des sources sismiques (spatiale et temporelle) est très importante car c’est à partir de ces po-
sitions et de ce temps d’origine qu’on va pouvoir estimer le temps de trajet des ondes entre une source donnée et
les récepteurs. En plus de la localisation en elle même, l’estimation des incertitudes est également essentielle. On
distingue deux grands types de méthodes pour localiser des sources sismiques à partir des temps d’arrivées : les mé-
thodes relatives, qui localisent les sources sismiques relativement à un évènement sismique proche et bien localisé,
et les méthodes absolues.
22
On ne s’intéressera ici qu’aux méthodes absolues qui correspondent mieux à notre problématique. De nombreuses
méthodes absolues existent pour localiser les sources sismiques, on pourra notamment évoquée la méthode des Geiger
(1910) ou de Bolt (1978), ainsi que les plus communes méthodes de triangulation ∆tS-P ou des hyperboles ∆tP -P et
∆tS-S.
Avant mon arrivée, la localisation a priori des sources (ou pré-localisation) était déterminée à partir de la différence
des temps d’arrivées de l’onde P et de l’onde S pour une source donnée, qu’on a introduit plus haut comme étant la
méthode de triangulation. Finalement, nous avons développé avec l’équipe d’ingénieurs de GIM-Labs une méthode
basée sur les différences des temps d’arrivées d’une même phase (P ou S) ∆tP -P et ∆tS-S entre différents couples
source/récepteur. Cette méthode est dérivée de la méthode des hyperboles mais diffère de celle-ci dans le fait qu’elle
prend en compte les hétérogénéités du modèle de vitesse et donc qu’elle est plus précise.
4.3 Méthode de localisation spatiale ∆tS-P
La méthode de localisation ∆tS-P se base sur la différence de temps d’arrivé des différentes phases (P et S) pour un
couple source/récepteur donné. De façon plus formelle on a pour une source donnée :
∀ rec ⇒



tobs
rec,P = uobs
rec,P − t0
tobs
rec,S = uobs
rec,S − t0
tsyn
rec,P (x | VP,pr)
tsyn
rec,S(x | VS,pr)
(4.1)
Avec :
- uobs
rec,P et uobs
rec,S les temps d’arrivées pointés observés pour, respectivement les phases P et S
- t0 l’instant de rupture de la source donnée
- tsyn
rec,P (x | VP,pr) et tsyn
rec,S(x | VS,pr), les carte des temps de trajets synthétiques pour respectivement les phases
P et S, connaissant les modèles a priori VP,pr et VS,pr
On peut alors calculer les différences de temps d’arrivé des différentes phases (P et S) pour les données synthétiques
et observées, telles que :
∀ rec ⇒
∆tobs
rec,S-P = tobs
rec,S − tobs
rec,P = uobs
rec,S − uobs
rec,P
∆tsyn
rec,S-P = tsyn
rec,S(x | VS,pr) − tsyn
rec,P (x | VP,pr)
(4.2)
On peut finalement calculer une densité de probabilité sur la position de la source ρsrc,pr(x | VP,pr, VS,pr) en tout
point du modèle telle que :
ρsrc,pr(x | VP,pr, VS,pr) ∝ exp


−
1
2 rec


∆tsyn
rec,S-P (x | VP,pr, VS,pr) − ∆tobs
rec,S-P
σ2
∆tsyn + σ2
∆tobs


2


 (4.3)
Avec σ∆t,syn et σ∆t,obs les incertitudes associées respectivement à la différence des temps synthétiques et à la diffé-
rence des temps observés.
Finalement le formalisme que l’on a utilisé rappelle fortement les équations que nous avons introduites dans la pre-
mière partie (équation 2.13). Et pour cause, il s’agit également d’un problème inverse ! Seulement la recherche se
fait ici de manière systématique et non plus par optimisation. On connaît donc la fonction misfit S en tout point du
modèle, et la source sera alors localisée au point où le misfit est le minimum. Bien sûr, le(s) modèle(s) de vitesses a
priori utilisés ne sont qu’une approximation et la localisation de la source sera donc incertaine et il faudra quantifier
ces incertitudes. Les incertitudes associées seront alors calculées à partir de la carte des probabilités.
23
Cette méthode a été la première implémentée dans l’algorithme d’inversion. Cependant elle a rapidement montré ses
limites, notamment en l’absence d’un modèle de vitesse de propagation des ondes S fiable ou encore pour l’estimation
de l’erreur qui était très souvent sous évaluée. Il a donc été nécessaire d’implémenter une nouvelle méthode plus stable
et plus robuste.
4.4 Méthode de localisation spatiale ∆tP-P et ∆tS-S
La méthode de localisation ∆tP -P et ∆tS-S (appelée méthode des hyperboles pour un milieu homogène - dans notre
cas la méthode est généralisée) est basée sur les différences des temps d’arrivées d’une même phase (P ou S) ∆tP -P et
∆tS-S entre différents couples source/récepteur. En d’autres termes, on calcule pour plusieurs récepteurs donnés, la
position de la source qui vérifie au mieux les différences d’arrivées ∆tP/S,rec(i),rec(j) observées. Après avoir trouvé
cette position (x, y, z en coordonnées cartésiennes), on cherchera le tsrc
0 qui minimise l’écart entre données observées
et estimées. Nous aborderons d’abord les avantages qu’offre cette méthode par rapport à celles évoquées précédem-
ment puis nous introduirons le formalisme de la méthode. Enfin nous verrons comment elle a été implémentée dans
l’algorithme préexistant.
4.4.1 Avantages de la méthode
Plusieurs raisons nous ont poussé à orienter le développement dans cette direction :
- Cette méthode de localisation était plus facilement implémentable, dans le sens où elle utilise des "briques" de
code déjà implémentées pour la méthode développée avant mon arrivée
- Dans le formalisme même de la méthode, on a pas besoin de connaître l’instant de rupture des sourcestsrc
0
pour les localiser ni d’avoir une connaissance a priori des positions des sources, contrairement aux méthodes
de Geiger (1910) et textitBolt (1978)
- Les données sur les phases P et S sont utilisées de façon indépendantes et on prend en compte le poids de
chacune dans la localisation finale. Cela se traduit surtout par une meilleure stabilité de la solution en présence
d’un modèle de vitesse VS a priori mal connu et/ou loin de la réalité
- Contrairement aux méthodes de Geiger (1910) et Bolt (1978), la prélocalisation n’est pas une optimisation
(procédure itérative) mais une recherche systématique, ce qui en plus d’améliorer l’unicité de la solution,
prend moins de temps
4.4.2 Un problème inverse également
Comme pour la méthode de localisation ∆tS-P , on cherche à trouver une localisation de la source qui cherche à
minimiser l’écart entre les données observées et les données simulées. On est donc typiquement dans une optique de
résolution du problème inverse. La recherche est ici systématique et s’effectue sur tous le domaine du modèle.
4.4.3 Formalisme de la méthode
Pour un couple de deux récepteurs différents notés a et b et pour une source donnée 1
:
∀ a, b ∈ rec avec a = b ⇒



tobs
a,P = uobs
a,P − t0
tobs
b,P = uobs
b,P − t0
tsyn
a,P (x | VP,pr)
tsyn
b,P (x | VP,pr)
(4.4)
Avec :
- uobs
a,P et uobs
b,P les temps d’arrivées pointés observés pour la phase P
- t0 l’instant de rupture de la source donnée
- tsyn
a,P (x | VP,pr) et tsyn
b,P (x | VP,pr), les carte des temps de trajets synthétiques pour respectivement les récep-
teurs a et b, connaissant le modèle de vitesses a priori VP,pr
1. On détail ici les calculs pour la phase P. Il suffit de remplace P par S pour avoir le détail des calculs pour la phase S
24
On peut alors calculer les différences de temps d’arrivé de la phase P entre les deux récepteurs pour les données
synthétiques et observées, telles que :
∀ a, b ∈ rec avec a = b ⇒
∆tobs
a,b,P -P = tobs
a,P − tobs
b,P = uobs
a,P − uobs
b,P
∆tsyn
a,b,P -P = tsyn
a,P (x | VP,pr) − tsyn
b,P (x | VP,pr)
(4.5)
On voit ici que l’on fait disparaitre le terme t0. L’avantage est donc que l’on peut déterminer la position de la source
sans avoir à déterminer a priori un t0.
En appliquant ce résultat aux phases P et S, on peut finalement calculer une densité de probabilité sur la position de
la source ρsrc,pr(x | VP,pr, VS,pr) en tout point du modèle telle que :



ρsrc,pr(x | VP,pr) ∝ exp


−
1
2
∀a ∀b=a


∆tsyn
a,b,P -P (x | VP,pr) − ∆tobs
a,b,P -P
σ2
∆tsyn + σ2
∆tobs


2



ρsrc,pr(x | VS,pr) ∝ exp


−
1
2
∀a ∀b=a


∆tsyn
a,b,S-S(x | VS,pr) − ∆tobs
a,b,S-S
σ2
∆tsyn + σ2
∆tobs


2



(4.6)
⇒ ρsrc,pr(x | VP,pr, VS,pr) = ρsrc,pr(x | VP,pr) × ρsrc,pr(x | VS,pr) (4.7)
Avec σ∆tsyn et σ∆tobs les incertitudes respectivement sur les différences des temps d’arrivées synthétiques et sur les
différences des temps d’arrivées observés.
4.4.4 Implémentation de la méthode dans l’algorithme
Le calcul de la localisation des sources se fait en plusieurs étapes.Pour une source donnée,on charge d’abord les
données observées, soient les temps d’arrivées observées pour tous les récepteurs tobs
rec. Vient après le calcul de la carte
des temps pour tous les récepteurs à partir des positions des récepteurs et du modèle de vitesse a priori, notée tsyn
r ec.
On calcul ensuite les différences de temps observés et synthétiques, notés respectivement, pour deux récepteurs
donnés, ∆tobs
reci,recj
et ∆tsyn
reci,recj
. On fait ensuite la différence de ces deux valeurs, normalisées par les incertitudes.
La position ayant la plus grande probabilité est la position que l’on retiendra alors comme positiona priori de la source.
25
Début
Calcul de la carte des temps de
trajet pour tous les récepeurs
⇒ tsyn,rec
Chargement des temps d’arrivées
observés pour tous les récepteurs
⇒ tobs,rec
Calcul de la carte des différences des temps
de trajet pour chaque couple de récepteur
⇒ ∆tsyn(reci, recj)
Calcul différence des temps d’arri-
vées pour chaque couple de recépteur
⇒ ∆tobs(reci, recj)
Incertitude sur
∆tsyn(reci, recj)
⇒ σ∆tsyn(i,j)
Incertitude sur
∆tobs(reci, recj)
⇒ σ∆tobs(i,j)
Calcul de la carte des probabilités P(x)
P(x) ∝ cpl
∆tsyn−∆tobs
σ2
∆tsyn
+σ2
∆tobs
Localisation spatiale de la source
et incertitude associée
Fin
Figure 4.1 – Procédure de prélocalisation spatiale pour une source donnée. En jaune les procédures,ou les étapes
nécessitant un calcul. En bleu les données en entrée et en rouge les données en sortie.
Pour illustrer ce schéma, regardons quelques résultats synthétiques. Soit un modèle de vitesses VP (6.1), un modèle
a priori (6.2, deux récepteurs, notés rec1 et rec2 et une source donnée. Les temps observés (par rapport à un temps
de référence donné) pour les récepteurs rec1 et rec2 pour une source donnée, sont respectivement :
tobs
rec1
= 1.01885 s
tobs
rec2
= 3.05111 s
La différence des temps d’arrivées observés ∆tobs
rec1,rec2 ( = tobs
rec1
−tobs
rec2
) vaut donc ∆tobs
rec1,rec2 = −2.03226 secondes.
Les carte des temps synthétiques (tsyn
rec1
et tsyn
rec2
) sont calculée à partir de l’algorithme de Podevin et Lecomte présenté
plus haut. La carte des différences de temps synthétiques, notée ∆tsyn
rec1,rec2 est la soustraction de ces deux cartes.
On calcul ensuite la carte des probabilités, qui est la différence entre ∆tsyn
rec1,rec2 et ∆tobs
rec1,rec2, renormalisée par les
incertitudes.
26
Carte des temps - récepteur 1
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
Tempsdetrajet(s)
0
1
2
3
4
5
Récepteur 1
Carte des temps - récepteur 2
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
Tempsdetrajet(s)
0
1
2
3
4
5
Récepteur 2
Figure 4.2 – Coupe selon Y de la carte des temps pour chaque récepteur. Le récepteur 1 est localisé en x = 6500m et
z = 100m. Le récepteur 2 est localisé en x = 18500m et z = 100m. On voit bien que les courbes d’iso-temps ne sont
pas parallèles, ni symétriques. Cela est due d’une part aux vitesses qui augmentent avec la profondeur, et d’autre part
à la non symétrie du modèle (selon X).
Carte des différences de temps ∆trec
1
,rec
2
syn
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
Récepteurs
VP
(m.s
-1
)
-4
-2
0
2
4
Carte ∆tsyn
rec
1
,rec
2
- ∆tobs
rec
1
,rec
2
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VP
(m.s
-1
)
-0.2
-0.1
0
0.1
0.2
Récepteurs
Source
Figure 4.3 – Coupe selon Y de la carte de la différence des temps synthétiques ∆tsyn
rec1,rec2(en haut) et de la carte
des différences entre données synthétiques et observées (en bas). On voit que la source n’est pas tout à fait localisée
là où la différence est égale à 0. Étant donné que le modèle a priori est différent du modèle vrai c’est normal. Ici on
ne présente l’information apporté seulement par un couple de récepteur, si on faisait cette opération pour tous les
couples de récepteurs, les probabilités se focaliseraient sur une zone.
27
4.4.5 Limites de la méthode et pistes de travail
La méthode développée semble d’après les tests que nous avons pu mener assez fiable et robuste, notamment en pré-
sence d’un modèle de vitesse VS mauvais, ce qui n’était pas le cas pour la méthode précédente. Cependant la méthode
∆tP -P et ∆tS-S présente plusieurs inconvénients.
Le plus important est le temps de calcul accru par rapport à l’ancienne méthode ∆tS-P . En effet on ne compare plus
les temps indépendamment pour chaque récepteur mais entre chaque récepteur. Cela a pour conséquence d’augmen-
ter considérablement le nombre de calculs. Par comparaison, pour une source donnée dont le signal est capté par
nrec récepteurs, l’ancienne méthode effectuait nrec opérations, tandis ce que avec la nouvelle méthode on effectue
nrec×(nrec−1)
2 . On comprend bien alors que pour des sources captées par beaucoup de récepteurs, le temps de cal-
cul va être considérablement augmenté. Une première piste a été explorée et implémentée pour réduire ce temps de
calcul. On tire aléatoirement un nombre de couples donné parmi tous les couples récepteur/récepteur possibles, à
condition que le nombre de couples au départ soit élevé. On refait un second tirage et on compare les densités de
probabilités entre ces deux tirages. Si les deux densités de probabilités ont une corrélation supérieur à un seuil donné,
alors on considère qu’elles sont assez représentatives pour être utilisées. On les joint donc et on garde cette carte des
probabilités pour ensuite déterminer la position de la source.
Un second soucis vient des sources mal captées, dans le sens où peu de récepteurs captent leur signal. Dans ce cas
la localisation sera mauvaise et les incertitudes très élevées. Finalement ce problème vient du manque d’information
et pas de la méthode en elle même. Il faudrait donc réfléchir à trier directement dans l’algorithme les sources dont la
pré-localisation est mauvaise ou qui sont mal captées.
Enfin, la méthode proposée ne prend pas en compte les incertitudes sur le modèle de vitesse. Pour remédier à ce
problème une piste a été envisagée mais qui n’a pas encore été développée. Il s’agissait de donner à l’algorithme plu-
sieurs modèles de vitesses différents ou de tirer aléatoirement des modèles perturbés (selon les incertitudes) autours
du modèles à priori puis de faire la procédure de pré-localisation pour chacun d’eux. Enfin la densité de probabilité
finale est le produit normalisé de toute les densités de probabilité. Cette solution est envisageable, néanmoins on voit
bien que si on prend dix modèles a priori alors le temps de calcul sera multiplié par dix.
4.5 Localisation temporelle des sources sismiques
On vient de voir que la méthode de localisation des sources sismiques que l’on a retenue fournie une localisation
spatiale d’une source sismique donnée mais ne permet pas directement de calculer le t0. Pour trouver t0, on utilise
le pointé des temps uobs
P et uobs
S pour chaque récepteur. À partir des temps estimés tsyn
P et tsyn
P , calculés grâce à la
position de la source trouvée en amont, on obtient par moyenne pondéré :
t0
src,pr = ∀rec
(uobs
rec,P −tsyn
rec,P )
σrec,P
+
(uobs
rec,S −tsyn
rec,S )
σrec,S
∀rec
1
σrec,P
+ 1
σrec,S
(4.8)
L’incertitude associée est calculée selon :
σ2
(t0
src,pr) = ∀rec
(uobs
rec,P −tsyn
rec,P −t0
src,pr)2
σrec,P
+
(uobs
rec,S −tsyn
rec,S −t0
src,pr)2
σrec,S
∀rec
1
σrec,P
+ 1
σrec,S
(4.9)
28
Chapitre 5
Solution du problème inverse en sismique
passive
Nous avons défini dans les deux chapitres précédents les notions d’information expérimentale, théorique et a priori.
Nous avons vu également dans la première partie que pour la résolution du problème inverse passait par la minimi-
sation de la fonction coût (misfit). Voyons à présent comment s’écrit cette fonction pour l’inversion de données de
sismique passive.
Dans la problématique de la sismique passive, on cherche a posteriori à trouver les modèles de vitesses VP et VS
ainsi que les coordonnées spatiotemporelles des sources (x et t0
). La fonction coût traduisant la "vraisemblance" de
la solution trouvée, il est donc normal qu’elle soit fonction de tous ces paramètres.
S(m) = S(VP , VS, t0
src, xsrc) ∝ (tsyn
P (m) − tobs
P )T
C−1
tP
(tsyn
P (m) − tobs
P ) (5.1)
+ (tsyn
S (m) − tobs
S )T
C−1
tS
(tsyn
S (m) − tobs
S ) (5.2)
+ (xsrc − xsrc,pr)T
C−1
(x)src
(xsrc − xsrc,pr) (5.3)
+ (t0
src − t0
src,pr)T
C−1
t0 (t0
src − t0
src,pr) (5.4)
+ (VP − VP,pr)T
C−1
VP
(VP − VP,pr) (5.5)
+ (VS − VS,pr)T
C−1
VS
(VS − VS,pr) (5.6)
+ (VS − f(VP ))T
C−1
VS /VP
(VS − f(VP )) (5.7)
Dans cette équation, les termes (5.1) et (5.2) sont associées aux temps d’arrivées (P et S), les termes (5.3) et (5.4) cor-
respondent aux informations sur les coordonnées des sources, les termes (5.5) et (5.6) aux modèles de vitesses VP et
VS et le terme (5.7) à la corrélation entre ces deux modèles.
Le terme f(VP ) correspond à la relation (pas forcément linéaire) reliant le modèle VP au modèle VS. Les termes t0
src,pr
et xsrc,pr apparaissent dans le calcul de la fonction coût. On voit donc ici l’importance d’avoir une connaissance a
priori sur les coordonnées des sources proche de la réalité pour minimiser la fonction coût dès le départ, d’où l’intérêt
de l’algorithme de prélocalisation présenté plus haut.
29
Troisième partie
Présentation des résultats : tests sur
données synthétiques
30
Préambule
Avant de commencer à travailler sur le projet principal qui était de développer une méthode fiable et robuste pour
la localisation des sources sismiques à priori, il a fallu tester et debbuger le code utilisé pour l’inversion de sismique
passive. Le code utilisé était en fait dériver d’un code préexistant servant à l’inversion de donnée de sismique active.
Cependant le problème n’est pas tout à fait le même, et bien qu’un travail ai été fait en amont avant mon arrivée,
il restait encore des implémentations à réaliser, des bugs à corriger et des tests à effectuer afin de rendre le code
utilisable et de pouvoir déterminer la robustesse de l’algorithme. Dans un soucis de compréhension, on simplifiera
dans toute cette partie l’appellation données observées synthétiques par données observées.
L’algorithme d’inversion de sismique passive inverse conjointement le(s) modèles de vitesses ainsi que les locali-
sations spatiotemporelles des sources. Est également intégré à l’algorithme une fonction prélocalisation servant à
chercher une localisation a priori des sources sismiques. Pour vérifier la fiabilité des différentes fonctions du code on
a mis en place de nombreuses expériences dont les résultats de certaines sont reproduits ici. Ces expériences sont les
suivantes :
- Inversion des modèles de vitesses seuls. Cette expérience a pour but de vérifier que l’inversion des modèles
de vitesses fonctionne correctement, connaissant les positions exactes des sources. La fonction prélocalisation
n’est pas utilisée.
- Inversion des localisations spatiotemporelles des sources sismiques seule. Dans cette on cherche à prouver
que la localisation des sources marche correctement, connaissant les modèles de vitesses VP et VS. La fonction
prélocalisation n’est pas utilisée.
- Inversion conjointe des modèles de vitesses et des localisations des sources sismiques. Procédure d’inversion
normale sans prélocalisation. Dans cette expérience on teste si l’inversion conjointe marche correctement, à
partir d’un modèle a priori faux et de positions de sources perturbées.
- Prélocalisation seule. Cette expérience a pour but de vérifier que la fonction prélocalisation intégrée à l’algo-
rithme donne des résultats exploitables.
- Inversion conjointe des modèles de vitesse et des sources sismiques, avec prélocalisation . Cette expérience a
pour but de reproduire une procédure d’inversion réelle, c’est à dire avec un modèle de vitesses a priori grossier
et sans avoir d’information a priori sur les positions des sources. L’information a priori sur les positions des
sources sismiques sera recherchée par la prélocalisation.
Expérience
Inversion du
modèle de vitesses
Inversion de la
localisation des sources
Prélocalisation
Expe 1 Oui Non Non
Expe 2 Non Oui Non
Expe 3 Oui Oui Non
Expe 4 Non Non Oui
Expe 5 Oui Oui Oui
Table 5.1 – Résumé des expériences synthétiques
31
Chapitre 6
Paramètres d’entrée
6.1 Paramètres du modèle
Pour produire les données observées, on part d’un modèle de vitesse Vp donné (true model) et des positions de 500
sources réparties dans tout le modèle. Les récepteurs sont placés en grille tous les kilomètres et couvrent la totalité
du système. Le modèle de vitesse Vs est issu du modèle de vitesse Vp divisé par un ratio 0.7. Le fichier des positions
complètes des sources et des récepteurs est donné en annexe.
6.2 Modèle vrai de vitesse
Le modèle vrai est construit à partir d’une image pixelisée. À chaque valeur de pixel (couleur) on associe une vitesse de
propagation des ondes P. Pour reproduire une lithologie réelle, la vitesse de propagation augmente avec la profondeur.
On obtient ainsi un modèle 2D du système. Ce modèle est ensuite "lissé" (moyennes harmoniques des lenteurs) pour
éviter des contrastes de vitesse trop fort aux interface, puis étendu selon l’axe Y pour obtenir le modèle 3D final. On
a donc un modèle invariant selon Y .
Le modèle utilisé s’étend sur 25 km selon l’axe X, 5 km selon Y et 5 km selon Z. Le pas de discrétisation spatial du
modèle (la définition de l’image) est de 100 m, c’est à dire que le modèle est constitué de cubes homogènes de 100
mètres de coté.
Pour reproduire des conditions réelles, les vitesses sont décroissantes avec la profondeur. Dans le modèle VP , les
vitesses vont de 2450 m.s−1
à 6400 m.s−1
tandis ce que pour le modèle VS elles vont de 1470 m.s−1
à 3840 m.s−1
,
soit un ratio 0.6 entre les vitesses VS et VP .
32
Modèle vrai VP
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m) 0
1000
2000
3000
4000
V
P
(m.s
-1
)
2000
3000
4000
5000
6000
7000
Modèle vrai VS
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
P
(m.s
-1
)
1000
1500
2000
2500
3000
3500
4000
Figure 6.1 – Modèles vrais de vitesses VP et VS.On peut noter dans ce modèle plusieurs éléments importants : à
gauche une zone de vitesses lentes (VP ≈ 3200m.s−1
) en forme de trapèze, au centre une sorte de chevauchement
avec une zone de vitesse constante (VP = 5000m.s−1
) qui traverse toutes les couches, dans la moitié gauche on
observe une couche lente (VP = 4000m.s−1
) située sous une couche plus rapide, ainsi qu’une sorte de rampe à
l’interface des premières couches et également une zone de vitesses rapides qui "remontent" et forme une sorte de
dôme.
6.3 Modèle de départ ou modèle a priori
Le modèle de vitesse a priori est construit à partir du modèle vrai de vitesse qu’on "lisse" de manière importante
afin d’obtenir un modèle quasi-1D. Le modèle de vitesse a priori nous servira pour les expériences dans lesquelles on
cherche à retrouver a posteriori le modèle de vitesse.
Figure 6.2 – Modèles a priori de vitesses VP . Le modèle a priori de vitesse VS est construit à partir du modèle de départ
VP multiplié par 0.6, comme pour le vrai modèle. On remarque que l’information sur les structures géométriques
qu’on apercevait dans le modèle vrai a quasiment disparu, notamment pour la remontée centrale. Bien que le modèle
soit fortement lissé et quasiment 1D, on remarque toutefois des vitesses plus élevées sur la partie droite du modèle.
33
6.4 Géométrie des sources et des récepteurs
Au total, on utilise 192 sources, réparties en maillage sur l’ensemble du modèle. On pose t0 = 0sec pour chaque
source. Les récepteurs, au nombre de 125, sont répartis en grille selon X et Y et couvrent la totalité de la surface.
Y axis (km)
5
4
3
2
1
0
25
20
Géométrie des sources et récepteurs
15
X axis (km)
10
5
0
-4
-5
0
-1
-2
-3
Zaxis(km)
Figure 6.3 – Localisation des sources et des récepteurs. Les sources sont placées tous les 2 km selon l’axe X et 1km
selon les axes Y et Z. Les récepteurs sont placés tous les kilomètres selon les axes X et Y et possède tous une profondeur
de 100 mètres. On peut dès à présent remarquer la faible ouverture du réseau de récepteur selon les axes Y et Z.
6.5 Temps d’arrivées : données observées
Les temps d’arrivées sont issus du modeling présenté précédemment avec comme paramètres d’entrées le modèle
vrai et les vrais positions des sources et des récepteurs. On obtient pour chaque source et pour chaque récepteur les
temps de trajet des phases P et S. Ce sont eux qui serviront de références en tant que temps observés dans la suite
des expériences.
34
Chapitre 7
Inversion des modèles de vitesses VP et VS
seuls
Cette expérience a pour but de vérifier que l’inversion des modèles de vitesses fonctionne correctement, connaissant
les positions exactes des sources, que l’on fixe (c’est à dire que l’erreur sur les positions est nulle) et partant d’un mo-
dèle de départ grossier (figure 6.2). Le ratio utilisé pour construire le modèle de départ VS à partir du modèle de départ
VP est le même qu’utilisé pour la construction du modèle de vitesses vrai VS (ration 0.6). L’algorithme converge en
326 itérations. Les modèles de vitesses VP et VS trouvés sont corrects.
À présent que nous avons vu que les modèles de vitesses trouvés sont correct, il nous faut quantifier l’erreur faite
par rapport au modèle de départ. La différence entre le modèle trouvé et le modèle de départ permet d’apporter cette
information. Cela permet de mettre en évidence les zones mal imagées. On peut s’attendre à ce que les interfaces
entre les couches (fort contraste) ou les zones de faibles vitesses (les rais sismiques "évitent" ces zones, ce qui les rend
difficilement imageables) fassent partis de ces zones.
Finalement cette expérience nous a appris que l’inversion du modèle de vitesses fonctionne correctement. Cependant
une ouverture plus grande selon Y et Z permettrait d’améliorer les résultats. Enfin, dans notre expériences les sources
sont réparties équitablement dans tous le domaine et nous donnent donc accès à l’information sur les zones de basses
vitesses (le trapèze à gauche de l’image par exemple). Dans la réalité il peut en être autrement. D’autres expériences,
dont les résultats ne sont pas reproduits ici par manque de place, ont permis de mettre en évidence que si le modèle
de vitesse VS de départ est mal connu (une erreur sur le ratio par exemple, ou une relation non linéaire entre VP et
VS) alors le modèle trouvé VS sera moins bon, relativement au modèle VP trouvé.
35
Modèle trouvé VP
(iter - 326) - coupe Y = 1000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
S
(m.s-1
)
2000
4000
6000
Modèle trouvé VP
(iter - 326) - coupe Y = 2000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VS
(m.s
-1
)
2000
4000
6000
Modèle trouvé VP
(iter - 326) - coupe Y = 3000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VS
(m.s
-1
)
2000
4000
6000
Modèle trouvé VP
(iter - 326) - coupe Y = 4000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VS
(m.s
-1
)
2000
4000
6000
Figure 7.1 – Coupes selon Y du modèle de vitesse VP trouvé. On distingue la plupart des éléments importants de la
géométrie du modèle. On remarque également que les coupes centrales (Y = 2000m et Y = 3000m) sont mieux imagées,
ce qui est conforme à nos attentes étant donné la faible ouverture du réseau selon Y.
Modèle trouvé VS
(iter - 326) - coupe Y = 1000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
S
(m.s-1
)
1000
2000
3000
4000
Modèle trouvé VS
(iter - 326) - coupe Y = 2000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VS
(m.s
-1
)
1000
2000
3000
4000
Modèle trouvé VS
(iter - 326) - coupe Y = 3000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VS
(m.s
-1
)
1000
2000
3000
4000
Modèle trouvé VS
(iter - 326) - coupe Y = 4000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VS
(m.s
-1
)
1000
2000
3000
4000
Figure 7.2 – Coupes selon Y du modèle de vitesse VS trouvé. Comme pour le modèle VP , on peut distinguer la plupart
des éléments importants du modèle. Les interfaces moins marqués ne sont dûs qu’à l’échelle de couleur utilisée.
36
Différence modèle vrai/modèle trouvé - coupe Y = 1000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
P
(m.s
-1
)
-1000
0
1000
Différence modèle vrai/modèle trouvé - coupe Y = 2000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
P
(m.s
-1
)
-1000
0
1000
Différence modèle vrai/modèle trouvé - coupe Y = 3000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
P
(m.s
-1
)
-1000
0
1000
Différence modèle vrai/modèle trouvé - coupe Y = 4000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
P
(m.s
-1
)
-1000
0
1000
Figure 7.3 – Coupes selon Y de la différence du modèle de vitesses vrai VP et du modèle de vitesses VP trouvé.
Comme on s’y attendait, l’erreur est forte aux interfaces. À contrario la zone de faible vitesse en forme de trapèze à
gauche du modèle présente une erreur assez faible. On remarque cependant la couche de faible vitesse située sous la
rampe (zone de vitesses élevées) en bas à droite de l’image présente une forte erreur (≈ 500m.s−1
.
Différence modèle vrai/modèle trouvé - coupe Y = 1000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
S
(m.s
-1
)
-500
0
500
Différence modèle vrai/modèle trouvé - coupe Y = 2000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
S
(m.s
-1
)
-500
0
500
Différence modèle vrai/modèle trouvé - coupe Y = 3000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
S
(m.s
-1
)
-500
0
500
Différence modèle vrai/modèle trouvé - coupe Y = 4000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
S
(m.s
-1
)
-500
0
500
Figure 7.4 – Coupes selon Y de la différence du modèle de vitesses vrai VS et du modèle de vitesses VS trouvé.
Quantitativement, les erreurs sont globalement les mêmes que pour le modèle VP mais étant donné que les vitesses
sont plus faibles pour VS, les erreurs sont en proportion plus grande.
37
Chapitre 8
Inversion des sources sismiques seules
Cette expérience permet de tester la seconde fonction de l’algorithme qui est la localisation des sources sismiques.
On cherche à retrouver a posteriori les coordonnées des sources, connaissant parfaitement les modèles de vitesses
VP et VS. Pour cela on lance l’algorithme d’inversion avec des coordonnées de sources perturbées et les modèle de
vitesses vrais (et fixés, c’est à dire que l’erreur est nulle).
Pour chaque source, les perturbation sur les coordonnées X et Y sont tirée aléatoirement selon une loi uniforme
entre -5000 m et 5000 m. La coordonnées Z est perturbées entre -3000 m et 3000 m et la perturbation sur T0 est tirée
entre -150 ms et 150 ms.
On réalise dans cette expérience trois tests. Un test où les incertitudes associées aux coordonnées perturbées sont
sous évaluées, un test où elles sont correctement évaluées et enfin un test où ces incertitudes sont sur-évaluées. Ces
tests nous permettront de mettre en évidence non seulement le bon fonctionnement de l’algorithme mais également
dans quelle mesure la quantification des incertitudes est importante. Ces tests sont très importants car ils ont un
lien direct avec l’algorithme de prélocalisation, qui, en plus de chercher les coordonnées des sources, doit également
déterminer correctement les incertitudes associées.
Les coordonnées trouvées (11.4) semblent dans les trois cas visuellement correctes. Pour affiner notre analyse regar-
dons, pour chaque expérience, la variation de la moyenne et de l’écart type des erreurs pour chaque coordonnées au
fil des itérations (8.2 et 8.3).
Finalement, cette expérience montre l’importance de la bonne détermination des incertitudes. N’oublions pas que dans
ces tests le modèle de départ est fixé, c’est à dire que les incertitudes sur celui ci sont nulles. D’autres expériences ont
montré également qu’avec une incertitude sous-évaluée et avec un modèle de vitesse vrai mais non fixé, l’algorithme
a tendance a modifié le modèle et non plus la position des sources. Il est donc très important de ne pas sous évaluer
les incertitudes sur les positions, le mieux étant bien sur de les évaluer correctement. Des incertitudes sur-évaluées
permettront aussi à l’algorithme de converger mais moins rapidement.
38
Incertitudes sous-évaluées - slice_Y = 2000 m
X axis (m)
5000 10000 15000 20000
Zaxis(m)
1000
2000
3000
4000
V
P
(m.s-1
)
2000
3000
4000
5000
6000
7000
Incertitudes correctements évaluées - slice_Y = 2000 m
X axis (m)
5000 10000 15000 20000
Zaxis(m)
1000
2000
3000
4000
V
P
(m.s-1
)
2000
3000
4000
5000
6000
7000
Incertitudes sur-évaluées - slice_Y = 2000 m
X axis (m)
5000 10000 15000 20000
Zaxis(m)
1000
2000
3000
4000
V
P
(m.s-1
)
2000
3000
4000
5000
6000
7000
Figure 8.1 – Mouvement de certaines sources au fil des itérations à partir des positions perturbées jusqu’aux positions
trouvées. En haut pour des incertitudes sous-évaluées, au milieu pour des incertitudes correctement évaluées et en
bas pour des incertitudes surévaluées. Les points verts représentent les coordonnées de départ (perturbées), les points
bleus les coordonnées d’arrivées (trouvées) et les étoiles rouges les vraies positions des sources. On remarque que
dans les trois cas les positions trouvées ont l’air correctes. On voit également que l’algorithme travaille d’abord
essentiellement sur le positionnement selon X, ce qui est normal étant donné que l’ouverture du réseau est plus
élevée selon cet axe. Enfin on observe que les variations des positions au fil des itérations sont plus fortes quand
l’incertitude est plus élevée, ce qui est là aussi conforme à nos attentes étant donné que l’algorithme à plus de liberté.
39
Itération
0 5 10 15 20 25 30 35 40 45 50
Erreurmoyenne(m)
0
500
1000
1500
2000
2500
Erreur moyenne vs. n°itération
Position X
Itération
0 5 10 15 20 25 30 35 40 45 50
Erreurmoyenne(m)
0
500
1000
1500
Erreur moyenne vs. n°itération
Position Y
Incertitudes
sous-évaluées
Incertitudes
correctement évaluées
Incertitudes
sur-évaluées
Itération
0 5 10 15 20 25 30 35 40 45 50
Erreurmoyenne(m)
0
200
400
600
800
1000
1200
1400
Erreur moyenne vs. n° itération
Position Z
Itération
0 5 10 15 20 25 30 35 40 45 50
Erreurmoyenne(ms)
0
20
40
60
80
Erreur moyenne vs. n° itération
T0
Figure 8.2 – Erreur moyenne pour chaque coordonnées en fonction du numéro d’itération. On observe que l’erreur
moyenne diminue dans un premier temps plus vite (et quasiment de la même manière) quand les incertitudes sont
évaluées correctement ou sur-évaluées. On voit également que les erreurs sur les coordonnées spatiales descendent
bien plus vite que les erreurs sur la coordonnées temporelle. Comme on pouvait s’y attendre du fait de l’ouverture
plus grande selon X, l’erreur moyenne selon cet axe diminue plus rapidement que les autres. Vers la 15ème itération
l’erreur moyenne commence à devenir plus faible pour des incertitudes de départ sous-évaluées.
Itération
0 5 10 15 20 25 30 35 40 45 50
Écarttype(m)
0
500
1000
1500
Écart type vs. n°itération - Position X
Itération
0 5 10 15 20 25 30 35 40 45 50
Écarttype(m)
0
200
400
600
800
1000
Écart type vs. n°itération - Position Y
Incertitudes
sous-évaluées
Incertitudes
correctement évaluées
Incertitudes
sur-évaluées
Itération
0 5 10 15 20 25 30 35 40 45 50
Écarttype(m)
0
200
400
600
800
1000
Écart type vs. n° itération - Position Z
Itération
0 5 10 15 20 25 30 35 40 45 50
Écarttype(ms)
0
10
20
30
40
50
Écart tpe vs. n°itération - T0
Figure 8.3 – Écart type pour chaque coordonnées en fonction du numéro d’itération. Les résultats décrivent la même
tendance que pour l’erreur moyenne.
40
Chapitre 9
Inversion conjointe des modèles de
vitesses et des sources sismiques
À présent que nous avons testé les deux fonctionnalités de l’algorithme séparément et que nous avons obtenu des
résultats satisfaisant, testons l’inversion conjointe des modèles de vitesses et des positions des sources. Le modèle
de départ VP utilisé est celui présenté dans la figure 6.2. Le modèle de départ VS est obtenu avec le même ratio
utilisé pour la construction du vrai modèle (0.6). Les coordonnées des sources sont perturbées de la même manière
que dans l’expérience précédente (5000 m selon X, 5000 m selon Y, 3000 m selon Z et 150 ms pour T0) et les incerti-
tudes associées sont correctement évaluées. Par soucis de place on ne présentera que le modèle de vitesses VP obtenu.
Dans l’ensemble les résultats ne sont pas satisfaisants (9.1 et 9.2). On l’explique par le fait que les coordonnées a priori
des sources sont loin des coordonnées vraies (9.3). L’expérience précédente montrait que la bonne détermination des
incertitudes était importante, cette expérience montre que la bonne détermination des positions l’est tout autant.
L’algorithme de prélocalisation devra donc non seulement localiser correctement les sources, mais également mini-
miser les incertitudes et les quantifier correctement. Dans la prochaine expérience on testera l’algorithme de prélo-
calisation en vu de l’utiliser pour une prochaine expérience, dans les même conditions que celle-ci, mais avec des
coordonnées des sources a priori trouvées par l’algorithme de prélocalisation.
41
Modèle trouvé VP
(iter - 332) - coupe Y = 1000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
P
(m.s-1
)
2000
4000
6000
Modèle trouvé VP
(iter - 332) - coupe Y = 2000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VP
(m.s
-1
)
2000
4000
6000
Modèle trouvé VP
(iter - 332) - coupe Y = 3000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VP
(m.s
-1
)
2000
4000
6000
Modèle trouvé VP
(iter - 332) - coupe Y = 4000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VP
(m.s
-1
)
2000
4000
6000
Figure 9.1 – Coupes selon Y du modèle de vitesse VP trouvé à la fin de l’inversion. On distingue grossièrement des
formes qui ressemblent aux zones importantes du modèle vrai, notamment une zone de vitesses élevées qui remonte
au centre et une zone pentée à gauche qui fait penser à la rampe dans le modèle vrai. Néanmoins le modèle obtenu
est grossier et certains détails sont absents, notamment la zone de faibles vitesses en forme de trapèze censée être à
gauche de l’image.
42
Différence modèle vrai/modèle trouvé VP
(iter - 332) - coupe Y = 1000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
S
(m.s-1
)
-500
0
500
Différence modèle vrai/modèle trouvé VP
(iter - 332) - coupe Y = 2000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VS
(m.s
-1
)
-500
0
500
Différence modèle vrai/modèle trouvé VP
(iter - 332) - coupe Y = 3000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VS
(m.s
-1
)
-500
0
500
Différence modèle vrai/modèle trouvé VP
(iter - 332) - coupe Y = 4000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000 VS
(m.s
-1
)
-500
0
500
Figure 9.2 – Coupes selon Y de la différence entre le modèle de vitesses vrai VP et e modèle de vitesse VP trouvé
à la fin de l’inversion. Comme dans la première expérience, l’erreur aux interfaces est forte. On voit également que
l’erreur est grande (sup 500m.s−1
au centre du modèle, la zone de vitesses élevées qui remontent est très mal imagée,
et les zones en dessous sont impactées également. Les zones en haut et en bas du modèle sont également très mal
imagées, avec de fortes valeurs d’erreur.
43
Itération
0 50 100 150 200 250 300
Erreurmoyenne(m)-Échellelog
101
102
103
104
Erreur moyenne sur les coordonnées spatiales des sources (X, Y, Z)
Erreur moyenne sur X
Erreur moyenne sur Y
Erreur moyenne sur Z
Itération
0 50 100 150 200 250 300
Erreurmoyenne(ms)
0
20
40
60
80
Erreur moyenne sur la coordonnée temporelle des sources (t0
)
Figure 9.3 – Erreur moyenne pour chaque coordonnées en fonction du numéro d’itération. On observe que les er-
reurs moyenne sur les coordonnées spatiales diminuent correctement au cours du processus d’inversion. Néanmoins
l’erreur moyenne finale reste élevée (≈ 100m). L’erreur moyenne sur la coordonnée t0 diminue correctement jusqu’à
la 120eme
itération environs, puis réaugmentent jusqu’à une valeur proche de sa valeur initiale et ne diminue plus.
Itération
0 50 100 150 200 250 300
Écarttype(m)-Échellelog
101
102
103
104
Écart type sur les coordonnées spatiales des sources (X, Y, Z)
Écart type sur X
Écart type sur Y
Écart type sur Z
Itération
0 50 100 150 200 250 300
Écarttype(ms)-Échellelog
0
10
20
30
40
50
Écart type sur la coordonnée temporelle des sources (t0
)
Figure 9.4 – Écart type pour chaque coordonnées en fonction du numéro d’itération. L’écart type sur les coordonnées
spatiales évolue globalement de la même facon que l’erreur moyenne. L’écart type sur la coordonnée temporelle
diminue quant à lui de facon constante tout au long du processus d’inversion, à l’opposé de l’erreur moyenne. Cela
signifie que bien que l’erreur moyenne que globalement les t0 des sources convergent mais que pour certaines sources,
il diverge grandement.
44
Chapitre 10
Pré-localisation des sources sismiques
Nous venons de voir dans les expériences précédentes que l’algorithme n’est pas capable de retrouver un modèle de
vitesse correct si les positions des sources a priori sont mauvaise et/ou que les incertitudes sur ces positions sont mal
déterminées. Dans cette expérience on se propose de partir d’un modèle a priori grossier (présenté dans la figure 6.2)
et de tester l’algorithme de prélocalisation pour voir si les résultats obtenus sont conformes à nos besoins.
La prélocalisation des sources semble correct, même en partant d’un modèle grossier. D’autres expériences ont mon-
tré qu’en partant du vrai modèle les coordonnées des sources sont parfaitement déterminées. Donc, plus le modèle
de départ utilisé est proche de la réalité et mieux la prélocalisation sera. Maintenant que nous avons vérifier que
l’algorithme de prélocalisation fonctionnait correctement, voyons les améliorations qu’il apporte dans l’inversion.
45
Différence en valeur absolue(m)
0 100 200 300 400 500 600 700 800 900 1000
Nombredesource
0
5
10
15
20
Différence entre les coordonnées X vraies
et les coordonnées X prélocalisées
Différence en valeur absolue (m)
0 100 200 300 400 500 600 700 800 900 1000
Nombredesource
0
5
10
15
Différence entre les coordonnées Y vraies
et les coordonnées Y prélocalisées
Différence en valeur absolue (m)
0 100 200 300 400 500 600 700 800 900 1000
Nombredesource
0
5
10
15
20
Différence entre les coordonnées Z vraies
et les coordonnées Z prélocalisées
Différence en valeur absolue (ms)
0 50 100 150 200 250 300
Nombredesource
0
2
4
6
8
10
12
14
Différence entre les coordonnées t0
vraies
et les coordonnées t0
prélocalisées
Figure 10.1 – Histogramme des erreurs sur les prélocalisation des sources. On voit que les erreurs sont relativement
faibles (< 200m) pour la plupart des sources selon les axes X et Y. La grande majorité des sources est mal localisée
selon Z, on pense que l’ouverture nulle du réseau de récepteur selon cet axe en est la cause. En corrélation directe
avec cette mauvaise localisation selon Z, l’erreur sur les t0 est également importante pour toute les sources. Ce
comportement est normal puisque la localisation selon Z est mauvaise.
Différence (m)
-1000 -800 -600 -400 -200 0 200 400 600 800 1000
Nombredesource
0
5
10
15
20
Différence entre l'erreur et l'incertitude
sur la coordonnée X
Différence (m)
-1000 -800 -600 -400 -200 0 200 400 600 800 1000
Nombredesource
0
5
10
15
20
Différence entre l'erreur et l'incertitude
sur la coordonnée Y
Différence (m)
-1000 -800 -600 -400 -200 0 200 400 600 800 1000
Nombredesource
0
5
10
15
20
Différence entre l'erreur et l'incertitude
sur la coordonnée Z
Différence (ms)
0 10 20 30 40 50 60 70 80
Nombredesource
0
5
10
15
20
Différence entre l'erreur et l'incertitude sur la coordonnée t0
Figure 10.2 – Histogramme de la différence entre l’erreur réelle et l’incertitude calculée. Une différence égale à zéro
signifie que l’incertitudes est correctement évaluée, si la différence en inférieur à zéro elle est sous-évaluée et si elle
est supérieure elle est sur-évaluée. On voit que pour X et Y la plupart des incertitudes sont correctement évaluées ou
sur-évaluées, ce qui est conforme à nos besoins. Pour t0 l’incertitude est constamment sur-évaluée, ce qui ne pose pas
forcément de problème pour la suite mais ralentira la convergence de l’inversion. En revanche pour les coordonnées
en Z, les incertitudes sont pour la plupart sous-évaluées. Encore une fois ce problème est à mettre sur le dos de
l’ouverture nulle du réseau en Z.
46
Figure 10.3 – Coupes de la carte des probabilités selon Z (en haut) et Y (en bas). En rouge les positions vraies des
sources et en vert les positions prélocalisées. On se rend effectivement compte que la localisation selon Z est mauvaise
et que les probabilités sont tirées vers le bas du modèle. Encore une fois on pense que c’est due à l’ouverture du réseau
de récepteur qui est nulle selon Z. En revanche les probabilités selon X et Y sont très bien focalisées, quant bien même
l’ouverture selon l’axe Y est faible. Comme on pouvait s’y attendre, les sources les mieux focalisées sont celles situées
au centre du modèle car c’est à cet endroit que le réseau est le plus ouvert.
Figure 10.4 – Coupes de la carte des probabilités selon Z (en haut) et Y (en bas). En rouge les positions vraies des
sources et en vert les positions prélocalisées. Comparativement à la figure précédente, on remarque que la répartition
des probabilités varie peu selon Y (ce qui est normal étant donné l’invariance du modèle en Y) mais varie beaucoup
selon Z. Plus on est profond et moins les probabilités sont focalisées.
47
Chapitre 11
Inversion conjointe avec pré-localisation
des sources sismiques
Cette expérience est calquée sur l’expérience d’inversion conjointe des modèles et des sources sismiques présentée
précédemment (Chapitre 10), à la différence que les coordonnées des sources a priori ne sont plus des coordonnées
perturbées manuellement mais les coordonnées calculées par l’algorithme de prélocalisation. Comme pour l’expé-
rience précédente, par soucis de place on ne présentera ici que les résultats pour le modèle de vitesses VP .
Par rapport à l’expérience précédente (sans utiliser l’algorithme de prélocalisation), les résultats sont meilleurs, que
ce soit pour la détermination du modèle de vitesse ou sur les coordonnées spatiotemporelles des sources a posteriori.
On distingue sur le modèle de vitesse VP l’ensemble des zones caractéristiques du modèle vrai. Les erreurs sur le
modèle de vitesses sont plus faibles. Les erreurs sur les coordonnées spatiotemporelles a posteriori des sources sont
quant à elle bien plus faibles.
On peut donc dire que l’algorithme rempli correctement son rôle et permet d’apporter une information a priori sur
les coordonnées des sources de qualité, et ce sans avoir forcément besoin d’un modèle de vitesse a priori précis, à
condition comme on la vu avant d’avoir une ouverture du réseau de récepteur suffisante et que les sources étudiées
soient captées par un nombre suffisant de récepteurs.
Bien que l’algorithme semble marcher correctement, des pistes de développement sont envisagées à l’avenir. Un des
aspects les plus problématique reste le temps de calcul nécessaire. L’algorithme étant gourmand en ressource il fau-
drait paralléliser l’ensemble des calculs pour pouvoir faire tourner l’algorithme sur des champs de processeur. En
dehors de ces problèmes purement techniques, des problèmes plus théoriques se posent également. Dans nos ex-
périences on savait a priori que nos sources se trouvaient dans le domaine étudié. Dans la réalité rien n’est moins
sûr, et à moins de prendre un modèle très entendu on ne peut pas écarté ce problème. Néanmoins un domaine plus
étendu signifie plus de calculs et donc plus de ressources informatiques nécessaires et de temps. Pour palier à ce
problème, nous avons commencé à réfléchir à l’implémentation d’une fonction double grille pour le domaine. Une
grille précise (discrétisation fine) pour la zone d’étude, entourée d’une grille plus grossière. Une autre piste de dé-
veloppement envisagée réside dans le fait de fixer une loi de corrélation entre les modèles VP et VS. Par exemple,
pour une cellule donnée, si la vitesse VP augmente, alors la vitesse VS doit également augmenter mais ne peut pas
diminuer. Pour l’instant, chaque modèle est "libre" d’évoluer comme il veut. Enfin, pour améliorer la prélocalisation,
nous avons réfléchie à utiliser plusieurs modèles de vitesses tirés aléatoirement autours du modèle a priori et prenant
en compte les incertitudes sur les vitesses. En combinant les probabilités calculées pour chaque modèle, on devrait
pouvoir arriver à améliorer le calcul des positions et des incertitudes sur les coordonnées a priori des sources trouvées.
Enfin les résultats montrent bien les perspectives que pourrait avoir le couplage de cette méthode avec la sismique
active ou la sismique de puits. Ces approches permettraient de palier à la faible ouverture du réseau de récepteur
selon Z et à améliorer la résolution dans les couches proches de la surface. Un développement dans ce sens pourrait
être envisagé également.
48
Modèle trouvé VP
(iter - 320) - coupe Y = 1000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
P
(m.s
-1
)
2000
4000
6000
Modèle trouvé VP
(iter - 320) - coupe Y = 2000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
VP
(m.s
-1
)
2000
4000
6000
Modèle vrai/modèle trouvé VP
(iter - 320) - coupe Y = 3000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
P
(m.s
-1
)
2000
4000
6000
Modèle vrai/modèle trouvé VP
(iter - 320) - coupe Y = 4000 m
X axis (m)
0 5000 10000 15000 20000 25000
Zaxis(m)
0
1000
2000
3000
4000
V
P
(m.s
-1
)
2000
4000
6000
Figure 11.1 – Coupes selon Y du modèle de vitesse VP trouvé à la fin de l’inversion. On distingue assez clairement
les zones caractéristiques du modèle de vitesses vrai VP : le trapèze de faibles vitesses à gauche de l’image, la zone
de vitesses élevées qui recoupe le modèle au milieu et la rampe à droite.
49
RAPPORT_STAGE_CROSSE_M2_G2S_2014_2015
RAPPORT_STAGE_CROSSE_M2_G2S_2014_2015
RAPPORT_STAGE_CROSSE_M2_G2S_2014_2015
RAPPORT_STAGE_CROSSE_M2_G2S_2014_2015
RAPPORT_STAGE_CROSSE_M2_G2S_2014_2015

Contenu connexe

Tendances

Mr phd thesis
Mr phd thesisMr phd thesis
Mr phd thesisAbirHezzi
 
Reduction de modele_et_controle_de_lecou (1)
Reduction de modele_et_controle_de_lecou (1)Reduction de modele_et_controle_de_lecou (1)
Reduction de modele_et_controle_de_lecou (1)Boughraraanis
 
Fag montage et démontage des roulements wl 80100 3_fr_fr
Fag montage et démontage des roulements wl 80100 3_fr_frFag montage et démontage des roulements wl 80100 3_fr_fr
Fag montage et démontage des roulements wl 80100 3_fr_frAbdelghaniB
 
Papadatos_Constantine_2016_memoire
Papadatos_Constantine_2016_memoirePapadatos_Constantine_2016_memoire
Papadatos_Constantine_2016_memoireCosta Papadatos
 
Eléments d'hydrologie de surface
Eléments d'hydrologie  de surfaceEléments d'hydrologie  de surface
Eléments d'hydrologie de surfaceSouhila Benkaci
 
Cours stochastic processes
Cours stochastic processesCours stochastic processes
Cours stochastic processeszoolyver
 
Cours modelisation calage2010
Cours modelisation calage2010Cours modelisation calage2010
Cours modelisation calage2010Souhila Benkaci
 
Shatri_Dardan_Memoire_2014
Shatri_Dardan_Memoire_2014Shatri_Dardan_Memoire_2014
Shatri_Dardan_Memoire_2014Dardan Shatri
 
Mahdi smida rapport master 2 Calcul Haute performance et simulation
Mahdi smida rapport master 2 Calcul Haute performance et simulationMahdi smida rapport master 2 Calcul Haute performance et simulation
Mahdi smida rapport master 2 Calcul Haute performance et simulationMahdi Smida ✔
 
Mahdi smida Rapport master2 Big data et fouille de données
Mahdi smida Rapport master2 Big data et fouille de donnéesMahdi smida Rapport master2 Big data et fouille de données
Mahdi smida Rapport master2 Big data et fouille de donnéesMahdi Smida ✔
 
Thèse de doctorat Afif Bouzidi
Thèse de doctorat Afif BouzidiThèse de doctorat Afif Bouzidi
Thèse de doctorat Afif BouzidiAfif Bouzidi
 
2009 these servant (1)
2009 these servant (1)2009 these servant (1)
2009 these servant (1)bessem ellili
 

Tendances (19)

Rapport
RapportRapport
Rapport
 
Mr phd thesis
Mr phd thesisMr phd thesis
Mr phd thesis
 
Reduction de modele_et_controle_de_lecou (1)
Reduction de modele_et_controle_de_lecou (1)Reduction de modele_et_controle_de_lecou (1)
Reduction de modele_et_controle_de_lecou (1)
 
These_final
These_finalThese_final
These_final
 
MCC_PhDThesis
MCC_PhDThesisMCC_PhDThesis
MCC_PhDThesis
 
Fag montage et démontage des roulements wl 80100 3_fr_fr
Fag montage et démontage des roulements wl 80100 3_fr_frFag montage et démontage des roulements wl 80100 3_fr_fr
Fag montage et démontage des roulements wl 80100 3_fr_fr
 
dugas-phd
dugas-phddugas-phd
dugas-phd
 
Papadatos_Constantine_2016_memoire
Papadatos_Constantine_2016_memoirePapadatos_Constantine_2016_memoire
Papadatos_Constantine_2016_memoire
 
Rapport
RapportRapport
Rapport
 
Eléments d'hydrologie de surface
Eléments d'hydrologie  de surfaceEléments d'hydrologie  de surface
Eléments d'hydrologie de surface
 
Cours stochastic processes
Cours stochastic processesCours stochastic processes
Cours stochastic processes
 
Cours modelisation calage2010
Cours modelisation calage2010Cours modelisation calage2010
Cours modelisation calage2010
 
Shatri_Dardan_Memoire_2014
Shatri_Dardan_Memoire_2014Shatri_Dardan_Memoire_2014
Shatri_Dardan_Memoire_2014
 
Définition de l'ETR
Définition de l'ETRDéfinition de l'ETR
Définition de l'ETR
 
Maths
MathsMaths
Maths
 
Mahdi smida rapport master 2 Calcul Haute performance et simulation
Mahdi smida rapport master 2 Calcul Haute performance et simulationMahdi smida rapport master 2 Calcul Haute performance et simulation
Mahdi smida rapport master 2 Calcul Haute performance et simulation
 
Mahdi smida Rapport master2 Big data et fouille de données
Mahdi smida Rapport master2 Big data et fouille de donnéesMahdi smida Rapport master2 Big data et fouille de données
Mahdi smida Rapport master2 Big data et fouille de données
 
Thèse de doctorat Afif Bouzidi
Thèse de doctorat Afif BouzidiThèse de doctorat Afif Bouzidi
Thèse de doctorat Afif Bouzidi
 
2009 these servant (1)
2009 these servant (1)2009 these servant (1)
2009 these servant (1)
 

Similaire à RAPPORT_STAGE_CROSSE_M2_G2S_2014_2015

Mon Projet Fin d'étude: Conception et développement d'une application de géol...
Mon Projet Fin d'étude: Conception et développement d'une application de géol...Mon Projet Fin d'étude: Conception et développement d'une application de géol...
Mon Projet Fin d'étude: Conception et développement d'une application de géol...rim elaire
 
Risques hydrologiques et aménagement du territoire
Risques hydrologiques et aménagement du territoireRisques hydrologiques et aménagement du territoire
Risques hydrologiques et aménagement du territoireSouhila Benkaci
 
Projet_Monte_Carlo_Dauphine
Projet_Monte_Carlo_DauphineProjet_Monte_Carlo_Dauphine
Projet_Monte_Carlo_DauphineAli Sana
 
Outpatient Department System (OPD)
Outpatient Department System (OPD) Outpatient Department System (OPD)
Outpatient Department System (OPD) Ben Ahmed Zohra
 
pfe_rapport_poste_licence_LFIG.pdf
pfe_rapport_poste_licence_LFIG.pdfpfe_rapport_poste_licence_LFIG.pdf
pfe_rapport_poste_licence_LFIG.pdfnesrine haloui
 
Evaluation de la quantité de travail (in)utile dans l’exécution des programmes
Evaluation de la quantité de travail (in)utile dans l’exécution des programmesEvaluation de la quantité de travail (in)utile dans l’exécution des programmes
Evaluation de la quantité de travail (in)utile dans l’exécution des programmesBenjamin Vidal
 
Deep Learning : Application à la reconnaissance d’objets de classes multiples...
Deep Learning : Application à la reconnaissance d’objets de classes multiples...Deep Learning : Application à la reconnaissance d’objets de classes multiples...
Deep Learning : Application à la reconnaissance d’objets de classes multiples...Haytam EL YOUSSFI
 
Rapport pfe isi_Big data Analytique
Rapport pfe isi_Big data AnalytiqueRapport pfe isi_Big data Analytique
Rapport pfe isi_Big data AnalytiqueYosra ADDALI
 
Sebastien Bianchin - PhD Thesis
Sebastien Bianchin  -  PhD ThesisSebastien Bianchin  -  PhD Thesis
Sebastien Bianchin - PhD ThesisSebastien Bianchin
 
Projet Passerelle sécurisée intelligente pour l'internet des objets
Projet Passerelle sécurisée intelligente pour l'internet des objetsProjet Passerelle sécurisée intelligente pour l'internet des objets
Projet Passerelle sécurisée intelligente pour l'internet des objetsUniversité de Rennes 1
 

Similaire à RAPPORT_STAGE_CROSSE_M2_G2S_2014_2015 (20)

Mon Projet Fin d'étude: Conception et développement d'une application de géol...
Mon Projet Fin d'étude: Conception et développement d'une application de géol...Mon Projet Fin d'étude: Conception et développement d'une application de géol...
Mon Projet Fin d'étude: Conception et développement d'une application de géol...
 
PhD_APC_UPMC_IFPEN_dec1997
PhD_APC_UPMC_IFPEN_dec1997PhD_APC_UPMC_IFPEN_dec1997
PhD_APC_UPMC_IFPEN_dec1997
 
Risques hydrologiques et aménagement du territoire
Risques hydrologiques et aménagement du territoireRisques hydrologiques et aménagement du territoire
Risques hydrologiques et aménagement du territoire
 
LIPADE_Report
LIPADE_ReportLIPADE_Report
LIPADE_Report
 
Memoire_final
Memoire_finalMemoire_final
Memoire_final
 
Krigeage
KrigeageKrigeage
Krigeage
 
ginoux
ginouxginoux
ginoux
 
Projet_Monte_Carlo_Dauphine
Projet_Monte_Carlo_DauphineProjet_Monte_Carlo_Dauphine
Projet_Monte_Carlo_Dauphine
 
Cours10
Cours10Cours10
Cours10
 
Outpatient Department System (OPD)
Outpatient Department System (OPD) Outpatient Department System (OPD)
Outpatient Department System (OPD)
 
pfe_rapport_poste_licence_LFIG.pdf
pfe_rapport_poste_licence_LFIG.pdfpfe_rapport_poste_licence_LFIG.pdf
pfe_rapport_poste_licence_LFIG.pdf
 
Evaluation de la quantité de travail (in)utile dans l’exécution des programmes
Evaluation de la quantité de travail (in)utile dans l’exécution des programmesEvaluation de la quantité de travail (in)utile dans l’exécution des programmes
Evaluation de la quantité de travail (in)utile dans l’exécution des programmes
 
Deep Learning : Application à la reconnaissance d’objets de classes multiples...
Deep Learning : Application à la reconnaissance d’objets de classes multiples...Deep Learning : Application à la reconnaissance d’objets de classes multiples...
Deep Learning : Application à la reconnaissance d’objets de classes multiples...
 
Rapport pfe isi_Big data Analytique
Rapport pfe isi_Big data AnalytiqueRapport pfe isi_Big data Analytique
Rapport pfe isi_Big data Analytique
 
Sebastien Bianchin - PhD Thesis
Sebastien Bianchin  -  PhD ThesisSebastien Bianchin  -  PhD Thesis
Sebastien Bianchin - PhD Thesis
 
Projet Passerelle sécurisée intelligente pour l'internet des objets
Projet Passerelle sécurisée intelligente pour l'internet des objetsProjet Passerelle sécurisée intelligente pour l'internet des objets
Projet Passerelle sécurisée intelligente pour l'internet des objets
 
Polycopie_CNA_CD.pdf
Polycopie_CNA_CD.pdfPolycopie_CNA_CD.pdf
Polycopie_CNA_CD.pdf
 
thesis
thesisthesis
thesis
 
rapport_stage_TBLB.pdf
rapport_stage_TBLB.pdfrapport_stage_TBLB.pdf
rapport_stage_TBLB.pdf
 
BERGE Gabriel.pdf
BERGE Gabriel.pdfBERGE Gabriel.pdf
BERGE Gabriel.pdf
 

RAPPORT_STAGE_CROSSE_M2_G2S_2014_2015

  • 1. Master Pro STEP Géophysique de Surface et de Sub-surface (G2S) Institut de Physique du Globe de Paris 2014 - 2015 Rapport de stage professionnel - 2e année Inversion de temps d’arrivées de sismique passive : Estimation des modèles de vitesses VP et VS et localisation des sources sismiques Rapport soutenu le mercredi 23 septembre 2015 par Arthur Crosse Tuteur de stage M. Fernando Lopes Ingénieur de recherche Équipe paléomagnétisme Institut de Physique du Globe de Paris Maître de stage M. Christophe Barnes Directeur technique GIM-Labs Neuville sur Oise (95)
  • 2. “Toute certitude est par essence contradictoire avec la philosophie de la recherche.” Pierre Joliot-Curie 1
  • 3. Table des matières Remerciements 5 Résumé 6 Introduction 7 I Introduction à la théorie du problème inverse 8 Préambule 9 1 Éléments sur les probabilités et la théorie de l’information 10 1.1 Probabilités subjectives ou bayésiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2 État d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3 Combinaison d’états d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.4 Densités de probabilités marginales et conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2 Résolution du problème inverse et procédure d’inversion 13 2.1 Solution du problème inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.1.1 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.1.2 Solution générale du problème inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.1.3 Importance de la quantification des incertitudes . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2 Le problème inverse vu comme une optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2.1 Fonctionnelle à minimiser : la fonction coût S . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2.2 Calcul de la fonction coût pour des incertitudes de type gaussienne . . . . . . . . . . . . . . . 16 2.2.3 Limites de l’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3 Procédure d’inversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 II L’inversion appliquée aux données de temps d’arrivées de sismique passive 18 Préambule 19 3 Informations expérimentale et théorique 20 3.1 Information expérimentale : temps d’arrivées des ondes et incertitudes associées . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.2 Information théorique : problème direct et équation Eikonale . . . . . . . . . . . . . . . . . . . . . . . 21 2
  • 4. 4 Informations a priori : Modèles de vitesses et localisation des sources sismiques 22 4.1 Modèles de vitesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 4.2 Localisation des sources sismiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 4.3 Méthode de localisation spatiale ∆tS-P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 4.4 Méthode de localisation spatiale ∆tP -P et ∆tS-S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 4.4.1 Avantages de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 4.4.2 Un problème inverse également . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 4.4.3 Formalisme de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 4.4.4 Implémentation de la méthode dans l’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . 25 4.4.5 Limites de la méthode et pistes de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 4.5 Localisation temporelle des sources sismiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 5 Solution du problème inverse en sismique passive 29 III Présentation des résultats : tests sur données synthétiques 30 Préambule 31 6 Paramètres d’entrée 32 6.1 Paramètres du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 6.2 Modèle vrai de vitesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 6.3 Modèle de départ ou modèle a priori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 6.4 Géométrie des sources et des récepteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 6.5 Temps d’arrivées : données observées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 7 Inversion des modèles de vitesses VP et VS seuls 35 8 Inversion des sources sismiques seules 38 9 Inversion conjointe des modèles de vitesses et des sources sismiques 41 10 Pré-localisation des sources sismiques 45 11 Inversion conjointe avec pré-localisation des sources sismiques 48 12 Application de l’algorithme sur des données réelles 52 Conclusion 53 Bibliographie 54 3
  • 5. 4
  • 6. Remerciements Ce stage a été pour moi un véritable moment de partage, tant sur le plan de la connaissance que sur le plan humain. J’aimerai donc avant toute chose remercier les personnes qui m’ont offert la possibilité de faire ce stage, celles qui m’ont accompagné et parfois épaulé, celles qui m’ont enseigné et fait grandir. D’abord merci à Christophe Barnes qui m’a offert la possibilité d’évoluer dans son entreprise, GIM-Labs. Je tenais à lui exprimer ma reconnaissance, non seulement pour ça, mais également pour le temps qu’il a pris pour m’expliquer et m’éclairer quand j’en avais besoin, toujours avec beaucoup de patience et de pédagogie. Il a véritablement encadré ce stage, malgré les impératifs administratifs inhérents à tout patron de PME. Merci aussi pour le savoir que tu m’as transmis, en géophysique bien sûr, mais également sur l’informatique et sa culture, passion que nous avons en com- mun. Ensuite merci à Fernando Lopes, qui a accepté pour la deuxième année consécutive (c’est un véritable exploit) d’être mon tuteur de stage. Merci à lui qui m’a introduit le premier le concept de problème inverse, j’espère que ce rapport fera d’une certaine façon écho à son enseignement. Merci également à Cécile Baudry qui m’a véritablement aidé durant ce stage, a répondu à mes (trop) nombreuses questions. Merci pour nos discussions littéraires toujours intéressantes, je te promet que j’écrirai un jour la suite de cette nouvelle dont nous avons tant parlé. La réponse était pourtant évidente : 15 ! Merci aussi à Alexandra, l’espionne russe et géologue (ça fait beaucoup de défauts j’en convient) qui, appliquant les directives du KGB, écrivait ses mots de passe sur des post-it. Je te souhaite beaucoup de réussite dans tes projets futurs. Merci également aux équipe de Neuvitech 95 qui m’ont accueilli dans leurs locaux durant ce stage. Pour finir, merci à toutes l’équipe enseignante de l’IPGP qui nous a suivi et côtoyé durant toutes ces années d’études. C’est avec une réelle nostalgie que je vous quitte. Et enfin, ça devient une mauvaise habitude, merci à celle qui me supporte, moi, étudiant de fac aux horaires pas toujours très habituelles et aux méthodes de travail pas toujours très commune. Merci à toi petite femme pour ton soutien. 5
  • 7. Résumé La tomographie de sismique passive se développe de plus en plus ces dernières années du fait des nombreux avantages qu’elle représente. Basée sur l’enregistrement des temps d’arrivées des phases sismiques issues de séismes naturelles, elle permet, à l’instar de sa jumelle la tomographie de sismique active, de limiter les coûts d’exploitation ou encore d’imager mieux en profondeur. En marge de cette méthode se développe également l’inversion de donnée, méthode introduite dans les années 1980 par Tarantola et Valette et qui se base sur une approche probabiliste. Sans rentrer dans les détails, cette méthode propose de remonter aux causes probables d’un phénomène à partir des observations de ses effets. En sismique active cette méthode à déjà largement fait ses preuves face à d’autres méthodes comme la migration. Afin de combiner ces deux méthodes, j’ai cherché durant ce stage à développer un algorithme d’inversion de données de temps d’arrivées de sismique passive. Ce rapport présente les résultats de ce développement et les pistes envisagées pour améliorer l’algorithme. 6
  • 8. Introduction Depuis très longtemps, l’Homme cherche à découvrir ce qui se trouve sous ses pieds, que ce soit par recherche du profit ou par curiosité scientifique. Très vite limité par les défis qu’imposait l’observation directe des roches profondes (techniques, coût, temps ...), il a mis au point au fil du temps de nombreuses techniques afin de connaître indirecte- ment la nature des sols. C’est dans cet esprit qu’est née la tomographie sismique, technique mise en avant au début du 20ème siècle par la découverte par Andrija Mohorovičić de l’interface croûte/manteau, nommé par la suite Moho en hommage à son découvreur. Largement utilisées par l’industrie pétrolière aujourd’hui, elle n’a eu de cesse de s’améliorer le siècle dernier, notam- ment au niveau des méthodes et du traitement des données. En marge de la technique la plus répandue à l’heure actuelle, la tomographie sismique active utilisant des sources sismiques artificielles, s’est développée la tomographie sismique passive qui elle, utilise des sources sismiques naturelles. Les intérêts liés à cette dernière sont nombreux, que ce soit financiers (pas de sources artificielles, réseaux de capteur déjà déployés...) ou techniques (les sources sont si- tuées en profondeur : image par en dessous, moins d’atténuation...). De la même manière, la sismique passive possède ses propres défauts, dont le plus important de tous est qu’on ne connaît pas la localisation spatiotemporelle exacte des séismes. De plus en plus associée à ces méthodes, on retrouve l’inversion des données. L’inversion des données consiste à chercher les causes d’un phénomène connaissant ses conséquences. Dans notre cas cela revient à chercher le modèle de vitesse d’une zone donnée (lié au trajet des ondes) en connaissant les enregistrements des temps d’arrivée. Le principe de l’inversion des données appliquée à la sismique n’est pas nouveau mais a connu un essor considérable ces dernières années du fait de la multiplication de ses applications et de l’amélioration des capacités de calcul des ordinateurs. Le problème inverse probabiliste introduit par Tarantola et Valette en 1982 utilise le formalisme de la théorie de l’In- formation et des probabilités, entre autres bayésienne. Nous introduirons donc pour plus de clarté ces notions dans la première partie. L’inversion de données fait également appelle aux notions d’informations a priori (ce que l’on connait avant l’expé- rience) et a posteriori (la connaissance après inversion). L’information a priori sur la localisation des sources sismiques (spatiale et temporelle) et l’information a priori sur les modèles géophysiques ne contraignent pas l’inversion de la même façon. Par conséquent, l’information sur la localisation des sources sismiques, lorsqu’elle est disponible, peut réduire de manière notable le nombre de degrés de liberté du processus d’inversion et devrait fournir des résultats plus réalistes et finalement permettre une meilleure interprétation des résultats. C’est dans cette optique que se situe ce stage puisqu’il s’agissait de développer une méthode fiable et robuste afin de localiser les sources de sismique passives. Ceci afin de l’inclure dans un outil utilisant l’inversion conjointe des temps d’arrivées et des positions des sources pour déterminer le modèle de vitesse d’une zone donnée. J’ai effectué ce stage professionnel au sein de l’entreprise GIM-Labs, société de consulting pétrolier spécialisée dans l’inversion de données géophysiques. 7
  • 9. Première partie Introduction à la théorie du problème inverse 8
  • 10. Préambule A l’instar du problème direct, qui cherche à trouver les effets d’un phénomène (conséquences) en connaissant les lois qui le régissent et les paramètres associés, le problème inverse tend à estimer les paramètres connaissant le phéno- mène et à partir des observations expérimentales de ses effets (conséquences). Le choix d’utiliser le problème inverse est motivé par le fait que dans la plupart des systèmes étudiés en physique expérimentale, les paramètres intéressants du système ne sont pas directement mesurables. On cherche alors en gé- néral à accéder aux valeurs de ces paramètres à travers diverses expériences sur le système étudié. Ces expériences fourniront alors ce que l’on pourrait nommer des observables qui pourront apporter (à condition que les résultats de l’expérience soient fonction des paramètres que l’on cherche) des informations sur les paramètres du système et donc sur le système étudié. Dans le cas de la sismique par exemple, on pourra essayer de remonter à un modèle de vitesse des ondes dans une portion de sol étudiée à travers la mesure des temps d’arrivée des ondes pour un (plusieurs) couple(s) source/récepteur. Dans cet exemple, résoudre le problème direct consisterait à prédire les temps d’arrivées en connaissant un modèle de vitesse donné et en utilisant une théorie physique décrivant la propagation des ondes. La résolution du problème inverse consisterait à trouver le « meilleur » modèle de vitesse (on verra plus tard ce que l’on entend par le « meilleur ») qui permettrait de prédire aux mieux les temps d’arrivées mesurés. Dans notre cas, la résolution du problème inverse sera abordée par une approche dite probabiliste. Cette approche a été formulée par Tarantola et Valette en 1982 et permet de formaliser le problème inverse comme un problème d’estimation de densité de probabilité et de combinaison d’états d’information. Nous verrons dans cette partie les méthodes de résolution du problème inverse dit probabiliste et les théories mathé- matiques et statistiques utilisées. Enfin nous aborderons les spécificités du problème inverse appliqué à la sismique passive. Les premières parties de ce chapitre sont largement inspirées par l’ouvrage Inverse Problem Theory and Model Parameter Estimation d’Albert Tarantola et de la thèse Le Problème Inverse en Tomographie Géophysique de Christophe Barnes. 9
  • 11. Chapitre 1 Éléments sur les probabilités et la théorie de l’information Dans son approche probabiliste, le problème inverse utilise certains outils de la théorie de l’information. Il est donc nécessaire avant de commencer de faire quelques rappels concernant cette théorie et d’introduire certains concepts qui seront utilisés. 1.1 Probabilités subjectives ou bayésiennes L’approche probabiliste classique, ou objective, s’utilise dans le cas de processus aléatoires ou de situations prédéfinies considérées comme connues (modèles statistiques, par exemple la célèbre expérience de la planche de Galton) . Mais puisque en Physique nous ne connaissons la nature et le monde autour de nous que par notre expérience et notre point de vue, nous ne le connaissons que de manière subjective et ne pouvons estimer précisément les lois objectives qui les dirigent, et c’est d’autant plus vrai pour les évènements dirigés par des lois complexes ! Un pas de plus va être franchi par l’école Bayesienne qui va probabiliser tout ce qui est incertain et donc permettre d’appliquer les probabilités à notre connaissance incertaine. Dans le modèle statistique Bayesien, la probabilité d’un évènement est sujette à révision en fonction des informations nouvelles. 1.2 État d’information Cette probabilité ou densité de probabilité est alors appelée "état d’information". Un état d’information est en quelque sorte une probabilité Bayesienne et peut être interprété comme un degré de connaissance subjectif sur un objet donné. On le dit « subjectif » en ce sens qu’il ne caractérise pas de façon « objective » une expérience ou un processus aléatoire mais qu’il représente une connaissance « variable », que ce soit par exemple au cours du temps (au fur et à mesure que notre connaissance augmente) ou selon différentes personnes (une information « brute » peut être interprétée d’une infinité de manière selon l’interpréteur). Les tenants de l’école subjectiviste proposent alors des méthodes permettant de passer d’une probabilité qualitative, c’est à dire d’un simple pré-ordre à une mesure de probabilité. Il est possible de décrire cette connaissance qualitative et approximative de façon probabiliste sous la forme d’une densité de probabilité qui combine l’information mesurée ainsi que l’erreur possible sur la mesure de cette informa- tion. Pour illustrer ce propos, prenons un exemple en rapport avec le sujet. On cherche à mesurer le temps d’arrivée d’une onde sismique P. Le sismomètre enregistre une valeur de temps d’arrivée tP . Cette mesure est cependant entachée d’une erreur σ (erreur de calibrage, dérive, bruit...). Si on considère que l’erreur suit une loi gaussienne (ce qui est en soit une forte hypothèse), la mesure ainsi que l’erreur pourront être représentées par une gaussienne centrée en tP et d’écart type σ. Ici cette distribution ne représente pas la loi de probabilité d’une expérience aléatoire mais celle d’un objet déterminé dont la mesure est entachée d’erreurs. 10
  • 12. 1.3 Combinaison d’états d’information Finalement, l’inversion de données est une combinaison de trois états d’information, trois « espaces » de connais- sance : - L’information à priori : elle représente les connaissances à priori sur le système étudié. Cette information peut être, toujours dans l’exemple de l’inversion des temps d’arrivées cité plus haut, le modèle de vitesse des ondes. L’erreur sur l’information à priori vient d’un manque de connaissance de l’objet étudié, puisque par définition on ne le connait pas parfaitement ! - L’information théorique : cela peut être une loi physique décrivant le phénomène étudié Elle permet, pour des valeurs données de paramètres, de prédire les valeurs des observables. Cette loi physique servira à la résolution du problème direct et à la création des données synthétiques. L’erreur sur l’information théorique vient simplement de méconnaissances ou de simplifications de la loi physique. Bien qu’on tende à s’approcher d’une description parfaite du monde, on ne l’atteindra jamais donc par définition en utilisant une loi pour le décrire, on fait des erreurs. - L’information expérimentale : elle représente l’ensemble des mesures des observables, soit les données. L’er- reur qu’on fait sur l’information expérimentale peut venir de l’instrument (mauvaise calibration, saturation...), du bruit ambiant etc... Pour combiner ces états d’information issus d’objets déterminés mais mal connus (entachés d’erreurs), on utilise la conjonction d’information, qui correspond au produit renormalisé des probabilités. Cela signifie simplement que plus on a de mesures d’un évènement et plus la précision (la probabilité) sur cet évènement sera grande. Pour deux états d’information f1(X) et f2(X), la conjonction s’écrit : (f1 ∧ f2)(X) = 1 ν f1(X)f2(X) µ(X) (1.1) avec ν une constante de normalisation et µ(X) l’information nulle. Pour illustrer prenons un exemple. Plusieurs stations sismiques enregistrent l’arrivée d’une phase. On cherche alors à déterminer l’origine de la source. Après analyse, on se rend compte que le foyer sismique se trouve en Corée du Nord. Parallèlement à ces informations on sait que la Corée du Nord ne se trouve pas dans une zone de forte activité sismique. La probabilité que cette source sismique soit d’origine naturelle est donc à posteriori plus faible. Enfin on apprend que la Corée du Nord développe en ce moment un programme nucléaire. La probabilité que cette source soit d’origine naturelle est donc encore plus faible, et on peut dire (avec une certaine incertitude) que l’origine de cette source est très probablement due à un essai nucléaire souterrain. En combinant encore d’autres informations (étude de l’amplitude, de la phase, mécanisme à la source etc...) on pourrait encore faire avancer notre connaissance sur le sujet et modifier l’estimation de la probabilité associée à l’origine de la source sismique. C’est le principe du faisceau d’indice convergeant qui renforce l’hypothèse. 1.4 Densités de probabilités marginales et conditionnelles On parle de densité de probabilités marginales et conditionnelles quand la loi de probabilité utilisée pour décrire un phénomène est multidimensionnelle (plusieurs variables) Soient deux variables X et Y , définies chacune sur un espace unidimensionnelle propre E1 et E2 et de densité de probabilité respectives fx et fy. Soit Z un vecteur à valeurs dans un espace bidimensionnelle E2 et densité de proba- bilité fz(x, y). Les densités de probabilité fx et fy sont appelées les densités marginales de fz. fx(x) = E1 fz(x, y) dy (1.2) fy(x) = E2 fz(x, y) dx (1.3) 11
  • 13. La densité de probabilité conditionnelle (unidimensionnelle) fx|y (ou fy|x) peut être vue comme une distribution particulière de fx pour une valeur de y donnée. Pour une valeur de x donnée telle que y = y0 on a : fz(x, y0) = fx|y(x | y0).fy(y0) (1.4) Pour illustrer ces propos prenons l’exemple de deux variables aléatoires X et Y (unidimensionnelles) suivant une loi gaussienne. La densité de probabilité jointe de ces deux variables est une loi gaussienne bidimensionnelle. Figure 1.1 – Probabilités marginales et conditionnelle. fx(x) et fy(y) sont les densités de probabilités marginales respectivement de x et y. Pour une valeur de x donnée, telle que x = x0 on obtient la densité de probabilité marginale de y connaissant x qu’on note fz(x0, y) = fy|x(y | x0) 12
  • 14. Chapitre 2 Résolution du problème inverse et procédure d’inversion 2.1 Solution du problème inverse Dans cette section, on parlera uniquement de la solution du problème inverse discrétisée car c’est ce type de problème qu’on utilise. Avant d’aborder la solution, il est nécessaire de préciser certaines définitions. 2.1.1 Quelques définitions Les espaces de travail qu’il nous faut définir sont l’espace des données (pour les observables) noté D et l’espace des modèles (pour le système physique) noté M. Ces espaces seront probabilisés avec les états d’information, dit a priori, et notés respectivement ρD et ρM . On définira également un état d’information Θ relatif à la théorie censée représenter le phénomène sous-jacent à l’expérience physique. Cet état d’information permettra ensuite de relier formellement le système physique aux observables, il sera alors défini sur l’espace joint D × M. Espaces de travail M, D et D × M L’espace des modèles et l’espace des données sont des espaces vectoriels probabilisés. L’espace des modèles est noté M et l’espace des données est noté D. Ils contiennent respectivement m = (m1 , m2 , ..., mnM ) qu’on appellera le (les) modèle(s) et d = (d1 , d2 , ..., dnD ) les données. L’espace noté D × M = (m1 , m2 , ..., mnM , d1 , d2 , ..., dnD ) est également un espace vectoriel probabilisé et est appelé espace joint. Théorie physique et problème direct L’expérimentation entraîne la construction de la théorie physique, et la théorie physique permet de prédire (avec une certaines précision) les résultats d’une expérimentation. Résoudre le problème direct signifie prédire les valeurs des observables dsyn associées à un modèle donné m. Plus formellement cette prédiction théorique peut être notée comme : m → dsyn = g(m) (2.1) L’opérateur g(·) (généralement non linéaire) est appelé opérateur direct (forward operator en anglais). dsyn repré- sente les données synthétiques, prédites à partir d’un modèle donné m. Une loi physique n’est jamais parfaite, au mieux les erreurs liées à la théorie physique sont minimes et/ou très bien connues, dans ce cas on peut les négliger ou les modéliser, au pire ces erreurs sont grandes (et c’est souvent le cas car pour simplifier un problème on fait des approximations, et plus on en fait et plus l’erreur peut être importante) ou mal connues et il est alors impossible de les négliger et difficiles de les quantifier. La caractérisation de ces erreurs est très importante car elle va conditionner la procédure d’inversion. 13
  • 15. États d’informations ρM ρD et Θ L’espace des données D est probabilisé avec l’état d’information (densité de probabilité) sur les données ρD et celui des modèles M est probabilisé avec l’état d’information à priori sur le modèle physique ρM . Lorsque les incertitudes sont gaussiennes (norme L2 - dans notre problème on considère qu’elles le sont), on peut facilement formaliser ρD(d) et ρM(m). Cette hypothèse est forte mais assez proche de la réalité en l’absence d’un modèle statistique connu. ρD(d) ∝ exp − 1 2 (d − dobs)T C−1 D (d − dobs) (2.2) ρM(m) ∝ exp − 1 2 (m − mpr)T C−1 M (m − mpr) (2.3) Puisque par définition, l’information a priori sur l’espace des modèles est indépendante de celle sur l’espace des données, on peut munir l’espace joint D × M de la densité de probabilité : ρ(d, m) = ρD(d) · ρM(m) (2.4) On note Θ(d, m) la densité de probabilité associée à la théorie physique, incluant bien sûr les incertitudes inhérentes de la théorie. Elle est notée : Θ(d, m) = θ(d | m) · ΘM(m) (2.5) On considère généralement l’information marginale comme nulle ce qui donne : Θ(d, m) = θ(d | m) · µM(m) (2.6) avec µM(m) l’état d’information nul (ou état d’information de référence) de m sur M. Là encore on peut supposer (en première approximation) que les incertitudes autour de la loi sont gaussiennes (norme L2, critère des moindres-carrés). L’état d’information relatif à la théorie physique peut alors s’écrire : θ(d | m) ∝ exp − 1 2 (d − g(m))T C−1 T (d − g(m)) (2.7) Figure 2.1 – À droite : si la théorie physique utilisée est parfaitement connue alors les incertitudes sont nulles. La relation d = g(m) donnera alors pour chaque modèle les bonnes données. À gauche : cependant la théorie physique utilisée n’est jamais parfaitement connue et il y a donc des incertitudes associées. Ces incertitudes sont décrites par une densité de probabilité, ou état d’information. Image tirée du livre Inverse Problem Theory and Methods for Model Parameter Estimation, A. Tarantola, SIAM, 2004. 14
  • 16. 2.1.2 Solution générale du problème inverse Nous avons vu dans les sections précédentes que la densité de probabilité a priori ρ(d, m), définie sur D × M repré- sentait à la fois l’information provenant des paramètres observables d (données) et également l’information a priori sur les paramètres du modèle m. Nous avons également vu que la densité de probabilité associée à la théorie physique Θ(d, m) représentant l’information sur la corrélation qui existe entre d et m La conjonction (équation 1.1) de ces deux états d’information nous permet de déterminer l’état d’information a pos- teriori noté : σ(d, m) ∝ ρ(d, m)Θ(d, m) µ(d, m) = ρM(m) · ρD(d) µD(d) · θ(d | m) (2.8) avec pour rappel : - ρ(d, m) la densité de probabilité a priori sur l’espace joint, définie sur D × M - Θ(d, m) la densité de probabilité associée à la théorie physique, également définie sur D × M - ρM(m) la densité de probabilité a priori associée aux modèles, défini sur M - ρD(d) la densité de probabilité a priori associée aux modèles, défini sur D - µ(d, m) l’état d’information nul sur D × M Une fois l’information a posteriori σ(d, m) sur l’espace joint D ×M définie, les informations a posteriori sur l’espace des modèles et des données sont données par les densités de probabilité marginales : σM(m) = D ddσ(d, m) ∝ ρM(m) D dd ρD(d) µD(d) · θ(d | m) (2.9) σD(d) = M dmσ(d, m) ∝ ρD(d) µD(d) M dmρM(m) · θ(d | m) (2.10) En général, on s’intéresse uniquement à l’information a posteriori sur l’espace des modèles σM, qu’on écrit parfois pour plus de simplification : σM(m) ∝ ρM(m) · L(m) (2.11) avec L la fonction vraisemblance (likelihood function en anglais). La fonction vraisemblance donne d’une certaine fa- çon une mesure de la qualité d’un modèle m pour expliquer les données. 2.1.3 Importance de la quantification des incertitudes Il faut bien comprendre que l’inversion est une conjonction de trois états d’information, c’est à dire que chacun conditionnera à sa manière les résultats. En d’autres termes, une mauvaise estimation de l’un ou de l’autre aura des conséquences non négligeables sur les résultats de l’inversion. Bien souvent c’est les incertitudes qui sont négligées, on a tendance à les sous-estimer, ce qui "bloque" l’inversion, et donne, a posteriroi, des incertitudes sous évaluées. À l’inverse des incertitudes trop grandes "ralentiront" la recherche d’une solution optimale et donneront, a posteriori, des incertitudes sur-évaluée. Il faut donc prendre soin de le déterminer correctement. 2.2 Le problème inverse vu comme une optimisation La résolution du problème inverse implique de chercher une solution optimale vis à vis d’une fonction que l’on cherche à minimiser. Nous verrons plus tard que ce caractère optimal est important pour toute la procédure d’inversion et qu’il est nécessaire de bien le définir, au risque de trouver des solutions aberrantes ou de ne pas converger. L’optimisation est un processus itératif, à chaque itération, les résultats de l’itération précédente sont utilisés comme information a priori. 2.2.1 Fonctionnelle à minimiser : la fonction coût S On a introduit dans la section précédente la fonction vraisemblance qui traduit la capacité du modèle à traduire les données. Plus la fonction vraisemblance L aura une valeur élevée et mieux le modèle trouvé traduira correctement les 15
  • 17. données. On cherche en fait à maximiser la fonction L. Dans le cas de critère de type norme (notre cas - optimisation), on peut de manière équivalente minimiser la fonction coût S (misfit function en anglais) telle que : L(m) ∝ exp(−S(m)) =⇒ σM(m) ∝ ρM(m) · exp(−S(m)) (2.12) Le calcul de la fonction coût S est basé sur la comparaison des données prédites et observées. On voit bien que en maximisant L, on minimise S. Cette définition de la solution s’appuie sur le principe du maximum de vraisemblance, c’est à dire que ce qui a le plus de chance de se produire sera la meilleure solution. Dans le cas de notre procédure d’inversion, la fonctionnelle à minimiser est cette fonction S. Chercher le minimum de la fonction S revient à cherche le point pour lequel la dérivée de la fonction S s’annule. La méthode d’optimisation implémentée dans l’algorithme pour minimiser S est la méthode des gradients conjugués qui utilise les dérivées partielles premières de la fonction. 2.2.2 Calcul de la fonction coût pour des incertitudes de type gaussienne Pour rappel, quand on considère que les incertitudes sont de type gaussienne (norme L2, critère des moindres carrés). On peut alors écrire ρD(d), ρM(m) et θ(d | m) tel que : ρD(d) ∝ exp − 1 2 (dobs − d)T C−1 D (dobs − d) (2.13) ρM(m) ∝ exp − 1 2 (mpr − m)T C−1 M (mpr − m) (2.14) θ(d | m) ∝ exp − 1 2 (d − g(m))T C−1 T (d − g(m)) (2.15) En combinant ces équations avec l’équation (2.11), on obtient : σM(m) ∝ exp − 1 2 (mpr − m)T C−1 M (mpr − m) + (dobs − g(m))T (CD + CT)−1 (dobs − g(m)) (2.16) La fonction coût S s’écrit alors : S(m) = 1 2 (dobs − g(m))T (CD + CT)−1 (dobs − g(m)) + (mpr − m)T C−1 M (mpr − m) (2.17) C’est cette approche qu’on appelle l’approche par le critère des moindres carrés. Ce calcul de S n’est évidemment valable pour des incertitudes de type gaussienne (norme L2). Cette simplification n’est pas toujours valable et dans les cas où σM(m) est trop complexe, les méthodes d’optimisation ne pourront pas donner une solution réaliste. 2.2.3 Limites de l’optimisation La recherche d’une solution par optimisation n’est pas une recherche systématique ou une méthode d’exploration sur l’espace des modèles. On pourrait définir notre procédure d’optimisation comme une estimation de proche en proche de la fonction S et de ses dérivées. Il faut donc bien comprendre qu’il n’y a aucune certitude que le minimum de la fonction S trouvé est unique, ou que ce n’est pas un minimum local. Seule une recherche systématique pourrait en apporter la preuve. Malheureusement les problèmes que l’on traite sont généralement trop gros (beaucoup de dimensions), et il est alors impossible (avec les capacités de calcul actuelles) de faire une recherche systématique sur tous l’espace des modèles. 2.3 Procédure d’inversion Pour résumer, l’inversion de donnée par optimisation est une méthode qui tend à chercher un modèle physique donné qui minimise l’écart entre les données observées et les données prédites, calculées suivant une loi physique donnée. La résolution du problème inverse par optimisation est une approche itérative. Les conditions d’arrêt de l’algorithme peuvent être variées (ex : nombre d’itération, misfit faible, gradient faible, etc...). Le schéma ci-dessous résume cette procédure. 16
  • 18. Début Modèle a priori m0 = mprior Modeling dsyn = g(m) Comparaison dsyn/dobs Calcul misfit S et gradient S Update du modèle Modèle updaté mk+1 Loi physique g ⇒ θ(d | m) Données observées dobs Critère d’arrêt ? OUI NON Nouveau modèle mk = mk+1 Modèle otpimal mopti = mk+1 Fin Figure 2.2 – Procédure d’inversion. Dans les cases bleues les paramètres d’entrée, dans les cases jaunes les opérations de l’algorithme et en rouge les paramètres de sortie. k étant le numéro d’itération. 17
  • 19. Deuxième partie L’inversion appliquée aux données de temps d’arrivées de sismique passive 18
  • 20. Préambule Maintenant que le formalisme générale du problème inverse discrétisé a été posé, intéressons nous à l’inversion de données de sismique passive. Les paramètres d’une procédure d’inversion sont propres à chaque expériences, selon le type de données que l’on cherche à inverser, les données disponibles ou encore la loi physique qu’on utilise. Nous avons vu dans la partie précédente que l’on pouvait classer l’information selon trois types : - Informations a priori - Information sur la loi physique - Information liée aux données Dans notre problème d’inversion de temps d’arrivées de sismique passive, les positions des sources sont a priori in- connues, les informations que l’on cherche à estimer a posteriori sont donc le(s) modèle(s) de vitesses VP (et VS) ainsi que la localisation des sources sismiques. Les données que l’on possèdent sont les temps d’arrivées enregistrés pour chaque phase (P et S) et pour chaque récepteur et (éventuellement) une estimation de l’incertitude sur les temps pointés. La loi physique que l’on utilise pour calculer les données estimées (synthétiques) dépend de la précision que l’on cherche à atteindre, dans notre cas on utilise une loi simple : l’équation Eikonale, que nous expliciterons plus tard. Enfin les informations a priori que nous utilisons sont un (ou plusieurs) modèle(s) de vitesse VP (et éventuellement VS) ainsi qu’une idée a priori de la localisation et de l’origine temporelle des sources. Dans cette partie seront présentées les méthodes utilisées pour obtenir ces différents types d’information ainsi que les limites de chaque méthode. Dans le premier chapitre nous présenterons rapidement comment est obtenue l’infor- mation liée aux données et à la loi physique (résolution du problème direct par l’équation Eikonale) et dans un second chapitre nous aborderons le problème de la recherche d’information a priori et plus particulièrement comment on obtient une idée a priori de la localisation et de l’origine temporelle des sources, qui était un des sujets principaux de ce stage. Modèle mprio (information a priori) Loi physique dsyn = g(m) (information théorique) Données dobs (information expérimentale) VP (x), VS(x) xsrc, tsrc 0 Eikonale up, us σtp , σts Table 2.1 – Résumé des information a priori, théorique et expérimentale dans le cadre de l’inversion de données de sismique passive. 19
  • 21. Chapitre 3 Informations expérimentale et théorique L’information expérimentale est liée aux données et aux incertitudes associées tandis ce que l’information théorique est liée à la théorie physique. Une loi physique n’étant jamais parfaite et on se doit de prendre en compte également les incertitudes liées à cette loi. Nous aborderons dans ce chapitre l’acquisition et la sélection des données ainsi que la résolution du problème direct selon l’équation Eikonale. 3.1 Information expérimentale : temps d’arrivées des ondes et incertitudes associées Les temps d’arrivées sont issus d’enregistrement de sismique passive. À la différence de la sismique active, on ne connait pas l’instant de rupture des sources. On enregistre alors des temps d’arrivées et plus des temps de trajets. A posteriori c’est, entre autre, ces temps de trajets qui nous intéressent et que l’on cherchera à partir des temps d’arri- vées. Typiquement, une campagne d’enregistrement de sismique passive se passe comme suit : des stations d’écoutes sis- miques autonomes sont réparties sur la région que l’on veut étudier et enregistrent en permanence le bruit sismique ambiant. Si l’amplitude du signal (ou un autre critère) reçue dépasse un certains seuil, le temps d’arrivée du signal (selon un temps de référence fixé) est automatiquement déterminé et enregistré et sera associé à une source. La phase enregistrée (P ou S) sera ensuite déterminée, par exemple à partir de la forme de l’onde, l’amplitude selon les direc- tions etc... Figure 3.1 – Exemple de sismogramme. On pointe les temps des premières arrivées des phases P et S, relativement à un temps de référence donné. Comme on peut le constater il est difficile de différencier ces arrivées du bruit sismique, de fait il en découle une certaine incertitude. On découvre ici une première incertitude puisque le pointé n’est jamais parfait. L’erreur peut avoir plusieurs ori- gines : mauvaise calibration de l’appareil, fort rapport signal/bruit, erreur liée à la méthode de pointé automatique etc... La quantification absolue de cette erreur n’est pas simple et typiquement dans notre procédure d’inversion on fixera ces erreurs selon le rapport signal sur bruit au moment de l’enregistrement. De plus, avec des données réelles, il est parfois difficile de déterminer la phase d’un signal, dans ce cas là on ne prend tout simplement pas en compte l’enregistrement. 20
  • 22. Enfin, les sources sismiques ne sont pas toujours des séismes de forte énergie et la plupart du temps, en plus d’avoir un rapport signal/bruit fort, les signaux d’une source donnée ne sont captés que par une poignée de récepteurs. L’in- formation expérimentale liée à ces sources ne sera alors pas forcément intéressante et/ou mal déterminée. Une autre difficulté vient du fait que si deux sources sont proches temporellement parlant (instant de rupture assez proche), leur signal respectif pourra être capté à des instants assez proches par différents récepteurs. Il sera alors difficile de déterminer quel signal provient de quelle source. Avant de commencer l’inversion il est donc nécessaire de trier une première fois les données pour écarter les données trop bruitées, imprécise et/ou mal connues. Ce n’est qu’après ce premier travail que l’on pourra commencer l’inver- sion. Une autre approche consiste à utiliser des normes robustes (comme L1 - critère des moindres valeurs absolues) qui permettent de ne pas tenir compte des données aberrantes ce qui simplifie le tri ou l’analayse ds données a priori. 3.2 Information théorique : problème direct et équation Eikonale Pour estimer les temps de trajets (problème direct), on utilise la résolution de l’équation Eikonale. En Physique, l’équa- tion Eikonale est l’équation fondamentale régissant la cinématique de l’onde (la lumière par exemple ou une onde sismique) dans un milieu isotrope, en d’autres termes les trajectoires des rais sismiques. Les lois de Snell-Descartes sont par exemple dérivées de cette dernière. On peut écrire l’équation Eikonale telle que : T(xi) · T(xi) = s(xi)2 = 1 c(xi)2 (3.1) Avec T(xi) le temps de trajet de l’onde, c(xi)2 la vitesse de propagation de l’onde et s(xi)2 la lenteur (l’inverse de la vitesse, slowness en anglais). Le domaine étudié est divisé est un ensemble de cellules cubiques de même taille, dans lesquelles on connaît la valeur de la vitesse de propagation des ondes. La résolution de l’équation Eikonale permet de calculer, pour une source (ou un récepteur) donnée, une carte de temps qui donne le temps de trajet entre la source et chaque cellule du domaine. On peut alors facilement déterminer le temps de propagation entre une source et un point quelconques du milieu. Dans l’inversion, il est alors possible, à partir des cartes de temps de trajets pour chaque récepteur, de tracer a pos- teriori les rais , trajectoires perpendiculaires au front d’onde (surface iso-temps), par rétro-propagation depuis les récepteurs jusqu’à la source, en suivant la direction opposée au gradient des temps de trajets. Comme on vient de le voir, le problème direct passe par la résolution de l’équation Eikonale. Il n’existe pas de so- lution analytique dans le cas d’un milieu isotrope hétérogène quelconque, c’est pourquoi on utilise des méthodes numériques pour la résoudre. Les temps obtenus sont approximatifs, mais restent relativement précis et proches de la solution exacte. Plusieurs méthodes sont possibles pour résoudre numériquement le système. Dans notre cas, on utilise l’algorithme de Podvin et Lecomte (1991), basée sur une approche par différences finies. L’algorithme qu’ils ont développé 1 , écrit en C, est directement intégré dans l’algorithme d’inversion. Dans cette méthode de résolution, plus le maillage est grossier et plus l’erreur sur les données synthétiques (estimées) sera grande. 1. Disponible en open source sur le site de Mines Paritech : http://www.geophy.mines-paristech.fr/soft/fdtimes/ html_doc/index.html 21
  • 23. Chapitre 4 Informations a priori : Modèles de vitesses et localisation des sources sismiques L’information a priori est très importante dans la procédure d’inversion car c’est à partir de cette dernière que l’on va travailler. En inversion de temps d’arrivées de sismique passive, on a deux paramètres inconnus : le(s) modèles de vitesses VP (et/ou VS) ainsi que les localisations spatiales et temporelles des sources xsrc et t0 src. Les informations a priori sur l’un et l’autre de ces paramètres sont obtenues de façon totalement différente. Nous in- troduirons dans ce chapitre comment on obtient ces informations a priori et nous détaillerons notamment la recherche d’information a priori sur la localisation des sources sismiques et plus précisément la méthode de pré-localisation des sources sismiques, qui était un des enjeux importants de ce stage. 4.1 Modèles de vitesse L’information a priori sur le modèle de vitesse peut venir de plusieurs sources. Cela peut être les résultats de pré- cédentes expériences (campagnes sismiques, gravimétriques, magnétique, forages, etc...) ou des informations géolo- giques de la zone. Par exemple si on inverse des données issues d’une campagne sismique off-shore, on s’attendra typiquement à se trouver au dessus d’un plancher océanique avec des vitesses moyennes lentes alors qu’à l’inverse si on inverse des données issues d’une campagne sismique dans une région montagneuse on s’attendra globalement à trouver du socle et donc des vitesses élevées. Les informations a priori sur le modèle de vitesse n’ont pas besoin d’être précise, à condition bien sur que cette imprécision soit correctement quantifiée. Le modèle de vitesse VS de propagation des ondes S est souvent mal connu et on considère généralement que le modèle de vitesses VS et le modèle de vitesses VP sont reliés par une loi simple (par exemple linéaire, avec un ratio) ou par une loi un peu plus complexe (ratio dépendant de la profondeur). Les différentes sources d’informations peuvent être de natures très variables et ne donnent pas forcément des infor- mations cohérentes entre elles. Dans ce cas on peut utiliser plusieurs modèles de vitesses comme information a priori ou joindre ces informations, notamment grâce à la géostatistique dont le succès vient de sa capacité à pouvoir prendre en compte quantitativement de l’information géologique qualitative et disparate provenant de plusieurs sources. 4.2 Localisation des sources sismiques La localisation a priori des sources sismiques (spatiale et temporelle) est très importante car c’est à partir de ces po- sitions et de ce temps d’origine qu’on va pouvoir estimer le temps de trajet des ondes entre une source donnée et les récepteurs. En plus de la localisation en elle même, l’estimation des incertitudes est également essentielle. On distingue deux grands types de méthodes pour localiser des sources sismiques à partir des temps d’arrivées : les mé- thodes relatives, qui localisent les sources sismiques relativement à un évènement sismique proche et bien localisé, et les méthodes absolues. 22
  • 24. On ne s’intéressera ici qu’aux méthodes absolues qui correspondent mieux à notre problématique. De nombreuses méthodes absolues existent pour localiser les sources sismiques, on pourra notamment évoquée la méthode des Geiger (1910) ou de Bolt (1978), ainsi que les plus communes méthodes de triangulation ∆tS-P ou des hyperboles ∆tP -P et ∆tS-S. Avant mon arrivée, la localisation a priori des sources (ou pré-localisation) était déterminée à partir de la différence des temps d’arrivées de l’onde P et de l’onde S pour une source donnée, qu’on a introduit plus haut comme étant la méthode de triangulation. Finalement, nous avons développé avec l’équipe d’ingénieurs de GIM-Labs une méthode basée sur les différences des temps d’arrivées d’une même phase (P ou S) ∆tP -P et ∆tS-S entre différents couples source/récepteur. Cette méthode est dérivée de la méthode des hyperboles mais diffère de celle-ci dans le fait qu’elle prend en compte les hétérogénéités du modèle de vitesse et donc qu’elle est plus précise. 4.3 Méthode de localisation spatiale ∆tS-P La méthode de localisation ∆tS-P se base sur la différence de temps d’arrivé des différentes phases (P et S) pour un couple source/récepteur donné. De façon plus formelle on a pour une source donnée : ∀ rec ⇒    tobs rec,P = uobs rec,P − t0 tobs rec,S = uobs rec,S − t0 tsyn rec,P (x | VP,pr) tsyn rec,S(x | VS,pr) (4.1) Avec : - uobs rec,P et uobs rec,S les temps d’arrivées pointés observés pour, respectivement les phases P et S - t0 l’instant de rupture de la source donnée - tsyn rec,P (x | VP,pr) et tsyn rec,S(x | VS,pr), les carte des temps de trajets synthétiques pour respectivement les phases P et S, connaissant les modèles a priori VP,pr et VS,pr On peut alors calculer les différences de temps d’arrivé des différentes phases (P et S) pour les données synthétiques et observées, telles que : ∀ rec ⇒ ∆tobs rec,S-P = tobs rec,S − tobs rec,P = uobs rec,S − uobs rec,P ∆tsyn rec,S-P = tsyn rec,S(x | VS,pr) − tsyn rec,P (x | VP,pr) (4.2) On peut finalement calculer une densité de probabilité sur la position de la source ρsrc,pr(x | VP,pr, VS,pr) en tout point du modèle telle que : ρsrc,pr(x | VP,pr, VS,pr) ∝ exp   − 1 2 rec   ∆tsyn rec,S-P (x | VP,pr, VS,pr) − ∆tobs rec,S-P σ2 ∆tsyn + σ2 ∆tobs   2    (4.3) Avec σ∆t,syn et σ∆t,obs les incertitudes associées respectivement à la différence des temps synthétiques et à la diffé- rence des temps observés. Finalement le formalisme que l’on a utilisé rappelle fortement les équations que nous avons introduites dans la pre- mière partie (équation 2.13). Et pour cause, il s’agit également d’un problème inverse ! Seulement la recherche se fait ici de manière systématique et non plus par optimisation. On connaît donc la fonction misfit S en tout point du modèle, et la source sera alors localisée au point où le misfit est le minimum. Bien sûr, le(s) modèle(s) de vitesses a priori utilisés ne sont qu’une approximation et la localisation de la source sera donc incertaine et il faudra quantifier ces incertitudes. Les incertitudes associées seront alors calculées à partir de la carte des probabilités. 23
  • 25. Cette méthode a été la première implémentée dans l’algorithme d’inversion. Cependant elle a rapidement montré ses limites, notamment en l’absence d’un modèle de vitesse de propagation des ondes S fiable ou encore pour l’estimation de l’erreur qui était très souvent sous évaluée. Il a donc été nécessaire d’implémenter une nouvelle méthode plus stable et plus robuste. 4.4 Méthode de localisation spatiale ∆tP-P et ∆tS-S La méthode de localisation ∆tP -P et ∆tS-S (appelée méthode des hyperboles pour un milieu homogène - dans notre cas la méthode est généralisée) est basée sur les différences des temps d’arrivées d’une même phase (P ou S) ∆tP -P et ∆tS-S entre différents couples source/récepteur. En d’autres termes, on calcule pour plusieurs récepteurs donnés, la position de la source qui vérifie au mieux les différences d’arrivées ∆tP/S,rec(i),rec(j) observées. Après avoir trouvé cette position (x, y, z en coordonnées cartésiennes), on cherchera le tsrc 0 qui minimise l’écart entre données observées et estimées. Nous aborderons d’abord les avantages qu’offre cette méthode par rapport à celles évoquées précédem- ment puis nous introduirons le formalisme de la méthode. Enfin nous verrons comment elle a été implémentée dans l’algorithme préexistant. 4.4.1 Avantages de la méthode Plusieurs raisons nous ont poussé à orienter le développement dans cette direction : - Cette méthode de localisation était plus facilement implémentable, dans le sens où elle utilise des "briques" de code déjà implémentées pour la méthode développée avant mon arrivée - Dans le formalisme même de la méthode, on a pas besoin de connaître l’instant de rupture des sourcestsrc 0 pour les localiser ni d’avoir une connaissance a priori des positions des sources, contrairement aux méthodes de Geiger (1910) et textitBolt (1978) - Les données sur les phases P et S sont utilisées de façon indépendantes et on prend en compte le poids de chacune dans la localisation finale. Cela se traduit surtout par une meilleure stabilité de la solution en présence d’un modèle de vitesse VS a priori mal connu et/ou loin de la réalité - Contrairement aux méthodes de Geiger (1910) et Bolt (1978), la prélocalisation n’est pas une optimisation (procédure itérative) mais une recherche systématique, ce qui en plus d’améliorer l’unicité de la solution, prend moins de temps 4.4.2 Un problème inverse également Comme pour la méthode de localisation ∆tS-P , on cherche à trouver une localisation de la source qui cherche à minimiser l’écart entre les données observées et les données simulées. On est donc typiquement dans une optique de résolution du problème inverse. La recherche est ici systématique et s’effectue sur tous le domaine du modèle. 4.4.3 Formalisme de la méthode Pour un couple de deux récepteurs différents notés a et b et pour une source donnée 1 : ∀ a, b ∈ rec avec a = b ⇒    tobs a,P = uobs a,P − t0 tobs b,P = uobs b,P − t0 tsyn a,P (x | VP,pr) tsyn b,P (x | VP,pr) (4.4) Avec : - uobs a,P et uobs b,P les temps d’arrivées pointés observés pour la phase P - t0 l’instant de rupture de la source donnée - tsyn a,P (x | VP,pr) et tsyn b,P (x | VP,pr), les carte des temps de trajets synthétiques pour respectivement les récep- teurs a et b, connaissant le modèle de vitesses a priori VP,pr 1. On détail ici les calculs pour la phase P. Il suffit de remplace P par S pour avoir le détail des calculs pour la phase S 24
  • 26. On peut alors calculer les différences de temps d’arrivé de la phase P entre les deux récepteurs pour les données synthétiques et observées, telles que : ∀ a, b ∈ rec avec a = b ⇒ ∆tobs a,b,P -P = tobs a,P − tobs b,P = uobs a,P − uobs b,P ∆tsyn a,b,P -P = tsyn a,P (x | VP,pr) − tsyn b,P (x | VP,pr) (4.5) On voit ici que l’on fait disparaitre le terme t0. L’avantage est donc que l’on peut déterminer la position de la source sans avoir à déterminer a priori un t0. En appliquant ce résultat aux phases P et S, on peut finalement calculer une densité de probabilité sur la position de la source ρsrc,pr(x | VP,pr, VS,pr) en tout point du modèle telle que :    ρsrc,pr(x | VP,pr) ∝ exp   − 1 2 ∀a ∀b=a   ∆tsyn a,b,P -P (x | VP,pr) − ∆tobs a,b,P -P σ2 ∆tsyn + σ2 ∆tobs   2    ρsrc,pr(x | VS,pr) ∝ exp   − 1 2 ∀a ∀b=a   ∆tsyn a,b,S-S(x | VS,pr) − ∆tobs a,b,S-S σ2 ∆tsyn + σ2 ∆tobs   2    (4.6) ⇒ ρsrc,pr(x | VP,pr, VS,pr) = ρsrc,pr(x | VP,pr) × ρsrc,pr(x | VS,pr) (4.7) Avec σ∆tsyn et σ∆tobs les incertitudes respectivement sur les différences des temps d’arrivées synthétiques et sur les différences des temps d’arrivées observés. 4.4.4 Implémentation de la méthode dans l’algorithme Le calcul de la localisation des sources se fait en plusieurs étapes.Pour une source donnée,on charge d’abord les données observées, soient les temps d’arrivées observées pour tous les récepteurs tobs rec. Vient après le calcul de la carte des temps pour tous les récepteurs à partir des positions des récepteurs et du modèle de vitesse a priori, notée tsyn r ec. On calcul ensuite les différences de temps observés et synthétiques, notés respectivement, pour deux récepteurs donnés, ∆tobs reci,recj et ∆tsyn reci,recj . On fait ensuite la différence de ces deux valeurs, normalisées par les incertitudes. La position ayant la plus grande probabilité est la position que l’on retiendra alors comme positiona priori de la source. 25
  • 27. Début Calcul de la carte des temps de trajet pour tous les récepeurs ⇒ tsyn,rec Chargement des temps d’arrivées observés pour tous les récepteurs ⇒ tobs,rec Calcul de la carte des différences des temps de trajet pour chaque couple de récepteur ⇒ ∆tsyn(reci, recj) Calcul différence des temps d’arri- vées pour chaque couple de recépteur ⇒ ∆tobs(reci, recj) Incertitude sur ∆tsyn(reci, recj) ⇒ σ∆tsyn(i,j) Incertitude sur ∆tobs(reci, recj) ⇒ σ∆tobs(i,j) Calcul de la carte des probabilités P(x) P(x) ∝ cpl ∆tsyn−∆tobs σ2 ∆tsyn +σ2 ∆tobs Localisation spatiale de la source et incertitude associée Fin Figure 4.1 – Procédure de prélocalisation spatiale pour une source donnée. En jaune les procédures,ou les étapes nécessitant un calcul. En bleu les données en entrée et en rouge les données en sortie. Pour illustrer ce schéma, regardons quelques résultats synthétiques. Soit un modèle de vitesses VP (6.1), un modèle a priori (6.2, deux récepteurs, notés rec1 et rec2 et une source donnée. Les temps observés (par rapport à un temps de référence donné) pour les récepteurs rec1 et rec2 pour une source donnée, sont respectivement : tobs rec1 = 1.01885 s tobs rec2 = 3.05111 s La différence des temps d’arrivées observés ∆tobs rec1,rec2 ( = tobs rec1 −tobs rec2 ) vaut donc ∆tobs rec1,rec2 = −2.03226 secondes. Les carte des temps synthétiques (tsyn rec1 et tsyn rec2 ) sont calculée à partir de l’algorithme de Podevin et Lecomte présenté plus haut. La carte des différences de temps synthétiques, notée ∆tsyn rec1,rec2 est la soustraction de ces deux cartes. On calcul ensuite la carte des probabilités, qui est la différence entre ∆tsyn rec1,rec2 et ∆tobs rec1,rec2, renormalisée par les incertitudes. 26
  • 28. Carte des temps - récepteur 1 X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 Tempsdetrajet(s) 0 1 2 3 4 5 Récepteur 1 Carte des temps - récepteur 2 X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 Tempsdetrajet(s) 0 1 2 3 4 5 Récepteur 2 Figure 4.2 – Coupe selon Y de la carte des temps pour chaque récepteur. Le récepteur 1 est localisé en x = 6500m et z = 100m. Le récepteur 2 est localisé en x = 18500m et z = 100m. On voit bien que les courbes d’iso-temps ne sont pas parallèles, ni symétriques. Cela est due d’une part aux vitesses qui augmentent avec la profondeur, et d’autre part à la non symétrie du modèle (selon X). Carte des différences de temps ∆trec 1 ,rec 2 syn X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 Récepteurs VP (m.s -1 ) -4 -2 0 2 4 Carte ∆tsyn rec 1 ,rec 2 - ∆tobs rec 1 ,rec 2 X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VP (m.s -1 ) -0.2 -0.1 0 0.1 0.2 Récepteurs Source Figure 4.3 – Coupe selon Y de la carte de la différence des temps synthétiques ∆tsyn rec1,rec2(en haut) et de la carte des différences entre données synthétiques et observées (en bas). On voit que la source n’est pas tout à fait localisée là où la différence est égale à 0. Étant donné que le modèle a priori est différent du modèle vrai c’est normal. Ici on ne présente l’information apporté seulement par un couple de récepteur, si on faisait cette opération pour tous les couples de récepteurs, les probabilités se focaliseraient sur une zone. 27
  • 29. 4.4.5 Limites de la méthode et pistes de travail La méthode développée semble d’après les tests que nous avons pu mener assez fiable et robuste, notamment en pré- sence d’un modèle de vitesse VS mauvais, ce qui n’était pas le cas pour la méthode précédente. Cependant la méthode ∆tP -P et ∆tS-S présente plusieurs inconvénients. Le plus important est le temps de calcul accru par rapport à l’ancienne méthode ∆tS-P . En effet on ne compare plus les temps indépendamment pour chaque récepteur mais entre chaque récepteur. Cela a pour conséquence d’augmen- ter considérablement le nombre de calculs. Par comparaison, pour une source donnée dont le signal est capté par nrec récepteurs, l’ancienne méthode effectuait nrec opérations, tandis ce que avec la nouvelle méthode on effectue nrec×(nrec−1) 2 . On comprend bien alors que pour des sources captées par beaucoup de récepteurs, le temps de cal- cul va être considérablement augmenté. Une première piste a été explorée et implémentée pour réduire ce temps de calcul. On tire aléatoirement un nombre de couples donné parmi tous les couples récepteur/récepteur possibles, à condition que le nombre de couples au départ soit élevé. On refait un second tirage et on compare les densités de probabilités entre ces deux tirages. Si les deux densités de probabilités ont une corrélation supérieur à un seuil donné, alors on considère qu’elles sont assez représentatives pour être utilisées. On les joint donc et on garde cette carte des probabilités pour ensuite déterminer la position de la source. Un second soucis vient des sources mal captées, dans le sens où peu de récepteurs captent leur signal. Dans ce cas la localisation sera mauvaise et les incertitudes très élevées. Finalement ce problème vient du manque d’information et pas de la méthode en elle même. Il faudrait donc réfléchir à trier directement dans l’algorithme les sources dont la pré-localisation est mauvaise ou qui sont mal captées. Enfin, la méthode proposée ne prend pas en compte les incertitudes sur le modèle de vitesse. Pour remédier à ce problème une piste a été envisagée mais qui n’a pas encore été développée. Il s’agissait de donner à l’algorithme plu- sieurs modèles de vitesses différents ou de tirer aléatoirement des modèles perturbés (selon les incertitudes) autours du modèles à priori puis de faire la procédure de pré-localisation pour chacun d’eux. Enfin la densité de probabilité finale est le produit normalisé de toute les densités de probabilité. Cette solution est envisageable, néanmoins on voit bien que si on prend dix modèles a priori alors le temps de calcul sera multiplié par dix. 4.5 Localisation temporelle des sources sismiques On vient de voir que la méthode de localisation des sources sismiques que l’on a retenue fournie une localisation spatiale d’une source sismique donnée mais ne permet pas directement de calculer le t0. Pour trouver t0, on utilise le pointé des temps uobs P et uobs S pour chaque récepteur. À partir des temps estimés tsyn P et tsyn P , calculés grâce à la position de la source trouvée en amont, on obtient par moyenne pondéré : t0 src,pr = ∀rec (uobs rec,P −tsyn rec,P ) σrec,P + (uobs rec,S −tsyn rec,S ) σrec,S ∀rec 1 σrec,P + 1 σrec,S (4.8) L’incertitude associée est calculée selon : σ2 (t0 src,pr) = ∀rec (uobs rec,P −tsyn rec,P −t0 src,pr)2 σrec,P + (uobs rec,S −tsyn rec,S −t0 src,pr)2 σrec,S ∀rec 1 σrec,P + 1 σrec,S (4.9) 28
  • 30. Chapitre 5 Solution du problème inverse en sismique passive Nous avons défini dans les deux chapitres précédents les notions d’information expérimentale, théorique et a priori. Nous avons vu également dans la première partie que pour la résolution du problème inverse passait par la minimi- sation de la fonction coût (misfit). Voyons à présent comment s’écrit cette fonction pour l’inversion de données de sismique passive. Dans la problématique de la sismique passive, on cherche a posteriori à trouver les modèles de vitesses VP et VS ainsi que les coordonnées spatiotemporelles des sources (x et t0 ). La fonction coût traduisant la "vraisemblance" de la solution trouvée, il est donc normal qu’elle soit fonction de tous ces paramètres. S(m) = S(VP , VS, t0 src, xsrc) ∝ (tsyn P (m) − tobs P )T C−1 tP (tsyn P (m) − tobs P ) (5.1) + (tsyn S (m) − tobs S )T C−1 tS (tsyn S (m) − tobs S ) (5.2) + (xsrc − xsrc,pr)T C−1 (x)src (xsrc − xsrc,pr) (5.3) + (t0 src − t0 src,pr)T C−1 t0 (t0 src − t0 src,pr) (5.4) + (VP − VP,pr)T C−1 VP (VP − VP,pr) (5.5) + (VS − VS,pr)T C−1 VS (VS − VS,pr) (5.6) + (VS − f(VP ))T C−1 VS /VP (VS − f(VP )) (5.7) Dans cette équation, les termes (5.1) et (5.2) sont associées aux temps d’arrivées (P et S), les termes (5.3) et (5.4) cor- respondent aux informations sur les coordonnées des sources, les termes (5.5) et (5.6) aux modèles de vitesses VP et VS et le terme (5.7) à la corrélation entre ces deux modèles. Le terme f(VP ) correspond à la relation (pas forcément linéaire) reliant le modèle VP au modèle VS. Les termes t0 src,pr et xsrc,pr apparaissent dans le calcul de la fonction coût. On voit donc ici l’importance d’avoir une connaissance a priori sur les coordonnées des sources proche de la réalité pour minimiser la fonction coût dès le départ, d’où l’intérêt de l’algorithme de prélocalisation présenté plus haut. 29
  • 31. Troisième partie Présentation des résultats : tests sur données synthétiques 30
  • 32. Préambule Avant de commencer à travailler sur le projet principal qui était de développer une méthode fiable et robuste pour la localisation des sources sismiques à priori, il a fallu tester et debbuger le code utilisé pour l’inversion de sismique passive. Le code utilisé était en fait dériver d’un code préexistant servant à l’inversion de donnée de sismique active. Cependant le problème n’est pas tout à fait le même, et bien qu’un travail ai été fait en amont avant mon arrivée, il restait encore des implémentations à réaliser, des bugs à corriger et des tests à effectuer afin de rendre le code utilisable et de pouvoir déterminer la robustesse de l’algorithme. Dans un soucis de compréhension, on simplifiera dans toute cette partie l’appellation données observées synthétiques par données observées. L’algorithme d’inversion de sismique passive inverse conjointement le(s) modèles de vitesses ainsi que les locali- sations spatiotemporelles des sources. Est également intégré à l’algorithme une fonction prélocalisation servant à chercher une localisation a priori des sources sismiques. Pour vérifier la fiabilité des différentes fonctions du code on a mis en place de nombreuses expériences dont les résultats de certaines sont reproduits ici. Ces expériences sont les suivantes : - Inversion des modèles de vitesses seuls. Cette expérience a pour but de vérifier que l’inversion des modèles de vitesses fonctionne correctement, connaissant les positions exactes des sources. La fonction prélocalisation n’est pas utilisée. - Inversion des localisations spatiotemporelles des sources sismiques seule. Dans cette on cherche à prouver que la localisation des sources marche correctement, connaissant les modèles de vitesses VP et VS. La fonction prélocalisation n’est pas utilisée. - Inversion conjointe des modèles de vitesses et des localisations des sources sismiques. Procédure d’inversion normale sans prélocalisation. Dans cette expérience on teste si l’inversion conjointe marche correctement, à partir d’un modèle a priori faux et de positions de sources perturbées. - Prélocalisation seule. Cette expérience a pour but de vérifier que la fonction prélocalisation intégrée à l’algo- rithme donne des résultats exploitables. - Inversion conjointe des modèles de vitesse et des sources sismiques, avec prélocalisation . Cette expérience a pour but de reproduire une procédure d’inversion réelle, c’est à dire avec un modèle de vitesses a priori grossier et sans avoir d’information a priori sur les positions des sources. L’information a priori sur les positions des sources sismiques sera recherchée par la prélocalisation. Expérience Inversion du modèle de vitesses Inversion de la localisation des sources Prélocalisation Expe 1 Oui Non Non Expe 2 Non Oui Non Expe 3 Oui Oui Non Expe 4 Non Non Oui Expe 5 Oui Oui Oui Table 5.1 – Résumé des expériences synthétiques 31
  • 33. Chapitre 6 Paramètres d’entrée 6.1 Paramètres du modèle Pour produire les données observées, on part d’un modèle de vitesse Vp donné (true model) et des positions de 500 sources réparties dans tout le modèle. Les récepteurs sont placés en grille tous les kilomètres et couvrent la totalité du système. Le modèle de vitesse Vs est issu du modèle de vitesse Vp divisé par un ratio 0.7. Le fichier des positions complètes des sources et des récepteurs est donné en annexe. 6.2 Modèle vrai de vitesse Le modèle vrai est construit à partir d’une image pixelisée. À chaque valeur de pixel (couleur) on associe une vitesse de propagation des ondes P. Pour reproduire une lithologie réelle, la vitesse de propagation augmente avec la profondeur. On obtient ainsi un modèle 2D du système. Ce modèle est ensuite "lissé" (moyennes harmoniques des lenteurs) pour éviter des contrastes de vitesse trop fort aux interface, puis étendu selon l’axe Y pour obtenir le modèle 3D final. On a donc un modèle invariant selon Y . Le modèle utilisé s’étend sur 25 km selon l’axe X, 5 km selon Y et 5 km selon Z. Le pas de discrétisation spatial du modèle (la définition de l’image) est de 100 m, c’est à dire que le modèle est constitué de cubes homogènes de 100 mètres de coté. Pour reproduire des conditions réelles, les vitesses sont décroissantes avec la profondeur. Dans le modèle VP , les vitesses vont de 2450 m.s−1 à 6400 m.s−1 tandis ce que pour le modèle VS elles vont de 1470 m.s−1 à 3840 m.s−1 , soit un ratio 0.6 entre les vitesses VS et VP . 32
  • 34. Modèle vrai VP X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V P (m.s -1 ) 2000 3000 4000 5000 6000 7000 Modèle vrai VS X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V P (m.s -1 ) 1000 1500 2000 2500 3000 3500 4000 Figure 6.1 – Modèles vrais de vitesses VP et VS.On peut noter dans ce modèle plusieurs éléments importants : à gauche une zone de vitesses lentes (VP ≈ 3200m.s−1 ) en forme de trapèze, au centre une sorte de chevauchement avec une zone de vitesse constante (VP = 5000m.s−1 ) qui traverse toutes les couches, dans la moitié gauche on observe une couche lente (VP = 4000m.s−1 ) située sous une couche plus rapide, ainsi qu’une sorte de rampe à l’interface des premières couches et également une zone de vitesses rapides qui "remontent" et forme une sorte de dôme. 6.3 Modèle de départ ou modèle a priori Le modèle de vitesse a priori est construit à partir du modèle vrai de vitesse qu’on "lisse" de manière importante afin d’obtenir un modèle quasi-1D. Le modèle de vitesse a priori nous servira pour les expériences dans lesquelles on cherche à retrouver a posteriori le modèle de vitesse. Figure 6.2 – Modèles a priori de vitesses VP . Le modèle a priori de vitesse VS est construit à partir du modèle de départ VP multiplié par 0.6, comme pour le vrai modèle. On remarque que l’information sur les structures géométriques qu’on apercevait dans le modèle vrai a quasiment disparu, notamment pour la remontée centrale. Bien que le modèle soit fortement lissé et quasiment 1D, on remarque toutefois des vitesses plus élevées sur la partie droite du modèle. 33
  • 35. 6.4 Géométrie des sources et des récepteurs Au total, on utilise 192 sources, réparties en maillage sur l’ensemble du modèle. On pose t0 = 0sec pour chaque source. Les récepteurs, au nombre de 125, sont répartis en grille selon X et Y et couvrent la totalité de la surface. Y axis (km) 5 4 3 2 1 0 25 20 Géométrie des sources et récepteurs 15 X axis (km) 10 5 0 -4 -5 0 -1 -2 -3 Zaxis(km) Figure 6.3 – Localisation des sources et des récepteurs. Les sources sont placées tous les 2 km selon l’axe X et 1km selon les axes Y et Z. Les récepteurs sont placés tous les kilomètres selon les axes X et Y et possède tous une profondeur de 100 mètres. On peut dès à présent remarquer la faible ouverture du réseau de récepteur selon les axes Y et Z. 6.5 Temps d’arrivées : données observées Les temps d’arrivées sont issus du modeling présenté précédemment avec comme paramètres d’entrées le modèle vrai et les vrais positions des sources et des récepteurs. On obtient pour chaque source et pour chaque récepteur les temps de trajet des phases P et S. Ce sont eux qui serviront de références en tant que temps observés dans la suite des expériences. 34
  • 36. Chapitre 7 Inversion des modèles de vitesses VP et VS seuls Cette expérience a pour but de vérifier que l’inversion des modèles de vitesses fonctionne correctement, connaissant les positions exactes des sources, que l’on fixe (c’est à dire que l’erreur sur les positions est nulle) et partant d’un mo- dèle de départ grossier (figure 6.2). Le ratio utilisé pour construire le modèle de départ VS à partir du modèle de départ VP est le même qu’utilisé pour la construction du modèle de vitesses vrai VS (ration 0.6). L’algorithme converge en 326 itérations. Les modèles de vitesses VP et VS trouvés sont corrects. À présent que nous avons vu que les modèles de vitesses trouvés sont correct, il nous faut quantifier l’erreur faite par rapport au modèle de départ. La différence entre le modèle trouvé et le modèle de départ permet d’apporter cette information. Cela permet de mettre en évidence les zones mal imagées. On peut s’attendre à ce que les interfaces entre les couches (fort contraste) ou les zones de faibles vitesses (les rais sismiques "évitent" ces zones, ce qui les rend difficilement imageables) fassent partis de ces zones. Finalement cette expérience nous a appris que l’inversion du modèle de vitesses fonctionne correctement. Cependant une ouverture plus grande selon Y et Z permettrait d’améliorer les résultats. Enfin, dans notre expériences les sources sont réparties équitablement dans tous le domaine et nous donnent donc accès à l’information sur les zones de basses vitesses (le trapèze à gauche de l’image par exemple). Dans la réalité il peut en être autrement. D’autres expériences, dont les résultats ne sont pas reproduits ici par manque de place, ont permis de mettre en évidence que si le modèle de vitesse VS de départ est mal connu (une erreur sur le ratio par exemple, ou une relation non linéaire entre VP et VS) alors le modèle trouvé VS sera moins bon, relativement au modèle VP trouvé. 35
  • 37. Modèle trouvé VP (iter - 326) - coupe Y = 1000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V S (m.s-1 ) 2000 4000 6000 Modèle trouvé VP (iter - 326) - coupe Y = 2000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VS (m.s -1 ) 2000 4000 6000 Modèle trouvé VP (iter - 326) - coupe Y = 3000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VS (m.s -1 ) 2000 4000 6000 Modèle trouvé VP (iter - 326) - coupe Y = 4000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VS (m.s -1 ) 2000 4000 6000 Figure 7.1 – Coupes selon Y du modèle de vitesse VP trouvé. On distingue la plupart des éléments importants de la géométrie du modèle. On remarque également que les coupes centrales (Y = 2000m et Y = 3000m) sont mieux imagées, ce qui est conforme à nos attentes étant donné la faible ouverture du réseau selon Y. Modèle trouvé VS (iter - 326) - coupe Y = 1000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V S (m.s-1 ) 1000 2000 3000 4000 Modèle trouvé VS (iter - 326) - coupe Y = 2000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VS (m.s -1 ) 1000 2000 3000 4000 Modèle trouvé VS (iter - 326) - coupe Y = 3000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VS (m.s -1 ) 1000 2000 3000 4000 Modèle trouvé VS (iter - 326) - coupe Y = 4000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VS (m.s -1 ) 1000 2000 3000 4000 Figure 7.2 – Coupes selon Y du modèle de vitesse VS trouvé. Comme pour le modèle VP , on peut distinguer la plupart des éléments importants du modèle. Les interfaces moins marqués ne sont dûs qu’à l’échelle de couleur utilisée. 36
  • 38. Différence modèle vrai/modèle trouvé - coupe Y = 1000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V P (m.s -1 ) -1000 0 1000 Différence modèle vrai/modèle trouvé - coupe Y = 2000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V P (m.s -1 ) -1000 0 1000 Différence modèle vrai/modèle trouvé - coupe Y = 3000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V P (m.s -1 ) -1000 0 1000 Différence modèle vrai/modèle trouvé - coupe Y = 4000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V P (m.s -1 ) -1000 0 1000 Figure 7.3 – Coupes selon Y de la différence du modèle de vitesses vrai VP et du modèle de vitesses VP trouvé. Comme on s’y attendait, l’erreur est forte aux interfaces. À contrario la zone de faible vitesse en forme de trapèze à gauche du modèle présente une erreur assez faible. On remarque cependant la couche de faible vitesse située sous la rampe (zone de vitesses élevées) en bas à droite de l’image présente une forte erreur (≈ 500m.s−1 . Différence modèle vrai/modèle trouvé - coupe Y = 1000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V S (m.s -1 ) -500 0 500 Différence modèle vrai/modèle trouvé - coupe Y = 2000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V S (m.s -1 ) -500 0 500 Différence modèle vrai/modèle trouvé - coupe Y = 3000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V S (m.s -1 ) -500 0 500 Différence modèle vrai/modèle trouvé - coupe Y = 4000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V S (m.s -1 ) -500 0 500 Figure 7.4 – Coupes selon Y de la différence du modèle de vitesses vrai VS et du modèle de vitesses VS trouvé. Quantitativement, les erreurs sont globalement les mêmes que pour le modèle VP mais étant donné que les vitesses sont plus faibles pour VS, les erreurs sont en proportion plus grande. 37
  • 39. Chapitre 8 Inversion des sources sismiques seules Cette expérience permet de tester la seconde fonction de l’algorithme qui est la localisation des sources sismiques. On cherche à retrouver a posteriori les coordonnées des sources, connaissant parfaitement les modèles de vitesses VP et VS. Pour cela on lance l’algorithme d’inversion avec des coordonnées de sources perturbées et les modèle de vitesses vrais (et fixés, c’est à dire que l’erreur est nulle). Pour chaque source, les perturbation sur les coordonnées X et Y sont tirée aléatoirement selon une loi uniforme entre -5000 m et 5000 m. La coordonnées Z est perturbées entre -3000 m et 3000 m et la perturbation sur T0 est tirée entre -150 ms et 150 ms. On réalise dans cette expérience trois tests. Un test où les incertitudes associées aux coordonnées perturbées sont sous évaluées, un test où elles sont correctement évaluées et enfin un test où ces incertitudes sont sur-évaluées. Ces tests nous permettront de mettre en évidence non seulement le bon fonctionnement de l’algorithme mais également dans quelle mesure la quantification des incertitudes est importante. Ces tests sont très importants car ils ont un lien direct avec l’algorithme de prélocalisation, qui, en plus de chercher les coordonnées des sources, doit également déterminer correctement les incertitudes associées. Les coordonnées trouvées (11.4) semblent dans les trois cas visuellement correctes. Pour affiner notre analyse regar- dons, pour chaque expérience, la variation de la moyenne et de l’écart type des erreurs pour chaque coordonnées au fil des itérations (8.2 et 8.3). Finalement, cette expérience montre l’importance de la bonne détermination des incertitudes. N’oublions pas que dans ces tests le modèle de départ est fixé, c’est à dire que les incertitudes sur celui ci sont nulles. D’autres expériences ont montré également qu’avec une incertitude sous-évaluée et avec un modèle de vitesse vrai mais non fixé, l’algorithme a tendance a modifié le modèle et non plus la position des sources. Il est donc très important de ne pas sous évaluer les incertitudes sur les positions, le mieux étant bien sur de les évaluer correctement. Des incertitudes sur-évaluées permettront aussi à l’algorithme de converger mais moins rapidement. 38
  • 40. Incertitudes sous-évaluées - slice_Y = 2000 m X axis (m) 5000 10000 15000 20000 Zaxis(m) 1000 2000 3000 4000 V P (m.s-1 ) 2000 3000 4000 5000 6000 7000 Incertitudes correctements évaluées - slice_Y = 2000 m X axis (m) 5000 10000 15000 20000 Zaxis(m) 1000 2000 3000 4000 V P (m.s-1 ) 2000 3000 4000 5000 6000 7000 Incertitudes sur-évaluées - slice_Y = 2000 m X axis (m) 5000 10000 15000 20000 Zaxis(m) 1000 2000 3000 4000 V P (m.s-1 ) 2000 3000 4000 5000 6000 7000 Figure 8.1 – Mouvement de certaines sources au fil des itérations à partir des positions perturbées jusqu’aux positions trouvées. En haut pour des incertitudes sous-évaluées, au milieu pour des incertitudes correctement évaluées et en bas pour des incertitudes surévaluées. Les points verts représentent les coordonnées de départ (perturbées), les points bleus les coordonnées d’arrivées (trouvées) et les étoiles rouges les vraies positions des sources. On remarque que dans les trois cas les positions trouvées ont l’air correctes. On voit également que l’algorithme travaille d’abord essentiellement sur le positionnement selon X, ce qui est normal étant donné que l’ouverture du réseau est plus élevée selon cet axe. Enfin on observe que les variations des positions au fil des itérations sont plus fortes quand l’incertitude est plus élevée, ce qui est là aussi conforme à nos attentes étant donné que l’algorithme à plus de liberté. 39
  • 41. Itération 0 5 10 15 20 25 30 35 40 45 50 Erreurmoyenne(m) 0 500 1000 1500 2000 2500 Erreur moyenne vs. n°itération Position X Itération 0 5 10 15 20 25 30 35 40 45 50 Erreurmoyenne(m) 0 500 1000 1500 Erreur moyenne vs. n°itération Position Y Incertitudes sous-évaluées Incertitudes correctement évaluées Incertitudes sur-évaluées Itération 0 5 10 15 20 25 30 35 40 45 50 Erreurmoyenne(m) 0 200 400 600 800 1000 1200 1400 Erreur moyenne vs. n° itération Position Z Itération 0 5 10 15 20 25 30 35 40 45 50 Erreurmoyenne(ms) 0 20 40 60 80 Erreur moyenne vs. n° itération T0 Figure 8.2 – Erreur moyenne pour chaque coordonnées en fonction du numéro d’itération. On observe que l’erreur moyenne diminue dans un premier temps plus vite (et quasiment de la même manière) quand les incertitudes sont évaluées correctement ou sur-évaluées. On voit également que les erreurs sur les coordonnées spatiales descendent bien plus vite que les erreurs sur la coordonnées temporelle. Comme on pouvait s’y attendre du fait de l’ouverture plus grande selon X, l’erreur moyenne selon cet axe diminue plus rapidement que les autres. Vers la 15ème itération l’erreur moyenne commence à devenir plus faible pour des incertitudes de départ sous-évaluées. Itération 0 5 10 15 20 25 30 35 40 45 50 Écarttype(m) 0 500 1000 1500 Écart type vs. n°itération - Position X Itération 0 5 10 15 20 25 30 35 40 45 50 Écarttype(m) 0 200 400 600 800 1000 Écart type vs. n°itération - Position Y Incertitudes sous-évaluées Incertitudes correctement évaluées Incertitudes sur-évaluées Itération 0 5 10 15 20 25 30 35 40 45 50 Écarttype(m) 0 200 400 600 800 1000 Écart type vs. n° itération - Position Z Itération 0 5 10 15 20 25 30 35 40 45 50 Écarttype(ms) 0 10 20 30 40 50 Écart tpe vs. n°itération - T0 Figure 8.3 – Écart type pour chaque coordonnées en fonction du numéro d’itération. Les résultats décrivent la même tendance que pour l’erreur moyenne. 40
  • 42. Chapitre 9 Inversion conjointe des modèles de vitesses et des sources sismiques À présent que nous avons testé les deux fonctionnalités de l’algorithme séparément et que nous avons obtenu des résultats satisfaisant, testons l’inversion conjointe des modèles de vitesses et des positions des sources. Le modèle de départ VP utilisé est celui présenté dans la figure 6.2. Le modèle de départ VS est obtenu avec le même ratio utilisé pour la construction du vrai modèle (0.6). Les coordonnées des sources sont perturbées de la même manière que dans l’expérience précédente (5000 m selon X, 5000 m selon Y, 3000 m selon Z et 150 ms pour T0) et les incerti- tudes associées sont correctement évaluées. Par soucis de place on ne présentera que le modèle de vitesses VP obtenu. Dans l’ensemble les résultats ne sont pas satisfaisants (9.1 et 9.2). On l’explique par le fait que les coordonnées a priori des sources sont loin des coordonnées vraies (9.3). L’expérience précédente montrait que la bonne détermination des incertitudes était importante, cette expérience montre que la bonne détermination des positions l’est tout autant. L’algorithme de prélocalisation devra donc non seulement localiser correctement les sources, mais également mini- miser les incertitudes et les quantifier correctement. Dans la prochaine expérience on testera l’algorithme de prélo- calisation en vu de l’utiliser pour une prochaine expérience, dans les même conditions que celle-ci, mais avec des coordonnées des sources a priori trouvées par l’algorithme de prélocalisation. 41
  • 43. Modèle trouvé VP (iter - 332) - coupe Y = 1000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V P (m.s-1 ) 2000 4000 6000 Modèle trouvé VP (iter - 332) - coupe Y = 2000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VP (m.s -1 ) 2000 4000 6000 Modèle trouvé VP (iter - 332) - coupe Y = 3000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VP (m.s -1 ) 2000 4000 6000 Modèle trouvé VP (iter - 332) - coupe Y = 4000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VP (m.s -1 ) 2000 4000 6000 Figure 9.1 – Coupes selon Y du modèle de vitesse VP trouvé à la fin de l’inversion. On distingue grossièrement des formes qui ressemblent aux zones importantes du modèle vrai, notamment une zone de vitesses élevées qui remonte au centre et une zone pentée à gauche qui fait penser à la rampe dans le modèle vrai. Néanmoins le modèle obtenu est grossier et certains détails sont absents, notamment la zone de faibles vitesses en forme de trapèze censée être à gauche de l’image. 42
  • 44. Différence modèle vrai/modèle trouvé VP (iter - 332) - coupe Y = 1000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V S (m.s-1 ) -500 0 500 Différence modèle vrai/modèle trouvé VP (iter - 332) - coupe Y = 2000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VS (m.s -1 ) -500 0 500 Différence modèle vrai/modèle trouvé VP (iter - 332) - coupe Y = 3000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VS (m.s -1 ) -500 0 500 Différence modèle vrai/modèle trouvé VP (iter - 332) - coupe Y = 4000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VS (m.s -1 ) -500 0 500 Figure 9.2 – Coupes selon Y de la différence entre le modèle de vitesses vrai VP et e modèle de vitesse VP trouvé à la fin de l’inversion. Comme dans la première expérience, l’erreur aux interfaces est forte. On voit également que l’erreur est grande (sup 500m.s−1 au centre du modèle, la zone de vitesses élevées qui remontent est très mal imagée, et les zones en dessous sont impactées également. Les zones en haut et en bas du modèle sont également très mal imagées, avec de fortes valeurs d’erreur. 43
  • 45. Itération 0 50 100 150 200 250 300 Erreurmoyenne(m)-Échellelog 101 102 103 104 Erreur moyenne sur les coordonnées spatiales des sources (X, Y, Z) Erreur moyenne sur X Erreur moyenne sur Y Erreur moyenne sur Z Itération 0 50 100 150 200 250 300 Erreurmoyenne(ms) 0 20 40 60 80 Erreur moyenne sur la coordonnée temporelle des sources (t0 ) Figure 9.3 – Erreur moyenne pour chaque coordonnées en fonction du numéro d’itération. On observe que les er- reurs moyenne sur les coordonnées spatiales diminuent correctement au cours du processus d’inversion. Néanmoins l’erreur moyenne finale reste élevée (≈ 100m). L’erreur moyenne sur la coordonnée t0 diminue correctement jusqu’à la 120eme itération environs, puis réaugmentent jusqu’à une valeur proche de sa valeur initiale et ne diminue plus. Itération 0 50 100 150 200 250 300 Écarttype(m)-Échellelog 101 102 103 104 Écart type sur les coordonnées spatiales des sources (X, Y, Z) Écart type sur X Écart type sur Y Écart type sur Z Itération 0 50 100 150 200 250 300 Écarttype(ms)-Échellelog 0 10 20 30 40 50 Écart type sur la coordonnée temporelle des sources (t0 ) Figure 9.4 – Écart type pour chaque coordonnées en fonction du numéro d’itération. L’écart type sur les coordonnées spatiales évolue globalement de la même facon que l’erreur moyenne. L’écart type sur la coordonnée temporelle diminue quant à lui de facon constante tout au long du processus d’inversion, à l’opposé de l’erreur moyenne. Cela signifie que bien que l’erreur moyenne que globalement les t0 des sources convergent mais que pour certaines sources, il diverge grandement. 44
  • 46. Chapitre 10 Pré-localisation des sources sismiques Nous venons de voir dans les expériences précédentes que l’algorithme n’est pas capable de retrouver un modèle de vitesse correct si les positions des sources a priori sont mauvaise et/ou que les incertitudes sur ces positions sont mal déterminées. Dans cette expérience on se propose de partir d’un modèle a priori grossier (présenté dans la figure 6.2) et de tester l’algorithme de prélocalisation pour voir si les résultats obtenus sont conformes à nos besoins. La prélocalisation des sources semble correct, même en partant d’un modèle grossier. D’autres expériences ont mon- tré qu’en partant du vrai modèle les coordonnées des sources sont parfaitement déterminées. Donc, plus le modèle de départ utilisé est proche de la réalité et mieux la prélocalisation sera. Maintenant que nous avons vérifier que l’algorithme de prélocalisation fonctionnait correctement, voyons les améliorations qu’il apporte dans l’inversion. 45
  • 47. Différence en valeur absolue(m) 0 100 200 300 400 500 600 700 800 900 1000 Nombredesource 0 5 10 15 20 Différence entre les coordonnées X vraies et les coordonnées X prélocalisées Différence en valeur absolue (m) 0 100 200 300 400 500 600 700 800 900 1000 Nombredesource 0 5 10 15 Différence entre les coordonnées Y vraies et les coordonnées Y prélocalisées Différence en valeur absolue (m) 0 100 200 300 400 500 600 700 800 900 1000 Nombredesource 0 5 10 15 20 Différence entre les coordonnées Z vraies et les coordonnées Z prélocalisées Différence en valeur absolue (ms) 0 50 100 150 200 250 300 Nombredesource 0 2 4 6 8 10 12 14 Différence entre les coordonnées t0 vraies et les coordonnées t0 prélocalisées Figure 10.1 – Histogramme des erreurs sur les prélocalisation des sources. On voit que les erreurs sont relativement faibles (< 200m) pour la plupart des sources selon les axes X et Y. La grande majorité des sources est mal localisée selon Z, on pense que l’ouverture nulle du réseau de récepteur selon cet axe en est la cause. En corrélation directe avec cette mauvaise localisation selon Z, l’erreur sur les t0 est également importante pour toute les sources. Ce comportement est normal puisque la localisation selon Z est mauvaise. Différence (m) -1000 -800 -600 -400 -200 0 200 400 600 800 1000 Nombredesource 0 5 10 15 20 Différence entre l'erreur et l'incertitude sur la coordonnée X Différence (m) -1000 -800 -600 -400 -200 0 200 400 600 800 1000 Nombredesource 0 5 10 15 20 Différence entre l'erreur et l'incertitude sur la coordonnée Y Différence (m) -1000 -800 -600 -400 -200 0 200 400 600 800 1000 Nombredesource 0 5 10 15 20 Différence entre l'erreur et l'incertitude sur la coordonnée Z Différence (ms) 0 10 20 30 40 50 60 70 80 Nombredesource 0 5 10 15 20 Différence entre l'erreur et l'incertitude sur la coordonnée t0 Figure 10.2 – Histogramme de la différence entre l’erreur réelle et l’incertitude calculée. Une différence égale à zéro signifie que l’incertitudes est correctement évaluée, si la différence en inférieur à zéro elle est sous-évaluée et si elle est supérieure elle est sur-évaluée. On voit que pour X et Y la plupart des incertitudes sont correctement évaluées ou sur-évaluées, ce qui est conforme à nos besoins. Pour t0 l’incertitude est constamment sur-évaluée, ce qui ne pose pas forcément de problème pour la suite mais ralentira la convergence de l’inversion. En revanche pour les coordonnées en Z, les incertitudes sont pour la plupart sous-évaluées. Encore une fois ce problème est à mettre sur le dos de l’ouverture nulle du réseau en Z. 46
  • 48. Figure 10.3 – Coupes de la carte des probabilités selon Z (en haut) et Y (en bas). En rouge les positions vraies des sources et en vert les positions prélocalisées. On se rend effectivement compte que la localisation selon Z est mauvaise et que les probabilités sont tirées vers le bas du modèle. Encore une fois on pense que c’est due à l’ouverture du réseau de récepteur qui est nulle selon Z. En revanche les probabilités selon X et Y sont très bien focalisées, quant bien même l’ouverture selon l’axe Y est faible. Comme on pouvait s’y attendre, les sources les mieux focalisées sont celles situées au centre du modèle car c’est à cet endroit que le réseau est le plus ouvert. Figure 10.4 – Coupes de la carte des probabilités selon Z (en haut) et Y (en bas). En rouge les positions vraies des sources et en vert les positions prélocalisées. Comparativement à la figure précédente, on remarque que la répartition des probabilités varie peu selon Y (ce qui est normal étant donné l’invariance du modèle en Y) mais varie beaucoup selon Z. Plus on est profond et moins les probabilités sont focalisées. 47
  • 49. Chapitre 11 Inversion conjointe avec pré-localisation des sources sismiques Cette expérience est calquée sur l’expérience d’inversion conjointe des modèles et des sources sismiques présentée précédemment (Chapitre 10), à la différence que les coordonnées des sources a priori ne sont plus des coordonnées perturbées manuellement mais les coordonnées calculées par l’algorithme de prélocalisation. Comme pour l’expé- rience précédente, par soucis de place on ne présentera ici que les résultats pour le modèle de vitesses VP . Par rapport à l’expérience précédente (sans utiliser l’algorithme de prélocalisation), les résultats sont meilleurs, que ce soit pour la détermination du modèle de vitesse ou sur les coordonnées spatiotemporelles des sources a posteriori. On distingue sur le modèle de vitesse VP l’ensemble des zones caractéristiques du modèle vrai. Les erreurs sur le modèle de vitesses sont plus faibles. Les erreurs sur les coordonnées spatiotemporelles a posteriori des sources sont quant à elle bien plus faibles. On peut donc dire que l’algorithme rempli correctement son rôle et permet d’apporter une information a priori sur les coordonnées des sources de qualité, et ce sans avoir forcément besoin d’un modèle de vitesse a priori précis, à condition comme on la vu avant d’avoir une ouverture du réseau de récepteur suffisante et que les sources étudiées soient captées par un nombre suffisant de récepteurs. Bien que l’algorithme semble marcher correctement, des pistes de développement sont envisagées à l’avenir. Un des aspects les plus problématique reste le temps de calcul nécessaire. L’algorithme étant gourmand en ressource il fau- drait paralléliser l’ensemble des calculs pour pouvoir faire tourner l’algorithme sur des champs de processeur. En dehors de ces problèmes purement techniques, des problèmes plus théoriques se posent également. Dans nos ex- périences on savait a priori que nos sources se trouvaient dans le domaine étudié. Dans la réalité rien n’est moins sûr, et à moins de prendre un modèle très entendu on ne peut pas écarté ce problème. Néanmoins un domaine plus étendu signifie plus de calculs et donc plus de ressources informatiques nécessaires et de temps. Pour palier à ce problème, nous avons commencé à réfléchir à l’implémentation d’une fonction double grille pour le domaine. Une grille précise (discrétisation fine) pour la zone d’étude, entourée d’une grille plus grossière. Une autre piste de dé- veloppement envisagée réside dans le fait de fixer une loi de corrélation entre les modèles VP et VS. Par exemple, pour une cellule donnée, si la vitesse VP augmente, alors la vitesse VS doit également augmenter mais ne peut pas diminuer. Pour l’instant, chaque modèle est "libre" d’évoluer comme il veut. Enfin, pour améliorer la prélocalisation, nous avons réfléchie à utiliser plusieurs modèles de vitesses tirés aléatoirement autours du modèle a priori et prenant en compte les incertitudes sur les vitesses. En combinant les probabilités calculées pour chaque modèle, on devrait pouvoir arriver à améliorer le calcul des positions et des incertitudes sur les coordonnées a priori des sources trouvées. Enfin les résultats montrent bien les perspectives que pourrait avoir le couplage de cette méthode avec la sismique active ou la sismique de puits. Ces approches permettraient de palier à la faible ouverture du réseau de récepteur selon Z et à améliorer la résolution dans les couches proches de la surface. Un développement dans ce sens pourrait être envisagé également. 48
  • 50. Modèle trouvé VP (iter - 320) - coupe Y = 1000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V P (m.s -1 ) 2000 4000 6000 Modèle trouvé VP (iter - 320) - coupe Y = 2000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 VP (m.s -1 ) 2000 4000 6000 Modèle vrai/modèle trouvé VP (iter - 320) - coupe Y = 3000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V P (m.s -1 ) 2000 4000 6000 Modèle vrai/modèle trouvé VP (iter - 320) - coupe Y = 4000 m X axis (m) 0 5000 10000 15000 20000 25000 Zaxis(m) 0 1000 2000 3000 4000 V P (m.s -1 ) 2000 4000 6000 Figure 11.1 – Coupes selon Y du modèle de vitesse VP trouvé à la fin de l’inversion. On distingue assez clairement les zones caractéristiques du modèle de vitesses vrai VP : le trapèze de faibles vitesses à gauche de l’image, la zone de vitesses élevées qui recoupe le modèle au milieu et la rampe à droite. 49