1. Séminaire interne à l’UMR 5600 Environnement Ville Société - Jeudi 29 Janvier 2015 (ENSL)
Bâtiment Recherche
SEMINAIRE ISIG – Compte Rendu de session
CAPTURE ET MESURE A DISTANCE DE DONNEES
A GRANDE ECHELLE : NOUVEAUX DEVELOPPEMENTS
JEUDI 29 JANVIER – 9H-12H
ENS de Lyon - Site Descartes
Bâtiment Recherche - R35
Ces 10 dernières années ont été propices au développement en masse des vecteurs d’acquisition
légers (drone) et à la multiplication des capteurs miniaturisés toujours plus performants (LiDAR
aéroportés ou terrestres, capteurs superspectraux ou hyperspectraux…). Alimentés par une demande
forte, sans précédent, pour les données géospatiales précises et à très haute résolution, ces systèmes
offrent de nouvelles représentations numériques de la surface topographique, une donnée essentielle
dans des domaines variés tels que l’archéologie, l’architecture, la gestion de l'environnement et des
risques naturels.
Questions soulevées lors de la table ronde
- Qu’est-ce qu’une "bonne" photographie (aérienne) au travers du temps et est-ce que la "bonne"
photographie (aérienne) d’hier sera celle de demain ?
- La course à la précision : quelles analyses de sensibilité pour évaluer la précision et les effets de cette
précision sur les résultats ? Quelles analyses de sensibilité pour évaluer l’apport de « la précision » par
rapport à son coût ? Comment formaliser la précision attendue ?
Lien entre résolution(s) et échelle de perception d‘un phénomène ?
Le mythe de la cartographie produite au 1:1, la carte parfaite, la carte qui dirait
tout, mais peut-on rendre compte exhaustivement du réel ? Une des idées
discutables avancée au début du « Big Data » est que le savoir serait dans les
données et qu'il faudrait simplement les faire parler (pas de modèle a
priori) (Anderson C., 2008, The End of Theory: The Data Deluge Makes the Scientific
Method Obsolete, WIRED, 2008). Cette idée est généralement mise en opposition
avec la nécessité d’une « Big Theory ». Mais que signifie « Big Theory » ? La réponse
serait peut-être à chercher dans les systèmes complexes (voir par exemple le travail
sur les Vélov’). Un séminaire avec les physiciens travaillant à faire parler des
données sociales ?
A l’heure actuelle, plus qu’une question d’échelle du phénomène, de disponibilité et
de coût, la notion de précision n’est-elle pas exclusivement à relier aux possibilités de
traitement de la donnée (dans un temps défini) ?
Avons-nous les moyens (de traitement) de nos ambitions (de précision) ? Qu’est-ce
qui justifie cet intérêt pour une précision toujours plus grande ? Est-ce que cette
course à la précision va s'arrêter ? Qu'est-ce qui peut limiter son développement, son
intérêt ?
Quand on regarde les thèses rédigées ces dernières années, beaucoup ont exploité
2. Séminaire interne à l’UMR 5600 Environnement Ville Société - Jeudi 29 Janvier 2015 (ENSL)
Bâtiment Recherche
la donnée IGN (notamment la BD ORTHO) parce que facilement accessible et parce
qu’ils souhaitaient évaluer les potentialités de cette donnée pour identifier /
délimiter / caractériser certains phénomènes et/ou objets dans une recherche très
appliquée. La conséquence, c’est qu’indirectement cette donnée, qui est devenue
une référence (pour les gestionnaires notamment), offre un point de vue particulier
d’un espace et celui-là définit indirectement les objets d’intérêt à priori. Dans les
faits, est-ce la résolution spatiale qui définit les objets d’étude ou est-ce les objets
d’étude qui définissent la résolution spatiale ?
- Les limites de la précision : on observe une course à la précision « a priori », sans s’inquiéter des
usages. Il n’y a pas une précision, mais une précision pour un usage. Il faudrait établir une démarche
associée aux données pour évaluer le bon cadre d’usage.
- Dans les grandes organisations et les projets scientifiques complexes, les échelles de référence, les
exigences de résolution et les tolérances de précision sont multiples en fonction des services ou des
volets du projet. Les spécifications sont donc à élaborer non pas pour chaque usage isolé mais en
fonction des chaînes d’usage concourant à un produit final.
- N’y aurait-il pas une précision d’intérêt général (de l’ordre du dm, voire du cm) puis, quand on passe
à une résolution inférieure au millimètre, une précision limité à des usages bien particuliers moins
scientifiques (au sens environnement, géographie et territoire) et plus techniques et en lien avec le
risque et le droit ?
- Nécessité de définir les objets d’études en amont pour identifier la résolution optimale et
l’automatisation de cette identification des objets.
- Comment distinguer dans la multi-temporalité les changements liés à la mesure de ceux liés au
phénomène lui-même. Qu’est-ce qui relève du changement et qu’est-ce qui relève du changement de
résolution (= ou de changement de point de vue ?). La question est d’autant plus générale que de
nouveaux capteurs apparaissent au cours du temps et ces derniers multiplient les référentiels de
données dès lors que l’on entend procéder à des historiques et rétrospectives.
- A noter : pour le moment, nous collectons énormément de données THRS, mais nous avons un
temps de retard important en ce qui concerne les chaines de traitement. A terme, vise-t-on à
s’affranchir complètement de la phase de collecte de données sur le terrain ? Quelles seraient les
conséquences de cet affranchissement ?
- Question plus philosophico-organisationnelle : une des justifications de l’emploi des captures
« automatiques » des données à grande échelle (G. Curt pour la SNCF, O. Barge pour l’Archéologie)
est le gain de temps par rapport aux méthodes manuelles (il y en a d’autres : voir la réalité
différemment, repérer des phénomènes qui seraient passés inaperçus) mais le fait d’aller plus vite est
souvent avancé comme un objectif poursuivi. A quoi sert le temps gagné : faire d’autres tâches qui
n’étaient pas assumées, couvrir des zones plus larges, réduire le temps de mission, comprimer le
personnel ? Les questions organisationnelles et socio-économiques ne doivent pas être oubliées, y
compris dans le domaine de la recherche.