Osmose est un outils qualité disponibles afin de détecter les erreurs et incohérences des données Openstreetmap. Il est également utile pour intégrer des données OpenData.
Formation à l'utilisation des données OpenStreetMap.
Explication du modèle de données et du système de tags.
Extraction de données OpenStreetMap brutes ou formatées, intégration des données dans une base de données (PostGIS) et utilisation dans un SIG (QGis). Requêtes avec Overpass Turbo.
Formation à l'utilisation des données OpenStreetMap.
Explication du modèle de données et du système de tags.
Extraction de données OpenStreetMap brutes ou formatées, intégration des données dans une base de données (PostGIS) et utilisation dans un SIG (QGis). Requêtes avec Overpass Turbo.
OpenStreetMap propose un modèle attributaire de plus en plus riche pour cartographier les réseaux d'utilité. Panorama de la communauté, son fonctionnement et sa contrbution aux enjeux du domaine des réseaux d'utilités
Presentation OpenStreetMap (OSM) au Pole Numerique de la Drome le 06 Juillet ...quicky_osm
An Openstreetmap introduction for Pole Numerique of Drome (France) done on 6th July 2012.
Une introduction a Openstreetmap realisee pour le Pole Numerique de la Drome le 6 Juillet 2012
Bano est une base d'adresses composite à partir des meilleures sources disponibles (et libres).
L'objectif est de proposer une couverture la plus étendue possible, la plus homogène possible.
Bien sûr à son démarrage BANO ne sera pas exhaustive, ni parfaite (quelles données sont parfaites ?) et fonctionnera dans l'esprit "release early, release often" cher au monde de l'open-source.
Il s'agit donc d'un projet ouvert et collaboratif ou toutes les bonnes volontés sont les bienvenues pour apporter des données, des outils, du code, des ressources matérielles, de la matière grise !
Publication des données publiques (Open Data), WCF Data Services, ODataMicrosoft Ideas
Les institutions publiques, dans un soucis de décloisonnement, de lisibilité et de transparence de l’action publique, cherchent à rendre leurs données accessibles aux citoyens. Le mouvement Open Data à la base d’innovations sociales et économiques dans la réutilisation des données ainsi libérées se combine bien avec une approche RESTful qui a largement pris le pas sur SOAP en termes de services Web. Dans ce cadre, le protocole ouvert de données OData se fonde sur les standards du Web pour rendre accessible une source de données depuis une très large variété de langages, d’environnements, d’applications, de services et de places de marché. OData précise certains points laissés à la discrétion du développeur de façon à ce qu'on ait une encore meilleure cohérence au moins sur la plateforme Microsoft. Cette session montre, dans le cadre du mouvement Open Data, comment OData peut être concrètement mis en œuvre, entre autres sur la plateforme Windows Azure.
Le Web sémantique est-il un n-ième standard de représentation des données ou une nouvelle façon d’aborder la recherche d’information ?
L'utilisation du terme « Sémantique » a souvent été porteur de confusions donnant à penser que le Web sémantique visait la compréhension du langage naturel par les machines. Même si les objectifs réels du Web sémantique semblent en réalité éloignées des techniques du traitement automatique de la langue, les technologies du Web sémantique n'en restent pas moins intéressantes pour les solutions d'accès et de recherche d'information. En effet, celles-ci sont déployée dans des contextes de plus en plus complexes mêlant données structurées et données non structurées et, dans ce cadre, les technologies du Web sémantique permettent de résoudre de nombreux problèmes de par le cadre d'interopérabilité et l'écosystème de standards et d'outils qu'elles offrent.
Impliqués depuis plusieurs années dans le domaine, nous montrerons comment les technologies du Web sémantique aide les équipes Antidot à mieux gérer, traiter et valoriser les données de leurs clients. Dans cette présentation, nous parcourrons une palette assez large de manipulations des objets sémantiques pratiquées couramment dans nos réalisations et basées sur les technologies du Web sémantique.
Nous illustrerons notre exposé par des réalisations concrètes et nous montrerons en quoi l’utilisation du Web sémantique nous a épargné des heures de développements spécifiques et nous a permis d’adresser des problématiques de plus en plus complexes.
Nous aborderons notamment l’extension sémantique, la navigation par facette, la mise en relation de silos d’informations hétérogènes, l’alignement des données sur des référentiels, l’utilisation du Web des données et d’autres techniques originales que nous avons développées pour la nouvelle version d’AFS.
L’exploitation d’OSM par l’AURH et ses avantages pour le projet européen « We...Jean-François MARY
FR: Cette communication a pour but de montrer l’exploitation de la donnée OpenStreetMap par notre agence d’urbanisme dans le cadre du projet européen « Weastflows » (2011-2015) dédié au transport et à la logistique dans l’Europe du Nord-Ouest. La méthode géomatique a consisté en une sélection adaptée et cohérente de la donnée géographique dans huit pays de l’Europe du Nord-Ouest, puis à son exploitation cartographique dans un atlas, aujourd’hui en ligne et première pierre de l’extranet GeoWeastflows.
EN: The OpenStreetMap dataset is currently being applied by Le Havre and Seine Estuary town planning agency in the “Weastflows” European project (2011-2015). OpenStreetMap is used for freight transport and logistics. It requires a geomatic approach which begins with the selection and retrieval of basic information concerning the transport infrastructures in eight countries of North West Europe and extends with the atlas of fifty maps and now available online on the extranet “Geoweastflows”.
Suivi des modifications des données OpenStreetMap sur 380 garesAntoine Riche
Conférence State of the Map France le 4 juin 2017 : présentation de la procédure de suivi des modifications des données OpenStreetMap sur les 380 gares d'Ile-de-France de SNCF Transilien.
Pérennisation et mise à disposition des données de l’Observatoire de recherch...Lesticetlart Invisu
Pérennisation et mise à disposition des données de l’Observatoire de recherche méditerranéen de l’environ nement (OSU-OREME)
Juliette Fabre et Olivier Lobry [OSU-OREME - CNRS]
Cartography: Vector Tiles From an Open Initiative To an Industry StandardFrédéric Rodrigo
Vector tiles allow you to create interactive maps on the web. They come from a need of a free and competitive solution again Google Maps(c). After several iterations, they are now becoming a standard and are already a standard in the web mapping industry, for free ecosystem but also beyond. This presentation reviews the history, functionality and adoption of vector tiles.
OpenStreetMap propose un modèle attributaire de plus en plus riche pour cartographier les réseaux d'utilité. Panorama de la communauté, son fonctionnement et sa contrbution aux enjeux du domaine des réseaux d'utilités
Presentation OpenStreetMap (OSM) au Pole Numerique de la Drome le 06 Juillet ...quicky_osm
An Openstreetmap introduction for Pole Numerique of Drome (France) done on 6th July 2012.
Une introduction a Openstreetmap realisee pour le Pole Numerique de la Drome le 6 Juillet 2012
Bano est une base d'adresses composite à partir des meilleures sources disponibles (et libres).
L'objectif est de proposer une couverture la plus étendue possible, la plus homogène possible.
Bien sûr à son démarrage BANO ne sera pas exhaustive, ni parfaite (quelles données sont parfaites ?) et fonctionnera dans l'esprit "release early, release often" cher au monde de l'open-source.
Il s'agit donc d'un projet ouvert et collaboratif ou toutes les bonnes volontés sont les bienvenues pour apporter des données, des outils, du code, des ressources matérielles, de la matière grise !
Publication des données publiques (Open Data), WCF Data Services, ODataMicrosoft Ideas
Les institutions publiques, dans un soucis de décloisonnement, de lisibilité et de transparence de l’action publique, cherchent à rendre leurs données accessibles aux citoyens. Le mouvement Open Data à la base d’innovations sociales et économiques dans la réutilisation des données ainsi libérées se combine bien avec une approche RESTful qui a largement pris le pas sur SOAP en termes de services Web. Dans ce cadre, le protocole ouvert de données OData se fonde sur les standards du Web pour rendre accessible une source de données depuis une très large variété de langages, d’environnements, d’applications, de services et de places de marché. OData précise certains points laissés à la discrétion du développeur de façon à ce qu'on ait une encore meilleure cohérence au moins sur la plateforme Microsoft. Cette session montre, dans le cadre du mouvement Open Data, comment OData peut être concrètement mis en œuvre, entre autres sur la plateforme Windows Azure.
Le Web sémantique est-il un n-ième standard de représentation des données ou une nouvelle façon d’aborder la recherche d’information ?
L'utilisation du terme « Sémantique » a souvent été porteur de confusions donnant à penser que le Web sémantique visait la compréhension du langage naturel par les machines. Même si les objectifs réels du Web sémantique semblent en réalité éloignées des techniques du traitement automatique de la langue, les technologies du Web sémantique n'en restent pas moins intéressantes pour les solutions d'accès et de recherche d'information. En effet, celles-ci sont déployée dans des contextes de plus en plus complexes mêlant données structurées et données non structurées et, dans ce cadre, les technologies du Web sémantique permettent de résoudre de nombreux problèmes de par le cadre d'interopérabilité et l'écosystème de standards et d'outils qu'elles offrent.
Impliqués depuis plusieurs années dans le domaine, nous montrerons comment les technologies du Web sémantique aide les équipes Antidot à mieux gérer, traiter et valoriser les données de leurs clients. Dans cette présentation, nous parcourrons une palette assez large de manipulations des objets sémantiques pratiquées couramment dans nos réalisations et basées sur les technologies du Web sémantique.
Nous illustrerons notre exposé par des réalisations concrètes et nous montrerons en quoi l’utilisation du Web sémantique nous a épargné des heures de développements spécifiques et nous a permis d’adresser des problématiques de plus en plus complexes.
Nous aborderons notamment l’extension sémantique, la navigation par facette, la mise en relation de silos d’informations hétérogènes, l’alignement des données sur des référentiels, l’utilisation du Web des données et d’autres techniques originales que nous avons développées pour la nouvelle version d’AFS.
L’exploitation d’OSM par l’AURH et ses avantages pour le projet européen « We...Jean-François MARY
FR: Cette communication a pour but de montrer l’exploitation de la donnée OpenStreetMap par notre agence d’urbanisme dans le cadre du projet européen « Weastflows » (2011-2015) dédié au transport et à la logistique dans l’Europe du Nord-Ouest. La méthode géomatique a consisté en une sélection adaptée et cohérente de la donnée géographique dans huit pays de l’Europe du Nord-Ouest, puis à son exploitation cartographique dans un atlas, aujourd’hui en ligne et première pierre de l’extranet GeoWeastflows.
EN: The OpenStreetMap dataset is currently being applied by Le Havre and Seine Estuary town planning agency in the “Weastflows” European project (2011-2015). OpenStreetMap is used for freight transport and logistics. It requires a geomatic approach which begins with the selection and retrieval of basic information concerning the transport infrastructures in eight countries of North West Europe and extends with the atlas of fifty maps and now available online on the extranet “Geoweastflows”.
Suivi des modifications des données OpenStreetMap sur 380 garesAntoine Riche
Conférence State of the Map France le 4 juin 2017 : présentation de la procédure de suivi des modifications des données OpenStreetMap sur les 380 gares d'Ile-de-France de SNCF Transilien.
Pérennisation et mise à disposition des données de l’Observatoire de recherch...Lesticetlart Invisu
Pérennisation et mise à disposition des données de l’Observatoire de recherche méditerranéen de l’environ nement (OSU-OREME)
Juliette Fabre et Olivier Lobry [OSU-OREME - CNRS]
Cartography: Vector Tiles From an Open Initiative To an Industry StandardFrédéric Rodrigo
Vector tiles allow you to create interactive maps on the web. They come from a need of a free and competitive solution again Google Maps(c). After several iterations, they are now becoming a standard and are already a standard in the web mapping industry, for free ecosystem but also beyond. This presentation reviews the history, functionality and adoption of vector tiles.
This document summarizes Osmose-QA, an open-source tool for quality assurance of OpenStreetMap data. It uses analyzers running on the OSM database to detect issues. It can also integrate external open data sources like OpenData and Mapillary to identify discrepancies between OSM and other datasets. MapCSS is supported for writing validation rules, with the rules compiled and run by Osmose-QA. A common validation language and shared rule repository are proposed to improve collaboration.
Automatic Enhancement of Pedestrian Route using extracted Landmarks from OSMFrédéric Rodrigo
Replacing the classics “Turn right after the bakery” by more natural language and incorporating landmarks, to allow users to move in and around stations with more confidence, is still only a research topic. SNCF Innovation & Research has entrusted Makina Corpus with the implementation of the state of the art in this field. The objective is to improv it on an indoor/outdoor pedestrian route calculator under development.
Anything that can be used as a landmark is extracted from OpenStreetMap and then categorized and classified. The landmarks are then evaluated to annotate the route: relevance, visibility, relative position.... The SNCF context has the particularity of having to deal with transition between indoor and outdoor.
Annoter automatiquement un itinéraire piéton avec des repères issus d'OSMFrédéric Rodrigo
Remplacer les classiques « Continuez sur 200 m puis tournez à gauche » par des indications en langage plus naturel et intégrant des repères, pour permettre aux usagers de se déplacer dans et autour des gares avec plus de confiance, n’est encore qu’un sujet de l’ordre de la recherche. SNCF Innovation & Recherche a confié à Makina Corpus l’implémentation de l’état de l’art dans ce domaine. L’objectif est de l’expérimenter sur un calculateur d’itinéraire piéton indoor/outdoor en cours de développement.
Tout ce qui peut servir de repère est extrait d’OpenStreetMap puis catégorisé et classé. Les repères sont ensuite évalués pour annoter l’itinéraire : pertinence, visibilité, position relative... Le contexte de la SNCF a la particularité de devoir traiter des espaces de transition entre l’indoor et l’outdoor.
Dernières avancées d'Osmose-QA : reprise des analyses pour réduire le temps de traitement et passage à Docker pour faciliter les contributions au projet. Mais surtout le nouveau support des MapCSS du validateur JOSM pour mettre en place un framework de validation commun. Osmose prend désormais en charge les règles de validation MapCSS de JOSM et les règles Osmose-QA peuvent également être en partie écrites en MapCSS pour être utilisé dans JOSM.
OSRM (Open Source Routing Machine) est un calculateur d'itinéraire utilisant les données d'OSM. Son approche est d'être rapide, au détriment historiquement de la flexibilité. Mais il commence à avoir plus fonctionnalités tout en restant très rapide. De plus il peut être personnalisé pour coller à d'autres besoins : retour d'expérience et d'expérimentation sur le support de profils de vitesses différents en fonction du contexte, d'options comme utiliser ou non les autoroutes ou encore de calcul d'isochrones.
Et si on participait tous ensemble comme collecteur de l'état du trafic routier de façon libre. Extrêmement peu de données de trafic sont disponibles librement. Aujourd'hui seules de grandes compagnies sont capables d'agréger les informations collectées et de produire des informations sur le trafic. Chaque fourmi que nous sommes peut être un capteur pour produire un flux libre de données trafic. La solution technique existe déjà : c'est "Open Traffic", mais il faut l'alimenter.
This document summarizes Open Source Routing Machine (OSRM), an open-source routing engine. It describes how OSRM uses algorithms like Dijkstra and A* to calculate fastest routes. It also outlines OSRM's API endpoints for routing, matrix, and other functions. Finally, it discusses OSRM's usage in production systems and potential future improvements.
This document discusses integrating open data into OpenStreetMap using analyzers. It describes a class for merging college data from a French open data source into OSM. The class loads college location and attribute data from a CSV file, selects relevant OSM elements to compare, and generates proposals to add missing or update existing colleges.
Osmose QA is a quality assurance tool that analyzes OpenStreetMap data to detect issues using over 200 rules. It provides interactive maps and reports to help identify missing data, errors, and suggest improvements. The tool splits analysis of OpenStreetMap data among over 70 countries and regions to allow for localized knowledge and practices. It also integrates third-party open data sources like postal office locations in France to detect discrepancies between OpenStreetMap and the additional datasets.
Osmose is a quality assurance tool for OpenStreetMap that has been running since 2008. It consists of backend analyzers that process OSM data to detect errors, and a frontend website that displays errors to contributors. The analyzers check for issues like unclosed areas, invalid tags, and inconsistencies. Errors are categorized and can be viewed on a map. Osmose integrates data from sources like OpenData and Wikipedia to help validate features. It runs regularly on different regions to identify new errors and track fixes over time.
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
De l'IA comme plagiat à la rédaction d'une « charte IA » à l'université
L'état de l'Osmose
1. SotM-France 2014
L'état de l'Osmose
Erreur reportée à Paris le 05-04-2014
Frédéric Rodrigo <frederic@carte-libre.fr>
(c)left 2014 - CC-BY-SA v3.0
http://osmose.openstreetmap.fr
2. Osmose ?
Outil qualité
Analyse des données
Détection d'erreurs à l'aide de règles
Détection de données manquantes depuis de
l'OpenData
Proposition de correction et d'intégration
4. Backend - Analyses
Analyses
– Règles sur les tags d'un objet
● Majuscule, références...
– Règles spatiales en SQL ou multi-objets
● Rond-point à l'envers, voie non connectée...
– Comparaison avec OpenData
● Écoles, postes, arrête de bus...
Plus de 200 analyses
– 40 demandes sur le trac
5. Backend – Nouvelles analyses
Wikipédia : validation tag, rapprochement
Contre sens cyclable sans sens unique
Problème sur relations de restriction
Sens des cours d'eau
Parking sur la voirie
Codes postaux
Intégrations OpenData : service public,
adresses, OpenAquiMap
...
6. Backend - Régions
Découpage : analyses traitement spécifiques
– Langues
– Metaphone
– Pays
– Projections
→ statistiques
Découpage en « régions » : France, Italie et Belgique
Pays où activation HOT, petit pays (extract), Afrique...
→ Besoin de plus de serveurs
→ Essaimage vers les communautés locales
8. Backend - Moteur
Analyse « sax » sur pbf
Analyses SQL sur bases Osmosis
Jenkins : ordonnancement des analyses
Test unitaires
9. Backend – En avant
Traduction des erreurs dans Osmose et sur le Wiki
Longue TODO liste sur le trac
– Évolution et nouvelles analyses
Internationalisation et localisation des analyses
– Langues
– Connaissance générales locales : ref, OpenData,
sources, pratiques OSM...
11. Frontend - Interface
Réécriture en Leaflet
– Recherche et géolocalisation
– Panneau pliable
– Interface responsive
Connexion Oauth via osm.org
Carte de couverture Osmose
Filtres : gravité, thématique, fix, item…
Éditeur de tags
12. Frontend - Popup
1. Description de l'erreur
2. Les éléments fautifs
3. Liste des tags
4. Liens de zone
5. Boutons
6. corrections suggérées
7. Changement de statut de l'erreur : corrigé, faux
positif
13. Frontend – Éditeur de tags
→ Projet OpenAquiMap
Modification OSM directement depuis Osmose
Édition de tags
uniquement
Application de « fix »
14. Frontend – Mobile
→ Projet OpenAquiMap
Interface qui s'adapte aux tablettes et smartphones
Géolocalisation du terminal
Affichage des erreurs avec « fix » pour l'éditeur de
tags
Localisation des erreurs nécessitant une visite sur
place : « fix:survey »
→ localisation et correction d'erreur depuis le terrain
19. Frontend – En avant
Interface en anglais, français, italien et
néerlandais
Connexion à Maproulette
Plus d'intégration avec l'OpenData
– Intégration entrante et sortante